Categoria: Intelligenza Artificiale

In questa categoria troverete articoli su Intelligenza Artificiale e Machine Learning, soprattutto su come queste tecnologie stanno evolvendosi, con esempi concreti

  • Evoluzione della IA Generativa, da Grok a ChatGPT Turbo

    Evoluzione della IA Generativa, da Grok a ChatGPT Turbo

    L’IA generativa non è più solo una chatbot, è molto di più. Il lancio di Grok di xAI, insieme a ChatGPT Turbo rappresentano una evoluzione che impone oggi una seria riflessione sulle implicazioni che l’IA generativa più avere su larga scala.

    In un mondo in cui la tecnologia si evolve a passi da gigante, l’intelligenza artificiale (IA) si è affermata come una delle forze più trasformative del nostro tempo. Non più relegata alle pagine di romanzi di fantascienza o ai laboratori di ricerca. L’IA generativa ha fatto irruzione nella vita quotidiana, promettendo di rivoluzionare ogni aspetto della nostra esistenza. Dalle auto che si guidano da sole alle assistenti virtuali che gestiscono le nostre case, l’IA sta ridefinendo il concetto di automazione e interazione uomo-macchina. 

    Un futuro che è già presente. E porta a fare delle considerazioni di tipo economico, sociale ed etico per comprendere meglio quello che sta per arrivare.

    Il recente OpenAI Day ha segnato un momento storico in questa rapida evoluzione. Con l’annuncio di ChatGPT Turbo, un’innovazione che promette di accelerare ulteriormente l’integrazione dell’IA nella società. Questo sviluppo segue il lancio di Grok da parte di xAI, un altro pioniere nel campo dell’IA generativa. Grok ha introdotto nuove possibilità di interazione e comprensione tra umani e macchine. Qui esploreremo il panorama attuale dell’IA generativa, delineando come queste tecnologie stanno plasmando il nostro futuro. 

    Mentre ci avventuriamo in questa nuova era, è essenziale comprendere non solo le capacità tecniche di sistemi come Grok e ChatGPT Turbo. Ma anche il contesto più ampio in cui queste innovazioni stanno emergendo. In questo contesto vedremo come Grok e ChatGPT Turbo rappresentano i più recenti balzi in avanti in questo campo dinamico. E certamente da qui inizia una nuova era dell’IA generativa sempre più performante e precisa.

    evoluzione IA generativa grok chatgpt franzrusso

    Il panorama attuale dell’IA Generativa 

    L’IA generativa ha superato il semplice riconoscimento di immagini e testo, evolvendo in sistemi capaci di creare contenuti, risolvere problemi complessi e interagire con gli utenti in modi sempre più sofisticati. Questo campo si è espanso per includere la generazione di linguaggio naturale, la creazione di arte e musica, e persino la simulazione di dialoghi umani. Con ogni innovazione, l’IA generativa si avvicina sempre di più a replicare la complessità e la creatività umana. E in alcuni casi anche l’emotività.

    Grok: la promessa di xAI, e di Elon Musk

    Grok, sviluppato da xAI, rappresenta un salto qualitativo nell’IA generativa. Con i suoi 33 miliardi di parametri, mira a simulare la curiosità innata e le capacità di apprendimento simili a quelle umane. Grok è progettato per interagire e comprendere con un livello di profondità e naturalezza senza precedenti.

    Come chatbot AI, risponde a domande e fornisce insight su una vasta gamma di argomenti, sfruttando la piattaforma X (quella che un tempo era Twitter) per un accesso in tempo reale a informazioni globali. Il suo lancio segna il primo rilascio pubblico di xAI nel settore degli strumenti di IA generativa.

    Il nome “Grok” fa riferimento al romanzo di fantascienza “Guida galattica per autostoppisti” di Douglas Adams. Qui “grok” significa comprendere qualcosa in modo profondo e intuitivo. 

    Va anche detto che il termine informale grok è stato un’invenzione dello scrittore di fantascienza Robert A. Heinlein, il cui romanzo di fantascienza del 1961 Straniero in terra Straniera attribuiva grande importanza al concetto di grokking. Nel libro, grok significa entrare in empatia così profondamente con gli altri da fondersi o fondersi con loro.

    Elon Musk ha introdotto Grok come la sua risposta a ChatGPT, con l’obiettivo di competere nel campo dell’intelligenza artificiale. Grok è progettato per rispondere alle domande con uno spirito arguto e ha un carattere ribelle. Molto in linea con lo spirito della “Guida galattica per autostoppisti”. E in linea con il suo fondatore, Elon Musk.  

    ChatGPT Turbo: l’Innovazione di OpenAI 

    OpenAI, noto per il suo lavoro pionieristico nell’IA conversazionale, ha recentemente annunciato ChatGPT Turbo durante l’OpenAI Day. Questa nuova interazione del modello GPT-4 è stata migliorata con funzionalità avanzate. Come una finestra di contesto più ampia e una maggiore efficienza dei costi.

    ChatGPT Turbo è stato progettato per essere più veloce, più intuitivo e più accessibile, rendendolo un’opzione attraente per gli sviluppatori e le aziende che cercano di integrare l’IA nelle loro operazioni. 

    ChatGPT Turbo fa riferimento a una versione ottimizzata dei modelli GPT-3.5 e GPT-4 per le interazioni via chat. OpenAI ha sviluppato l’API di completamento chat, che utilizza il Chat Markup Language (ChatML), come metodo preferito e unico per accedere a questi modelli più avanzati, inclusa la versione GPT-4 Turbo.

    Il modello gpt-3.5-turbo è il più capace ed economico della famiglia GPT-3.5 ed è stato ottimizzato per le chat utilizzando l’API Chat completions, ma è adatto anche per compiti di completamento tradizionali. Durante il DevDay, Sam Altman, CEO di OpenAI, ha annunciato la nuova versione avanzata del modello ChatGPT chiamata GPT-4 Turbo, che presenta una maggiore capacità di gestione del contesto. 

    GPT-3.5 Turbo offre agli sviluppatori un modello stabile raccomandato, con la flessibilità di scegliere una versione specifica del modello. Ad esempio, è stata rilasciata la versione gpt-3.5-turbo-0301, che sarà supportata fino almeno al 1° giugno, e ci saranno aggiornamenti futuri per mantenere il modello stabile e aggiornato. 

    Inoltre, OpenAI ha riferito che ChatGPT ha raggiunto 100 milioni di utenti attivi settimanali e ha lanciato il nuovo modello di intelligenza artificiale GPT-4 Turbo per gli sviluppatori, capace di analizzare oltre 300 pagine di testo. Queste innovazioni mostrano l’impegno di OpenAI nel migliorare costantemente le capacità e la portata dei suoi modelli di linguaggio AI.  

    Confronto tra Grok e ChatGPT Turbo 

    Mentre Grok si concentra sulla comprensione profonda e sull’apprendimento, ChatGPT Turbo si distingue per la sua velocità e la sua capacità di gestire un contesto più ampio.

    confronto Grok ChatGPT 4 franzrusso.it
    Grafico di @lvntblsn

    Grok potrebbe eccellere nell’adattamento e nella personalizzazione. Mentre ChatGPT Turbo potrebbe essere la scelta migliore per applicazioni che richiedono risposte rapide e precise su larga scala. Entrambi i sistemi rappresentano il vertice dell’IA generativa, ma con filosofie e punti di forza distinti. 

    Il grafico in alto mette a confronto le due intelligenze, subito dopo il lancio di Grok. E quindi subito prima del lancio di ChatGPT Turbo. Potrebbe quindi non contenere più informazioni aggiornate, ma resta comunque utile per avere un’idea di confronto.

    Il futuro dell’IA Generativa 

    Il futuro dell’IA generativa è ricco di potenzialità, un dato fuor di dubbio. Con l’accelerazione del progresso tecnologico, possiamo aspettarci che l’IA diventi più integrata nella vita quotidiana. Capace di offrire soluzioni personalizzate e migliorando l’efficienza in vari settori.

    La sfida sarà garantire che queste tecnologie siano sviluppate in modo etico e responsabile, con una considerazione attenta per l’impatto sulla società e sull’occupazione. 

    L’annuncio di ChatGPT Turbo da parte di OpenAI e il lancio di Grok da parte di xAI rappresentano momenti significativi nella storia dell’IA generativa.

    Mentre queste tecnologie continuano a evolversi, è chiaro che stiamo entrando in una nuova era dell’intelligenza artificiale. Una nuova era che promette di ridefinire il nostro rapporto con la tecnologia e di ampliare i confini di ciò che è possibile.

    Il futuro dell’IA è non solo brillante ma anche imprevedibile. Sta a noi navigare in questo futuro con cura e attenzione. 

    Di certo, serve lavorare anche da punto di vista della regolamentazione di questo fenomeno, talmente veloce e potente. E con altrettanta forza e velocità, serve intervenire perché questi strumenti restino tali. E che non diventino occasioni per riempire dei vuoti che saranno difficili da governare.

    Quasi sempre di fronte a tali innovazioni è facile perdere la bussola del ragionamento, abbandonandosi in tutto e per tutto. Lo abbiamo già visto coi social media: da strumenti di comunicazioni in poco tempo sono diventati anche contenitori di esistenze. E i risultati sono sotto gli occhi si tutti.

    Ma adesso la posta in gioco è ancora più alta. Serve attenzione, misura, concentrazione, curiosità e responsabilità, oltre che consapevolezza.

    Dimostriamo a noi stessi di aver imparato la lezione e cominciamo a governare questo fenomeno, prima che questi finiscano per governare le nostre esistenze.

  • Il ritorno dei Beatles grazie anche all’IA

    Il ritorno dei Beatles grazie anche all’IA

    I Beatles tornano con “Now and Then”, una canzone completata grazie all’intelligenza artificiale. Ecco la storia dietro questa traccia e come la tecnologia ha dato nuova vita alla musica.

    Oggi questa data va ricordata perché segna il ritorno dei Beatles. Il leggendario gruppo di Liverpool, formato da John Lennon, Paul McCartney, George Harrison e Ringo Starr ritorna oggi a fare musica insieme. Grazie anche all’intelligenza artificiale. E l’occasione è stata il lancio di una “nuova canzone”, come non accadeva dal 1995.

    La traccia, intitolata “Now and Then”, non è solo un tributo allo straordinario talento del gruppo. È anche un esempio brillante di come la tecnologia di oggi possa dare nuova vita alla musica.

    beatles canzone now and then IA franzrusso.it

    Il ritorno inatteso dei Beatles

    La storia dietro la produzione di “Now and Then” è davvero affascinante ed emozionante. Paul McCartney e Ringo Starr, gli unici membri viventi della band, hanno utilizzato la tecnologia di apprendimento automatico per assemblare una traccia finita da una vecchia registrazione “lo-fi” di John Lennon. Questa demo, che risale agli anni ’70, era rimasta incompleta a causa di problemi tecnici.

    Malgrado tutto, grazie alle innovazioni tecnologiche, è stato possibile separare la voce di Lennon dal pianoforte, eliminare i rumori di sottofondo. Questo ha permesso ai Beatles rimanenti di aggiungere la loro magia.

    La magia dell’IA nella Musica

    Il software di apprendimento automatico, sviluppato dal team del regista Peter Jackson per il documentario “Get Back”, ha permesso di separare la voce di Lennon dal pianoforte senza alcuna sovrapposizione o degradazione della qualità.

    Questo ha dato a Paul McCartney e Ringo Starr la possibilità di aggiungere nuovi elementi musicali alla traccia, completandola. La stessa tecnica avanzata è stata poi utilizzata per dare vita a “Now and Then”. Il passato e il presente uniti in un’armonia perfetta.

    beatles canzone now and then IA franzrusso.it

    In sintesi, possiamo dire che l’intelligenza artificiale e l’apprendimento automatico (ML, machine learning) hanno giocato un ruolo cruciale nel restauro e nel miglioramento delle vecchie registrazioni dei Beatles per il documentario “Get Back”. Lo stesso è valso anche per la realizzazione di “Now and Then”. Si tratta di tecnologie che hanno permesso di superare le sfide tecniche.  E dare vita a un’esperienza audiovisiva di alta qualità che rende omaggio all’eredità dei Beatles.

    L’impresa di oggi non solo celebra l’eredità dei Beatles. Apre anche la porta a infinite possibilità per la musica del passato. Con la tecnologia moderna, vecchie registrazioni possono essere restaurate e rivitalizzate, permettendo alle nuove generazioni di apprezzare la magia della musica in modi mai immaginati prima.

    L’eredità dei Beatles nell’Era Digitale

    “Now and Then” potrebbe essere davvero l’ultimo saluto dei Beatles. Il loro spirito e la loro innovazione continueranno a vivere. Continuando ad ispirare artisti e appassionati di musica in tutto il mondo. E, come sempre, i Beatles ci ricordano che la musica è eterna, proprio come il loro leggendario talento.

    Dove ascoltare la nuova canzone dei Beatles

    Potete ascoltare la nuova canzone dei Beatles sulle piattaforme di streaming, con supporto per il mix Atmos dove supportato. La si può ascoltare su Spotify, YouTube, Apple Music. E poi, sempre da oggi, è disponibile un documentario “Now and Then” su Disney Plus che racconta i momenti in cui Paul McCartney e Ringo Starr hanno contribuito a lavorare sulla canzone.

    Ascoltatela perché è davvero un viaggio musicale straordinario.

  • L’IA generativa e la rivoluzione nel Marketing

    L’IA generativa e la rivoluzione nel Marketing

    L’intelligenza artificiale generativa sta trasformando diversi ambienti, incluso il mondo del marketing. Per cercare di comprendere meglio come l’IA può essere di aiuto alle aziende, ecco tre esperti che condividono le loro visioni.

    Nell’era digitale contemporanea, l’intelligenza artificiale (IA) sta emergendo come una forza trainante anche per il mondo del marketing. L’IA generativa sta rivoluzionando il modo in cui le aziende interagiscono con i clienti, creano contenuti e prendono decisioni strategiche. Ci troviamo in un momento cruciale in cui l’IA generativa sta definendo lo scenario tra presente e futuro del marketing.

    Questa tecnologia offre opportunità senza precedenti per personalizzare la comunicazione, ottimizzare le campagne pubblicitarie e persino rivoluzionare i motori di ricerca. E, come ogni innovazione, porta con sé sfide e domande sul suo impatto anche sul marketing.

    Ma come vedono il futuro del marketing attraverso l’uso dell’IA generativa gli esperti del settore? Tre professori di importanti università italiane hanno condiviso le loro opinioni in un approfondimento realizzato da Giorgia Pisano, Gartner.

    IA generativa e Marketing, il parere degli esperti

    Francisco Villarroel, Università LUISS Guido Carli:
    Quando si parla di IA generativa, una delle domande più frequenti è se in futuro la maggior parte dei contenuti sarà creata dall’IA piuttosto che dall’uomo. Secondo Villarroel, questo è un futuro molto probabile. Già oggi si notano algoritmi che decidono quali contenuti visualizzare. Il passo successivo sarà la creazione di tali contenuti. Tuttavia, sottolinea l’importanza della supervisione umana, essenziale per garantire l’efficacia dell’IA, soprattutto nella preparazione e nella valutazione del contenuto generato.

    IA generativa e la rivoluzione nel Marketing franzrusso.it

    Andreina Mandelli, SDA Bocconi:
    La dott.ssa Mandelli evidenzia come l’IA generativa stia diventando parte integrante dei processi aziendali. Le aziende devono monitorare l’evoluzione di questa tecnologia per sfruttarla al meglio. La tecnologia crea valore quando è utilizzata per generare efficienza o per creare nuove risorse strategiche, come dati e insight utili per comprendere e servire al meglio i clienti.

    Guido Di Fraia, Università Iulm:
    Il dott. Di Fraia fornisce esempi pratici di come l’IA generativa possa essere utilizzata nelle strategie di marketing. Ad esempio, nella fase di awareness, le imprese possono utilizzare l’IA per raggiungere il target specifico. Questo permette di evitare sprechi di tempo e risorse. Nell’email marketing, l’IA può creare email personalizzate; mentre negli A/B test può aiutare a evitare bias, offrendo soluzioni più efficaci basate su test reali sui clienti.

    L’IA Generativa: opportunità e sfide per le aziende

    Mentre ci avviciniamo a un futuro sempre più digitalizzato, l’importanza dell’IA generativa nel panorama del marketing non può essere sottovalutata.

    Secondo un articolo di Salesforce, l’IA generativa ha il potenziale di fornire bozze in pochi secondi. Questo permetterebbe alle aziende di produrre contenuti in modo più efficiente e mirato. Questa capacità di generare contenuti rapidamente e accuratamente può rivoluzionare il modo in cui le aziende interagiscono con i loro clienti.

    Ancora, come sottolineato da Capterra, l’IA generativa può apportare contributi significativi in tutte le fasi del processo di marketing, dalla conversione all’awareness. Questa tecnologia non solo offre alle aziende strumenti avanzati per ottimizzare le loro strategie, ma anche la possibilità di innovare e adattarsi rapidamente ai cambiamenti del mercato.

    L’innovazione tecnologica continua a progredire e l’IA generativa emerge come uno strumento fondamentale per le aziende. Una tecnologia che si rivela fondamentale in ottica di competitività.

    Sebbene tutti riconoscono la capacità della IA e le sue potenzialità, è essenziale che le aziende ricordino il valore insostituibile dell’intervento e della creatività umana. Insieme, tecnologia e ingegno umano possono dare vita strategie di marketing davvero rivoluzionarie, centrando le esigenze del cliente in modi assolutamente innovativi.

    [L’immagine di copertina è stata generata da ChatGPT di OpenAI con DALL·E 3]

  • Dall-E 3 di OpenAI è ora disponibile gratis per tutti su Bing

    Dall-E 3 di OpenAI è ora disponibile gratis per tutti su Bing

    Microsoft porta DALL-E 3 di OpenAI su Bing, disponibile gratuitamente per tutti. L’evoluzione di DALL-E offre immagini creative e fotorealistiche con un modello più grande e una migliore capacità generativa.

    Microsoft ha annunciato che l’ultimo modello Dall-E 3 di OpenAI è ora disponibile gratuitamente per tutti gli utenti di Bing Chat e Bing Image Creator. Si tratta di un importante aggiornamento per il generatore di immagini all’interno della chat di Bing alimentato dall’intelligenza artificiale, che ora è in grado di generare immagini più creative e fotorealistiche.

    Dall-E 3 è la terza versione del modello di generazione di immagini di OpenAI. La società di Redmond afferma che comprende le richieste molto meglio di prima. E può creare immagini più creative e molto più fotorealistiche.

    Lo strumento è anche progettato per essere molto più facile da usare, cosa che possiamo confermare dalla nostra veloce prova.

    dall-e 3 gratis bing image creator franzrusso.it

    Dall-E 3 è dunque integrato in Bing Image Creator e arriverà su ChatGPT durante questo mese. Su ChatGPT sarà a pagamento.

    Microsoft vuole comunque andare avanti con il processo di integrazione degli strumenti. E infatti è in programma lo sviluppo di uno strumento di creazione di immagini AI nell’app Paint chiamata Paint Cocreator che porterà il modello Dall-E direttamente dentro Windows.

    Cosa cambia con DALL-E 3, le caratteristiche

    Oltre alle nuove funzionalità e miglioramenti, Dall-E 3 presenta anche una serie di differenze tecniche rispetto alla versione precedente.

    Ecco le principali:

    • Dimensione del modello: DALL-E 3 ha un modello più grande di DALL-E 2, con 1,6 trilioni di parametri rispetto ai 12 miliardi di DALL-E 2. Questo significa che DALL-E 3 è in grado di generare immagini più realistiche e complesse.
    • Tecnologia di generazione: DALL-E 3 utilizza una nuova tecnologia di generazione chiamata Diffusion Models, che è più efficiente e produce immagini di migliore qualità.
    • Capacità di modifica: DALL-E 3 è in grado di modificare le immagini esistenti, mentre DALL-E 2 era in grado solo di generare immagini nuove.

    DALL-E 3 per tutti su Bing, la prova

    Dalla nostra breve prova, possiamo affermare che DALL-E 3 aderisce quasi fedelmente a istruzioni (prompt) complesse. Infatti, DALL E 3 può rappresentare accuratamente scene con oggetti specifici.

    Dall-E 2 spesso rendeva immagini con evidenti dettagli artefatti.

    Nella nostra prova abbiamo usato prompt molto veloci e quasi basici. Tipo: “cane che fa il bagno in una cascata“, oppure “una donna che passeggia a New York con capelli castani“; o ancora, “uomo che dimentica di fare backup“; e poi ancora, “uomo che passeggia a new york“.

    Il risultato è evidentemente superiore rispetto all’esperienza precedente.

    Un particolare che abbiamo notato è che quando Dall-E 3 si imbatte nella realizzazione di una immagine con un testo, questo viene adesso scritto in maniera quasi corretta e leggibile. A differenza di Dall-E 2 che spesso creava testi illeggibili.

    Dunque, l’introduzione di Dall-E 3 all’interno di Bing evidenzia momento fondamentale per la tecnologia di generazione di immagini AI, e Microsoft non vuole perdere l’occasione. Soprattutto con la crescita di potenziali concorrenti come Google, con Bard, Midjourney e Stability AI.

    Dall-E 3, attenzione agli aspetti etici

    Come abbiamo già detto, lo strumento è ora disponibile a un pubblico più ampio e offre una serie di nuove funzionalità e miglioramenti. Tra cui una dimensione del modello più grande, una nuova tecnologia generativa e la capacità di modificare le immagini esistenti.

    Grande attenzione per tutto ciò che riguarda l’aspetto etico dell’utilizzo di strumenti come questi. Questo per i rischi che si corrono, di cui si è molto discusso con i modelli precedenti. L’azienda si dice impegnata nel rispetto dei diritti d’autore, della privacy e della sicurezza degli utenti.

    Microsoft, inoltre, afferma di aver implementato dei meccanismi per prevenire la generazione di immagini inappropriate o offensive. Inoltre, afferma di monitorare costantemente le opinioni degli utenti al fine di migliorare il servizio.

    [L’immagine di copertina è stata realizzata con Bing Image Creator con tecnologia Dall-E 3]

  • Spotify lancia la traduzione vocale dei podcast con OpenAI

    Spotify lancia la traduzione vocale dei podcast con OpenAI

    Spotify lancia la traduzione vocale per i podcast. In collaborazione con OpenAI, sarà possibile avere una traduzione vocale in più lingue. In questa fase di lancio è coinvolto un ristretto gruppo di podcaster con la traduzione dall’inglese allo spagnolo all’interno di episodi disponibili da oggi.

    Per chi fa podcast la possibilità di poter raggiungere un pubblico sempre più ampio è una delle tante ambizioni. Specialmente la possibilità di poter raggiungere persone di altre nazioni. Ma, come potete immaginare, non è semplice poter registrare un episodio in lingue diverse.

    Ed è proprio su questo punto che Spotify ha indirizzato il suo interesse, forte del fatto che ad oggi sono oltre 100 milioni le persone che ascoltano podcast sulla piattaforma di Daniel Ek, un dato che è in crescita.

    Infatti, Spotify ha collaborato con un gruppo di podcaster per tradurre i loro episodi in dall’inglese allo spagnolo con il suo nuovo strumento, e ha in programma di implementare le traduzioni in francese e tedesco nelle prossime settimane.

    Gli episodi pilota arriveranno da alcuni grandi nomi, tra cui Dax Shepard, Monica Padman, Lex Fridman, Bill Simmons e Steven Bartlett. Spotify prevede di espandere il gruppo andando ad includere The Rewatchables di The Ringer e il prossimo spettacolo di Trevor Noah.

    Ma in che modo Spotify riesce a garantire la traduzione del parlato dei podcast?

    spotify traduzione vocale openai franzrusso

    La funzionalità della traduzione è resa possibile grazie allo strumento di trascrizione vocale di OpenAI, Whisper, che può sia trascrivere il parlato inglese che tradurre altre lingue in inglese.

    Lo strumento di Spotify va oltre la traduzione da parlato a testo: la funzione tradurrà un podcast in una lingua diversa e lo riprodurrà con una versione sintetizzata della voce dei podcaster.

    L’intelligenza artificiale alla base dello strumento, attraverso il processo di traduzione e di elaborazione della voce, sarà in gradi di avvicinarsi allo stile del podcaster.

    Tutto questo, secondo Spotify, si traduce in una “esperienza di ascolto più autentica” che diventa “più personale e naturale rispetto al doppiaggio tradizionale“.

    Gli episodi tradotti a voce dai creatori del progetto pilota di Spotify saranno disponibili per l’ascolto sulla piattaforma in tutto il mondo.

    I primi episodi inizieranno a essere distribuiti all’interno della visualizzazione “In riproduzione” a partire da questo lunedì 25 settembre, inizialmente in spagnolo. Le traduzioni in francese e tedesco verranno implementate nelle prossime settimane.

    Come dicevamo all’inizio, attualmente Spotify ha più di 100 milioni di ascoltatori di podcast a livello globale, e più di 5 milioni di titoli di podcast disponibili in oltre 170 mercati.

    E proprio oggi OpenAI ha fatto alcuni annunci, tra i quali il lancio di uno strumento in grado di creare “audio simile a quello umano solo da testo e pochi secondi di discorso campione“. OpenAI afferma che sta intenzionalmente limitando la diffusione di questo strumento a causa delle preoccupazioni relative alla sicurezza e alla privacy che questo strumento comporta.

    Probabilmente, è questo uno dei motivi per cui Spotify afferma che la tecnologia di traduzione per ora viene testata solo attraverso un “gruppo selezionato” di podcaster.

    Al momento, Spotify non ha fornito altri dettagli su come intende rendere disponibile lo strumento o quando aspettarsi un’espansione.

    Intanto, possiamo tranquillamente dire che con questo si è fatto un notevole passo in avanti sull’utilizzo dell’intelligenza artificiale per la voce, in ottica massiva.

  • Se anche i rilevatori di scrittura AI fanno confusione

    Se anche i rilevatori di scrittura AI fanno confusione

    I rilevatori di scrittura AI sono strumenti promettenti per identificare il testo generato da AI, ma presentano ancora sfide significative. Possono produrre falsi positivi e possono essere influenzati dai pregiudizi degli esseri umani.

    Nell’era della intelligenza artificiale generativa, scatenata dall’arrivo, a fine 2022, di ChatGPT, il sistema AI ideato da OpneAI, il tema centrale resta la generazione dei testi e come usare questi strumenti nella maniera più efficace possibile.

    Si tratta di un tema non da poco, ma va detto che questi strumenti possono essere molto utili, se maneggiati con cura e attenzione, evitando di affidarsi completamente a ciò che realizzano. Infatti, è molto facile incorrere in situazioni imprecise, non corrette che rischiano di alimentare false notizie, disinformazione.

    Tutto questo lo si può evitare se si accorda un livello di attenzione molto alto e un’attività adeguata di verifica delle informazioni, per evitare, come dicevamo prima, di essere diffusori di notizie non vere.

    Ma come? Stiamo parlando di intelligenza artificiale, sistemi molto complessi e precisi, perché bisogna apprestare attenzione ulteriore? Domande lecite, ma fino ad un certo punto. E questo perché questi sistemi, molto spesso, non sono aggiornatissimi e non sono precisi nel rilasciare testi.

    Apparentemente sembrano esaustivi, ma con un po’ di attenzione ci si accorge che le informazioni contenute nel testo possono essere imprecise.

    rilevatori scrittura AI confusione franzrusso.it

    E questo dipende dai sistemi non aggiornati, appunto, e anche dalle richieste (prompt) che vengono rivolte alla AI. Una domanda o una richiesta posta male, porta la AI a rilasciare una informazione non corretta.

    Il tema che vogliamo trattare adesso riguarda quelli che si chiamano rilevatori di scrittura AI, ossia dei sistemi, a loro volta costituiti da sistemi AI, che aiutano a comprendere se il testo che state leggendo da un sito, un blog o un giornale online è stato redatto da un umano o da una intelligenza artificiale.

    Stiamo parlando quindi di sistemi che possono sbagliare, non sono infallibili infatti e, anche questi, sono da usare con molta cautela.

    I rilevatori di scrittura AI rappresentano strumenti interessanti per identificare il testo generato da una AI, ma presentano ancora sfide significative. I rilevatori esistenti sono ancora per lo più inaffidabili e possono essere facilmente superati nel parafrasare un testo o altri situazioni.

    Come funzionano i rilevatori di scrittura AI?

    I rilevatori di scrittura AI funzionano identificando caratteristiche linguistiche che sono più comuni nel testo generato da AI rispetto al testo scritto dagli umani. Ad esempio, i rilevatori di scrittura AI possono cercare parole o frasi comuni nel testo generato da AI, come “Questo articolo è stato generato da AI” o “Questo articolo è stato scritto da un modello di linguaggio“. Questi strumenti possono anche cercare strutture di frasi o modelli di punteggiatura che sono più comuni nel testo generato da AI rispetto al testo scritto dagli umani.

    Quali sono i limiti dei rilevatori di scrittura AI?

    Questi strumenti, come dicevamo prima, presentano una serie di limiti. Innanzitutto, i rilevatori esistenti sono poco affidabili.

    Ad esempio, se un essere umano parafrasasse il testo generato da AI, il rilevatore di scrittura AI potrebbe non riuscire a rilevare che il testo è stato generato da AI. In secondo luogo, i rilevatori di scrittura AI sono stati messi sotto accusa mostrando pregiudizi contro i non madrelingua inglesi.


    LEGGI ANCHE:

    Su Internet si parla per lo più Inglese, un rischio per l′AI


     

    Questo perché i rilevatori di scrittura AI sono addestrati su set di dati di testo che sono in gran parte composti da testo scritto da madrelingua inglesi. Di conseguenza, i rilevatori di scrittura AI possono essere più propensi a identificare il testo scritto da non madrelingua inglesi come generato da AI, anche se non lo è.

    A proposito della lingua inglese molto presente vi invitiamo a leggere anche questo articolo proprio su questo tema.

    Come dicevamo, i rilevatori di scrittura AI sono uno strumento promettente per identificare il testo generato da AI, ma presentano ancora sfide significative. Uno dei problemi che si sta presentando, di frequente, è che possono produrre dei “falsi positivi”, ciò significa che possono identificare il testo scritto da esseri umani come scritto da AI.

    Si tratta di una situazione che può accadere per una serie di motivi, tra cui la somiglianza tra il testo scritto da esseri umani e il testo scritto da AI, e il fatto che i rilevatori di scrittura AI possono essere addestrati su set di dati di testo che non sono rappresentativi di tutti i tipi di testo scritto da esseri umani.

    Un recente esempio di un “falso positivo”, di cui negli Usa si è molto parlato, si è verificato quando un rilevatore di scrittura AI – GPTZero – ha definito il testo della Costituzione degli Stati Uniti come se fosse stato scritto da una intelligenza artificiale generativa.

    Un caso impossibile, ovviamente, per il fatto che, come tutti sappiamo, la Costituzione degli Stati Uniti è stata scritta da esseri umani nel 1787. Da gente come Benjamin Franklin, per intenderci. Pare che casi simili abbiano riguardato anche porzioni di testo presi dalla Bibbia a fatti analizzare da questi rilevatori.

    In ogni caso, per provare a capire meglio cosa può succedere in casi come questi, il rilevatore di scrittura AI è stato in grado di generare un falso positivo perché il testo della Costituzione degli Stati Uniti è scritto in un linguaggio chiaro e conciso, che è simile al linguaggio che viene spesso utilizzato dai modelli di apprendimento automatico.

    Questo esempio, come tanti altri, dimostra che i rilevatori di scrittura AI non sono perfetti e che dovrebbero essere utilizzati con estrema cautela. Non dovrebbero essere utilizzati come sostituti del giudizio umano e non dovrebbero essere utilizzati per prendere decisioni importanti senza effettuare, opportunamente, ulteriori verifiche.

    Migliorare i rilevatori di scrittura AI

    C’è una serie di cose che può essere fatta per migliorare i rilevatori di scrittura AI. Prima di tutto, i rilevatori di scrittura AI possono essere addestrati su set di dati di testo più grandi e diversificati. Questo potrebbe aiutare a ridurre i pregiudizi nei rilevatori di scrittura AI.

    In secondo luogo, possono essere sviluppati nuovi metodi per rilevare il testo generato da AI che non si basa esclusivamente sulle caratteristiche linguistiche. Ad esempio, i rilevatori di scrittura AI possono essere addestrati a rilevare modelli di comportamento degli utenti che sono più comuni quando gli utenti interagiscono con testi generati da AI rispetto ai testi scritti dagli umani.

    Infine, i rilevatori di scrittura AI possono essere adattati per tenere conto dei pregiudizi esistenti. Ad esempio, possono essere addestrati a dare un peso inferiore al testo scritto da non madrelingua inglesi.

    Il futuro dei rilevatori di scrittura AI

    I rilevatori di scrittura AI hanno il potenziale per migliorare l’affidabilità e l’efficienza di una varietà di attività, tra cui la verifica di fatto, la valutazione dell’originalità e il rilevamento della disinformazione. Continuando a sviluppare e migliorare questi strumenti, possiamo sfruttare il potere dell’IA per rendere l’attività generativa sicuramente più affidabile e sicura. Vedremo se davvero sarà così.

  • Meta regala la sua tecnologia AI per battere ChatGPT

    Meta regala la sua tecnologia AI per battere ChatGPT

    Meta ha reso open-source il suo grande modello linguistico LLaMA 2 ed entra in competizione con ChatGPT. LLaMA 2 è stato addestrato su un dataset di testo e codice molto più grande di ChatGPT.

    Meta ha reso open-source il suo modello linguistico in collaborazione con Microsoft. La società di Mark Zuckerberg ha annunciato che sta rendendo libero il suo modello linguistico chiamato LLaMA 2, rendendolo gratuito per l’uso commerciale e di ricerca e puntando ad entrare in sfida con GPT-4 di OpenAI, che alimenta strumenti come ChatGPT e Microsoft Bing.

    Meta ha annunciato questo momento molto importante per l’azienda in occasione dell’evento Microsoft Inspire, il grande evento di Microsoft dedicato ai partner, sottolineando il suo supporto per Azure e Windows e una “crescente” collaborazione tra le due società.

    Allo stesso tempo, Microsoft ha rivelato maggiori dettagli sugli strumenti AI integrati nella sua piattaforma 360 e quanto costeranno.

    Qualcomm ha anche annunciato che sta lavorando con Meta per portare LLaMA su laptop, telefoni e visori a partire dal 2024 in poi per le app alimentate dall’intelligenza artificiale che funzionano senza fare affidamento sui servizi cloud.

    Meta AI LLaMA 2 open source franzrusso.it

    Il comunicato di Meta spiega la decisione di aprire LLaMA come un modo per dare alle imprese, alle startup e ai ricercatori accesso a più strumenti di intelligenza artificiale, consentendo l’esperimento come comunità. Secondo Meta, LLaMa 2 è stato addestrato su un 40% di dati in più rispetto a LLaMa 1, che include informazioni da “fonti online pubblicamente disponibili“. Dice anche che “supera” altri LLM come Falcon e MPT per quanto riguarda ragionamento, codifica, competenza e test di conoscenza.

    Aprendo LLaMA, Meta ha dichiarato che vuole migliorare la sicurezza e la trasparenza. La società ha affermato che il modello LLaMA 2 è stato “red-teamed”, o testato per la sicurezza generando “richiami ad avversari per facilitare la messa a punto del modello“, sia internamente che esternamente. Meta divulga anche come vengono valutati e modificati i modelli e ha detto anche che il modello LLaMA 2 open-source sarà disponibile tramite la piattaforma Azure di Microsoft.

    La società madre di Facebook ha detto che LLaMA sarà disponibile anche tramite AWS, Hugging Face e altri provider. “Crediamo che un approccio aperto sia quello giusto per lo sviluppo dei modelli di intelligenza artificiale odierni, specialmente in quello generativo in cui la tecnologia sta progredendo rapidamente“, ha affermato Meta in una dichiarazione. “L’apertura all’accesso ai modelli di intelligenza artificiale odierni significa che una generazione di sviluppatori e ricercatori può stressarli, identificando e risolvendo i problemi rapidamente, come comunità“.

    Dopo questo annuncio, è naturale aspettarsi che più persone abbiano accesso a LLaMA 2, siamo quindi destinati a vedere nuovi strumenti basati sull’intelligenza artificiale costruiti su questo modello. Meta afferma di aver ricevuto già oltre 100.000 richieste da parte di ricercatori per utilizzare il suo primo modello, ma la LLaMA 2 open-source avrà probabilmente una portata ben più alta.

    Meta ha rilasciato LLaMa 2 per la ricerca e l’uso commerciale, in un tentativo di battere ChatGPT, un modello linguistico simile realizzato da OpenAI.

    LLaMa 2 è stato addestrato su un dataset di testo e codice molto più grande di ChatGPT, il che gli conferisce una maggiore capacità di generare testo di qualità umana. Inoltre, LLaMa 2 è stato progettato per essere più sicuro e trasparente di ChatGPT.

    Meta spera che LLaMa 2 diventerà lo standard di fatto per i modelli linguistici, sostituendo ChatGPT e altri modelli simili. Il rilascio di LLaMa 2 è un significativo passo avanti nello sviluppo dell’intelligenza artificiale, e segnerà probabilmente l’inizio di un’era di modelli linguistici più potenti e sofisticati.

  • Microsoft, ecco il Copilot AI per Microsoft 365 a 30 dollari

    Microsoft, ecco il Copilot AI per Microsoft 365 a 30 dollari

    Microsoft annuncia il costo del Copilot per Microsoft 365 potenziato con IA: 30 dollari per utente aziendale. E poi, è in fase di rilascio Bing Chat Enterprise, versione del chatbot IA dedicata alla privacy.

    In occasione dell’evento Microsoft Inspire dedicato ai partner, il colosso di Redmond ha annunciato il prezzo di quello che è il Copilot per Microsoft 365 potenziato con intelligenza artificiale (IA).

    La suite di strumenti di IA contestuali, frutto della partnership con OpenAI, costerà 30 dollari per utente per gli account aziendali. Inoltre, l’azienda lancerà Bing Chat Enterprise, una versione del chatbot IA orientata alla privacy, con una sicurezza potenziata per gestire dati aziendali sensibili.

    Rivelato a marzo, Microsoft 365 Copilot rappresenta la visione di Microsoft del futuro del lavoro. La suite di strumenti alimentata da GPT-4 permette di generare contenuti per Office utilizzando semplici comandi di testo in linguaggio naturale.

    Si può chiedere a PowerPoint, ad esempio, di creare una presentazione basata su un documento Word, generare una proposta a partire dai dati di un foglio di calcolo o riassumere email e redigere risposte in Outlook, il tutto digitando semplici comandi.

    Basando le risposte sui dati aziendali, come documenti, email, calendari, chat, riunioni e contatti, e combinandoli con il contesto lavorativo – la riunione in corso, le email scambiate su un argomento, le chat della scorsa settimana – Copilot fornisce risposte più ricche, pertinenti e praticabili alle vostre domande“, ha scritto in un annuncio di oggi Frank X. Shaw, Chief Communications Officer di Microsoft.

    Microsoft ha iniziato a testare Copilot con un piccolo gruppo di partner aziendali selezionati all’inizio di quest’anno, ma non ha ancora annunciato quando tutti i clienti aziendali avranno accesso.

    Microsoft Copilot Microsoft 365 AI 30 dollari franzrusso.it

    Il costo di 30 dollari al mese sarà applicato ai clienti Microsoft 365 E3, E5, Business Standard e Business Premium. L’azienda non ha ancora annunciato il prezzo o la disponibilità di Copilot rivolto a tutti gli altri utenti, quelli non aziendali quindi.

    Bing Chat Enterprise è la variante di Microsoft del popolare chatbot IA, più orientata alla sicurezza, che è stata lanciata per i consumatori a febbraio. “Dopo il lancio del nuovo Bing a febbraio, abbiamo ricevuto feedback da molti clienti aziendali entusiasti di potenziare le loro organizzazioni con nuovi potenti strumenti IA, ma preoccupati che i dati delle loro aziende potrebbero non essere protetti“, ha scritto Shaw. “Ecco perché oggi annunciamo Bing Chat Enterprise, che offre alle organizzazioni una chat alimentata da IA per il lavoro con la protezione dei dati commerciali. Ciò che entra e ciò che esce rimane protetto, dando ai clienti commerciali accesso gestito a risposte migliori, maggiore efficienza e nuovi modi di essere creativi“.

    Bing Chat Enterprise inizia a essere rilasciato da oggi in anteprima – senza costi aggiuntivi – per i clienti Microsoft 365 E5, E3, Business Premium e Business Standard. Inoltre, l’azienda prevede di rendere disponibile il chatbot orientato alle imprese come un’opzione di abbonamento standalone da 5 dollari “in futuro”.

  • Elon Musk lancia xAI, la sua nuova società di intelligenza artificiale

    Elon Musk lancia xAI, la sua nuova società di intelligenza artificiale

    Elon Musk ha lanciato una nuova società di intelligenza artificiale chiamata xAI. La società si propone di rivaleggiare con OpenAI, Microsoft e Google. Musk ha previsto che un’IA più intelligente degli umani sarà realtà tra cinque o sei anni.

    Elon Musk, già proprietario di Twitter e CEO di SpaceX e Tesla, ha ufficialmente lanciato la sua nuova impresa nel settore dell’intelligenza artificiale. Si chiama xAI e si presenta come potenziale competitor di colossi dell’IA come OpenAI, Microsoft e Google (proprio Bard arriva in Italia da oggi).

    xAI è qui per capire la realtà,” così Musk ha annunciato su Twitter, la piattaforma di social media di sua proprietà. Musk aveva costituito l’azienda di IA in Nevada a marzo, reclutando ricercatori nel tentativo di creare un rivale per OpenAI, la compagnia che ha lanciato ChatGPT. Musk ha criticato ChatGPT definendolo e ha avvertito che potrebbe portare l’IA a diventare troppo potente per essere controllata dagli umani.

    La rapida scalata di ChatGPT (100 milioni di utenti in 5 giorni) ha scatenato un vortice di interesse da parte degli investitori nel settore dell’IA. Microsoft, che aveva stretto una partnership con OpenAI, ha poi preferito andare a fondo con la partnership a gennaio con un investimento pluriennale di diversi miliardi di dollari. Google, parte del colosso Alphabet, ha cercato di tenere il passo, rilasciando il proprio chatbot, Bard che, come ricordavamo all’inizio, è finalmente disponibile anche in Italia.

    xAI intelligenza artificiale elon musk franzrusso.it

    La visione di Elon Musk per l’IA

    Durante un spazio live su Twitter, Elon Musk ha presentato la nuova società e la sua visione per l’IA, espremendo il suo sostegno alla regolamentazione governativa dell’IA. Ha, inoltre, suggerito l’idea di una cooperazione internazionale con il governo cinese sulla tecnologia dell’IA.

    Se potessi mettere in pausa l’IA o l’IA superintelligente, lo farei. Ma non sembra realistico,” ha detto Musk. E ancora, il CEO di Tesla crede sia possibile “far crescere” un’IA curiosa riguardo all’umanità e all’universo, e che non sia pericolosa. Musk ha previsto che un’IA più intelligente degli umani sarà realtà tra cinque o sei anni, una tempistica più breve rispetto a quella prevista dalla maggior parte dei ricercatori in Intelligenza Artificiale.

    Durante lo space, Musk ha accolto con favore la supervisione governativa e ha detto di aver avuto recentemente conversazioni con alti funzionari del governo cinese riguardo ai rischi dell’IA e alla regolamentazione.

    Il Futuro dell’Intelligenza Artificiale

    La competizione nell’IA è ora feroce. Google, Microsoft e altre grandi aziende tecnologiche hanno da anni investito miliardi di dollari nella ricerca sull’IA, integrando le loro scoperte in prodotti esistenti come Google Search o per rendere i loro data center più efficienti. L’anno scorso, OpenAI ha suscitato una nuova ondata di entusiasmo attorno alla tecnologia rilasciando ChatGPT direttamente ai consumatori, permettendo loro di vedere gli avanzamenti nell’IA.

    Durante l’evento Twitter Spaces, Musk ha affermato che ci vorrà del tempo prima che xAI raggiunga il livello di OpenAI e Google. Ha inoltre parlato a lungo del suo recente viaggio in Cina, dove ha incontrato alti funzionari governativi e leader aziendali. Ha affermato di credere che la Cina stia regolamentando aggressivamente la propria industria dell’IA e che abbia avvertito i funzionari governativi che un’IA super intelligente potrebbe sottrarre il controllo del paese al Partito Comunista Cinese.

    Il difficile problema di Taiwan una volta risolto, spero che ci saranno relazioni positive tra Cina e Stati Uniti,” ha detto Musk. “Probabilmente avremo una strada accidentata tra ora e allora.

    Curiosità. La storia di Musk con la lettera X risale a molto tempo fa. La sua ex startup di servizi bancari online, X.com, è poi diventata PayPal.

    Nonostante le sfide, Elon Musk rimane deciso a plasmare il futuro dell’intelligenza artificiale con la sua nuova compagnia, xAI, portando la competizione nel settore dell’IA a un nuovo livello.

    Vedremo se riuscirà. Certamente, se decidesse di occuparsi solo di IA e la smettesse di occuparsi di Twitter sarebbe pure meglio.

  • Yann LeCun riceve la laurea ad honorem dall′Università di Siena

    Yann LeCun riceve la laurea ad honorem dall′Università di Siena

    Il celebre informatico Yann LeCun, figura chiave nell’IA, riceverà il 3 luglio una laurea ad honorem dall’Università di Siena, in riconoscimento dei suoi innovativi contributi per l’evoluzione dell’intelligenza artificiale e dell’apprendimento automatico.

    Yann LeCun, celebre figura nell’intelligenza artificiale e apprendimento automatico, riceverà il 3 luglio 2023 una laurea honoris causa dall’Università di Siena. Il riconoscimento si svolgerà durante l’International Workshop on Neural-Symbolic Learning and Reasoning, alle 11.30 alla Certosa di Pontignano.

    Le motivazioni per questo onore saranno presentate dal Prof. Valerio Vignoli, direttore del Dipartimento di Ingegneria dell’Informazione e Scienze Matematiche dell’Università di Siena. Il Prof. Marco Gori, docente dello stesso dipartimento, terrà invece la laudatio.

    Yann LeCun è riconosciuto per i suoi contributi nell’apprendimento automatico, visione artificiale, robotica e neuroscienze computazionali. Attualmente, LeCun è impegnato presso Meta AI e la New York University negli Stati Uniti.

    yann lecun intelligenza artificiale università siena franzrusso.it

    Yann LeCun è un rispettato informatico e ingegnere francese, conosciuto per i suoi innovativi contributi all’apprendimento automatico, visione artificiale, robotica e neuroscienze computazionali.

    Nato il 8 luglio 1960 a Soisy-sous-Montmorency, in Francia, ha ottenuto un dottorato in Ingegneria delle Informazioni presso l’Università Pierre et Marie Curie di Parigi nel 1987. LeCun è famoso per il suo lavoro sulle reti neurali convoluzionali (CNNs) e sul backpropagation, entrambi concetti chiave nell’apprendimento profondo.

    Nel 2012, ha fondato il Center for Data Science presso la New York University, dove ha svolto un ruolo vitale nella formazione della prossima generazione di ricercatori IA.

    Dal 2013, LeCun è Chief AI Scientist presso Facebook, dove ha co-fondato e guidato l’unità di ricerca Meta AI (FAIR), mantenendo contemporaneamente la sua posizione presso la New York University come professore a tempo parziale.

    LeCun ha ricevuto numerosi riconoscimenti per il suo lavoro, tra cui il prestigioso Premio Turing nel 2019, condiviso con Yoshua Bengio e Geoffrey Hinton per il loro lavoro pionieristico sull’apprendimento profondo. LeCun è noto per la sua visione aperta sulla tecnologia e per il suo impegno a promuovere la ricerca interdisciplinare.