Categoria: Intelligenza Artificiale

In questa categoria troverete articoli su Intelligenza Artificiale e Machine Learning, soprattutto su come queste tecnologie stanno evolvendosi, con esempi concreti

  • Lo scontro tra Musk e Altman e il futuro della IA

    Lo scontro tra Musk e Altman e il futuro della IA

    Elon Musk tenta di acquisire OpenAI con un’offerta ostile da 97,4 mld$, ma Sam Altman la rifiuta nettamente. Tra rivalità, cause legali e strategie, lo scontro diretto tra i due è destinato a peggiorare. In mezzo c’è il controllo della IA.

    Quando ieri, 10 febbraio 2025, in Italia era serata inoltrata è arrivata l’ennesima mossa di Elon Musk. A scriverne per primo è stato il Wall Street Journal.

    Il miliardario ha annunciato un’offerta ostile da 97,4 miliardi di dollari per acquisire la società no-profit che controlla OpenAI.

    Una mossa che arriva in un contesto già molto teso e che, in realtà, ha radici profonde nella rivalità tra Musk e Sam Altman, attuale CEO di OpenAI.

    Ma facciamo un passo indietro per capire meglio cosa sta succedendo.

    Il progetto AI di Trump senza Musk

    Lo scorso 21 gennaio 2025, il presidente degli Stati Uniti Donald Trump ha annunciato il progetto “Stargate”, un’iniziativa da 500 miliardi di dollari per lo sviluppo di infrastrutture dedicate all’intelligenza artificiale. Il progetto vede la partecipazione di OpenAI, SoftBank, Oracle e altre grandi realtà tecnologiche, con l’obiettivo di costruire una rete di data center avanzati che sosterranno lo sviluppo dell’IA nei prossimi anni.

    Lo scontro tra Musk e Altman e il futuro della IA
    Annuncio del progetto Stargate

    La conferenza alla Casa Bianca ha visto protagonisti Sam Altman, Larry Ellison e Masayoshi Son, ma Elon Musk non era presente. Un’assenza che ha fatto molto discutere, considerando il ruolo che Musk ha oggi e che avuto in passato nella creazione di OpenAI.

    Secondo diverse fonti, questa esclusione sarebbe stata percepita come un affronto dal CEO di Tesla e SpaceX, spingendolo a rispondere con un’offerta ostile per acquisire il controllo di OpenAI.

    L’offerta ostile e la risposta tagliente di Sam Altman

    Elon Musk ha quindi deciso di tentare un vero colpo di mano con un’offerta da 97,4 miliardi di dollari per acquisire il controllo della no-profit OpenAI Inc., che sovrintende l’azienda a scopo di lucro OpenAI LP.

    La proposta è stata rapidamente respinta da Sam Altman, che ha risposto su X (ex Twitter) con una provocazione:

    “No grazie, se vuoi compriamo Twitter a 9,74 miliardi di dollari.”

    Un chiaro riferimento all’acquisizione della piattaforma da parte di Musk per 44 miliardi di dollari nel 2022 e un modo per sminuire l’offerta.

    Lo scontro tra Musk e Altman e il futuro della IA
    Lo scontro tra Musk e Altman e il futuro della IA

    Cosa si intende per offerta ostile

    Un’offerta d’acquisto ostile è una proposta di acquisizione di una società fatta contro la volontà del suo consiglio di amministrazione. In altre parole, l’azienda che riceve l’offerta (in questo caso OpenAI) non è d’accordo con la vendita, ma l’azienda offerente (qui Elon Musk e il suo consorzio) cerca comunque di ottenere il controllo.

    Come funziona?

    Quando un’acquisizione è amichevole, l’azienda acquirente negozia con il consiglio di amministrazione della società bersaglio, e insieme trovano un accordo sui termini di vendita.

    Nel caso di un’offerta ostile, invece:

    • Acquisto diretto delle azioni sul mercato: l’azienda acquirente cerca di comprare un numero sufficiente di azioni direttamente dagli azionisti, spesso offrendo un prezzo più alto rispetto al valore di mercato per convincerli a vendere.
    • Proposta diretta agli azionisti (tender offer): Musk e il suo consorzio potrebbero fare un’offerta pubblica agli azionisti di OpenAI, bypassando il consiglio di amministrazione.
    • Sostituzione del management: se OpenAI avesse azionisti con diritto di voto, Musk potrebbe cercare di ottenere il controllo cambiando il consiglio di amministrazione.

    Perché Musk ha fatto un’offerta ostile?

    • Non ha il supporto della dirigenza di OpenAI, che è guidata da Sam Altman.
    • Vuole forzare la vendita, probabilmente per prendere il controllo della strategia aziendale.
    • Potrebbe essere una vendetta o una mossa strategica, considerando la sua rivalità con Altman e il fatto di essere stato escluso dal progetto “Stargate”.

    In sostanza, è una mossa aggressiva per ottenere il controllo di un’azienda che non vuole essere venduta.


    Musk e la causa contro OpenAI

    L’attacco di Musk a OpenAI non è un fulmine a ciel sereno. Già nel febbraio 2024, Musk aveva intentato una causa legale contro OpenAI, Altman e il presidente di allora, Greg Brockman, sostenendo che l’azienda avesse tradito la sua missione originaria. Secondo Musk, OpenAI era nata come una non-profit per il bene dell’umanità, ma con il tempo si è trasformata in un’azienda a scopo di lucro, legandosi sempre più strettamente a Microsoft.

    Musk ha sempre sostenuto una visione dell’IA come tecnologia aperta e controllata, mentre Altman ha spinto OpenAI verso una struttura più commerciale, raccogliendo miliardi di investimenti e consolidando il proprio ruolo.

    La causa intentata da Musk rappresenta quindi un ulteriore tassello di una lunga battaglia che arriva al suo punto più alto con l’offerta ostile.

    La posizione di Sam Altman e OpenAI

    Secondo The Hill, Altman ha ribadito che OpenAI non è in vendita e ha respinto l’idea che la società possa essere acquisita, definendo l’offerta di Musk come un’azione destinata a fallire. Il CEO ha sottolineato come l’azienda stia lavorando per garantire che l’intelligenza artificiale sia sviluppata in modo responsabile e che non intende cedere alle pressioni di Musk o di altri investitori.

    Inoltre, secondo Axios, Altman avrebbe avuto il sostegno unanime del consiglio di amministrazione di OpenAI, che ritiene l’offerta ostile non solo inaccettabile ma anche dannosa per la missione dell’azienda.

    Il board ha dichiarato che OpenAI continuerà a operare come entità indipendente, con una governance che privilegia la sicurezza e la trasparenza.

    Perché Musk vuole OpenAI?

    Se da una parte questa può sembrare una mossa dettata dall’ego e dalla rivalità personale, dall’altra non si può ignorare che OpenAI sia attualmente l’azienda più influente nel settore dell’intelligenza artificiale.

    ChatGPT ha rivoluzionato il settore della generazione di contenuti, e i continui sviluppi della sua tecnologia lo rendono uno strumento chiave per il futuro dell’IA.

    Musk, che ha già creato la sua startup xAI per competere nel settore, potrebbe voler riportare OpenAI alla sua visione originaria, oppure semplicemente fermare l’ascesa di un’azienda che sta diventando sempre più strategica per i suoi rivali, Microsoft in primis.

    Quali saranno le prossime mosse?

    Al momento, l’offerta ostile è stata respinta, ma Musk potrebbe provare a ottenere il controllo in altro modo, ad esempio cercando di convincere investitori e azionisti a sostenerlo. Nel frattempo, la battaglia legale tra Musk e OpenAI continua, e il futuro della società fondata nel 2015 sembra più incerto che mai.

    Di sicuro, questa vicenda non è solo una questione di business, ma riguarda il futuro dell’intelligenza artificiale e il suo ruolo nel mondo.

    Da oggi il futuro di OpenAI viaggia sulla via dell’incertezza.

    [L’immagine di copertina è stata realizzata da @franzrusso utilizzando due diversi modelli di IA generativa. Imagen 3 per lo sfondo con la scritta AI e Grok per la generazione dei due profili di Musk e Altman]

     

  • Donne e IA, un divario da colmare nel 2025

    Donne e IA, un divario da colmare nel 2025

    Le donne sono ancora sotto rappresentate nel mondo della IA, con conseguenze su equità e qualità dei modelli. Bias di genere e stereotipi già radicati si rafforzano. Serve più inclusione e consapevolezza per un’IA equa.

    L’Intelligenza Artificiale sta trasformando il mondo, ma dietro le meraviglie della tecnologia si cela un problema ancora troppo poco dibattuto: la scarsa presenza delle donne in questo settore.

    Non si tratta solo di una questione di numeri, ma di un fenomeno che ha ripercussioni profonde sulla qualità e sull’equità dei modelli di IA che plasmano il nostro futuro.

    Il gender gap nel settore della IA

    I dati parlano chiaro. A livello globale, solo il 22% dei professionisti dell’Intelligenza Artificiale sono donne. Se restringiamo l’analisi alla produzione scientifica, la situazione peggiora: appena il 13,83% degli autori di pubblicazioni AI sono donne e solo il 18% dei relatori nelle principali conferenze internazionali sul tema è di sesso femminile.

    In Italia, il divario è ancora più marcato: le donne rappresentano solo il 16% degli sviluppatori, una percentuale inferiore alla media europea del 18,9%.

    Solo la Francia fa peggio dell’Italia con una presenza pari al 15%.

    Questa sotto rappresentazione ha un impatto diretto sulla progettazione e sull’applicazione dei modelli di Intelligenza Artificiale. Meno diversità significa, infatti, meno prospettive differenti nel processo decisionale. Con il rischio concreto di perpetuare discriminazioni e stereotipi.

    Donne e IA, un divario da colmare nel 2025
    Donne e IA, un divario da colmare nel 2025

    Il bias di genere nei modelli di Intelligenza Artificiale

    Quando un algoritmo viene addestrato su dati raccolti prevalentemente da uomini o progettati da team con scarsa diversità, il rischio di bias di genere diventa inevitabile.

    Recenti studi hanno dimostrato che i modelli di IA tendono a riprodurre e amplificare stereotipi di genere.

    Ecco alcuni esempi:

    • Gli assistenti virtuali come Siri e Alexa, tradizionalmente con voci femminili, vengono spesso programmati per essere docili e servizievoli, consolidando ruoli stereotipati.
    • Alcuni software di selezione del personale basati su IA hanno mostrato preferenze per candidati uomini, penalizzando le donne nei processi di assunzione.
    • Nella generazione di immagini basata su IA, professioni come “ingegnere” o “scienziato” vengono spesso associate a figure maschili, mentre ruoli come “insegnante” o “infermiere” sono prevalentemente femminili.

    Queste distorsioni non sono semplici anomalie, ma conseguenze dirette di un ecosistema tecnologico in cui la presenza femminile è limitata.

    Le donne si fidano sempre meno della IA

    La fiducia nell’IA è minata proprio da questi bias. Molte donne guardano con sospetto a queste tecnologie, temendo che possano rafforzare le disuguaglianze di genere invece di ridurle.

    Il rischio è che questa sfiducia allontani ulteriormente le donne dal settore tecnologico, creando un circolo vizioso in cui la scarsa rappresentanza alimenta modelli distorti e viceversa.

    Come rendere la IA sempre più equa e inclusiva

    Cosa si può fare per colmare questo divario? Alcune soluzioni sono chiare:

    • Più donne nei team AI: incentivare l’accesso delle donne alle discipline STEM e promuovere la loro partecipazione nei ruoli decisionali.
    • Dati più inclusivi: garantire che i dataset su cui vengono addestrati gli algoritmi siano rappresentativi dell’intera popolazione.
    • Maggiore consapevolezza: riconoscere e affrontare attivamente i bias nei modelli di IA, evitando che diventino la norma.

    L’Intelligenza Artificiale non è un’entità neutrale: è il risultato di scelte umane. E se vogliamo che sia davvero uno strumento di progresso per tutti, è fondamentale che queste scelte siano guidate dalla diversità e dall’inclusione.

    [L’immagine di copertina e quella che accompagna le condivisioni sui canali social è stata realizzata da @franzrusso utilizzando il modello di IA generativa Dall-E 3]

     

  • In Italia cresce la IA ma resta il ritardo con l’Europa

    In Italia cresce la IA ma resta il ritardo con l’Europa

    L’Intelligenza Artificiale in Italia cresce del 58%, con un mercato da 1,2 miliardi. Le grandi aziende investono ma resta il divario con l’Europa. Le PMI risultano essere ancora indietro.

    I dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano ci aiutano ad avere un quadro completo rispetto all’uso della IA nelle nostre aziende. E risultano anche interessanti per capire come i cittadini si pongono rispetto alla evoluzione dell’intelligenza artificiale in Italia. Vediamo insieme i dati.

    Nel 2024 il mercato dell’Intelligenza Artificiale in Italia ha raggiunto un nuovo massimo storico, toccando quota 1,2 miliardi di euro con una crescita del +58% rispetto al 2023. A trainare il settore sono soprattutto le sperimentazioni che includono l’AI Generativa, che rappresentano il 43% del valore totale, mentre il restante 57% è costituito da soluzioni di AI tradizionale.

    A fronte di questi dati, l’Italia però continua a essere l’ultimo tra otto Paesi europei per livello di adozione dell’AI, pur distinguendosi per la diffusione di strumenti di Generative AI pronti all’uso, come ChatGPT e Microsoft Copilot.

    In Italia cresce la IA ma resta il ritardo con l’Europa
    In Italia cresce la IA ma resta il ritardo con l’Europa

    Adozione dell’AI: grandi imprese avanti, PMI in ritardo

    Le grandi imprese italiane guidano il mercato: l’81% ha almeno valutato un progetto AI e il 59% ne ha già uno attivo.

    Ma il nostro Paese rimane in coda rispetto alla media europea, dove il 69% delle aziende ha adottato l’AI. Un dato incoraggiante è che una grande impresa su quattro ha già progetti a regime.

    D’altra parte, le PMI italiane mostrano ancora un ritardo. Infatti, solo il 7% delle piccole imprese e il 15% delle medie imprese ha avviato progetti AI.

    L’interesse c’è (58% delle PMI si dichiarano interessate), ma la mancanza di competenze e di una gestione adeguata dei dati rappresentano ancora un ostacolo.

    L’adozione di strumenti di Generative AI riguarda appena l’8% delle PMI.

    In Italia cresce la IA ma resta il ritardo con l'Europa
    Immagine fornita dall’Osservatorio Artificial Intelligence Polimi

    Italia leader nell’adozione di strumenti di Generative AI

    L’Italia si posiziona tra i primi Paesi per l’acquisto di soluzioni AI pronte all’uso: il 53% delle grandi imprese ha adottato strumenti di Generative AI, superando Francia, Germania e Regno Unito.

    Il 39% delle aziende che utilizzano questi strumenti ha riscontrato un aumento della produttività, anche se il 48% non ha ancora valutato l’impatto in modo quantitativo.

    In ogni caso, resta alta consapevolezza dei rischi: il 40% delle aziende ha introdotto linee guida per regolamentarne l’uso e il 17% ha vietato strumenti non approvati per evitare fenomeni di Shadow AI.


    Cosa si intende per Shadow AI

    Shadow AI si riferisce all’uso non autorizzato di strumenti di Intelligenza Artificiale all’interno di un’azienda, senza che il reparto IT o la direzione abbiano il controllo su di essi.

    In pratica, questa situazione si presenta quando i dipendenti iniziano a utilizzare strumenti di Generative AI come ChatGPT, Copilot o altri software AI per il proprio lavoro senza seguire linee guida aziendali.

    Questo può creare diversi rischi, tra cui:

    • Perdita di dati sensibili: se si inseriscono informazioni aziendali riservate in un tool AI pubblico, queste potrebbero finire in mano a terze parti.
    • Mancanza di conformità: l’azienda potrebbe violare regolamenti come il GDPR o altre normative sulla protezione dei dati.
    • Incoerenza nei processi: se diversi dipendenti usano strumenti AI in modo indipendente, senza una strategia comune, i risultati potrebbero essere di qualità variabile e difficili da integrare.

    Per evitare il fenomeno dello Shadow AI, molte aziende stanno adottando policy interne, vietando l’uso di strumenti non approvati o creando soluzioni AI controllate e sicure.


    Le principali applicazioni dell’AI in Italia

    Le soluzioni più adottate dalle imprese italiane riguardano:

    • Data Exploration, Prediction & Optimization Systems (34%): sistemi per la previsione della domanda, ottimizzazione della logistica e rilevamento di attività anomale.
    • Text Analysis, Classification & Conversation Systems (32%): in forte crescita (+86%), grazie a sistemi di Retrieval Augmented Generation su normative e documentazione.
    • Recommendation Systems (17%): la Generative AI sta rivoluzionando questo settore, migliorando la capacità di interpretare le esigenze degli utenti.

    AI e Pubblica Amministrazione: segnali di crescita

    L’adozione dell’AI nella Pubblica Amministrazione sta crescendo rapidamente: oggi rappresenta il 6% del mercato, con un tasso di crescita superiore al 100%.

    Dallo scenario emerge che manca ancora una strategia chiara e strutturata per l’adozione su larga scala.

    IA e cittadini, tra entusiasmo e preoccupazioni

    Secondo i dati dell’Osservatorio, il 99% degli italiani ha sentito parlare di Intelligenza Artificiale, mentre l’89% conosce l’AI Generativa (+32 punti rispetto al 2023).

    Il 59% degli italiani ha un’opinione positiva dell’AI, un dato superiore a quello di Regno Unito (47%) e Francia (42%), ma con una flessione di -8 punti percentuali rispetto al 2023.

    Le principali preoccupazioni restano:

    • Manipolazione delle informazioni – (66%)
    • Perdita di posti di lavoro – (64%)
    • Violazione della privacy – (52%)

    Sul fronte lavorativo, solo il 17% dei lavoratori italiani valuta molto positivamente l’adozione dell’AI in azienda, un dato in linea con la Francia ma lontano dal 40% del Regno Unito.

    In Italia cresce la IA ma resta il ritardo con l'Europa
    Immagine fornita dall’Osservatorio Artificial Intelligence Polimi

    Ecosistema italiano: ricerca avanzata, ma fuga di talenti

    L’ecosistema italiano dell’AI mostra un mercato in espansione, ma evidenzia anche limiti strutturali. L’Italia si distingue per la qualità della ricerca scientifica, sostenuta da iniziative come la Fondazione FAIR, che ha ricevuto finanziamenti per 28,7 milioni di euro.

    Resta elevata però la fuga di talenti all’estero e le startup AI italiane faticano ad attrarre investimenti significativi.

    L’intelligenza artificiale in Italia sta crescendo rapidamente. Ma la vera sfida per il futuro sarà colmare il divario con gli altri Paesi europei e rendere l’AI un’opportunità concreta per tutte le aziende, non solo le grandi realtà.

    [L’immagine di copertina è stata realizzata da @franzrusso utilizzando il modello di IA generativa Dall-E 3]

  • DeepSeek e il modo in cui gestiamo i nostri dati

    DeepSeek e il modo in cui gestiamo i nostri dati

    Da non averlo visto arrivare a non vederlo più il passo è breve. Il caso DeepSeek solleva nuovamente il grande problema di come gli utenti curano i propri dati.

    Da non averlo visto arrivare a non vederlo più il passo è davvero breve. Ed è quello che è successo a DeepSeek, almeno in Italia.

    Negli ultimi giorni, la rapida diffusione di DeepSeek, il nuovo modello di intelligenza artificiale cinese, ha scatenato un acceso dibattito sulla privacy.

    Molti utenti e commentatori hanno lanciato l’allarme, mettendo in guardia sui potenziali rischi per la sicurezza dei dati personali. E invitando a non scaricare l’app per evitare esposizioni indesiderate.

    Ma fermiamoci un attimo: il vero problema è solo DeepSeek, o stiamo dimenticando qualcosa di più grande?

    Il problema non è solo DeepSeek

    Ogni volta che emerge una nuova tecnologia, soprattutto se proveniente dalla Cina, il dibattito sulla privacy si riaccende. L’impressione è che questa preoccupazione sembra essere poco consapevole della situazione.

    Se un utente teme che DeepSeek possa accedere ai suoi dati, ma nel frattempo ha installato sul proprio smartphone applicazioni ben più invasive come TikTok, allora il vero problema non è la singola app. Ma la mancanza consapevolezza rispetto alla protezione dei propri dati personali.

    DeepSeek e il modo in cui gestiamo i nostri dati
    DeepSeek e il modo in cui gestiamo i nostri dati

    E dove sono i nostri dati?

    I nostri dati non sono custoditi in un luogo sicuro e isolato. Sono già ovunque nelle mani di aziende di tutto il mondo.

    Stati Uniti, Cina, India, Europa: chiunque operi nel settore digitale ha accesso a informazioni personali raccolte attraverso app, piattaforme digitali e servizi online.

    Se ci preoccupiamo di DeepSeek, dovremmo allora preoccuparci di ogni altra piattaforma che già raccoglie e utilizza i nostri dati quotidianamente.

    TikTok, un caso eclatante di raccolta dati

    Un esempio chiaro di questa scarsa consapevolezza è TikTok.

    Molti utenti allarmati da DeepSeek usano senza problemi TikTok, ignorando che si tratta di una delle app più invasive dal punto di vista della raccolta dati.

    Uno studio del 2023 ha rivelato che TikTok condivide il proprio SDK con circa 28.000 applicazioni.

    Questo significa che l’app non solo raccoglie enormi quantitativi di dati dai propri utenti, ma ha accesso anche alle informazioni provenienti da una rete vastissima di applicazioni che integrano il suo kit di sviluppo.

    In altre parole, i dati degli utenti finiscono in un ecosistema molto più ampio di quanto si possa immaginare.

    Inoltre, TikTok ha un livello di accesso ai dispositivi particolarmente elevato, soprattutto nella versione Android.

    Alcune analisi di esperti di cybersecurity hanno evidenziato come l’APK dell’app possa raccogliere informazioni dettagliate sul comportamento dell’utente, sui dispositivi utilizzati, sulla rete Wi-Fi e persino sui dati copiati negli appunti.

    Il vero problema: la mancanza di consapevolezza

    Il caso DeepSeek evidenzia un problema che va ben oltre il singolo modello AI. La vera questione non è tanto chi raccoglie i nostri dati, ma come noi stessi li proteggiamo (o meglio, non li proteggiamo).

    Infatti, spesso

    • accettiamo cookie e tracking senza leggere le informative;
    • creiamo account su siti e piattaforme digitali senza pensare alla condivisione dei dati;
    • concediamo autorizzazioni indiscriminatamente ad app che raccolgono informazioni ben oltre quanto necessario;
    • utilizziamo servizi gratuiti senza chiedersi quale sia il modello di business che li finanzia.

    Questa leggerezza porta a una situazione paradossale. Ci si allarma per DeepSeek, ma nel frattempo si cedono dati a decine di altre piattaforme senza alcuna preoccupazione.

    La privacy è un problema di consapevolezza

    Se vogliamo davvero proteggere la nostra privacy, dobbiamo smettere di reagire in modo selettivo e impulsivo di fronte a nuovi attori digitali.

    Il problema non è solo la Cina, gli Stati Uniti o qualsiasi altra nazione che sviluppi tecnologia avanzata. Il primo problema è la nostra incapacità di gestire i dati in modo responsabile.

    È la nostra mancanza di consapevolezza e la facilità con cui cediamo informazioni sensibili senza riflettere sulle conseguenze a creare i primi grandi problemi.

    La vera sfida è allenarci a una gestione più responsabile della nostra identità digitale.

    DeepSeek non è più disponibile sugli app market in Italia

     

  • DeepSeek non è più disponibile sugli app market in Italia

    DeepSeek non è più disponibile sugli app market in Italia

    Dopo la richiesta del Garante della Privacy italiano verso DeepSeek e su come vengono trattati i dati degli utenti, l’app scompare dai market in Italia. Un caso?

    Nelle ultime ore, l’applicazione DeepSeek – il chatbot di intelligenza artificiale sviluppato in Cina e considerato uno dei principali concorrenti di ChatGPT – è scomparsa dagli store italiani di Apple e Google.

    Una rimozione improvvisa, che lascia aperti diversi interrogativi: si tratta di una decisione autonoma degli store o di una conseguenza della recente richiesta del Garante per la protezione dei dati personali?

    Il contesto: l’indagine del Garante della Privacy

    La rimozione di DeepSeek dagli store italiani arriva a poche ore di distanza dalla richiesta formale del Garante della Privacy italiano, che ieri, 28 gennaio 2025  ha avviato un’indagine sull’applicazione.

    L’Autorità ha chiesto a DeepSeek di fornire chiarimenti su come vengano raccolti, trattati e conservati i dati personali degli utenti, con particolare attenzione alla localizzazione dei server e alla possibile trasmissione delle informazioni in Cina.

    La richiesta del Garante è scaturita dall’attenzione crescente verso i chatbot basati su intelligenza artificiale generativa, specie quelli di origine cinese, che sollevano interrogativi sulla protezione dei dati e sulla trasparenza delle loro operazioni.

    La questione diventa ancora più delicata considerando che DeepSeek ha conquistato rapidamente una fetta di utenti europei, grazie alla sua capacità di offrire risposte articolate e modelli di interazione avanzati.

    DeepSeek non è più disponibile sugli app market in Italia
    DeepSeek non è più disponibile sugli app market in Italia

    Rimozione dagli store: coincidenza?

    Al momento, né Apple né Google hanno rilasciato dichiarazioni ufficiali sulla scomparsa di DeepSeek dai rispettivi store italiani.

    Per ora, il servizio web di DeepSeek rimane accessibile e gli utenti che avevano già scaricato l’app possono continuare a utilizzarla.

    Questa situazione solleva una domanda cruciale: la rimozione è stata una decisione autonoma delle piattaforme, una misura precauzionale presa dagli sviluppatori dell’app, oppure è il primo effetto dell’intervento del Garante italiano?

    Al momento, l’azienda dietro DeepSeek non ha commentato la questione, lasciando il campo a ipotesi e speculazioni.

    Casi precedenti e possibili sviluppi

    Non sarebbe la prima volta che un chatbot IA viene sottoposto a restrizioni per questioni di privacy.

    Basti pensare al caso di ChatGPT, che nel 2023 fu temporaneamente bloccato in Italia proprio su ordine del Garante della Privacy, fino a quando OpenAI non adeguò le proprie politiche di gestione dei dati.

    Se DeepSeek non fornirà risposte adeguate sulle modalità di gestione dei dati, potrebbe andare incontro a restrizioni simili.

    D’altra parte, se la rimozione fosse stata un atto volontario da parte degli sviluppatori, potremmo assistere a una modifica delle politiche dell’azienda prima di un eventuale ritorno negli store italiani.

    La stessa situazione del 2023 con ChatGPT

    Ma più passa il tempo e più si ha la certezza di essere di fronte ad una situazione analoga a quella del 2023. In quel caso venne resa inaccessibile la piattaforma web (non c’era ancora l’app di ChatGPT), nel caso di DeepSeek vengono disattivate le app.

    Altro elemento da considerare è che l’Italia, al momento, è l’unico paese al mondo ad aver preso questa misura.

    Cosa significa per gli utenti

    Per chi utilizzava DeepSeek tramite l’app, l’assenza dagli store non implica un’immediata impossibilità di accedere al servizio

    Questa vicenda solleva il tema più ampio della consapevolezza degli utenti rispetto alla gestione dei propri dati, specie quando si tratta di strumenti basati su IA generativa. Che proveremo ad approfondire più avanti.

    Resta da vedere se ci saranno sviluppi ufficiali, chiarimenti da parte degli store o della stessa DeepSeek.

    La sensazione è che questa sia solo la prima di una serie di mosse che definiranno il futuro del chatbot in Italia. Il dibattito sulla privacy e sulla sicurezza dei dati nell’era dell’intelligenza artificiale generativa è tutt’altro che concluso.

  • Non lo hanno visto arrivare: DeepSeek, l’IA open source

    Non lo hanno visto arrivare: DeepSeek, l’IA open source

    Non l’hanno visto arrivare. DeepSeek, un modello IA open-source sviluppato in Cina, ha sconvolto il mercato, mettendo in discussione il dominio di OpenAI e Google. Con costi ridotti e alte prestazioni, potrebbe ridefinire il futuro dell’IA generativa.

    Non l’hanno visto arrivare…Potrebbe essere questo il titolo per descrivere ciò che è successo e sta succedendo ancora.

    Come abbiamo visto, e raccontato, l’intelligenza artificiale generativa ha visto negli ultimi anni una corsa sfrenata, dominata principalmente dagli Stati Uniti con OpenAI, Google e Microsoft a contendersi il primato.

    Adesso un nuovo attore è entrato in scena e ha sconvolto il mercato. Si tratta di DeepSeek, un modello di intelligenza artificiale sviluppato in Cina, totalmente open-source e in grado di competere con i giganti occidentali.

    Il suo arrivo ha già avuto ripercussioni pesanti su Wall Street e potrebbe cambiare per sempre il panorama dell’IA generativa. Ma DeepSeek è davvero un “GPT killer”? E quali saranno le conseguenze di questa rivoluzione?

    Cos’è DeepSeek e perché è diverso dagli altri modelli

    DeepSeek è un modello di intelligenza artificiale generativa sviluppato da una startup cinese fondata nel 2023. A differenza di ChatGPT, Gemini e Copilot, DeepSeek-R1 è completamente open-source, il che significa che chiunque può scaricarlo, modificarlo e utilizzarlo senza costi.

    Questa è la prima grande differenza rispetto ai modelli statunitensi, che sono chiusi e proprietari, costringendo aziende e sviluppatori a pagare per il loro utilizzo.

    Un altro aspetto rivoluzionario è il costo di sviluppo: DeepSeek è stato realizzato con meno di 6 milioni di dollari, mentre OpenAI, Google e Microsoft investono miliardi nella loro infrastruttura di IA.

    Inoltre, a causa del divieto imposto dagli Stati Uniti sull’esportazione di chip avanzati in Cina, gli sviluppatori di DeepSeek hanno dovuto trovare soluzioni alternative, dimostrando che non servono necessariamente GPU Nvidia di ultima generazione per creare modelli AI di alto livello.

    Non lo hanno visto arrivare: DeepSeek, l'IA open source
    Non lo hanno visto arrivare: DeepSeek, l’IA open source

    L’effetto DeepSeek su Wall Street: una scossa per le Big Tech

    L’uscita di DeepSeek non è passata inosservata nel mondo della finanza. Le azioni di Nvidia sono crollate del 17% in un solo giorno, con una perdita di circa 680 miliardi di dollari di capitalizzazione, segnando la peggiore disfatta nella storia della borsa statunitense per una singola azienda.

    Anche altre Big Tech, come Microsoft, Alphabet (Google) e Meta, hanno subito un calo significativo.

    Il motivo? Se un modello come DeepSeek può essere creato con hardware più economico ed essere open-source, allora il dominio delle Big Tech sull’IA generativa potrebbe non essere più garantito.

    L’effetto domino potrebbe essere devastante per chi ha puntato tutto su un’intelligenza artificiale proprietaria. Fino ad oggi, il mercato ha dato per scontato che servissero investimenti miliardari per dominare il settore dell’IA.

    DeepSeek ha dimostrato che questa narrazione potrebbe non essere per sempre.

    Chi c’è dietro DeepSeek?

    DeepSeek è stato fondato da Liang Wenfeng, un imprenditore cinese con un background in ingegneria del software e intelligenza artificiale.

    Prima di lanciare DeepSeek, Liang aveva co-fondato High-Flyer, un hedge fund basato su algoritmi AI, che ha dimostrato come l’intelligenza artificiale potesse essere applicata con successo alla finanza.

    Nel 2023 ha deciso di fondare DeepSeek con un obiettivo ambizioso: rendere l’IA accessibile a tutti attraverso l’open-source, sfidando il modello proprietario imposto dagli Stati Uniti.

    Grazie ai finanziamenti di High-Flyer, DeepSeek è riuscita a sviluppare un modello di intelligenza artificiale avanzato con risorse limitate, sfidando i giganti della Silicon Valley con una filosofia completamente diversa.

    Ma DeepSeek è un GPT killer?

    La domanda che tutti si pongono è: DeepSeek può davvero mettere in crisi OpenAI e gli altri colossi dell’IA? La risposta è complessa.

    Sul piano tecnico, ChatGPT ha ancora alcuni vantaggi, come un’infrastruttura cloud avanzata e l’integrazione multimodale (testo, immagini, video, audio). Tuttavia, DeepSeek ha dimostrato che si può competere ad armi pari con meno risorse e con un modello open-source.

    Ma il vero pericolo per OpenAI, Google e Microsoft non è solo la tecnologia: è il cambio di paradigma che DeepSeek ha introdotto. Se un’IA di alta qualità può essere gratuita e accessibile a tutti, chi pagherà per i modelli proprietari?

    Le conseguenze potrebbero essere enormi, anche se siamo nell’ordine delle ipotesi:

    • Più aziende e sviluppatori potrebbero scegliere DeepSeek al posto di modelli proprietari.
    • Il mercato dell’IA potrebbe frammentarsi con più modelli open-source indipendenti.
    • Il dominio statunitense sull’IA generativa potrebbe indebolirsi, aprendo la strada a nuove alternative globali.

    Il futuro dell’IA generativa dopo DeepSeek

    DeepSeek ha già cambiato le regole del gioco e costretto le Big Tech a ripensare la loro strategia.

    Gli Stati Uniti dovranno decidere se regolamentare ancora di più l’IA o adottare un approccio più aperto per competere con l’ondata open-source.

    Nel frattempo, DeepSeek ha già dimostrato che l’IA generativa non è più un gioco solo per le multinazionali: il futuro potrebbe essere molto più decentralizzato e accessibile di quanto si pensasse fino a ieri.

    Una cosa è certa: il monopolio dell’IA è stato messo in discussione. Tutto nel giro di 48 ore.

     

  • OpenAI sanzionata dal Garante per ChatGPT

    OpenAI sanzionata dal Garante per ChatGPT

    Il Garante privacy sanziona OpenAI per ChatGPT: multa di 15 milioni di euro e una campagna di sei mesi per informare utenti e non-utenti sulla gestione dei dati personali.

    Il Garante per la Protezione dei Dati Personali ha concluso l’istruttoria nei confronti di OpenAI, imponendo una sanzione di 15 milioni di euro e ordinando una campagna informativa di sei mesi.

    Si tratta di un provvedimento che non solo segna un punto di svolta per la regolamentazione dei servizi basati sull’intelligenza artificiale, ma che punta anche a garantire maggiore trasparenza e consapevolezza agli utenti e ai non-utenti del popolare chatbot ChatGPT.

    Garante, le motivazioni del provvedimento

    L’istruttoria, avviata nel marzo 2023, ha portato alla luce diverse violazioni da parte di OpenAI. Ricorderete certamente quando il chatbot fu reso indisponibile nel nostro paese con la corsa all’utilizzo di VPN.

    Tra queste spiccano l’assenza di una base giuridica adeguata per il trattamento dei dati personali utilizzati nell’addestramento di ChatGPT, il mancato rispetto del principio di trasparenza e l’inosservanza degli obblighi informativi previsti dal GDPR.

    Inoltre, OpenAI non ha notificato al Garante una violazione dei dati subita nel marzo 2023, un fatto che ha aggravato la situazione.

    Un altro aspetto critico riguarda la mancanza di meccanismi di verifica dell’età, che espone i minori di 13 anni a risposte potenzialmente inadatte al loro grado di sviluppo.

    OpenAI sanzionata dal Garante per ChatGPT
    OpenAI sanzionata dal Garante per ChatGPT

    Questo tema, in particolare, evidenzia come l’uso dell’intelligenza artificiale necessiti di un approccio più attento e responsabile verso le fasce più vulnerabili della popolazione.

    OpenAI e la campagna per la trasparenza

    Sempre nel provvedimento, il Garante ha ordinato a OpenAI di avviare una campagna informativa su radio, televisione, giornali e Internet.

    La durata della campagna sarà di sei mesi e i contenuti saranno concordati con l’Autorità.

    L’obiettivo è duplice:

    • aumentare la consapevolezza sul funzionamento di ChatGPT e sui meccanismi di raccolta e trattamento dei dati personali;
    • informare il pubblico sui diritti garantiti dal GDPR, tra cui il diritto di opposizione, rettifica e cancellazione dei propri dati.

    La campagna vuole offrire agli utenti e ai non-utenti strumenti concreti per opporsi all’uso dei propri dati personali nell’addestramento dell’intelligenza artificiale.

    Questo provvedimento segna una svolta, ponendo l’accento sull’importanza di rendere trasparente il rapporto tra tecnologia e diritti individuali.

    La decisione del Garante non si limita a sanzionare le violazioni, ma punta a informare meglio gli utenti e a stimolare un dibattito su temi che riguardano tutti.

    L’Europa e il trasferimento della sede OpenAI in Irlanda

    Un elemento interessante emerso durante l’istruttoria è il trasferimento del quartier generale europeo di OpenAI in Irlanda.

    Questo spostamento comporta l’applicazione del cosiddetto “one stop shop”, una regola prevista dal GDPR che assegna all’Autorità di protezione dati irlandese (DPC) il ruolo di capofila per i procedimenti che riguardano l’azienda sul territorio europeo.

    Il Garante italiano ha quindi trasmesso gli atti del procedimento al DPC, affinché possa proseguire l’istruttoria relativa a eventuali violazioni di natura continuativa non esauritesi prima dell’apertura dello stabilimento europeo.

    Questo passaggio rappresenta un esempio concreto di cooperazione tra autorità europee nella gestione di questioni complesse legate all’intelligenza artificiale.

    Le conseguenze per il settore dell’IA

    Il provvedimento del Garante non si limita a colpire OpenAI, ma manda un messaggio chiaro a tutte le aziende che operano nel settore dell’intelligenza artificiale: non si può prescindere dal rispetto delle norme sulla protezione dei dati personali.

    La gestione responsabile dei dati non è solo un obbligo legale, ma una condizione essenziale per costruire un rapporto di fiducia con gli utenti.

    Allo stesso tempo, la decisione sottolinea l’importanza di una regolamentazione condivisa a livello europeo, in grado di affrontare le sfide poste da tecnologie sempre più pervasive. L’istruttoria e le sue conclusioni mostrano come il GDPR possa essere un riferimento solido per governare l’evoluzione tecnologica, garantendo diritti e tutele.

    Verso una maggiore consapevolezza

    La campagna informativa voluta dal Garante rappresenta un passo importante per colmare il divario tra innovazione tecnologica e conoscenza da parte del pubblico.

    In un momento in cui l’intelligenza artificiale entra sempre più nelle nostre vite, sapere come vengono gestiti i nostri dati personali è fondamentale per fare scelte consapevoli.

    Questo caso, pur mettendo in evidenza criticità significative, offre anche un’opportunità: quella di riflettere sul ruolo delle istituzioni, delle aziende e dei cittadini nel plasmare un futuro tecnologico più trasparente, etico e rispettoso dei diritti di tutti.

    [L’immagine di copertina è stata realizzata da @franzrusso attraverso strumenti di intelligenza artificiale generativa]

  • Projects di ChatGPT, come funziona e a chi può essere utile

    Projects di ChatGPT, come funziona e a chi può essere utile

    Projects di ChatGPT è la nuova dashboard di OpenAI per organizzare progetti, collaborare in tempo reale e gestire materiali in un unico spazio. Ecco come la IA semplifica il lavoro.

    Il mese di dicembre è spesso associato ai regali, e quest’anno OpenAI non ha fatto eccezione, portando una nuova funzionalità per i suoi utenti: Projects di ChatGPT.

    Parte del programma “12 Days of OpenAI“, che celebra la chiusura di un anno ricco di innovazioni, Projects si propone come uno strumento fondamentale per chi cerca un modo più organizzato e collaborativo per gestire il proprio lavoro. QUi vedremo la motivazione che ha spinto OpenAI in questa direzione, come opera questa nuova funzionalità e a chi potrebbe essere utile.

    Il regalo di Natale di OpenAI per la produttività

    La decisione di OpenAI di lanciare Projects proprio in questo periodo non è casuale. Con l’iniziativa natalizia “12 Days of OpenAI”, l’azienda celebra la propria community offrendo nuove funzionalità che non solo migliorano l’esperienza utente, ma puntano a ridefinire il modo in cui lavoriamo.

    L’idea di Projects nasce dall’osservazione di un bisogno sempre più evidente: uno spazio integrato per gestire, raccogliere e condividere informazioni senza dover abbandonare l’interfaccia di ChatGPT.

    Come ormai sappiamo bene, l’uso della IA Generativa, come quella di ChatGPT, è sempre più esteso a tutti il livelli.

    Ma di fronte a tutte le possibilità che ChatGPT offre, OpenAI ha cercato di soddisfare quella che in effetti era una grande necessita per gli utenti. Ossia creare un luogo all’interno del quale organizzare meglio i lavori. Raggruppandoli in diversi progetti in modo da avere tutto sotto controllo.

    Projects mira a colmare questo vuoto, offrendo una soluzione centralizzata che semplifica e ottimizza il flusso di lavoro.

    Projects di ChatGPT, come funziona e a chi può essere utile
    Projects di ChatGPT, come funziona e a chi può essere utile

    Come funziona Projects di OpenAI

    Projects di ChatGPT è accessibile direttamente dall’interfaccia principale di ChatGPT e si presenta come una dashboard dedicata alla gestione del lavoro. Vediamo nel dettaglio come si usa e quali sono le sue funzionalità principali:

    Creazione e organizzazione dei progetti

    Ogni utente può creare un nuovo progetto, che diventa uno spazio dedicato in cui raccogliere appunti, materiali e idee. Questo spazio è facilmente navigabile e personalizzabile, consentendo di strutturare il lavoro in sezioni o task specifici.

    Raccolta dei materiali di lavoro

    Projects permette di caricare file come documenti, immagini o fogli di calcolo, creando un archivio centralizzato. Inoltre, ChatGPT può utilizzare questi file per generare analisi, riassunti o nuove idee. È possibile aggiungere ai singoli progetti tutte le conversazioni che avete aperto con ChatGPT e ritrovarle tutte in un unico cruscotto di lavoro.

    Collaborazione in tempo reale

    Una delle caratteristiche più interessanti è la possibilità di invitare altri utenti a partecipare a un progetto. I membri del team possono visualizzare, modificare e aggiungere contenuti, rendendo Projects un vero strumento collaborativo.

    Traccia delle modifiche

    Ogni modifica viene registrata, consentendo di monitorare l’evoluzione del progetto nel tempo e di tornare a versioni precedenti se necessario.

    Integrazione con strumenti esterni

    Projects supporta l’integrazione con app come Google Drive, Trello o Slack, facilitando l’importazione e l’esportazione di materiali.

    Personalizzazione e automazione

    Grazie all’intelligenza artificiale, Projects può suggerire priorità, generare promemoria e automatizzare alcune attività ripetitive, aumentando la produttività complessiva.

    A chi può essere utile Projects di OpenAI

    La versatilità di Projects lo rende uno strumento adatto a diverse categorie di utenti. Ecco alcuni esempi:

    Professionisti freelance

    Creativi, consulenti e scrittori possono utilizzare Projects per gestire i propri lavori. La capacità di raccogliere materiali in un unico spazio e generare contenuti direttamente con ChatGPT è un vantaggio competitivo.

    Collaborazione in Team

    Aziende e gruppi di lavoro che si affidano alla collaborazione possono trovare in Projects uno strumento ideale per centralizzare informazioni, assegnare compiti e monitorare il progresso.

    Ricercatori e studenti

    Projects è perfetto per organizzare ricerche, raccogliere fonti e annotare idee, mantenendo tutto ordinato e facilmente accessibile.

    Project Manager di progetti complessi

    Chi lavora su progetti che richiedono una gestione precisa di risorse, materiali e tempistiche troverà in Projects un alleato indispensabile.

    Perché usare Projects di ChatGPT

    Il vero valore di Projects risiede nella sua integrazione con ChatGPT. Non è solo uno strumento di gestione, ma una piattaforma in cui l’intelligenza artificiale diventa un partner attivo. La possibilità di generare contenuti, analizzare dati e collaborare rende Projects un passo avanti rispetto agli strumenti tradizionali.

    Con Projects, OpenAI ha fatto molto più che aggiungere una nuova funzionalità: ha creato un ecosistema che rende la produttività più semplice, intelligente e collaborativa.

    Un regalo perfetto perfetto in questo momento.

    OpenAI continua con la sua iniziativa “12 Days of OpenAI” fino al 25 dicembre 2024, offrendo altre novità per rendere l’esperienza con ChatGPT sempre più ricca e innovativa.

    [Tutte le immagini di questo articolo e delle condivisioni sui canali socia sono state realizzate attraverso IA Generativa]

  • IA e possibili rischi di disinformazione, il caso Grok

    IA e possibili rischi di disinformazione, il caso Grok

    L’IA generativa offre opportunità straordinarie ma solleva anche enormi rischi di disinformazione. Grok, l’intelligenza artificiale di X, disponibile per tutti, rappresenta al momento un esempio emblematico.

    Negli ultimi anni, come abbiamo più volte sottolineato qui su InTime Blog, l’intelligenza artificiale generativa ha fatto passi da gigante, offrendo strumenti potenti per creare contenuti visivi, testuali e multimediali.

    A fronte di tutto questo, la crescente accessibilità di queste tecnologie sta sollevando nuove domande sulla loro sicurezza e sull’impatto sociale.

    Un esempio emblematico, per cercare di essere più chiari, è dato da Grok, il chatbot IA sviluppato da xAI, ora disponibile gratuitamente sulla piattaforma X. Grazie a funzionalità avanzate come la generazione di immagini, Grok apre infinite possibilità creative, ma anche scenari inquietanti di disinformazione.

    IA e Grok, l’esperimento che fa riflettere

    Immaginate una fotografia apparentemente innocua: Elon Musk, Giorgia Meloni e Donald Trump ritratti insieme in un contesto formale. Nulla di più normale, se non fosse che quell’immagine è completamente falsa, generata con l’ausilio di strumenti di IA come Grok.

    In pochi minuti è possibile creare contenuti visivi realistici che, se non analizzati con attenzione, potrebbero essere scambiati per veri.

    Questo semplice esperimento evidenzia un rischio significativo: la capacità dell’IA di manipolare la realtà, alimentando potenzialmente la disinformazione su larga scala.

    Non è un caso isolato. Di recente, un breve video mostrava Elon Musk e Giorgia Meloni intenti a baciarsi, apparentemente durante la riapertura della basilica di Notre Dame a Parigi. Sebbene il video fosse stato creato partendo da una fotografia reale, la scena del bacio era completamente artefatta.

    donald trump immagini grok IA disinformazione franzrusso

    Molti utenti, tuttavia, hanno creduto che il video fosse autentico, dimostrando come sia facile trasformare un contesto reale in un fatto inesistente e dargli credibilità proprio grazie al legame con elementi reali.

    Facilità d’uso e rischi disinformazione 

    Un ulteriore esperimento è stato condotto da me, con l’intento di dimostrare la facilità con cui si possono generare contenuti di questo tipo.

    Utilizzando Grok, infatti, sono stato in grado di creare ben 15 immagini che ritraggono Elon Musk e Giorgia Meloni insieme, senza incontrare alcuna barriera o limitazione.

    immagine grok fake Musk Meloni franz russo 2024
    Uno degli esempi di immagine generate con Grok con Elon Musk e la presidente Giorgia Meloni

    Sebbene le immagini includessero un watermark visibile, ciò non ha impedito di creare contenuti in serie che, decontestualizzati, possono facilmente alimentare disinformazione.

    Inoltre, rimuovere il watermark con un comune programma di editing risulta un’operazione semplice e alla portata di chiunque, rendendo invisibile di fatto uno dei pochi elementi di riconoscimento della natura artificiale di queste immagini.

    Questo per dimostrare quanto sia immediato passare da un utilizzo creativo a uno che alimenta potenziali distorsioni della realtà. La possibilità di creare immagini realistiche in serie, senza alcun filtro o controllo, alimenta ulteriormente il rischio di disinformazione e di perdita di fiducia nei contenuti digitali.

    Grok, strumento IA all’avanguardia

    Grok è uno strumento all’avanguardia, senza dubbio, progettato per rispondere a domande, analizzare immagini e persino generare contenuti visivi. Da poco reso disponibile anche per gli utenti non abbonati alla piattaforma X, Grok si pone come alternativa a chatbot più noti come ChatGPT o Gemini.

    Per gli utenti non abbonati a Premium+ sono previste alcune limitazioni:

    • Richieste: si possono inviare fino a 10 richieste ogni due ore.
    • Analisi immagini: la capacità di Grok di interpretare e rispondere a domande su immagini caricate dagli utenti.
    • Generazione di immagini: fino ad un massimo di 3 immagini al giorno.

    La sua caratteristica distintiva? Un approccio informale e talvolta ironico che riflette la personalità del suo creatore, Elon Musk. Ma la facilità con cui si possono creare immagini credibili, senza particolari restrizioni, solleva interrogativi sulla necessità di regolamentare questi strumenti.

    IA e disinformazione: un problema reale

    La possibilità di generare immagini e contenuti testuali altamente realistici rappresenta un rischio elevato, soprattutto in un periodo storico come quello che stiamo vivendo.

    In un contesto dove i contenuti vengono condivisi e consumati in pochi secondi, distinguere il reale dal falso diventa sempre più complesso.

    immagine grok fake Musk Meloni franz russo 2024
    Immagine realizzata con Grok, alla sinistra ELon Musk e alla destra la presidente Giorgia Meloni
    Immagine realizzata con Grok, alla sinistra ELon Musk e alla destra la presidente Giorgia Meloni
    Immagine realizzata con Grok, alla sinistra ELon Musk e alla destra la presidente Giorgia Meloni

    L’IA generativa, se utilizzata in modo improprio, può creare narrazioni ingannevoli, alterare il dibattito pubblico e minare la credibilità delle fonti affidabili.

    Le conseguenze di questo fenomeno sono già evidenti.

    Dai deepfake che manipolano video di figure pubbliche (quello citato prima tra Musk e la Meloni a Parigi), alle immagini che alimentano teorie complottiste, il rischio è che la disinformazione diventi ancora più difficile da arginare.

    Inoltre, piattaforme come X, che puntano su questi strumenti per attrarre e coinvolgere gli utenti, hanno la responsabilità di garantire un utilizzo etico e trasparente della tecnologia.

    In relazione proprio a X, questo è ancora più necessario. Proprio perché Grok si alimenta dei contenuti condivisi sulla piattaforma. E poi, di recente, la piattaforma ha cambiato le condizioni di utilizzo della piattaforma specificando che i post degli utenti serviranno ad alimentare proprio strumenti di IA con un accordo tacito, senza possibilità di scelta.

    Opportunità e sfide dell’IA generativa

    Non tutto, però, è negativo.

    L’intelligenza artificiale generativa offre anche opportunità straordinarie. Può essere un alleato nella creazione di contenuti educativi, nel supporto alla creatività artistica e persino nella ricerca scientifica.

    Ma come ogni tecnologia potente, necessita di regole chiare e di un utilizzo consapevole. L’equilibrio tra innovazione e sicurezza è una sfida cruciale per il futuro.

    Un passo fondamentale è sensibilizzare gli utenti. Sapere che un’immagine o un testo possono essere generati dall’IA è il primo passo per approcciare questi contenuti con spirito critico.

    Inoltre, le aziende che sviluppano queste tecnologie dovrebbero puntare su sistemi più sofisticati di riconoscimento dei contenuti artificiali, dato che il semplice watermark, come dimostrato, è facilmente rimovibile con strumenti di editing comuni, riducendo la sua efficacia come deterrente.

    E anche provare a migliorare e rafforzare i limiti di utilizzo, evitando situazioni sensibili. Questo per evitare che si possa ricorrere a questi strumenti per creare fake news e disinformazione.

    Oltre a questo, le aziende dovrebbero intensificare i controlli e intervenire immediatamente nel momento in cui ci si accorge che certi contenuti (come quello di Musk e Meloni a Parigi) sono usati sulle piattaforme con l’intendo di disorientare il pubblico.

    Serve una maggiore consapevolezza

    Questa riflessione non vuole demonizzare l’IA generativa, ma piuttosto invitare a un uso responsabile e consapevole.

    La tecnologia in sé non è il problema: è l’uso che se ne fa a determinare il suo impatto. Strumenti come Grok hanno un potenziale enorme, ma è fondamentale istruire gli utenti e introdurre norme che ne regolino l’utilizzo.

    Viviamo in un’epoca in cui la realtà digitale si intreccia sempre più con quella fisica. Essere informati, critici e consapevoli è la chiave per affrontare le sfide di un mondo in continua evoluzione.

    Perché, alla fine, il vero potere dell’intelligenza artificiale risiede nella nostra capacità di governarla con saggezza.

    [Tutte le immagini presenti in questo articolo sono state realizzate usando l’intelligenza artificiale Grok, con evidente watermark sulle stesse immagini]

  • Rapporto Censis 2024: l’Italia tra crescita del digitale e superficialità

    Rapporto Censis 2024: l’Italia tra crescita del digitale e superficialità

    Il Rapporto Censis Comunicazione 2024 analizza l’evoluzione digitale in Italia: dati su internet, piattaforme digitali, IA e la crisi della lettura. Sperando in un futuro più consapevole.

    La presentazione del Rapporto Censis è uno di quei momenti che servono a confermare o ribaltare (cit.) la situazione. Sinceramente, non è un momento che serve per scoprire nuovi trend, no. Questo è uno di quei momenti dell’anno per capire se tutto quello che abbiamo osservato nell’ultimo anno trova conferma o meno.

    E, da ciò che risulta dal Rapporto Censis Comunicazione 2024, molti dei dati sono confermati. Anche con una visione più ampia. Ed è proprio questo lo scopo per parlare di questo importante rapporto.

    Ovviamente, ci concentreremo sui dati che riguardano Internet, l’informazione digitale e le piattaforme digitali. Ma useremo anche gli altri dati del rapporto per fare un veloce confronto con quelli che sono, appunto, di nostro interesse.

    Internet sempre più parte del quotidiano degli italiani

    Negli ultimi 12 mesi si è consolidato l’uso di internet tra gli italiani, con una percentuale di utenti che ha raggiunto l’89,1%, registrando un aumento di 1,1 punti rispetto all’anno precedente. Questo dato evidenzia una stretta correlazione con l’utilizzo degli smartphone, che coinvolge l’88,2% della popolazione, e con quello dei social media, pari all’82,0%.

    Ad oggi i tre quarti delle persone anziane e i quattro quinti dei soggetti meno istruiti hanno familiarità con strumenti connessi in rete. Questo per evidenziare quando la rete sia sempre più parte del quotidiano degli italiani.

    Ci informiamo attraverso lo smartphone

    E parlando di “quotidiano”, il Rapporto Censis Comunicazione 2024 evidenza come 4 italiani su 5 (l’83,7%) si informano attraverso il proprio smartphone.

    Tra questi, il 37,9% degli utenti preferisce svolgere ricerche mirate, mentre il 28,2% consulta più fonti per ottenere una visione più ampia e dettagliata.

    Il 25,4% legge articoli completi direttamente sullo smartphone, e il 13,2% si limita invece a leggere solo i titoli.

    Rapporto Censis 2024: l'Italia tra crescita del digitale e superficialità

    Sempre più visualizzatori

    Una parte del pubblico, pari al 12,3%, presta attenzione anche ai commenti dei lettori e follower, mentre il 12,1% si concentra principalmente sui video, con una prevalenza tra i giovani di età compresa tra 14 e 29 anni (16,7%).

    Solo l’8,1% si ferma alle immagini, un dato che sale al 9,7% nella stessa fascia giovanile.

    Infine, il 5,2% degli utenti commenta o scrive post, il 4,6% li condivide, e il 3,7% utilizza lo smartphone per informarsi ascoltando podcast.

    In base a queste abitudini, gli utenti possono essere distinti in lettori e visualizzatori.

    Sebbene i visualizzatori siano ancora una minoranza, il loro numero è in forte crescita, grazie all’influenza delle piattaforme basate su contenuti visivi (come Instagram, Telegram e TikTok) e alla sempre minore abitudine di leggere testi lunghi.

    Sempre meno abituali a leggere testi lunghi

    Attenzione a questo ultimo dato. Il Rapporto Censis evidenzia un trend già noto, ma val la pena sottolinearlo. La progressiva diminuzione dell’abitudine a leggere testi lunghi riflette il cambiamento nei consumi culturali, spinti dalla preferenza per contenuti rapidi e visivi.

    Questo trend, favorito dalle piattaforme digitali, produce effetti evidenti a lungo termine sulla capacità di approfondimento e sulla qualità del dibattito pubblico che si osserva sul web e sulle piattaforme.

    Si legge sempre meno in Italia e i dati del rapporto sono una conferma triste di ciò che già sappiamo. I quotidiani cartacei venduti in edicola, che nel 2007 erano letti dal 67,0% degli italiani, sono calati al 22,0% nel 2023 (con una differenza pari a -3,4% in un anno e a -45,0% in quindici anni).

    Anche il numero di utenti che accedono ai quotidiani online è in calo, attestandosi al 30,5% degli italiani, con una diminuzione del 2,5% rispetto all’anno precedente.

    Invece, l’utenza dei siti web d’informazione generici rimane stabile al 58,1%, lo stesso valore del 2022, ma con un incremento del 21,6% rispetto al 2011.

    Nel 2023, si interrompe il calo di lettori di libri: il 45,8% degli italiani legge volumi cartacei, con un aumento del 3,1% rispetto all’anno precedente, anche se il dato segna una flessione del 13,6% rispetto al 2007. Inoltre, il 5,3% degli italiani si affida agli audiolibri.

    Tra le piattaforme, in calo X e crolla Snapchat

    Tra i giovani di età compresa tra 14 e 29 anni, l’uso delle piattaforme online mostra una solida affermazione.

    WhatsApp è la più utilizzata, raggiungendo il 93,0% degli utenti, seguita da YouTube con il 79,3%, Instagram con il 72,9% e TikTok con il 56,5%.

    Alcune piattaforme registrano una lieve contrazione: Facebook scende dal 51,4% nel 2022 al 50,3%, Spotify cala dal 51,8% al 49,6%, mentre X/Twitter registra una diminuzione dal 20,1% al 17,2%.

    Anche Telegram registra una flessione significativa, passando dal 37,2% al 26,3%, e Snapchat crolla dal 23,3% all’11,4%.

    LinkedIn, invece, mantiene una quota del 9,6%.

    Il Rapporto Censis Comunicazione 2024 prende in esame anche l’Intelligenza Artificiale.

    Per gli Italiani la IA avrà impatto sul lavoro

    Attualmente, i software per la generazione di immagini sono utilizzati dall’8,4% degli italiani, mentre quelli per la creazione di testi, come ChatGPT e strumenti simili, coinvolgono l’8,2% della popolazione.

    Nonostante questi dati, il 65,5% degli italiani teme che l’IA avrà un impatto devastante sull’occupazione, sostituendo le persone con computer e chatbot.

    D’altra parte, il 37,4% vede un’opportunità: l’intelligenza artificiale potrebbe liberarci dai lavori monotoni e ripetitivi, consentendo di dedicarsi maggiormente ad attività creative.

    Inoltre, il 55,9% prevede che l’IA porterà significativi miglioramenti nelle cure mediche, mentre il 45,4% ritiene che i benefici principali riguarderanno la ricerca scientifica e il 44,5% si aspetta progressi in ambito sanitario, sia per la diagnosi che per le terapie.

    La maggioranza degli italiani, pari all’82,0%, considera indispensabile l’introduzione di regole precise per limitare le applicazioni dell’IA, mentre solo il 18,0% si oppone a tali regolamentazioni.

    Conclusione

    Il Rapporto Censis Comunicazione 2024 ci offre uno spaccato utile della società italiana, evidenziando come l’evoluzione digitale abbia trasformato le nostre abitudini e i nostri strumenti di informazione.

    Se da un lato l’accesso a internet e l’uso delle piattaforme digitali sono diventati elementi centrali nella vita quotidiana, dall’altro emergono questioni cruciali legate: alla qualità del consumo culturale; al declino della lettura e all’affermarsi di modalità di fruizione sempre più rapide e visive.

    Questi cambiamenti rappresentano una sfida enorme per la capacità di approfondimento e il dibattito pubblico su cui sarebbe necessaria più di una riflessione. Ma allo stesso tempo offrono opportunità inedite per innovare i modi in cui produciamo e condividiamo conoscenza.

    La diffusione dell’intelligenza artificiale, tra timori e aspettative, ci pone davanti a domande etiche e regolamentari fondamentali, segnando un nuovo confine tra progresso tecnologico e responsabilità.

    Guardare al futuro con consapevolezza significa cogliere questi segnali non solo come semplici dati, ma come indicazioni di un percorso da intraprendere, dove il digitale non sia solo consumo, ma anche occasione di crescita culturale e sociale.

    In questo contesto, il ruolo di ciascuno di noi rimane centrale: utenti, lettori e cittadini, sempre più consapevoli, che possono ancora fare la differenza.

    [L’immagine di copertina è realizzata da @franzrusso utilizzando strumenti di IA Generativa]