Tag: copyright

  • Intelligenza artificiale, copyright e potere: quando nessuno è innocente

    Intelligenza artificiale, copyright e potere: quando nessuno è innocente

    Anthropic denuncia DeepSeek, MiniMax e Moonshot per distillazione illecita di Claude. Musk replica accusando proprio Anthropic di furto di dati. Tra copyright, Pentagono e geopolitica, emerge l’ipocrisia dell’intero settore IA.

    In questo momento il mondo dell’intelligenza artificiale è attraversato da un grande clima di scontro.

    Nelle ultime ore si sta parlando molto della denuncia di Anthropic contro tre laboratori cinesi accusati di aver rubato le capacità del modello Claude attraverso una tecnica chiamata distillazione. I numeri sono impressionanti: oltre 16 milioni di interazioni, 24.000 account fraudolenti, prove che secondo l’azienda di San Francisco portano direttamente ai ricercatori di DeepSeek, MiniMax e Moonshot.

    Ma immediatamente dopo, Elon Musk fa partire la sua campagna di attacchi contro Anthropic. Una situazione che svela l’enorme ipocrisia che attraversa l’intero settore dell’IA quando si parla di diritti d’autore e proprietà intellettuale. Perché la verità è che nessuno, in questa grande partita della IA, può davvero tirare la prima pietra.

    La denuncia di Anthropic e l’estrazione dei dati

    Partiamo dai fatti. Il 23 febbraio 2026 Anthropic ha pubblicato un blog post dettagliato in cui accusa tre laboratori cinesi di aver condotto campagne su scala industriale per estrarre le capacità di Claude. La tecnica utilizzata si chiama distillazione ed è, in sé, legittima.

    Si tratta di addestrare un modello più piccolo sugli output di uno più avanzato. Tutti i laboratori di frontiera la usano internamente per creare versioni più economiche dei propri sistemi.

    Il problema, secondo Anthropic, è che DeepSeek, MiniMax e Moonshot hanno usato questa tecnica per copiare le capacità di Claude senza autorizzazione, violando i termini di servizio e aggirando le restrizioni geografiche.

    Claude non è disponibile commercialmente in Cina per ragioni di sicurezza nazionale. Ma attraverso servizi proxy e reti di account fraudolenti, i tre laboratori sarebbero riusciti ad accedere al modello su larga scala.

    I dettagli forniti da Anthropic sono piuttosto precisi. DeepSeek avrebbe generato oltre 150.000 scambi focalizzati sulle capacità di ragionamento e sulla creazione di alternative sicure per la censura a domande politicamente sensibili, quelle sui dissidenti, sui leader di partito, sull’autoritarismo.

    MiniMax è accusata di oltre 13 milioni di interazioni concentrate su coding agentico e utilizzo di strumenti.

    Moonshot avrebbe prodotto più di 3,4 milioni di scambi mirati al ragionamento agentico e alla computer vision.

    Anthropic afferma di aver tracciato queste attività attraverso la correlazione degli indirizzi IP, i metadati delle richieste e gli indicatori dell’infrastruttura. In alcuni casi, dice l’azienda, è stato possibile risalire a specifici ricercatori dei laboratori accusati. Quando Anthropic ha rilasciato un nuovo modello durante la campagna di MiniMax, quest’ultima avrebbe reindirizzato quasi la metà del suo traffico entro 24 ore per catturare le capacità del sistema più recente.

    Sono accuse gravi e circostanziate. Ma è importante comunque sottolineare che, al momento, si tratta di accuse.

    DeepSeek, MiniMax e Moonshot al momento non hanno rispoto.

    Non c’è stata alcuna verifica indipendente e non c’è stato alcun procedimento legale. Il fatto che Anthropic presenti prove dettagliate non significa automaticamente che quelle prove siano incontrovertibili.

    Intelligenza artificiale, copyright e potere: quando nessuno è innocente
    Intelligenza artificiale, copyright e potere: quando nessuno è innocente

    L’attacco di Musk e la distorsione dei fatti

    Ed è qui che entra in scena Elon Musk. Poche ore dopo la pubblicazione del blog post di Anthropic, il proprietario di X e di xAI ha lanciato il suo attacco. Il tweet è diretto e apparentemente definitivo: “Anthropic is guilty of stealing training data at massive scale and has had to pay multi-billion dollar settlements for their theft. This is just a fact.”

    Tradotto: Anthropic è colpevole di aver rubato dati di addestramento su scala massiccia e ha dovuto pagare accordi miliardari per il furto. Questo è semplicemente un fatto. A supporto della sua affermazione, Musk ha condiviso screenshot di Community Notes che menzionano un accordo da 1,5 miliardi di dollari.

    Ma le cose non stanno esattamente così. E qui dobbiamo essere precisi, perché la differenza tra i fatti e la narrativa di Musk è sostanziale.

    Il riferimento è alla causa Bartz et al v. Anthropic PBC, una class action intentata da un gruppo di autori che accusavano l’azienda di Dario Amodei di aver usato i loro libri per addestrare Claude senza autorizzazione.

    La causa si è conclusa con una transazione da 1,5 miliardi di dollari, annunciato a settembre 2025. Ma chiamarla condanna per furto non è corretto. E per come la sta diffondendo Musk si tratta quasi di disinformazione.

    Ecco cosa è realmente accaduto. A giugno 2025 il giudice William Alsup aveva già stabilito che l’uso dei libri per addestrare Claude costituiva fair use, un uso legittimo secondo il diritto americano. La decisione è stata descritta come exceedingly transformative, estremamente trasformativa. In altre parole: addestrare un modello di IA su opere protette da copyright può essere legale.

    Il problema non era l’addestramento in sé, ma il modo in cui Anthropic aveva ottenuto quei libri. Li aveva scaricati da shadow libraries, ossia biblioteche pirata, come Library Genesis e Pirate Library Mirror.

    Questo, secondo il giudice, poteva configurare una violazione separata. Ed è su questo punto che si sarebbe dovuto tenere un processo a dicembre 2025, con danni potenziali che avrebbero potuto raggiungere il trilione di dollari in caso di violazione intenzionale.

    Anthropic ha scelto di accordarsi per evitare quel rischio. Ha accettato di pagare circa 3.000 dollari per ciascuno dei 500.000 libri coinvolti e di distruggere i dataset contenenti le opere scaricate illegalmente.

    Da precisare, non è stata emessa alcuna sentenza di condanna e, quindi, non vi è stato alcun verdetto di colpevolezza. Si è trattato di un accordo volontario per chiudere una controversia. Questo ad onor del vero e senza prendere parti per l’uno o per l’altro.

    Inoltre, non c’è alcun riferimento al tracciamento delle persone che alcuni utenti su X hanno iniziato a citare. Questa accusa sembra derivare da una confusione: Anthropic ha tracciato gli IP e i metadati degli account fraudolenti usati dai laboratori cinesi per accedere a Claude, cosa del tutto legale e necessaria per identificare gli abusi. Non ha quindi tracciato utenti comuni.

    Il peccato originale dell’IA: tutti hanno lo stesso problema

    Ma ecco il punto che nessuno vuole affrontare davvero. Se Anthropic ha problemi con il copyright, li hanno tutti. Nessuno escluso, e questo include xAI di Musk.

    OpenAI, l’azienda che ha dato il via alla corsa alla IA generativa con ChatGPT, affronta attualmente oltre 70 cause legali per violazione del copyright. La più nota è quella intentata dal New York Times, che accusa OpenAI e Microsoft di aver usato milioni di articoli per addestrare i loro modelli. A gennaio 2026 un tribunale ha ordinato a OpenAI di produrre 20 milioni di log di ChatGPT come prove. L’azienda ha cercato di resistere invocando la privacy degli utenti, ma il giudice ha respinto le obiezioni.

    Meta è stata citata per aver usato LibGen, la stessa biblioteca pirata al centro della causa Anthropic. Email interne emerse durante il procedimento suggeriscono che l’azienda sapeva di star usando materiale piratato. Google è sotto accusa per pratiche simili. Disney e Universal hanno fatto causa a Midjourney per violazione del copyright sulle immagini.

    E poi c’è xAI, l’azienda di Musk. A dicembre 2025 il giornalista John Carreyrou, oggi del NYT, quello che ha smascherato lo scandalo Theranos, ha intentato una causa contro sei aziende di IA per l’uso non autorizzato dei suoi libri. Tra i convenuti c’è xAI: è la prima causa per copyright contro Grok. La risposta dell’azienda? Due parole: “Legacy Media Lies”. Le bugie dei media tradizionali.

    Ma i problemi di xAI non si fermano qui. Grok è addestrato sui contenuti degli utenti di X, e questa pratica ha già attirato l’attenzione dei regolatori di diversi paesi.

    Nel 2024 X ha attivato di default l’opzione che consente di usare i post degli utenti per addestrare Grok. Non opt-in, ma opt-out. Chi non voleva partecipare doveva andare nelle impostazioni e disattivare manualmente la funzione. Questo ha scatenato l’intervento del Garante irlandese per la protezione dei dati, che a settembre 2024 ha ottenuto la sospensione permanente dell’uso dei dati degli utenti UE per l’addestramento di Grok, oltre all’ordine di cancellare i dati già acquisiti.

    Ad aprile 2025 è stata aperta un’indagine formale sulla legalità del trattamento storico dei dati. E i nuovi termini di servizio di X, entrati in vigore a gennaio 2026, hanno ampliato ulteriormente la definizione di contenuti che l’azienda può usare: ora include esplicitamente input, prompt e output delle conversazioni con Grok. Il tutto senza possibilità di opt-out.

    Cosa significa questo in parole povere. Significa che tutto quello che gli utenti scrivono a Grok e tutto quello che Grok risponde diventa materiale che xAI può usare liberamente per addestrare i suoi modelli futuri. E l’utente non non ha modo di opporsi.

    C’è poi la questione delle immagini. Grok ha generato contenuti sessualmente espliciti non consensuali, i cosiddetti deepfake, che hanno portato a denunce penali in Francia e al blocco del servizio in Malesia e Indonesia. La Federal Trade Commission americana ha aperto un’indagine sulle pratiche di xAI relative ai minori.

    Quindi quando Musk accusa Anthropic di aver rubato dati, sta parlando di un’azienda che ha raggiunto un accordo transattivo su una questione che riguarda l’intero settore, mentre la sua stessa azienda è sotto causa per le stesse ragioni e usa i dati degli utenti della sua piattaforma social senza un consenso realmente informato.

    Lo scontro per i contratti con il Pentagono

    Ma perché Musk sta attaccando Anthropic proprio adesso? La risposta sta in quello che è successo nelle ultime settimane al Pentagono.

    Anthropic è attualmente l’unica azienda di IA approvata per operare sulle reti militari classificate americane. Claude sarebbe stato usato durante l’operazione che ha portato alla cattura del presidente venezuelano Nicolás Maduro a gennaio 2026, il primo caso documentato di IA impiegata in un raid militare attivo. Ma il rapporto tra Anthropic e il Pentagono si è deteriorato rapidamente.

    Il Segretario della Difesa Pete Hegseth ha emesso una direttiva a gennaio che richiede a tutte le aziende di IA di rimuovere qualsiasi restrizione sull’uso militare dei loro modelli, consentendo qualsiasi uso legale. Anthropic ha rifiutato.

    L’azienda insiste sulle sue posizioni fondanti: niente sorveglianza di massa degli americani, niente armi autonome che possano sparare senza supervisione umana.

    Dario Amodei, il CEO di Anthropic, ha scritto in un saggio a gennaio: “Un’IA potente che analizza miliardi di conversazioni di milioni di persone potrebbe misurare il sentimento pubblico, individuare sacche di slealtà in formazione e schiacciarle prima che crescano.” Questa frase, che descrive un rischio, è stata usata contro di lui come prova di una presunta ostilità verso gli interessi americani.

    Per oggi, 24 febbraio, Hegseth ha convocato Amodei al Pentagono per quello che fonti interne descrivono come un incontro non amichevole. Uan sorte di resa dei conti.

    Un funzionario della Difesa ha detto ad Axios: “Questo non è un incontro per conoscersi. Questo è un incontro del tipo: o ti decidi o te ne vai.”

    Il Pentagono sta minacciando di designare Anthropic come rischio per la catena di approvvigionamento, una classificazione normalmente riservata ad avversari stranieri. Questo annullerebbe i contratti e costringerebbe altri partner del Pentagono a smettere di usare Claude.

    Nel frattempo, xAI ha accettato tutte le condizioni. Grok entrerà nelle reti militari classificate senza restrizioni. L’accordo è stato firmato ed è in questo contesto che Musk sta attaccando Anthropic su X. Tutto questo, mentre la sua azienda si posiziona per sostituire il concorrente nei contratti più sensibili del governo americano.

    Cosa ci racconta davvero questa storia

    La denuncia di Anthropic contro i laboratori cinesi è seria e merita attenzione. Se le prove presentate sono accurate, siamo di fronte a un caso significativo di appropriazione illecita di proprietà intellettuale che solleva questioni importanti sulla sicurezza nazionale e sulla competizione tecnologica tra Stati Uniti e Cina.

    Ma questa storia ci dice anche qualcos’altro.

    Ci dice che l’intero settore dell’intelligenza artificiale è nato e cresciuto su fondamenta traballanti quando si parla di diritti d’autore. Tutti i grandi modelli sono stati addestrati su contenuti protetti, spesso senza autorizzazione, talvolta scaricati da fonti pirata. Le cause legali si moltiplicano. Gli accordi transattivi cominciano ad arrivare. E la questione di cosa sia lecito e cosa no nell’addestramento di un’IA è ancora largamente irrisolta.

    Musk accusa gli altri delle stesse cose che lui ha già commesso. Solo che non lo ammetterà mai ed è per questo che sta scatenando la sua campagna contro Anthropi, usando X come megafono di disinformazione e distrazione.

    Questa storia dice, infine, che il controllo delle piattaforme di informazione da parte di soggetti con interessi commerciali diretti nel settore che dovrebbero coprire crea distorsioni evidenti.

    Quando il proprietario di X è anche il proprietario di un’azienda di IA che compete per contratti governativi, ogni suo post su quel tema va letto con questo tenendo bene in mente tutto questo.

    La verità è che in questo grande clima di scontro all’interno della IA nessuno è innocente. Ma alcuni stanno facendo molto più rumore degli altri per coprire i propri problemi mentre amplificano quelli altrui.

    Vedremo come andrà a finire.

  • OpenAI, impossibile non usare opere coperte da copyright

    OpenAI, impossibile non usare opere coperte da copyright

    OpenAI risponde al New York Times, dopo la querela per violazione del copyright dei giorni scorsi. Ammettendo che è impossibile non usare opere protette da copyright.

    Subito dopo Natale, lo scorso 27 dicembre, il New York Times aveva fatto sapere di aver querelato OpenAI, la società non profit che ha creato ChatGPT, per violazione del copyright.

    E oggi arriva la risposta di OpenAI.

    Partendo dal presupposto che il NYT non racconti tutta la storia, OpenAI sul suo blog scrive – sostanzialmente – che sarebbe “impossibile” costruire reti neurali di alto livello senza utilizzare opere protette da copyright. Questo perché l’utilizzo di materiali di pubblico dominio porterebbe a software AI di qualità inferiore.

    Le sfide legali legate all’IA

    Un recente rapporto di IEEE (Institute of Electrical and Electronics Engineers), dei giorni scorsi, ha concluso che servizi di IA generativa, come Midjourney e DALL-E 3 di OpenAI, possono ricreare scene protette da copyright basandosi sui loro dati di addestramento, documentando casi di “prodotti copiati”​​​​.

    openai nyt impossibile non usare copyright franzrusso

    Resta quindi la questione, molto complessa, se questa pratica sia legale e se i fornitori di servizi IA rischiano responsabilità legale.

    Come sappiamo, OpenAI e Midjourney possono produrre materiali che sembrano violare il copyright, senza fornire informazioni agli utenti sulla provenienza delle immagini prodotte​​.

    Inoltre, è stato indicato da ricerche recenti, sempre su questo ambito, che ChatGPT di OpenAI può essere indotto a riprodurre testi di libri memorizzati in fase di addestramento​​.

    OpenAI ha dichiarato di credere che il suo addestramento su materiale protetto da copyright sia legale, ma riconosce che c’è ancora lavoro da fare per supportare e valorizzare i creator.

    OpenAI mantiene la sua posizione

    La società guidata da Sam Altman mantiene la sua posizione. Affinché i modelli di intelligenza artificiale possano apprendere e risolvere nuovi problemi, hanno bisogno di accedere a “l’enorme aggregato della conoscenza umana“.

    Ha ribadito che, sebbene rispettasse il diritto legale di possedere opere protette da copyright, ritiene che la formazione di modelli di intelligenza artificiale con dati provenienti da Internet rientri nelle regole di equo utilizzo, che consentono di riproporre le opere protette da copyright.

    In ogni caso, è sempre possibile bloccare l’accesso a servizi come ChatGPT semplicemente bloccandolo, inserendo un codice apposito all’interno del proprio sito.

    OpenAI e NYT, collaborazione possibile?

    Di fronte a questo scenario, OpenAI lascia comunque le porte aperte.

    La società di Altman ha detto che spera ancora di poter continuare i negoziati e arrivare a sigillare una partnership simile a quelle che ha stretto con Axel Springer e l’Associated Press. “Siamo fiduciosi per una partnership costruttiva con il New York Times e rispettiamo la sua lunga storia“, ha affermato la società.

    Ora, la questione legale attorno all’uso di materiale protetto da copyright nella formazione di modelli di intelligenza artificiale, come nel caso di OpenAI, è molto complessa.

    Dal punto di vista legale, le aziende si affidano alla difesa di “uso lecito”, argomentando che l’utilizzo di tali dati è necessario per lo sviluppo tecnologico.

    Diritto d’autore e utenti finali

    Questa posizione però si scontra con la realtà attuale. In quanto non è universalmente accettata e potrebbe portare a nuove sfide legali. Incluse potenziali cause legali e richieste di risarcimento danni.

    Per gli utenti finali, l’uso di strumenti IA basati su dati protetti da copyright potrebbe creare delle situazioni di incertezza. Se un utente genera contenuti che violano il copyright utilizzando questi strumenti, potrebbe trovarsi a fronteggiare questioni legali dal punti di vista personale. E sarebbe un bel problema.

    Le aziende come OpenAI cercano di mitigare questo rischio, adottando con termini di servizio che limitano la loro responsabilità. Ma la questione resta tutta aperta.

    La sfida è tra innovazione e protezione del diritto d’autore

    In conclusione, mentre le aziende di servizi di intelligenza artificiale operano in questo scenario tutto in divenire, è fondamentale per gli utenti comprendere i rischi associati alla generazione di contenuti utilizzando questi strumenti.

    Il caso NYT/OpenAI sottolinea l’importanza di un dialogo continuo tra sviluppatori IA, detentori di diritti d’autore e legislatori per definire chiare linee guida che bilancino innovazione e protezione dei diritti d’autore. Questa è la vera sfida di oggi.


    L’immagine di copertina è stata generata da ChatGPT di OpenAI con DALL·E 3

  • Le foto pubblicate su Instagram appartengono a tutti

    Le foto pubblicate su Instagram appartengono a tutti

    Le foto che pubblichiamo su Instagram, e sui social media in generale, appartengono a tutti. Una sentenza di un giudice di New York ha stabilito che se una foto viene condivisa su una piattaforma, concede alla stessa una sub-licenza di utilizzo. Per tanto, decade il copyright sulla stessa immagine.

    La vicenda che stiamo per raccontarvi è un po’ complessa, ma cerchiamo di semplificarla anche perché siamo sicuri che sia un tema che riguarda tante persone. Intanto chiariamo che la vicenda giudiziaria nasce negli Usa, ma, al tempo stesso, il principio che viene sancito potrebbe costituire ovunque un precedente. La storia è stata ripresa dal The Hollywood Reporter e poi anche da altri siti importanti negli Usa.

    Il principio, detto in maniera semplicistica, sancito da una sentenza della Corte Federale di New York, è che se una testata, un sito, un blog, chiunque in pratica, incorpori un’immagine da Instagram (la embeddi, per dirla in gergo), nel caso specifico, non vìola il copyright che il fotografo potrebbe esercitare sull’immagine stessa. Questo perché, secondo il giudice Kimba Wood, nel momento in cui il fotografo ha condiviso la stessa immagine su una piattaforma come Instagram, in quel momento ha concesso una “sub-licenza” alla piattaforma stessa. Di conseguenza, riportare l’immagine, embeddarla, dalla piattaforma, non sarebbe un reato per il fatto che non vìola alcun diritto al copyrght. Quell’immagine, in buona sostanza, è come se appartenesse a tutti.

    Instagram immagini tutti franzrusso.it 2020

    Ok, adesso facciamo un bel respiro e cerchiamo di raccontare tutta la vicenda, in sintesi.

    Era il 2016 quando Mashable voleva dedicare un focus a 10 foto-giornaliste che si dedicavano al tema della “giustizia sociale”. Nel realizzare questo focus, l’editore seleziona alcune delle più conosciute, raccoglie alcune sue opere, decidendo di pubblicarle in un articolo dedicato. Tra queste figurava anche Stephanie Sinclair, foto reporter che collabora anche con National Geographic, alla quale, dopo un primo rifiuto, Mashable offrì 50 dollari per usare una sua foto. Ma vistasi rifiutare la concessione della licenza, Mashable allora decise di incorporare l’immagine da Instagram, dove la stessa Sinclair aveva pubblicato l’immagine.

    Ecco, da qui ne nasce una vicenda legale che vedeva contrapposti la fotografa, la quale chiedeva che venisse riconosciuto il diritto di copyrght su quella immagine incorporata da un’altra piattaforma, e Mashable che, invece, sosteneva di non dover riconoscere alcun copyright in quanto l’immagine era già stata pubblicata su Instagram, appunto.

    Ebbene, la vicenda si è conclusa qualche giorno fa con la decisione del giudice Kimba Wood il quale ha dato ragione a Mashable. In passato, in casi come questi veniva usata la cosiddetta “dottrina del server test” che, in pratica, trasferisce la responsabilità della violazione in base al luogo in cui le immagini vengono memorizzate. Se il giudice Wood avesse adottato questa dottrina, allora il responsabile sarebbe stato Mashable. A questo proposito consigliamo di leggere un libro molto interessante dal titolo “The Law of Journalism and Mass Communication” (Cq Pr, 2019) di Susan Dente Ross, Amy Reynolds e Robert Trager.

    Nel 2018 un altro giudice di New York si trovò ad affrontare una vicenda simile, era quella del giocatore della NFL, Tom Brady. In quel caso, furono diversi siti di notizie a violare il copyright, secondo il giudice, usando delle foto del giocatore senza autorizzazione. Anche in quel caso si trattava di una immagine incorporata.

    In pratica, il “server test” indicava il fatto che qualcuno che incorporava un tale post non autorizzato sui social media, non avrebbe violato direttamente il copyright. Ma potrebbe comunque essere responsabile in base a complesse regole sulla “responsabilità indiretta” del copyright.

    Nella vicenda che vedeva contrapposti la Sinclair contro Mashable è invece stata premiata la tesi degli avvocati di Mashable che sostenevano che una volta pubblicata su Instagram l’autore avesse concesso alla piattaforma una licenza d’uso, una “sub-licenza”, ad usare l’immagine. Instagram, secondo gli avvocati, in effetti concede questo diritto a pubblicare, e incorporare, l’immagine senza commettere alcun reato.

    Ora, la sentenza è un modo assolutamente nuovo per aggirare il “server test” che, tra l’altro, il giudice Wood non ha mai preso in considerazione per la soluzione di questo caso. L’incorporare post sui social media, autorizzati dai detentori di copyright, in questo caso Instagram, è legale, secondo il ragionamento del giudice Wood. Non vi sarebbe alcuna difesa, invece, nel caso in cui venisse usata un’immagine non autorizzata. Ecco, questo è quello che ci sembra emergere da questa diatriba.

    Le immagini pubblicate su Instagram, a questo punto, appartengono a tutti.

    stephanie sinclair instagram

    C’è da dire, infine, che la Sinclair aveva ancora un modo per impedire che quella immagine apparisse, dopo la sentenza, all’interno dell’articolo di Mashable, liberamente. Ed era quello di rendere il suo account da pubblico, come era fino alla sentenza, a privato, cosa che potete verificare. In questo caso la sua foto è salva, preservata e privata, e nessuno può usarla senza la sua autorizzazione.

    Questa che vi abbiamo raccontato è una vicenda complessa, sperando di essere riusciti a riassumerla nella maniera giusta e comprensibile. Abbiamo deciso di raccontarla perché è una storia che può toccare tutti coloro che si occupano di informazione. Tanto i giornalisti quanto le testate, i blog e i siti di informazione che possono imbattersi in situazioni analoghe. Alla luce di questa vicenda è sempre opportuno fare attenzione a quello che si pubblica sui social media e a quello che si incorpora all’interno del proprio sito.

    E voi che ne pensate? Fateci sapere il vostro pensiero tra i commenti oppure commentate sui social media.