ChatGPT crea immagini Ghibli: arte o violazione del diritto?

Negli ultimi giorni, una massiccia diffusione online di immagini in stile Studio Ghibli, generate con il nuovo sistema GPT-4o di ChatGPT, ha sollevato interrogativi legati al diritto d’autore. Il fenomeno, divenuto rapidamente virale, ha portato l’amministratore delegato di OpenAI, Sam Altman, a commentare ironicamente su X: “Le nostre GPU stanno fondendo”, alludendo all’elevato traffico verso i server dell’azienda. L’afflusso ha infatti causato temporanee limitazioni di utilizzo e messaggi di “over capacity”, in particolare sulla piattaforma video Sora. Le immagini, che richiamano i tratti visivi dell’animazione creata da Hayao Miyazaki, hanno generato un’ondata globale di ritratti e meme condivisi sui social. Tuttavia, né Miyazaki né Studio Ghibli si sono finora espressi pubblicamente sul fenomeno. La questione centrale riguarda la liceità dell’uso di stili artistici riconoscibili da parte dell’intelligenza artificiale. Secondo l’avvocato Evan Brown, esperto di proprietà intellettuale, lo stile visivo in sé non è protetto da copyright secondo la legislazione statunitense, rendendo legittima la generazione di contenuti “in stile Ghibli”, a meno che durante la fase di addestramento dell’IA non siano stati utilizzati materiali coperti da diritto d’autore. Il punto legale cruciale resta quindi la provenienza dei dati usati per il training dei modelli generativi. Se questi includono contenuti originali senza autorizzazione, si entra in una zona grigia giuridica, soggetta a interpretazioni e a procedimenti legali in corso, come quello intentato dal New York Times contro OpenAI. La stessa azienda ha dichiarato che ChatGPT evita di replicare “lo stile di artisti viventi”, pur consentendo la replica di stili attribuiti a studi di produzione. Nel caso dello Studio Ghibli, però, questa distinzione si complica: lo stile dello studio è fortemente identificabile con Miyazaki, tuttora vivente e attivo. La controversia riporta alla memoria le dichiarazioni dello stesso Miyazaki, risalenti al 2016, quando definì “un insulto alla vita” l’uso dell’intelligenza artificiale in animazione, dopo aver visionato una demo di movimento generato al computer. L’animatore giapponese ha da sempre difeso l’artigianalità e i valori umani del disegno a mano, fondando nel 1985 lo Studio Ghibli proprio per sfuggire alla produzione seriale e ai vincoli tecnici. Le immagini AI oggi in circolazione sono spesso usate fuori contesto, in forme grottesche o satiriche, comprese rielaborazioni da parte di soggetti politici come Fratelli d’Italia o Casa Bianca, fatto che alcuni utenti hanno giudicato irrispettoso del significato culturale originario dell’opera di Miyazaki. La controversia si intreccia così con riflessioni più ampie sull’automazione creativa e il concetto stesso di arte, alimentando un dibattito che riguarda sia l’estetica che la sostenibilità economica dei contenuti digitali in un’epoca di IA generativa.
Meta AI arriva in Europa su WhatsApp, Messenger e Instagram

Dopo una lunga attesa, la Meta AI debutta finalmente in Europa e diventa accessibile anche agli utenti italiani attraverso le app di messaggistica istantanea di Meta: WhatsApp, Messenger e Instagram. L’annuncio arriva a oltre un anno dalla sua presentazione ufficiale, avvenuta durante l’evento Meta Connect del settembre 2023 in California, ma il percorso per l’arrivo nel mercato europeo è stato tutt’altro che immediato. Le ragioni del ritardo sono legate alle regolamentazioni europee sulla privacy e alle richieste di trasparenza avanzate dal garante irlandese per la protezione dei dati (DPC), responsabile della supervisione delle attività Meta nel continente. La Meta AI si basa su Llama 3.2, una versione aggiornata del modello linguistico open source sviluppato dall’azienda, e al momento offre funzioni di generazione testuale. Gli utenti potranno chiedere di scrivere o riscrivere contenuti, ricevere suggerimenti o chiarimenti, ma non sarà possibile generare immagini o analizzare fotografie. Queste funzioni avanzate, già attive in altri Paesi, restano bloccate in Europa proprio a causa dei dubbi su come i dati degli utenti vengano utilizzati per l’addestramento dei modelli di intelligenza artificiale. Sulle piattaforme Meta, utilizzare l’IA è semplice e immediato. Basta cercare “Meta AI” nella lista dei contatti oppure cliccare sul cerchio colorato — blu, verde e viola — visibile nelle app. Su Instagram e Messenger, il chatbot è disponibile anche nella barra di ricerca dei messaggi. Su WhatsApp, oltre alla conversazione diretta, è possibile menzionare l’IA nei gruppi scrivendo @Meta AI, seguito dalla domanda. Una volta attivato, il chatbot risponde in tempo reale, come avviene con altri assistenti virtuali già diffusi, da ChatGPT a Gemini, ma con un vantaggio pratico: non serve uscire dall’app in uso. Tuttavia, ci sono delle precauzioni da tenere a mente. Le risposte fornite da Meta AI non sono sempre accurate: come altri modelli generativi, anche questo può soffrire di allucinazioni, ovvero fornire contenuti plausibili ma inventati. Inoltre, il sistema non è connesso a internet e non può effettuare ricerche in tempo reale: il suo sapere si ferma ai dati disponibili fino a dicembre 2024, limite temporale dell’ultimo aggiornamento del modello Llama. Questo rende inaffidabili le risposte su eventi molto recenti. Fino ad oggi, in Europa era possibile interagire con la Meta AI solo tramite i Ray-Ban Meta, occhiali smart con supporto vocale IA. Tuttavia, anche in quel caso, molte funzioni erano disattivate proprio per ragioni normative. All’estero, invece, l’IA può già analizzare ciò che l’utente osserva tramite la fotocamera degli occhiali, offrendo informazioni contestuali in tempo reale: una funzione che in Europa resta bloccata. Meta ha voluto chiarire che le conversazioni con la sua intelligenza artificiale nelle app europee non saranno usate per addestrare i modelli futuri. Un’informazione fondamentale, dato che diverse big tech raccolgono le interazioni con le IA proprio per migliorare le performance dei loro algoritmi. Le leggi europee, però, obbligano le aziende a dichiarare apertamente come intendono trattare i dati degli utenti e a offrire la possibilità di rifiutare l’uso delle proprie conversazioni a scopo di training. (Immagine di copertina generata con Chat GPT)
Come la devoluzione del Washington Post cambia le pubbliche relazioni

Il recente cambiamento nell’orientamento editoriale del Washington Post, sotto la proprietà di Jeff Bezos, ha suscitato preoccupazioni riguardo all’integrità dei media e al loro ruolo nella società. Come riportato da PR News, il noto linguista e critico dei media Noam Chomsky ha più volte evidenziato come i media privati, come il Washington Post, siano spesso influenzati dagli interessi aziendali, mettendo in discussione l’indipendenza editoriale. Bezos ha orientato la pubblicazione verso principi di libero mercato e libertà individuali, che, pur essendo legittimi, potrebbero influenzare la qualità del giornalismo, allontanandolo da un obiettivo di imparzialità e responsabilità. Questo cambiamento ha portato alla crescente sfiducia da parte del pubblico verso una testata storicamente simbolo di credibilità. Il Washington Post, che una volta veniva visto come un modello di giornalismo investigativo, ha visto scemare la sua reputazione a causa di modifiche editoriali che sembrano rispondere a interessi commerciali. Questa evoluzione non è isolata: anche altre testate come la CNN e il Wall Street Journal hanno subito riallineamenti editoriali, con la CNN che ha cercato di spostarsi verso una posizione più centrica e il Wall Street Journal che ha adottato una visione più conservatrice dopo l’acquisizione da parte di Rupert Murdoch nel 2007. Questi cambiamenti hanno avuto un impatto significativo sul ruolo delle pubbliche relazioni (PR). I professionisti delle PR si trovano ora a dover affrontare una crescente polarizzazione nel panorama mediatico, dove gli interessi aziendali e le preferenze politiche influenzano sempre di più le scelte editoriali. In questo contesto, le PR devono adattarsi per garantire che le informazioni siano presentate in modo corretto e trasparente, collaborando con giornalisti che operano in un ambiente in cui l’indipendenza è messa in discussione. Le PR, quindi, devono essere in grado di verificare meticolosamente le fonti e promuovere una comunicazione che rispetti i principi etici del giornalismo. In passato, i professionisti delle pubbliche relazioni sono stati definiti custodi della verità e della responsabilità nelle comunicazioni. Come affermato da Ivy Lee, uno dei fondatori della professione delle PR, l’obiettivo delle pubbliche relazioni non è quello di manipolare, ma di garantire la diffusione di informazioni accurate e verificate. Le PR devono quindi impegnarsi a lavorare con giornalisti affidabili e a sviluppare pratiche che sostengano la trasparenza e l’integrità. L’evoluzione del Washington Post rappresenta una sfida per i professionisti delle PR, che devono rispondere alla crescente difficoltà di navigare un panorama mediatico sempre più influenzato dalle dinamiche aziendali. Il loro compito è garantire che la comunicazione resti precisa, imparziale e che promuova una discussione informata basata su fatti verificabili.
IAA Italia lancia Osservatorio sulla GenAI e comunicazione

IAA Italia annuncia il lancio dell’Osservatorio sull’Intelligenza Artificiale Generativa, un’iniziativa volta a esplorare l’impatto della GenAI nel mondo della comunicazione e del marketing. Questa tecnologia sta rivoluzionando il settore, offrendo nuove opportunità ma sollevando anche interrogativi su creatività, etica, diritto d’autore e regolamentazione. Per questo motivo, l’Osservatorio si propone di supportare aziende, agenzie e professionisti con strumenti pratici, analisi strategiche e best practice per un utilizzo consapevole della tecnologia. L’idea nasce da Vincenzo Piscopo, Chief Commercial & Digital Officer di Banijay e consigliere di IAA Italia, con l’obiettivo di approfondire le potenzialità e le implicazioni della GenAI nei diversi ambiti della comunicazione. “L’Osservatorio rappresenta un’iniziativa fondamentale per comprendere e guidare l’adozione responsabile dell’intelligenza artificiale generativa. Solo attraverso una collaborazione tra industria, accademia e istituzioni possiamo garantire un utilizzo etico e sostenibile di queste tecnologie”, afferma Piscopo. IAA Italia, da sempre promotrice di un’innovazione responsabile, mette a disposizione la propria rete di esperti multidisciplinari per fornire un punto di riferimento nell’evoluzione della comunicazione pubblicitaria. Secondo Marianna Ghirlanda, CEO di BBDO e Presidente di IAA Italia, il lancio dell’Osservatorio è un passo cruciale per offrire analisi e strategie concrete, aiutando il settore ad adottare la GenAI in modo efficace. L’iniziativa si avvale del contributo di diversi esperti: Debora Magnavacca, Board Member & Executive Producer di AKITA FILM, porta la sua esperienza nel campo della produzione audiovisiva; Cristiano Cominotto, avvocato e Founder & Managing Partner di AL Assistenza Legale, offre competenze fondamentali in materia di diritto e regolamentazione; Stefano Rocco, Chief Growth Officer di YAM112003, fornisce una visione strategica sull’innovazione digitale. Grazie a questi professionisti, l’Osservatorio si pone come un punto di riferimento per comprendere e sfruttare al meglio il potenziale della GenAI, garantendo un approccio consapevole e strategico all’intelligenza artificiale generativa nel mondo della comunicazione.
Seul sospende DeepSeek per problemi di privacy

Dopo l’Australia, anche la Corea del Sud ha deciso di intervenire su DeepSeek, l’app cinese di intelligenza artificiale, sospendendone temporaneamente il servizio per preoccupazioni legate alla raccolta dei dati. La decisione è stata presa dopo che vari ministeri e agenzie governative sudcoreane hanno vietato l’accesso alla piattaforma, sollevando dubbi sulle sue pratiche di privacy. La Commissione per la protezione delle informazioni personali ha confermato che il blocco è scattato sabato alle 18:00 ora locale (10:00 in Italia) e rimarrà in vigore fino a quando l’azienda non apporterà miglioramenti e rimedi conformi alle leggi sudcoreane sulla tutela dei dati personali. Il provvedimento non giunge inaspettato. Il governo di Seul aveva già avviato un’indagine su DeepSeek, richiedendo chiarimenti sul trattamento delle informazioni. In risposta, la startup cinese ha nominato un rappresentante locale e riconosciuto alcune carenze nell’adeguarsi alle normative sudcoreane, manifestando la volontà di collaborare per risolvere le criticità. Tuttavia, ha sottolineato che un allineamento completo richiederebbe molto tempo. Per evitare un’escalation delle preoccupazioni, l’ente regolatore sudcoreano ha quindi raccomandato la sospensione del servizio fino al completamento degli adeguamenti necessari, proposta accolta dall’azienda. Nel frattempo, la Cina ha risposto alla decisione con critiche. Negli ultimi mesi, DeepSeek e il suo chatbot R1 hanno attirato l’attenzione per la loro capacità di competere con le principali soluzioni occidentali, come quelle statunitensi, a costi notevolmente inferiori. Tuttavia, il tema della archiviazione dei dati continua a suscitare perplessità a livello internazionale. L’azienda ha assicurato che le informazioni degli utenti vengono memorizzate in server sicuri situati nella Repubblica Popolare Cinese, ma ciò non ha dissipato i timori sulla sicurezza dei dati. A seguito della sospensione da parte della Corea del Sud, il governo di Pechino ha condannato le misure adottate da vari Paesi contro DeepSeek, accusandoli di politicizzare il commercio e la tecnologia. Il portavoce del Ministero degli Esteri cinese, Guo Jiakun, ha dichiarato che la Cina si augura che gli Stati coinvolti evitino di assumere posizioni che esagerano il concetto di sicurezza o impongano restrizioni basate su questioni politiche piuttosto che tecniche.
Instagram sperimenta il pulsante “Non mi piace” nei commenti

Instagram sta testando un nuovo pulsante “Non mi piace”, che consentirà agli utenti di esprimere privatamente il proprio dissenso sui commenti dei post e dei Reels. La conferma arriva dal capo della piattaforma, Adam Mosseri, dopo che alcuni utenti avevano notato questa funzione in fase di test. Mosseri ha spiegato su Threads che l’obiettivo principale di questa funzione è creare un ambiente più amichevole e ridurre la visibilità dei commenti più negativi. Il pulsante “Non mi piace” sarà completamente anonimo, quindi nessuno potrà sapere chi lo ha utilizzato. Questa novità potrebbe aiutare a migliorare la qualità della sezione commenti, scoraggiando interazioni tossiche e rendendo la piattaforma più accogliente. Un portavoce di Meta ha ribadito che il pulsante “Non mi piace” non serve a punire gli utenti, ma a migliorare il ranking dei commenti, spostando quelli meno apprezzati in basso. Questo approccio è simile a quello già adottato da piattaforme come Reddit e YouTube, dove il sistema di downvote aiuta a gestire i contenuti meno pertinenti o poco apprezzati dalla community. Negli ultimi mesi, Instagram ha introdotto diverse novità per competere con TikTok, che negli Stati Uniti sta affrontando incertezze normative. Tra le innovazioni recenti, la piattaforma ha annunciato lo sviluppo di una nuova app per editing video, ispirata a CapCut, il software di montaggio di TikTok. Inoltre, ha ampliato la durata massima dei Reels a tre minuti, un’altra mossa per attrarre utenti abituati ai contenuti di maggiore lunghezza.
Google filigrana le immagini AI

Google ha annunciato un importante aggiornamento per contrastare la disinformazione e la manipolazione delle immagini generate dall’intelligenza artificiale, introducendo filigrane digitali per le foto modificate con il suo strumento Magic Editor. Questa innovazione, basata sulla tecnologia SynthID sviluppata da DeepMind, permette di incorporare un tag di metadati digitali direttamente nell’immagine, rendendo possibile identificare se sia stata alterata tramite strumenti di IA generativa. L’implementazione di questa funzionalità ha l’obiettivo di rendere più chiaro agli utenti quando un contenuto visivo è stato modificato artificialmente, senza alterarne l’aspetto visibile. Lo strumento Magic Editor, disponibile anche per i possessori di iPhone, consente di rimuovere o aggiungere elementi in modo realistico, aprendo però la porta alla diffusione di contenuti potenzialmente ingannevoli. La nuova filigrana si applica automaticamente alle immagini trasformate con la funzione “reimagine”, fornendo un livello aggiuntivo di trasparenza. Google ha già implementato SynthID nelle immagini generate dal modello Imagen, lo stesso utilizzato dal chatbot Gemini per la creazione di contenuti grafici. Questa iniziativa si inserisce in un contesto più ampio che vede altre aziende, come Adobe, adottare soluzioni simili per garantire la provenienza dei contenuti digitali. Entrambe le società fanno parte della Coalition for Content Provenance and Authenticity (C2PA), un consorzio che si impegna a definire standard condivisi per la gestione dell’autenticazione delle immagini e dei video generati dall’IA. Google sottolinea che la filigrana non può essere rimossa facilmente e può essere rilevata solo attraverso strumenti specializzati. Inoltre, Google Foto include la sezione “Informazioni su questa immagine”, che permette agli utenti di verificare se una foto è stata modificata con Magic Editor e accedere a dettagli come la data di creazione originale. Questo sistema non è infallibile: Google avverte che modifiche minime potrebbero sfuggire all’identificazione di SynthID. Per questo motivo, esperti del settore ritengono che la filigrana da sola non sia sufficiente a garantire una tracciabilità affidabile dei contenuti digitali su larga scala. Il futuro della lotta alla disinformazione visiva passerà quindi attraverso l’adozione di strategie diversificate, in cui tecnologie come SynthID saranno integrate con altre metodologie per migliorare l’autenticazione dei contenuti generati dall’intelligenza artificiale.
Stop all’AI DeepSeek in Australia per cybersecurity

L’Australia ha deciso di vietare il download dei software di intelligenza artificiale sviluppati dalla start-up cinese DeepSeek su tutti i dispositivi governativi, considerandoli un rischio inaccettabile per la sicurezza nazionale. La misura è stata ufficializzata dal ministero dell’Interno, con una direttiva firmata dalla ministra Stephanie Foster, che impone la rimozione immediata delle applicazioni di DeepSeek da tutti i dispositivi fissi e mobili del governo australiano. La decisione si inserisce in un contesto più ampio di crescente cautela nei confronti di aziende tecnologiche cinesi, che sempre più spesso si trovano al centro di restrizioni e divieti in diversi Paesi occidentali. La posizione del governo australiano non è isolata. Anche il ministro dell’Industria e della Scienza, Ed Husic, aveva recentemente espresso preoccupazioni sulla privacy e sulla gestione dei dati degli utenti da parte della piattaforma. Secondo Husic, prima di adottare strumenti di questo tipo, è fondamentale valutare con attenzione la loro affidabilità, la sicurezza dei dati sensibili e le implicazioni per la cybersecurity nazionale. L’attenzione verso il chatbot cinese nasce dalla sua crescente popolarità, che ha sollevato interrogativi sulla sua capacità di competere con le big tech americane e sulla possibile ingerenza governativa cinese nella gestione delle informazioni. L’Australia non è nuova a misure di questo tipo: in passato ha già imposto restrizioni su aziende tecnologiche cinesi, come nel caso di Huawei e TikTok, citando preoccupazioni per la sicurezza nazionale e il possibile accesso non autorizzato ai dati governativi. La decisione di escludere DeepSeek dai dispositivi pubblici rientra in una strategia più ampia di protezione della sovranità digitale e di prevenzione di potenziali minacce informatiche.
La Casa Bianca cambia strategia mediatica con i creator

La Casa Bianca ha aperto ufficialmente le porte ai content creator, ridefinendo il concetto di new media e riconoscendo il crescente impatto delle piattaforme digitali come TikTok. Questa svolta segna un cambiamento storico nella comunicazione presidenziale, con la portavoce Karoline Leavitt che ha annunciato una nuova sezione della James Brady Press Briefing Room dedicata a giornalisti indipendenti, podcaster, influencer e altri creatori di contenuti. L’obiettivo dichiarato è ampliare il pubblico raggiunto dal messaggio della Casa Bianca, adattandosi alla trasformazione del panorama mediatico. Trump ha spesso privilegiato podcast e social media per le sue apparizioni, riconoscendo il potenziale di queste piattaforme nel dialogo diretto con gli elettori. Durante la campagna elettorale, ha accumulato ore di interviste con figure di spicco della manosphere, come Joe Rogan, Lex Fridman e Theo Von, personaggi influenti tra i giovani e spesso critici nei confronti dei media tradizionali. Questa nuova politica porta con sé anche interrogativi sulla definizione di contenuti informativi legittimi, specialmente in un’epoca in cui i social media hanno ridotto i controlli sul fact checking. Le piattaforme digitali hanno permesso la nascita di una nuova generazione di opinion leader, spesso con un linguaggio diretto, privo di filtri e caratterizzato da una forte opposizione alla correttezza politica. Il modello economico di questi creatori si basa su sponsorizzazioni e pubblicità, con i dieci podcast più ascoltati che generano tra i 10 e i 50 milioni di dollari all’anno. Con il ritorno di Trump alla presidenza, la Casa Bianca intende ridefinire il rapporto con l’informazione, ampliando la platea degli interlocutori e garantendo maggiore accesso ai nuovi media. L’inclusione di podcaster e influencer rappresenta un passo decisivo in questa direzione, rafforzando la presenza di voci alternative all’interno del dibattito pubblico. Se da un lato questa evoluzione rispecchia il cambiamento delle abitudini di fruizione delle notizie, dall’altro pone nuove sfide sul fronte della credibilità e della qualità dell’informazione diffusa ai cittadini. (In foto, Karoline Leavitt)
DeepSeek sparisce dagli store, indaga il Garante Privacy

DeepSeek, la piattaforma di intelligenza artificiale cinese, è improvvisamente scomparsa dagli store digitali di Google e Apple in Italia. Gli utenti che tentano di accedere al sito ufficiale della startup cinese riscontrano rallentamenti significativi nella navigazione. All’interno della sezione ‘Service Status’ della piattaforma è stato pubblicato un messaggio che segnala la presenza di un problema tecnico, attualmente in fase di risoluzione. Nel frattempo, il Garante della Privacy italiano ha avviato un’indagine formale per verificare eventuali violazioni nella gestione dei dati personali degli utenti italiani. Nella serata del 28 gennaio, l’Authority ha inoltrato una richiesta di informazioni ufficiale a Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, le due società cinesi che forniscono il servizio, disponibile sia via web che tramite app mobile. Le aziende hanno un termine massimo di 20 giorni per rispondere alle domande formulate dal Garante. L’Authority ha richiesto chiarimenti su quali dati personali vengano raccolti, quali siano le fonti di acquisizione, le finalità del trattamento e la base giuridica che ne consente l’elaborazione. Particolare attenzione viene posta sulla localizzazione dei server, per accertare se i dati vengano conservati in Cina o in altre giurisdizioni. Un altro punto critico riguarda l’uso di web scraping per l’acquisizione di informazioni personali, con la necessità di chiarire se gli utenti – iscritti o meno al servizio – siano stati adeguatamente informati sulla raccolta e il trattamento dei loro dati. L’indagine si concentra anche sull’addestramento dell’algoritmo di intelligenza artificiale, per verificare quali informazioni siano utilizzate nel processo di machine learning. Il Garante ha chiesto dettagli sulla gestione dei bias algoritmici, sulle misure di protezione dei minori e sulla prevenzione di eventuali interferenze sui diritti fondamentali, come nel caso di scenari elettorali o nella diffusione di contenuti sensibili. Interpellato dall’agenzia ANSA, il presidente dell’Autorità per la protezione dei dati personali, Pasquale Stanzione, ha commentato la rimozione di DeepSeek dagli store italiani. “La notizia della sparizione dell’app è di poche ore fa, non so dirle se è merito nostro oppure no”, ha dichiarato. Ha inoltre confermato che, una volta ricevute le risposte dalle società cinesi, verrà avviata un’istruttoria approfondita per valutare il rispetto del Regolamento Generale sulla Protezione dei Dati (GDPR) e adottare eventuali provvedimenti.