I podcast AI del Washington Post contengono errori e citazioni false

WP redazione

Il Washington Post riconosce errori nei nuovi podcast personalizzati generati dall’intelligenza artificiale distribuiti tramite la propria app, dopo segnalazioni interne su imprecisioni, citazioni errate e contenuti non conformi agli standard editoriali del quotidiano. Pochi giorni fa, il quotidiano statunitense aveva annunciato il debutto di un nuovo strumento audio basato su AI, pensato per offrire agli utenti brevi podcast su misura. Secondo il comunicato ufficiale, gli utenti possono scegliere gli argomenti preferiti, decidere la durata del briefing, selezionare i conduttori virtuali e, in futuro, fare domande attraverso la tecnologia “Ask The Post”. A meno di 48 ore dal lancio, però, diversi dipendenti hanno segnalato problemi rilevanti. Quattro fonti interne hanno riferito che i podcast AI contenevano errori di pronuncia, ma anche problemi più seri: citazioni attribuite in modo sbagliato, frasi inventate, commenti aggiunti automaticamente e passaggi in cui le parole di una fonte venivano presentate come se fossero la posizione ufficiale del giornale. Secondo le stesse fonti, questi errori hanno fatto scattare l’allarme tra i dirigenti editoriali. In un canale Slack interno, i responsabili della redazione hanno riconosciuto che il prodotto non rispetta gli standard del quotidiano. In un messaggio condiviso con Semafor, la responsabile degli standard Karen Pensiero ha definito gli errori “frustranti per tutti noi”. Un altro redattore ha espresso forte preoccupazione in un messaggio interno, citando anche il clima di critiche esterne. “È davvero sorprendente che tutto questo sia stato permesso”, ha scritto. “Non avrei mai immaginato che il Washington Post avrebbe deliberatamente distorto il proprio giornalismo e poi diffuso questi errori su larga scala al nostro pubblico. E pochi giorni dopo, la Casa Bianca ha aperto un sito dedicato ad attaccare i giornalisti, in particolare i nostri, anche per articoli con correzioni o note editoriali allegate. Se fossimo seri, rimuoveremmo immediatamente questo strumento”. Secondo un membro dello staff citato da Semafor, in redazione l’uso dell’intelligenza artificiale è già diffuso per attività come la trascrizione e la ricerca, ma la mancanza di una supervisione umana diretta nei podcast ha sollevato dubbi sulla qualità editoriale e sui rischi per l’affidabilità del giornale. Le difficoltà emerse con i podcast AI si inseriscono in un contesto più ampio di tensioni interne legate ai prodotti audio. Negli ultimi anni, i vertici del Post hanno discusso varie strategie per rafforzare il settore, ritenuto meno competitivo rispetto a testate come New York Times e Wall Street Journal, che hanno podcast di grande successo. In passato erano stati valutati anche progetti poi abbandonati o interrotti, mentre altre iniziative audio erano ancora in fase iniziale prima dei cambiamenti nella dirigenza avvenuti nel 2024. Le divergenze si sono concentrate soprattutto sul rapporto tra redazione e team di prodotto. Alcuni responsabili tecnologici ritengono che gli errori dell’AI facciano parte di una fase sperimentale e che il servizio sia ancora in test. La redazione, invece, ha evidenziato i rischi legati alla pubblicazione di contenuti non pienamente controllati. Il Washington Post non è l’unica testata a sperimentare strumenti simili. Yahoo ha lanciato un prodotto quasi identico, mentre Business Insider ha avviato articoli generati dall’intelligenza artificiale con supervisione umana. Anche Semafor ha testato progetti interni per migliorare la produttività. In altri casi, come raccontato dal direttore del New Yorker David Remnick, alcuni lettori hanno accolto positivamente contenuti audio letti dall’AI, soprattutto per la maggiore velocità di ascolto. Resta incerto se i podcast basati sull’intelligenza artificiale riusciranno a raggiungere un pubblico ampio e sostenibile dal punto di vista economico. Nel caso del Post, il lancio difficile si aggiunge a una fase di riposizionamento più generale, che include nuovi prodotti digitali e cambiamenti editoriali dopo le polemiche legate alle elezioni del 2024 e alle scelte del proprietario Jeff Bezos. Un portavoce del Washington Post ha rifiutato di commentare le discussioni interne, rimandando a una dichiarazione di Bailey Kattleman, responsabile del prodotto e del design, pubblicata da Digiday, secondo cui i podcast personalizzati sono “un prodotto sperimentale sotto molti aspetti”. (In foto, la redazione del Washington Post)

Google presenta Gemini 3: un’unica AI per testo, immagini e audio. “Ci piace pensare che aiuterà tutti a dare vita a qualsiasi idea”

Gemini 3

Google ha presentato Gemini 3, il nuovo modello di intelligenza artificiale progettato per funzionare in tutto il mondo e integrato nei principali servizi dell’azienda, con l’obiettivo di migliorare la ricerca, la produzione di contenuti e la capacità di capire testi, immagini, audio e video. La società ha spiegato che il modello nasce per aiutare utenti, sviluppatori e aziende a usare l’AI in modo più naturale e veloce. Durante il lancio, i responsabili di Google hanno definito Gemini 3 “il miglior modello al mondo” per creazione e interpretazione dei contenuti, descrivendolo come un sistema capace di trasformare diverse informazioni in un’unica forma di linguaggio digitale. Koray Kavukcuoglu, a capo dell’AI di Google, ha spiegato ai giornalisti: “È il nostro modello più intelligente. Ci piace pensare che aiuterà tutti a dare vita a qualsiasi idea”. Il nuovo modello sarà disponibile nell’app Gemini, che oggi conta oltre 650 milioni di utenti mensili, e integrato nel motore di ricerca di Google, utilizzato da più di due miliardi di persone ogni mese. La versione più potente, Gemini 3 Pro, è già accessibile agli utenti dell’app e permette di combinare testo, foto e audio come se fossero parte di uno stesso linguaggio. Con questa tecnologia, per esempio, una serie di immagini può diventare un ricettario completo, oppure un video educativo può trasformarsi in schede di ripasso generate in tempo reale. Nella modalità di ricerca potenziata dall’AI, Gemini 3 Pro offre risultati con immagini, tabelle e simulazioni, basandosi su una versione aggiornata della tecnica chiamata “query fan-out”, progettata per capire meglio l’intento di chi pone la domanda e trovare contenuti che prima non venivano individuati. Demis Hassabis, amministratore delegato di Google DeepMind, ha spiegato che l’azienda sta inserendo l’AI “ovunque” nei propri prodotti. Ha osservato che il mercato dell’intelligenza artificiale presenta segnali di possibile sopravvalutazione, ma ha aggiunto che Google utilizza già questi sistemi in servizi come Google Maps, Gmail e la ricerca. “Nello scenario peggiore, faremo ancora più affidamento su tutto questo”, ha affermato Hassabis. “In quello migliore, abbiamo il portafoglio più ampio e la ricerca più all’avanguardia”. Google ha mostrato anche gli strumenti costruiti attorno all’AI, come NotebookLM, che genera podcast partendo da documenti di testo, e AI Studio, che permette di creare versioni preliminari di applicazioni usando comandi semplici. L’azienda sta sperimentando la stessa tecnologia in settori come la robotica e il gaming, ritenuti in grado di offrire sviluppi importanti nei prossimi anni. Dal 18 novembre Gemini 3 è disponibile nell’app e all’interno di AI Overviews, la funzione che riassume automaticamente le informazioni nella ricerca. Durante le dimostrazioni, Google ha mostrato che il modello può creare grafici per spiegare concetti complessi, come il problema dei tre corpi in fisica, direttamente mentre l’utente formula la richiesta. Robby Stein, vicepresidente di Google Search, ha spiegato che nell’ultimo anno è cresciuto in modo significativo l’utilizzo delle ricerche in linguaggio naturale e che la ricerca per immagini è aumentata del 70 per cento, grazie alla capacità del modello di analizzare fotografie in modo più accurato. Negli ultimi mesi, Google ha accelerato i propri investimenti nel settore per recuperare terreno dopo l’arrivo di ChatGPT nel 2022, che aveva portato OpenAI al centro del dibattito sull’AI. Oggi, secondo Bloomberg, Google sarebbe vicina a un accordo con Apple per integrare Gemini in Siri, mentre il nuovo strumento di generazione di immagini Nano Banana sta ottenendo un forte interesse da parte degli utenti. Nel report pubblicato a luglio, Alphabet ha comunicato che AI Overviews ha contribuito a un aumento del 10 per cento delle ricerche effettuate tramite Google. Nel frattempo, il nuovo modello GPT-5 di OpenAI non ha soddisfatto alcune aspettative del settore, con commenti sul tono ritenuto troppo formale e su prestazioni considerate meno incisive del previsto. Google ha presentato Gemini 3 come un sistema in grado di migliorare i servizi esistenti e di funzionare come base per il prossimo ciclo di innovazioni legate all’AI.

Google riavvia centrale nucleare per l’intelligenza artificiale e firma contratto di 25 anni con NextEra Energy

Duane Arnold Energy Center

Negli Stati Uniti, una centrale nucleare ormai chiusa tornerà in funzione per fornire energia ai data center di intelligenza artificiale di Google. L’annuncio è arrivato lunedì dallo stesso colosso tecnologico, che ha spiegato di aver siglato un accordo con NextEra Energy, l’azienda che gestisce l’impianto. La centrale, chiamata Duane Arnold Energy Center e situata nello stato dell’Iowa, era stata dismessa nel 2020 ma sarà riattivata all’inizio del 2029. L’elettricità prodotta sarà destinata in gran parte a Google, che ha accettato di acquistarla per i prossimi 25 anni. Le operazioni legate all’intelligenza artificiale (IA) richiedono enormi quantità di energia, e con la crescita dei servizi digitali basati su questa tecnologia, le grandi aziende del settore stanno puntando sempre più sul nucleare come fonte stabile e priva di emissioni dirette di carbonio. Nel 2024, anche Microsoft aveva annunciato un piano per riavviare un reattore nella centrale di Three Mile Island, in Pennsylvania, con l’obiettivo di alimentare i propri centri dati. Allo stesso modo, Meta – la società madre di Facebook – ha firmato un contratto ventennale per utilizzare tutta l’energia prodotta da una centrale nucleare in Illinois. Oltre a questo progetto, Google ha fatto sapere che intende acquistare energia da reattori nucleari di nuova generazione, sviluppati dall’azienda Kairos Power, a partire dal 2030.

Il Washington Post lancia Ripple per pubblicare (con l’AI) articoli di opinionisti da Substack

WP sede

Il Washington Post lancerà un nuovo programma editoriale chiamato Ripple, con l’obiettivo di ospitare contenuti di opinione provenienti da fonti esterne, tra cui altri giornali statunitensi, autori di Substack e, in futuro, anche scrittori non professionisti. Il progetto, non ancora annunciato ufficialmente, è stato confermato da quattro fonti a conoscenza dell’iniziativa, che hanno parlato in forma anonima. Ripple sarà accessibile gratuitamente sul sito e sull’app del quotidiano, al di fuori del paywall, e opererà esternamente rispetto alla sezione opinioni del giornale. Secondo le fonti, il lancio operativo del programma è previsto per l’estate, con una fase successiva – in autunno – in cui sarà avviata la sperimentazione dei contenuti generati da collaboratori occasionali. Tali contenuti potranno essere redatti con l’assistenza di Ember, uno strumento basato sull’intelligenza artificiale sviluppato dal Post. Ember fornirà suggerimenti strutturali e indicazioni narrative in tempo reale, con funzioni come un indicatore di “forza della storia”, sezioni sulla tesi, i punti di supporto e il finale, oltre a prompt guidati per lo sviluppo dell’articolo. Il quotidiano ha recentemente assunto un redattore dedicato al coordinamento del progetto e sta valutando partnership con testate come The Salt Lake Tribune, The Dispatch, The Atlanta Journal-Constitution e il giornalista Matt Yglesias. Tuttavia, alcune di queste realtà hanno già rifiutato. Lauren Gustus, CEO del Tribune, ha dichiarato: “Preferiamo concentrarci sulla costruzione di relazioni e fiducia qui nello Utah”. Andrew Morse del Journal-Constitution ha affermato che il piano del Post “non è in linea con la nostra strategia”, aggiungendo: “Pensiamo che la scalabilità sia la guerra del passato”. Jeff Bezos, proprietario del Post e fondatore di Amazon, ha promosso la creazione di Ripple come parte di un piano più ampio per ampliare il bacino di lettori del giornale oltre le élite costiere. Secondo due fonti, il programma potrebbe raggiungere fino a 38 milioni di adulti statunitensi. Il Post sta anche esaminando la possibilità di proporre pacchetti di abbonamento con le testate partner coinvolte. Negli ultimi mesi, la sezione opinioni del giornale ha vissuto profondi cambiamenti. Bezos ha deciso di interrompere il sostegno ufficiale a candidati politici, bloccando un editoriale a favore della vicepresidente Kamala Harris. A febbraio, il proprietario ha richiesto una linea editoriale più allineata a “libertà personali e libero mercato”, portando alle dimissioni del direttore della sezione, David Shipley. Il progetto Ripple è frutto di un lavoro di ricerca e sviluppo iniziato oltre un anno fa, con prime sperimentazioni locali condotte nella città di Kansas City, Missouri. L’approvazione definitiva è avvenuta a gennaio e i lavori sono entrati nel vivo in aprile. Il progetto è guidato da Lippe Oosterhof, ex dirigente di Reuters e Yahoo, attualmente anche consulente per Symbolic.ai. Tra i nomi coinvolti nei retroscena del progetto figura anche Jennifer Rubin, ex editorialista del Post e co-fondatrice della testata The Contrarian. Secondo una fonte, quest’ultima era stata inizialmente considerata tra i potenziali partner, ma in seguito esclusa. Alla notizia, Rubin ha reagito ironicamente: “Hanno letto la mia lettera di dimissioni pubblica?”. Una portavoce del Post ha rifiutato di commentare.

NYTimes e Amazon insieme per contenuti AI su articoli, ricette e sport

29biz-times-jpkg-superJumbo

Il New York Times ha stipulato un accordo pluriennale con Amazon per la concessione in licenza dei propri contenuti editoriali, che verranno utilizzati per l’addestramento dei sistemi di intelligenza artificiale generativa del colosso tecnologico. L’annuncio è stato diffuso giovedì dalla New York Times Company, che ha precisato che la collaborazione consentirà l’integrazione di articoli, ricette di NYT Cooking e contenuti sportivi di The Athletic in diverse esperienze offerte agli utenti Amazon, incluse quelle gestite tramite Alexa. Secondo quanto comunicato, si tratta del primo accordo di questo tipo per il prestigioso quotidiano statunitense. Non sono stati resi noti i termini finanziari, ma è presumibile che l’intesa preveda una remunerazione per l’utilizzo dei materiali protetti da copyright. Meredith Kopit Levien, amministratore delegato della New York Times Company, ha dichiarato allo staff: “L’accordo è coerente con il nostro principio consolidato secondo cui il giornalismo di alta qualità merita di essere pagato”. Il materiale concesso in licenza sarà impiegato da Amazon per alimentare i propri modelli linguistici e potrebbe comparire, con attribuzione e link, in risposte vocali o testuali fornite agli utenti. L’iniziativa si inserisce nel contesto di una rapida evoluzione dell’IA, che ha portato numerosi editori a scegliere tra azioni legali e accordi commerciali in risposta allo sfruttamento delle loro pubblicazioni da parte di sistemi di AI generativa. Nel 2023, lo stesso New York Times aveva intentato causa a OpenAI e Microsoft per presunta violazione del copyright, accusando le aziende di aver utilizzato milioni di articoli senza autorizzazione né compenso. OpenAI e Microsoft avevano respinto le accuse. A differenza di allora, in questo caso si è scelto un percorso negoziale. Negli ultimi mesi, anche altri grandi gruppi editoriali, tra cui Axel Springer, Condé Nast e News Corp, hanno siglato accordi di licenza per garantire un ritorno economico sull’uso dei propri contenuti da parte di sistemi di intelligenza artificiale. Il Washington Post, di proprietà del fondatore di Amazon Jeff Bezos, ha siglato un accordo con OpenAI il mese scorso. Amazon, da parte sua, ha accelerato i propri investimenti nel settore dell’AI dopo il rilascio di ChatGPT da parte di OpenAI alla fine del 2022. Tra le operazioni più significative si segnala l’accordo da almeno 330 milioni di dollari con la startup Adept, seguito da una collaborazione simile con Covariant, cofondata dal professor Pieter Abbeel dell’Università della California, Berkeley. Entrambi i ricercatori ora dirigono un laboratorio interno di Amazon focalizzato sullo sviluppo della cosiddetta intelligenza artificiale generale (AGI). Parallelamente, Amazon ha investito 4 miliardi di dollari in Anthropic, start-up concorrente di OpenAI, ottenendo accesso ai suoi modelli e rendendoli disponibili ai clienti del servizio di cloud computing AWS. Il nuovo accordo con il New York Times potrebbe quindi rafforzare le basi informative utilizzate nei progetti di ricerca avanzata di Amazon, orientati alla costruzione di sistemi capaci di replicare capacità cognitive umane. L’uso di contenuti giornalistici da parte di software di AI ha suscitato preoccupazione tra gli editori per il rischio di “allucinazioni” algoritmiche, ossia risposte contenenti informazioni errate attribuite erroneamente a fonti affidabili.

Giornata Mondiale della Libertà di Stampa. IFJ: ” È ora di mettere l’AI nell’agenda sociale”

IFJ Word Press Freedom Day 2025

In occasione della Giornata Mondiale della Libertà di Stampa, che si celebra ogni anno il 3 maggio, la Federazione Internazionale dei Giornalisti (IFJ) ha lanciato un appello globale per inserire l’intelligenza artificiale al centro del dialogo sociale tra sindacati dei giornalisti e organizzazioni mediatiche. Il messaggio arriva in linea con il tema proposto quest’anno dall’UNESCO, dedicato all’impatto dell’IA sul giornalismo e sulla libertà di stampa. L’IFJ invita tutti gli attori del settore a lavorare su regole comuni per garantire che la tecnologia venga utilizzata in modo etico, senza mettere a rischio i posti di lavoro, la qualità dell’informazione e l’indipendenza editoriale. Nelle proprie raccomandazioni, adottate nel giugno 2024, la Federazione ha affermato che l’IA non può sostituire i giornalisti umani, e che i contenuti generati da algoritmi non devono essere considerati giornalismo a meno che non siano sottoposti a supervisione e controllo umano. L’IFJ evidenzia che attività come il fact-checking e il pensiero critico restano compiti centrali del giornalismo, e non possono essere delegati a sistemi automatici. Tra le principali preoccupazioni vi sono pregiudizi, stereotipi e errori fattuali che l’IA può amplificare. In particolare, la Federazione segnala la diffusione di deepfake, definiti “un attacco diretto alla democrazia e al diritto fondamentale delle persone a un’informazione affidabile e indipendente“. La crescita dell’IA all’interno delle redazioni è già in corso: la tecnologia viene utilizzata per automatizzare compiti ripetitivi, analizzare dati e produrre testi. Secondo la IFJ, però, l’adozione di queste tecnologie deve avvenire tramite accordi che includano trasparenza, formazione professionale per tutti i giornalisti, anche freelance, e il rispetto del principio che le decisioni editoriali spettano a figure umane. Inoltre, l’organizzazione chiede che venga regolato l’utilizzo delle opere giornalistiche per addestrare i sistemi di IA, garantendo ai giornalisti una giusta retribuzione e la possibilità di rifiutare l’impiego dei propri contenuti in assenza di un accordo di licenza. Il Segretario Generale della IFJ, Anthony Bellanger, ha dichiarato che “il futuro del giornalismo deve mantenere la supervisione umana, la trasparenza e la responsabilità al centro dell’utilizzo dell’IA”. La Federazione invita giornalisti, sindacati, editori e decisori politici a collaborare nella definizione di linee guida condivise, con l’obiettivo di stabilire limiti chiari, proteggere i diritti degli autori e rafforzare la contrattazione collettiva nei processi di trasformazione digitale.

A New York il 28/3 il via al lab AI per redazioni: selezionati 23 da 12 paesi

AI-Journalism-Lab-Adoption-Collage-e1742398788916

Il 28 marzo 2025 prenderà il via a New York l’AI Journalism Lab: Adoption Cohort, un programma internazionale promosso dall’AI Journalism Labs della Craig Newmark Graduate School of Journalism presso la CUNY, in collaborazione con Microsoft. La nuova coorte è composta da 23 professionisti del giornalismo provenienti da 12 paesi – tra cui Canada, Colombia, Etiopia, Indonesia, Nigeria, Filippine, Porto Rico, Romania, Turchia, Stati Uniti e Uruguay – selezionati per partecipare a un percorso formativo sulla adozione dell’intelligenza artificiale nelle redazioni. Il laboratorio, della durata di oltre tre mesi, si svolgerà virtualmente fino al 2 luglio 2025, ad eccezione dell’incontro inaugurale che si terrà in presenza alla Newmark J-School il 28 e 29 marzo. L’obiettivo è fornire ai partecipanti competenze e strumenti per implementare pratiche basate su intelligenza artificiale nei flussi di lavoro giornalistici. Secondo quanto dichiarato da Marie Gilot, direttore esecutivo di J+, i partecipanti sono già coinvolti attivamente nell’uso dell’AI nel giornalismo e il programma mira a rafforzarne le capacità in termini di leadership, innovazione e sicurezza nell’introduzione di nuove tecnologie. I profili selezionati comprendono giornalisti, produttori, reporter e manager, con esperienze che vanno dal giornalismo locale e internazionale alla gestione prodotti, dal coinvolgimento del pubblico alla narrazione basata sui dati. Noreen Gillespie, Journalism Director per Microsoft, ha sottolineato che l’intelligenza artificiale rappresenta un’opportunità strategica per le redazioni, ma che il processo di adozione può risultare complesso. Il programma è stato progettato per aiutare i partecipanti a integrare in modo efficace l’AI nel giornalismo, con particolare attenzione all’impatto sulle comunità servite. (Credits photo)

Google filigrana le immagini AI

Google-logo-Googleplex-headquarters-Mountain-View-California

Google ha annunciato un importante aggiornamento per contrastare la disinformazione e la manipolazione delle immagini generate dall’intelligenza artificiale, introducendo filigrane digitali per le foto modificate con il suo strumento Magic Editor. Questa innovazione, basata sulla tecnologia SynthID sviluppata da DeepMind, permette di incorporare un tag di metadati digitali direttamente nell’immagine, rendendo possibile identificare se sia stata alterata tramite strumenti di IA generativa. L’implementazione di questa funzionalità ha l’obiettivo di rendere più chiaro agli utenti quando un contenuto visivo è stato modificato artificialmente, senza alterarne l’aspetto visibile. Lo strumento Magic Editor, disponibile anche per i possessori di iPhone, consente di rimuovere o aggiungere elementi in modo realistico, aprendo però la porta alla diffusione di contenuti potenzialmente ingannevoli. La nuova filigrana si applica automaticamente alle immagini trasformate con la funzione “reimagine”, fornendo un livello aggiuntivo di trasparenza. Google ha già implementato SynthID nelle immagini generate dal modello Imagen, lo stesso utilizzato dal chatbot Gemini per la creazione di contenuti grafici. Questa iniziativa si inserisce in un contesto più ampio che vede altre aziende, come Adobe, adottare soluzioni simili per garantire la provenienza dei contenuti digitali. Entrambe le società fanno parte della Coalition for Content Provenance and Authenticity (C2PA), un consorzio che si impegna a definire standard condivisi per la gestione dell’autenticazione delle immagini e dei video generati dall’IA. Google sottolinea che la filigrana non può essere rimossa facilmente e può essere rilevata solo attraverso strumenti specializzati. Inoltre, Google Foto include la sezione “Informazioni su questa immagine”, che permette agli utenti di verificare se una foto è stata modificata con Magic Editor e accedere a dettagli come la data di creazione originale. Questo sistema non è infallibile: Google avverte che modifiche minime potrebbero sfuggire all’identificazione di SynthID. Per questo motivo, esperti del settore ritengono che la filigrana da sola non sia sufficiente a garantire una tracciabilità affidabile dei contenuti digitali su larga scala. Il futuro della lotta alla disinformazione visiva passerà quindi attraverso l’adozione di strategie diversificate, in cui tecnologie come SynthID saranno integrate con altre metodologie per migliorare l’autenticazione dei contenuti generati dall’intelligenza artificiale.

Trump, Musk e Netanyahu: i media italiani cadono in un fake IA

Trump, Musk e Netanyahu

La mattina del 4 febbraio 2025, numerose testate italiane come Ansa, RaiNews, La Stampa, la Repubblica e Fanpage hanno pubblicato una foto che ritrae il premier israeliano Benjamin Netanyahu insieme al presidente statunitense Donald Trump e al suo braccio destro Elon Musk. L’immagine è stata successivamente ripresa anche dal TG1, TG2 e TG3, rafforzando l’idea che fosse una testimonianza visiva dell’incontro tra Netanyahu e Trump alla Casa Bianca per discutere della guerra tra Israele e Palestina e delle relazioni bilaterali tra i due paesi. Tuttavia, emerge un problema cruciale: la foto non è autentica ma frutto dell’intelligenza artificiale. I media italiani l’hanno diffusa come se fosse reale, senza verificare la sua origine. La creazione dell’immagine è da attribuire a un profilo su X chiamato “George Orwell” (@OrwellTruth1984), che ha condiviso l’elaborazione digitale il 3 febbraio 2025 accompagnata da un breve testo in ebraico. Fin da subito, l’utente ha chiarito che si trattava di un’immagine generata con IA, ma nonostante ciò, ha iniziato a circolare senza il necessario contesto. Un dettaglio importante è che l’immagine originale riportava il nome utente di @OrwellTruth1984, segnalando la sua provenienza. Tuttavia, una volta diffusa, questa informazione è stata rimossa, alimentando la percezione che fosse una foto reale. Resosi conto della situazione, l’autore ha pubblicato un secondo post per ribadire che si trattava di un’elaborazione creata con software di intelligenza artificiale. Nonostante questa smentita, molti media hanno continuato a trattare l’immagine come una prova concreta dell’incontro.

Micklethwait (Bloomberg): Paywall e IA proteggono il giornalismo, ma con rischi simili al tabacco

John Micklethwait

John Micklethwait, direttore editoriale di Bloomberg, ha recentemente affermato che i paywall rappresentano “il modo più sicuro per garantire posti di lavoro giornalistici”. Durante la sua lezione annuale alla City University di Londra, ha sottolineato come, dopo un periodo in cui molti nel settore offrivano contenuti gratuiti, la stampa di qualità stia ora ottenendo risultati positivi grazie all’adozione dei paywall. I PAYWALL: LA SALVEZZA DEL GIORNALISMO DI QUALITÀ Secondo Micklethwait, i paywall rappresentano “il modo più sicuro per garantire posti di lavoro giornalistici”. Questa dichiarazione arriva dopo anni in cui molte testate hanno optato per contenuti gratuiti, una strategia che, secondo il direttore editoriale, ha danneggiato la sostenibilità economica della stampa di qualità. Micklethwait ha evidenziato due principali motivi per implementare i paywall. Sicurezza economica e occupazionale. Micklethwait ha citato l’esempio di The Economist, che ha resistito alle difficoltà del mercato adottando fin dall’inizio un modello a pagamento. Anche Bloomberg segue questa filosofia: oltre al famoso terminale finanziario, l’azienda ha attirato circa 740.000 abbonati paganti nel 2023, registrando una crescita del 50% rispetto all’anno precedente. Indipendenza editoriale. Il passaggio agli abbonamenti, secondo Micklethwait, permette alle redazioni di evitare influenze esterne, come quelle derivanti da sponsor o inserzionisti pubblicitari. Il focus si sposta interamente sul soddisfare i lettori paganti, garantendo così decisioni etiche più semplici e una maggiore libertà editoriale. MAGGIORE ACCESSO AI CONTENUTI Per quanto riguarda l’intelligenza artificiale (IA), Micklethwait ha dichiarato che Bloomberg utilizza l’automazione in oltre un terzo dei circa 5.000 articoli pubblicati quotidianamente. Ciò include l’uso di computer per monitorare i social media alla ricerca di parole chiave e l’implementazione di riassunti automatizzati in cima agli articoli, che permettono ai lettori di comprendere rapidamente il contenuto. Ha inoltre previsto che l’IA avrà un impatto maggiore sul lavoro degli editori rispetto a quello dei reporter, facilitando compiti come la verifica ortografica, l’aderenza allo stile editoriale e la verifica dei fatti. LE PREVISIONI DI BLOOMBERG Un altro tema centrale del discorso è stato il ruolo crescente dell’intelligenza artificiale nel giornalismo. Bloomberg ha già integrato l’IA in molti processi editoriali e Micklethwait ha fatto 8 previsioni sul futuro dell’IA nel settore: L’intelligenza artificiale cambierà il lavoro dei giornalisti più di quanto non li sostituisca Le ultime notizie continueranno ad avere un valore enorme, ma per periodi di tempo sempre più brevi. La rendicontazione avrà ancora un valore enorme Il cambiamento sarà probabilmente maggiore per gli editori Il mondo della Ricerca lascerà il posto a Domanda e Risposta Le allucinazioni saranno più facili da risolvere nel testo che nel video o nell’audio La personalizzazione diventerà sempre più una realtà La regolamentazione sta arrivando. John Micklethwait non ritiene che l’intelligenza artificiale ridurrà il numero di giornalisti, ma piuttosto che aumenterà la portata e la profondità della copertura giornalistica. Grazie all’automazione, Bloomberg copre più aziende e in modo più approfondito rispetto al passato, mantenendo lo stesso numero di dipendenti. Tra gli utilizzi specifici dell’IA in redazione, Micklethwait prevede la riformattazione delle storie e la combinazione di articoli esistenti per creare bozze iniziali. Ad esempio, un algoritmo potrebbe sintetizzare più articoli per produrre rapidamente una bozza su eventi complessi, come la caduta di Assad in Siria, che i giornalisti affinerebbero successivamente. Le breaking news continueranno a mantenere un valore cruciale, con l’IA che accelera il processo decisionale: il tempo necessario affinché i prezzi di mercato reagiscano alle notizie è passato da dieci a cinque secondi, un trend destinato a proseguire. Tuttavia, Micklethwait sottolinea che il giornalismo originale rimarrà insostituibile, poiché l’IA non può persuadere fonti umane a rivelare informazioni sensibili o segrete. Infine, l’IA avrà un ruolo maggiore nella modifica e revisione degli articoli, aiutando a controllare ortografia, stile e fatti fondamentali, lasciando ai redattori il compito di rifinire i contenuti. LA FINE DELLA RICERCA TRADIZIONALE John Micklethwait ha previsto che la ricerca tradizionale, come la conosciamo oggi, è destinata a scomparire a causa dell’adozione di motori di ricerca basati su intelligenza artificiale e linguaggio naturale. Ha sottolineato l’importanza di proteggere i contenuti editoriali e di negoziare accordi con aziende come OpenAI solo per periodi limitati e somme definite, evitando di cedere eccessivo controllo o valore. Micklethwait ha richiesto maggiore chiarezza legale da parte di tribunali e parlamenti su cosa possa essere utilizzato gratuitamente dall’IA. Ha anche evidenziato che Bloomberg non ha ancora firmato alcun accordo con aziende di intelligenza artificiale generativa, pur riconoscendo che tali intese potrebbero sostenere il giornalismo in futuro, a seconda dell’evoluzione legislativa. Nonostante le sfide poste dalla disinformazione generata dall’IA, Micklethwait rimane ottimista. Ha paragonato la proliferazione di contenuti di bassa qualità all’epoca del New York Sun, un giornale scandalistico che, nonostante il successo iniziale, fu superato da testate che offrivano notizie utili e affidabili. Infine, ha espresso fiducia nel fatto che il settore del giornalismo oggi sia meglio preparato a rispondere alle nuove tecnologie, prevedendo una transizione più rapida verso contenuti di qualità rispetto al passato. DIPENDENZA DA AI, COME DAL TABACCO John Micklethwait ha dichiarato che l’intelligenza artificiale potrebbe finalmente risolvere il “puzzle” della personalizzazione delle notizie, un obiettivo che considera il “Santo Graal del giornalismo”. Tuttavia, ha avvertito dell’esistenza di un “lato oscuro”, rappresentato dalla dipendenza creata dagli algoritmi di raccomandazione sui social media. Ha criticato il fatto che le società di social media non siano responsabili dei contenuti che ospitano, grazie a regole come la Sezione 230, che le equiparano a compagnie telefoniche, esonerandole dalla responsabilità editoriale. Micklethwait ha paragonato questa situazione alle strategie difensive dell’industria del tabacco, che in passato sosteneva che fumare fosse una scelta personale. Con l’avanzare dell’IA, ha sollevato preoccupazioni etiche, come il rischio di manipolazione emotiva: ad esempio, adolescenti che sviluppano relazioni con entità artificiali. Micklethwait è convinto che, proprio come è avvenuto per l’industria del tabacco, anche i giganti della tecnologia saranno chiamati a rispondere delle conseguenze del loro prodotto, soprattutto man mano che cresce la consapevolezza del pubblico sui loro effetti dannosi. BLOOMBERG VS ZXC Micklethwait ha anche criticato la controversa sentenza della Corte Suprema del Regno Unito nel caso Bloomberg vs ZXC. Questa decisione vieta alle