Meme con mitra e croce: Trump fa infuriare la Chiesa

Donald Trump ha pubblicato sui social un meme che lo ritrae vestito da papa, con mitra dorata e crocifisso al collo, mentre alza il dito in segno di ammonimento. L’immagine, rilanciata sul suo social Truth, è apparsa a pochi giorni dall’apertura del conclave che dovrà scegliere il successore di Papa Francesco. Il contenuto ha suscitato forti reazioni nel mondo cattolico: la Conferenza dei vescovi di New York ha dichiarato che “non c’è niente di intelligente o divertente” nell’iniziativa. Secondo fonti vicine alla Chiesa, molti fedeli hanno percepito l’immagine come blasfema e irrispettosa.

Giornata Mondiale della Libertà di Stampa. IFJ: ” È ora di mettere l’AI nell’agenda sociale”

IFJ Word Press Freedom Day 2025

In occasione della Giornata Mondiale della Libertà di Stampa, che si celebra ogni anno il 3 maggio, la Federazione Internazionale dei Giornalisti (IFJ) ha lanciato un appello globale per inserire l’intelligenza artificiale al centro del dialogo sociale tra sindacati dei giornalisti e organizzazioni mediatiche. Il messaggio arriva in linea con il tema proposto quest’anno dall’UNESCO, dedicato all’impatto dell’IA sul giornalismo e sulla libertà di stampa. L’IFJ invita tutti gli attori del settore a lavorare su regole comuni per garantire che la tecnologia venga utilizzata in modo etico, senza mettere a rischio i posti di lavoro, la qualità dell’informazione e l’indipendenza editoriale. Nelle proprie raccomandazioni, adottate nel giugno 2024, la Federazione ha affermato che l’IA non può sostituire i giornalisti umani, e che i contenuti generati da algoritmi non devono essere considerati giornalismo a meno che non siano sottoposti a supervisione e controllo umano. L’IFJ evidenzia che attività come il fact-checking e il pensiero critico restano compiti centrali del giornalismo, e non possono essere delegati a sistemi automatici. Tra le principali preoccupazioni vi sono pregiudizi, stereotipi e errori fattuali che l’IA può amplificare. In particolare, la Federazione segnala la diffusione di deepfake, definiti “un attacco diretto alla democrazia e al diritto fondamentale delle persone a un’informazione affidabile e indipendente“. La crescita dell’IA all’interno delle redazioni è già in corso: la tecnologia viene utilizzata per automatizzare compiti ripetitivi, analizzare dati e produrre testi. Secondo la IFJ, però, l’adozione di queste tecnologie deve avvenire tramite accordi che includano trasparenza, formazione professionale per tutti i giornalisti, anche freelance, e il rispetto del principio che le decisioni editoriali spettano a figure umane. Inoltre, l’organizzazione chiede che venga regolato l’utilizzo delle opere giornalistiche per addestrare i sistemi di IA, garantendo ai giornalisti una giusta retribuzione e la possibilità di rifiutare l’impiego dei propri contenuti in assenza di un accordo di licenza. Il Segretario Generale della IFJ, Anthony Bellanger, ha dichiarato che “il futuro del giornalismo deve mantenere la supervisione umana, la trasparenza e la responsabilità al centro dell’utilizzo dell’IA”. La Federazione invita giornalisti, sindacati, editori e decisori politici a collaborare nella definizione di linee guida condivise, con l’obiettivo di stabilire limiti chiari, proteggere i diritti degli autori e rafforzare la contrattazione collettiva nei processi di trasformazione digitale.

Martin Wolf, editorialista del Financial Times, vittima di truffa deepfake

Martin Wolf FT

Martin Wolf, editorialista del Financial Times e tra i più noti giornalisti economici al mondo, è stato vittima di una sofisticata truffa online basata su un deepfake diffuso sui social media. Il raggiro è emerso a marzo, quando alcuni conoscenti del giornalista hanno segnalato video in cui un falso Wolf invitava gli utenti a unirsi a un gruppo WhatsApp per investimenti finanziari. I contenuti erano stati promossi su Facebook e Instagram attraverso annunci pubblicitari a pagamento. I video, realizzati con tecnologie di intelligenza artificiale, replicavano con realismo il volto e la voce del giornalista, inducendo centinaia di migliaia di utenti a credere all’autenticità del messaggio. Secondo i dati raccolti dalla Ad Library di Meta, le inserzioni contraffatte hanno raggiunto oltre 970.000 utenti solo nell’Unione Europea. L’obiettivo della truffa era attrarre uomini e donne over 45 all’interno di un gruppo WhatsApp denominato “Global Stock Elite Club”, dove venivano diffuse presunte analisi finanziarie con promesse di rendimenti fino al 150%. In realtà, si trattava di uno schema “pump and dump”, ovvero una manipolazione artificiale del valore di titoli reali — come Hims & Hers Health Inc, quotata al New York Stock Exchange — per poi rivenderli rapidamente lasciando gli investitori con azioni svalutate. I truffatori hanno utilizzato anche pagine Facebook falsificate, alcune delle quali rinominate “Martin Wolf”, per dare credibilità alla truffa. Alcuni annunci risultano ancora attivi, nonostante la rimozione di altri da parte di Meta, che monetizza queste inserzioni pur sostenendo di impiegare tecnologie di riconoscimento facciale per rimuovere i contenuti fraudolenti. Wolf, nell’articolo pubblicato sul Financial Times, ha evidenziato come la piattaforma non sia riuscita a bloccare in modo efficace la diffusione del contenuto, pur essendo stata allertata. I contatti WhatsApp utilizzati per la truffa erano associati a numeri del Regno Unito, e il gruppo era accessibile solo tramite invito. Gli amministratori, celati dietro profili fittizi, erano gli unici autorizzati a scrivere, mentre gli altri partecipanti potevano solo visualizzare e reagire. I messaggi proponevano un periodo di prova gratuito, durante il quale si cercava di guadagnare la fiducia degli utenti con grafici alterati e loghi di società finanziarie reali, non coinvolte nel raggiro. La truffa ha riguardato anche altri volti noti, inclusi personaggi pubblici italiani come Fabio Fazio, Enrico Mentana, Mara Venier, Giovanna Botteri e la presidente del Consiglio Giorgia Meloni. In tutti i casi, deepfake e annunci sponsorizzati sono stati impiegati per costruire messaggi ingannevoli. Le piattaforme di Meta risultano centrali nella dinamica di diffusione, in quanto veicolo primario dei contenuti. Secondo Wolf, è lecito domandarsi se il colosso tecnologico sia incapace di identificare in tempo questi abusi o se, invece, non ci provi nemmeno.

IA e giornalismo, il 7 maggio corso Fnsi a Roma

AI e giornalismo

Si terrà mercoledì 7 maggio 2025, dalle 15 alle 19, nella sala Walter Tobagi della Fnsi a Roma, il corso di formazione “Intelligenza artificiale, dalla teoria alla pratica: conoscerla, gestirla e come difendersi”. Organizzato in collaborazione con l’Associazione Stampa Romana, l’appuntamento vedrà la partecipazione del professor Massimiliano Nicolini, esperto di applicazioni dell’intelligenza artificiale e cybersecurity. Il programma prevede una parte teorica, dedicata al funzionamento delle IA, in particolare delle generative, e una sessione pratica su strumenti utili alle attività giornalistiche. Per partecipare sarà necessario dotarsi di laptop con browser Chrome o Edge e editor di testo. Le iscrizioni sono aperte sulla piattaforma formazionegiornalisti.it fino al 4 maggio e daranno diritto a quattro crediti formativi. Tra i relatori anche la segretaria generale della Fnsi, Alessandra Costante, e il segretario di Stampa Romana, Stefano Ferrante.  

Reuters integra AI Suite nei workflow di produzione video

Reuters building

Reuters ha annunciato il lancio della Reuters AI Suite, una nuova gamma di strumenti basati su intelligenza artificiale progettata per assistere nella produzione video. Lo strumento è stato sviluppato internamente per rispondere agli elevati standard di accuratezza e affidabilità dell’agenzia, ed è destinato ai clienti media di Reuters News Agency e Imagen Sports. Il lancio ufficiale avverrà durante il NAB Show di Las Vegas, e la suite sarà inizialmente disponibile in prova per un numero limitato di clienti. La Reuters AI Suite include una serie di funzionalità pensate per ottimizzare i flussi di lavoro video, migliorare l’efficienza produttiva e valorizzare i contenuti. Tra le caratteristiche principali figurano servizi avanzati di trascrizione e traduzione, integrabili nelle infrastrutture dei clienti tramite la Reuters API o la piattaforma di gestione delle risorse multimediali Imagen. Questi strumenti consentono, ad esempio, di generare traduzioni istantanee utilizzabili come sottotitoli e di produrre trascrizioni multilingue che arricchiscono i metadati delle risorse video, rendendole ricercabili in diverse lingue. Reuters afferma che la suite permette di semplificare e velocizzare la ricerca e l’uso dei contenuti video, facendo risparmiare tempo e risorse pur mantenendo alta la qualità del prodotto finale. Secondo Alphonse Hardel, responsabile di Reuters News Agency, l’obiettivo è supportare i clienti “in ogni fase dello sviluppo dei contenuti, dalla pianificazione e produzione alla distribuzione, monetizzazione e protezione della proprietà intellettuale”. Nel corso del 2025, la suite verrà ampliata con nuovi strumenti sviluppati da partner fidati, tra cui rilevamento delle scene e voce sintetica, per soddisfare un numero crescente di casi d’uso. Il software sarà aggiornato regolarmente in parallelo all’evoluzione delle tecnologie di intelligenza artificiale. Il lancio avviene in un momento in cui il settore dei media è chiamato ad affrontare sfide complesse e ad adattarsi rapidamente ai cambiamenti nei comportamenti del pubblico e nelle tecnologie. Con la Reuters AI Suite, l’agenzia mira a democratizzare l’accesso all’intelligenza artificiale, consentendo anche alle redazioni più piccole di sfruttarne il potenziale senza dover affrontare ingenti investimenti iniziali. Il progetto si inserisce nella strategia di Thomson Reuters, che destina ogni anno 200 milioni di dollari allo sviluppo dell’intelligenza artificiale, consolidando la posizione del gruppo nell’innovazione tecnologica per il settore dei media.

Nasce “Il Foglio AI”, il primo quotidiano scritto dall’AI

Claudio Cerasa

Il quotidiano “Il Foglio” lancia una sfida innovativa: dal 18 marzo, per un mese, in edicola arriverà un’edizione interamente realizzata con intelligenza artificiale. Come riportato da Primaonline, l’iniziativa, annunciata dal direttore Claudio Cerasa, segna un primato globale: nessun altro giornale ha mai sperimentato un’AI in grado di scrivere articoli, titoli, catenacci e persino ironizzare sui fatti del giorno. Un progetto ambizioso che metterà alla prova il ruolo della tecnologia nel giornalismo e la capacità dell’AI di trasformare la teoria in pratica concreta. “Un altro Foglio, un nuovo Foglio, fatto con un’intelligenza diversa”, spiega Cerasa, sottolineando come il giornale affronterà un mese di sperimentazione in cui i giornalisti porranno le domande e il Foglio AI fornirà le risposte. L’obiettivo è testare l’impatto dell’intelligenza artificiale sul lavoro redazionale e sulle dinamiche quotidiane della redazione. Il quotidiano, composto da quattro pagine, conterrà ventidue articoli e tre editoriali e, secondo il direttore, sarà ancora più ottimista dell’edizione tradizionale, capace anche di entrare in polemica con la linea del giornale stesso. L’esperimento non si limiterà a verificare la funzionalità della tecnologia, ma porrà anche domande più profonde sulla natura del giornalismo e sul futuro della scrittura. Cosa significa affidare l’informazione a un’intelligenza non umana? Può l’AI garantire lo stesso livello di analisi critica e profondità di pensiero dei giornalisti in carne e ossa? Alla fine del mese, il team del Foglio tirerà le somme e analizzerà l’impatto dell’AI sulla produzione giornalistica e sul rapporto con i lettori. Il Foglio AI uscirà ogni giorno dal martedì al venerdì, dando vita a un’inedita collaborazione tra uomo e macchina. Un esperimento che promette di sollevare riflessioni su un futuro in cui l’intelligenza artificiale non sarà più solo un’ipotesi teorica, ma una realtà tangibile nell’ecosistema mediatico. Se l’iniziativa suscita curiosità o perplessità, i lettori potranno esprimere opinioni e suggerimenti scrivendo a lettere@ilfoglio.it. (In copertina, Claudio Cerasa)

L’IA distingue opinioni e notizie al Los Angeles Times

Patrick Soon-Shiong

Il Los Angeles Times ha introdotto un innovativo strumento basato sull’intelligenza artificiale, denominato Insights, per valutare il tono politico degli articoli di opinione e fornire ai lettori una panoramica di punti di vista alternativi. Questa iniziativa si inserisce nella visione del proprietario Patrick Soon-Shiong, che intende rendere il giornale più equo ed equilibrato, limitando la predominanza di una sola narrativa nelle opinioni pubblicate. Il sistema Insights assegna un’etichetta politica agli articoli di opinione, collocandoli lungo uno spettro che va da sinistra a destra. Ad esempio, un pezzo sull’uso dell’intelligenza artificiale nei documentari è stato classificato come centro-sinistra, mentre un articolo critico nei confronti degli influencer Andrew e Tristan Tate è stato etichettato come di destra. Inoltre, ogni articolo viene accompagnato da un elenco di punti di vista alternativi, generati da algoritmi, per offrire ai lettori una maggiore pluralità di opinioni. Il nuovo approccio ha suscitato reazioni contrastanti all’interno della redazione. La decisione di Soon-Shiong di impedire l’endorsement a Kamala Harris durante la campagna elettorale ha già provocato la dimissione di figure di spicco della sezione opinioni, tra cui Mariel Garza e il premio Pulitzer Robert Greene. Il sindacato dei giornalisti ha espresso forti preoccupazioni, sottolineando che l’uso dell’intelligenza artificiale per analizzare articoli d’opinione potrebbe compromettere la fiducia nei media e che il giornale dovrebbe invece investire nelle risorse umane per migliorare la qualità del giornalismo. Parallelamente, il Washington Post, sotto la guida di Jeff Bezos, ha adottato una politica simile, stabilendo che la sezione opinioni dovrà pubblicare solo articoli che promuovano le libertà personali e i mercati liberi. Per distinguere con maggiore chiarezza le notizie dalle opinioni, il Los Angeles Times ha introdotto anche l’etichetta Voices, che identificherà tutti i contenuti con un punto di vista soggettivo. Questo nuovo approccio mira a fornire ai lettori una maggiore trasparenza nella distinzione tra fatti e commenti, evitando confusione tra reportage e articoli di opinione. Tuttavia, l’uso dell’intelligenza artificiale per classificare e contestualizzare le opinioni solleva interrogativi sulla sua affidabilità. Il Los Angeles Times stesso ha riconosciuto che gli algoritmi potrebbero produrre risultati imperfetti o incompleti, invitando i lettori a segnalare eventuali errori. Inoltre, la valutazione politica degli articoli sarà effettuata in collaborazione con Particle.News, una startup fondata nel 2024 da ex ingegneri di Twitter, il che sottolinea il crescente ruolo della tecnologia nell’influenzare il giornalismo. (In copertina, Patrick Soon-Shiong)

IAA Italia lancia Osservatorio sulla GenAI e comunicazione

iaa_osservatorio_ai_generativa_974951

IAA Italia annuncia il lancio dell’Osservatorio sull’Intelligenza Artificiale Generativa, un’iniziativa volta a esplorare l’impatto della GenAI nel mondo della comunicazione e del marketing. Questa tecnologia sta rivoluzionando il settore, offrendo nuove opportunità ma sollevando anche interrogativi su creatività, etica, diritto d’autore e regolamentazione. Per questo motivo, l’Osservatorio si propone di supportare aziende, agenzie e professionisti con strumenti pratici, analisi strategiche e best practice per un utilizzo consapevole della tecnologia. L’idea nasce da Vincenzo Piscopo, Chief Commercial & Digital Officer di Banijay e consigliere di IAA Italia, con l’obiettivo di approfondire le potenzialità e le implicazioni della GenAI nei diversi ambiti della comunicazione. “L’Osservatorio rappresenta un’iniziativa fondamentale per comprendere e guidare l’adozione responsabile dell’intelligenza artificiale generativa. Solo attraverso una collaborazione tra industria, accademia e istituzioni possiamo garantire un utilizzo etico e sostenibile di queste tecnologie”, afferma Piscopo. IAA Italia, da sempre promotrice di un’innovazione responsabile, mette a disposizione la propria rete di esperti multidisciplinari per fornire un punto di riferimento nell’evoluzione della comunicazione pubblicitaria. Secondo Marianna Ghirlanda, CEO di BBDO e Presidente di IAA Italia, il lancio dell’Osservatorio è un passo cruciale per offrire analisi e strategie concrete, aiutando il settore ad adottare la GenAI in modo efficace. L’iniziativa si avvale del contributo di diversi esperti: Debora Magnavacca, Board Member & Executive Producer di AKITA FILM, porta la sua esperienza nel campo della produzione audiovisiva; Cristiano Cominotto, avvocato e Founder & Managing Partner di AL Assistenza Legale, offre competenze fondamentali in materia di diritto e regolamentazione; Stefano Rocco, Chief Growth Officer di YAM112003, fornisce una visione strategica sull’innovazione digitale. Grazie a questi professionisti, l’Osservatorio si pone come un punto di riferimento per comprendere e sfruttare al meglio il potenziale della GenAI, garantendo un approccio consapevole e strategico all’intelligenza artificiale generativa nel mondo della comunicazione.

DeepSeek sparisce dagli store, indaga il Garante Privacy

DeepSeek

DeepSeek, la piattaforma di intelligenza artificiale cinese, è improvvisamente scomparsa dagli store digitali di Google e Apple in Italia. Gli utenti che tentano di accedere al sito ufficiale della startup cinese riscontrano rallentamenti significativi nella navigazione. All’interno della sezione ‘Service Status’ della piattaforma è stato pubblicato un messaggio che segnala la presenza di un problema tecnico, attualmente in fase di risoluzione. Nel frattempo, il Garante della Privacy italiano ha avviato un’indagine formale per verificare eventuali violazioni nella gestione dei dati personali degli utenti italiani. Nella serata del 28 gennaio, l’Authority ha inoltrato una richiesta di informazioni ufficiale a Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, le due società cinesi che forniscono il servizio, disponibile sia via web che tramite app mobile. Le aziende hanno un termine massimo di 20 giorni per rispondere alle domande formulate dal Garante. L’Authority ha richiesto chiarimenti su quali dati personali vengano raccolti, quali siano le fonti di acquisizione, le finalità del trattamento e la base giuridica che ne consente l’elaborazione. Particolare attenzione viene posta sulla localizzazione dei server, per accertare se i dati vengano conservati in Cina o in altre giurisdizioni. Un altro punto critico riguarda l’uso di web scraping per l’acquisizione di informazioni personali, con la necessità di chiarire se gli utenti – iscritti o meno al servizio – siano stati adeguatamente informati sulla raccolta e il trattamento dei loro dati. L’indagine si concentra anche sull’addestramento dell’algoritmo di intelligenza artificiale, per verificare quali informazioni siano utilizzate nel processo di machine learning. Il Garante ha chiesto dettagli sulla gestione dei bias algoritmici, sulle misure di protezione dei minori e sulla prevenzione di eventuali interferenze sui diritti fondamentali, come nel caso di scenari elettorali o nella diffusione di contenuti sensibili. Interpellato dall’agenzia ANSA, il presidente dell’Autorità per la protezione dei dati personali, Pasquale Stanzione, ha commentato la rimozione di DeepSeek dagli store italiani. “La notizia della sparizione dell’app è di poche ore fa, non so dirle se è merito nostro oppure no”, ha dichiarato. Ha inoltre confermato che, una volta ricevute le risposte dalle società cinesi, verrà avviata un’istruttoria approfondita per valutare il rispetto del Regolamento Generale sulla Protezione dei Dati (GDPR) e adottare eventuali provvedimenti.

Sfida globale nell’IA: OpenAI e Big Tech rincorrono DeepSeek. “Forniremo modelli migliori”

Intelligenza artificiale

Dopo il brusco calo dovuto all’irruzione di DeepSeek, la startup cinese di intelligenza artificiale, i mercati statunitensi hanno ritrovato stabilità. Il Nasdaq ha chiuso con un rialzo del 2%, mentre le Big Tech hanno visto un rimbalzo significativo, con Nvidia che ha recuperato il 9% dopo la perdita del 17% registrata il giorno precedente. Il timore che i modelli di IA possano funzionare con meno chip del previsto aveva scatenato vendite massicce, ma la situazione sembra ora più sotto controllo. La competizione tecnologica tra Stati Uniti e Cina si fa sempre più serrata. Sam Altman, CEO di OpenAI, ha riconosciuto su X la potenza di R1 di DeepSeek, sottolineando che il modello cinese eccelle soprattutto per efficienza e costo. La novità preoccupa le aziende americane, che devono giustificare agli investitori l’enorme spesa per lo sviluppo di modelli sempre più potenti. Altman ha dichiarato che OpenAI continuerà a innovare per mantenere la leadership, ma la concorrenza si fa agguerrita. Sul fronte politico, la Casa Bianca monitora con attenzione l’avanzata cinese nel settore. Il presidente Trump ha definito l’arrivo di DeepSeek una “sveglia” per l’industria americana, riconoscendo tuttavia che la concorrenza potrebbe ridurre i costi di sviluppo. Resta da vedere se gli Stati Uniti rafforzeranno ulteriormente le restrizioni sulle esportazioni di microchip verso la Cina, dopo il giro di vite imposto da Biden prima di lasciare la presidenza. Anche l’Europa osserva con attenzione: Ursula von der Leyen ha annunciato che l’IA sarà un pilastro della strategia per la competitività europea. Intanto, il Garante della privacy italiano ha aperto un’istruttoria su DeepSeek, come già fatto con OpenAI nel 2023. L’Autorità ha richiesto dettagli su raccolta, trattamento e conservazione dei dati, inclusi quelli utilizzati per l’addestramento degli algoritmi. La sezione privacy di DeepSeek menziona l’archiviazione dei dati su server cinesi, ma il Garante vuole maggiore chiarezza. La società ha 20 giorni per rispondere, altrimenti potrebbe incorrere in sanzioni o nell’oscuramento del servizio in Italia. Nel precedente caso di ChatGPT, OpenAI aveva sospeso il servizio in Italia a seguito dell’intervento del Garante, per poi riattivarlo con modifiche alle politiche sulla privacy. Recentemente, l’Autorità ha inflitto a OpenAI una multa di 15 milioni di euro per violazioni passate, contro cui la società ha presentato ricorso.