Google, con le AI Overviews crollano i clic ai siti di notizie

googles-ai-overview

Google ha intensificato la diffusione delle sue AI Overviews a partire da maggio 2024 negli Stati Uniti, e nuovi dati rivelano l’impatto diretto sulle abitudini di ricerca degli utenti e sul traffico verso i principali editori digitali. Secondo l’analisi di Similarweb, pubblicata da Press Gazette, i riepiloghi generati dall’intelligenza artificiale di Google stanno alimentando un significativo aumento delle ricerche zero-click, cioè quelle in cui gli utenti non cliccano su alcun risultato esterno, penalizzando così il traffico organico verso i siti di notizie. Nel mese di maggio 2025, Mail Online ha registrato AI Overviews attivati per 32 delle sue 100 parole chiave principali. In questi casi, nel 68,8% delle ricerche gli utenti non hanno effettuato alcun clic, una percentuale superiore alla media complessiva del sito che si attesta al 54,9%. Il trend è stato simile nei mesi precedenti: ad aprile 2025 la percentuale di ricerche zero-click con AI Overview era al 69,2%, a marzo al 71,3%. Quando la funzione è stata introdotta, nel maggio 2024, il tasso era del 48%. Anche altri brand come People.com (40 keyword con AI Overview) e Buzzfeed (36 keyword) hanno sperimentato percentuali simili: People ha registrato un 71,2% di ricerche zero-click con AI Overviews e un 65,6% complessivo. Buzzfeed è passato dal 52,8% al 60,7% complessivo, con un picco del 69,2% nei casi in cui erano presenti riepiloghi IA. Tra i casi più rilevanti figura Ouest France, con un incremento di 14,7 punti percentuali nelle ricerche zero-click in un anno (dal 39,8% al 54,5%). Dati comparabili emergono per MSN.com, cresciuto dal 42,4% al 56,1%. I tassi più elevati di zero-click con AI Overview sono stati osservati sul sito giapponese Livedoor (79,5%), sul russo Komsomolskaya Pravda (79%) e su CBS News (75,1%). Tuttavia, non tutti i 100 principali brand hanno mostrato aumenti: circa un quarto ha visto diminuire le ricerche senza clic e 35 hanno registrato meno zero-click in presenza delle panoramiche AI rispetto alla media. Secondo Similarweb, la media globale delle ricerche di notizie senza clic su Google è salita dal 56% al 69% in un anno. Questo dato indica un cambiamento significativo nel comportamento degli utenti, che tendono sempre più a ottenere le risposte direttamente nella pagina dei risultati. Contestualmente, il traffico organico verso i siti editoriali è sceso da oltre 2,3 miliardi di visite al picco a meno di 1,7 miliardi. Una denuncia è stata presentata alla Competition and Markets Authority del Regno Unito, in cui si accusa Google di utilizzare contenuti degli editori per alimentare le AI Overviews senza offrire un’opzione concreta per rinunciare. Secondo la denuncia, rifiutare lo scraping equivale a sparire dai risultati di ricerca, salvo accettare il formato “no snippet”, considerato meno efficace. Un portavoce di Google ha dichiarato la scorsa settimana: “Più di qualsiasi altra azienda, Google dà priorità all’invio di traffico verso il web e ogni giorno inviamo miliardi di clic sui siti web. Le nuove esperienze di intelligenza artificiale nella Ricerca consentono alle persone di porre ancora più domande, creando nuove opportunità di scoperta di contenuti e aziende. Gli editori hanno il controllo su quali contenuti appaiono nella Ricerca, incluse le Panoramiche basate sull’intelligenza artificiale”. Negli Stati Uniti, i dati mostrano che il tasso di ricerche zero-click per i principali siti di notizie è aumentato dal 52,8% al 55,2%. Tra i brand con più AI Overviews a maggio: Us Weekly (40), Mail Online (39), Buzzfeed (36), People (32), Men’s Journal (31) e Mirror US (30). Le testate con i tassi più alti di zero-click in presenza di panoramiche AI includono The Gateway Pundit (88,3%), Yahoo News (78%) e Politico (77,1%). Alcune, come Yahoo News, hanno mostrato una marcata differenza tra le ricerche zero-click con AI Overview (78%) e quelle complessive (51%). Il marchio con la maggiore variazione nell’ultimo anno è il Farmingdale Observer, che ha visto aumentare il tasso di zero-click dal 40,9% al 71,7%. Tra le testate con redazioni statunitensi, l’Independent è passato dal 52,4% al 63,6%. In controtendenza, il New York Times ha registrato un tasso inferiore di zero-click quando erano presenti AI Overview (25,2%) rispetto alla media complessiva (40,1%), sebbene i casi rilevati fossero limitati a sei parole chiave. Google ha affermato di non attivare le AI Overviews per le query di notizie concrete, il che spiegherebbe perché i contenuti lifestyle o evergreen sono più esposti. Nove siti tra i top 100 negli Stati Uniti, tra cui Yahoo Finance e Breitbart, non hanno attivato alcuna panoramica AI su keyword principali. Parallelamente, Similarweb ha registrato una crescita significativa nell’utilizzo di ChatGPT per le notizie, con un aumento del 212% tra gennaio 2024 e maggio 2025 nelle query informative, mentre le ricerche su Google sono calate del 5%. A maggio 2025, ChatGPT ha raggiunto 60,2 milioni di utenti unici sul web e 46,6 milioni tramite app. Tra i siti che ricevono più traffico da ChatGPT figurano Reuters, Business Insider, Wall Street Journal e Forbes, trainati dall’interesse per aggiornamenti finanziari e di mercato in tempo reale.

Editori denunciano Google alla Commissione Europea: “L’IA ci toglie lettori”

google-search

Il 30 giugno 2025, l’Independent Publishers Alliance ha presentato un reclamo antitrust alla Commissione Europea contro Google, accusando l’azienda di abuso di posizione dominante nell’ambito dei servizi di ricerca online basati su intelligenza artificiale. Secondo il documento visionato da Reuters, il colosso tecnologico utilizzerebbe indebitamente i contenuti editoriali per generare le cosiddette Panoramiche AI, ossia riepiloghi automatici mostrati in cima ai risultati di ricerca, a scapito dei link originali degli editori. La denuncia, firmata anche da Foxglove Legal Community Interest Company e Movement for an Open Web, include la richiesta di una misura provvisoria per evitare danni considerati “gravi e irreparabili” all’intero comparto editoriale. Le Panoramiche AI di Google sono attive in oltre 100 paesi e, dal maggio scorso, includono anche contenuti pubblicitari. Secondo i firmatari, la funzione consente all’azienda di sintetizzare risposte utilizzando materiale prelevato dai siti web senza che gli editori possano opporsi, se non rinunciando alla propria presenza nella pagina dei risultati. “Il principale motore di ricerca di Google sta utilizzando in modo improprio i contenuti web per le panoramiche AI di Google nella Ricerca Google, il che ha causato e continua a causare danni significativi agli editori, compresi quelli di notizie, in termini di traffico, lettori e perdite di fatturato”, si legge nel reclamo ufficiale. La coalizione ritiene che il posizionamento prioritario dei riepiloghi generati dall’IA produca una distorsione della concorrenza, in quanto riduce la visibilità dei contenuti originali a vantaggio di un prodotto interno a Google. Inoltre, viene segnalata l’impossibilità per gli editori di escludersi dall’uso dei propri dati nei modelli linguistici IA senza subire penalizzazioni in termini di indicizzazione. “Gli editori che utilizzano la Ricerca Google non hanno la possibilità di scegliere di non far sì che il loro materiale venga acquisito per l’addestramento del modello linguistico di grandi dimensioni dell’intelligenza artificiale di Google e/o che venga scansionato per i riepiloghi, senza perdere la possibilità di comparire nella pagina dei risultati di ricerca generali di Google”, prosegue la nota. Google ha replicato che le sue innovazioni IA incrementano il numero di ricerche e creano nuove opportunità di traffico per i siti web. “Le nuove esperienze di intelligenza artificiale nella Ricerca consentono alle persone di porre ancora più domande, creando nuove opportunità di scoperta di contenuti e aziende”, ha dichiarato un portavoce. L’azienda ha inoltre sottolineato di inviare ogni giorno miliardi di clic ai contenuti dei siti partner, e ha contestato la fondatezza dei dati forniti dai ricorrenti, ritenuti “altamente incompleti e distorti”. Il sito dell’Independent Publishers Alliance descrive l’organizzazione come una comunità non profit a sostegno degli editori indipendenti, senza però elencarne i membri. Tra i promotori dell’azione figura Foxglove, gruppo britannico che si occupa di giustizia digitale. La direttrice esecutiva Rosa Curling ha dichiarato: “Le notizie indipendenti si trovano ad affrontare una minaccia esistenziale: le panoramiche basate sull’intelligenza artificiale di Google. Ecco perché con questa denuncia, Foxglove e i nostri partner stanno sollecitando la Commissione europea, insieme ad altri enti regolatori in tutto il mondo, a prendere posizione e consentire al giornalismo indipendente di non partecipare”. Un reclamo analogo è stato presentato anche all’Autorità garante della concorrenza del Regno Unito, che ha confermato di aver ricevuto la segnalazione. La Commissione Europea, invece, ha rifiutato di commentare ufficialmente. La vicenda europea si inserisce in un contesto globale in cui crescono i contenziosi contro i modelli di intelligenza artificiale generativa, in particolare quando si fondano su contenuti prelevati senza consenso. Un caso simile è stato avviato negli Stati Uniti da Chegg, azienda statunitense di formazione online, che ha intentato una causa federale contro Google, sostenendo che le Panoramiche AI mostrate nei risultati di ricerca abbiano danneggiato il traffico e i ricavi della società. Le sintesi automatiche generate da Google sarebbero infatti costruite anche a partire dai contenuti proprietari di Chegg, senza attribuzione né compenso, penalizzando la visibilità dell’azienda nei risultati di ricerca. Secondo il CEO Nathan Schultz, Google “raccoglie i benefici finanziari dei contenuti di Chegg senza dover spendere un centesimo“, sfruttando la sua posizione dominante. La causa cita le sezioni 1 e 2 dello Sherman Antitrust Act, e arriva in un contesto di difficoltà economiche per Chegg, che ha registrato un calo del 24% nel fatturato annuo del quarto trimestre e una perdita netta di 6,1 milioni di dollari. Nonostante la controversia, Chegg ha avviato collaborazioni con OpenAI, Meta, Anthropic e Mistral per sviluppare strumenti didattici basati su intelligenza artificiale, registrando 3,6 milioni di abbonati, in calo del 21%. Google, da parte sua, ha dichiarato che le Panoramiche AI “indirizzano traffico a una maggiore diversità di siti”, aggiungendo che ogni giorno invia “miliardi di clic” a siti web in tutto il mondo. Nel ricorso, Chegg sottolinea che la propria banca dati da 135 milioni di domande e risposte sarebbe stata impiegata per addestrare i modelli di Google, e allega uno screenshot in cui una risposta generata dall’AI riprende il contenuto del sito Chegg, senza però accreditarlo. L’azienda fa inoltre riferimento a una precedente sentenza federale del 2023 che ha riconosciuto il monopolio di Google nella ricerca online, in seguito a un’azione del Dipartimento di Giustizia.

Leone XIV: “L’IA è strumento, conta l’intenzione di chi la usa”

Leone XIV

Il 20 giugno, in occasione della Seconda Conferenza Annuale su Intelligenza Artificiale, Etica e Governance d’Impresa in corso presso il Palazzo Apostolico, papa Leone XIV ha inviato un messaggio ai partecipanti richiamando l’urgenza di una riflessione seria sulla dimensione etica dell’intelligenza artificiale. Il pontefice ha sottolineato il ruolo della Chiesa nel partecipare a questi dibattiti, definendoli centrali per il futuro della famiglia umana. “Nessuna generazione ha mai avuto un accesso così rapido alla quantità di informazioni ora disponibile grazie all’intelligenza artificiale”, ha scritto il Papa, precisando tuttavia che “l’accesso ai dati – per quanto esteso – non deve essere confuso con l’intelligenza”, poiché “l’autentica saggezza ha più a che fare con il riconoscimento del vero significato della vita che con la disponibilità di dati”. Nel messaggio, il pontefice ha descritto l’intelligenza artificiale come “soprattutto uno strumento”, che trae “gran parte della sua forza etica dalle intenzioni degli individui che lo utilizzano”. Il Papa ha citato esempi di applicazione positiva della tecnologia, ma ha avvertito del rischio che essa venga impiegata per “un guadagno egoistico a spese di altri o, peggio, per fomentare conflitti e aggressioni”. A suo avviso, “insieme al suo straordinario potenziale di beneficio per la famiglia umana, il rapido sviluppo dell’IA solleva anche interrogativi più profondi circa l’uso appropriato di tale tecnologia per generare una società globale più autenticamente giusta e umana”. Il Vaticano ha ribadito il proprio impegno per un confronto costruttivo, mirato a valutare “le implicazioni dell’IA alla luce dello sviluppo integrale della persona umana e della società”, richiamando il rispetto della “dignità di ogni persona umana” e delle “ricchezze culturali e spirituali” dei popoli. Il messaggio include un riferimento diretto alle nuove generazioni: “Tutti noi, ne sono certo – ha aggiunto il Pontefice -, siamo preoccupati per i bambini e i giovani e per le possibili conseguenze dell’uso dell’IA sul loro sviluppo intellettuale e neurologico. I nostri giovani devono essere aiutati, e non ostacolati, nel loro cammino verso la maturità e la vera responsabilità”.

Citynews modera 150mila commenti al mese con l’AI

AI in redazione

Citynews ha implementato un sistema basato su intelligenza artificiale per la moderazione automatica dei commenti pubblicati dagli utenti sulle proprie piattaforme editoriali. L’iniziativa, operativa su tutte le 57 testate del gruppo, è nata per gestire un volume mensile che supera i 150 mila commenti, con l’obiettivo di garantire un ambiente di confronto rispettoso, contenendo allo stesso tempo la diffusione di contenuti offensivi e linguaggi discriminatori. Lo ha confermato Luca Lani, CEO del gruppo editoriale, che ha dichiarato: “Sulle nostre 57 testate gestiamo circa 150 mila commenti al mese ed è evidente quanto l’AI sia ormai indispensabile per affrontare volumi simili. Oggi gli algoritmi riescono a riconoscere insulti mascherati, espressioni discriminatorie e contenuti lesivi del rispetto reciproco. L’obiettivo non è mai sostituire il giudizio umano, ma potenziarlo, liberando i giornalisti dal peso della moderazione quotidiana e permettendo loro di concentrarsi sul cuore del proprio lavoro: l’informazione di qualità“. La scelta di mantenere attiva un’area commenti all’interno delle app rappresenta un caso quasi unico nel panorama editoriale italiano, in cui molte testate hanno progressivamente disabilitato tali spazi per l’impossibilità di gestire comportamenti scorretti da parte degli utenti. Il sistema adottato da Citynews è stato progettato da un team interno composto da tecnici ed esperti editoriali. L’intelligenza artificiale è capace di intercettare automaticamente contenuti problematici, anche partendo da frammenti di testo o espressioni ambigue. Tra i casi rilevati figurano “inizio di un insulto potenzialmente offensivo”, “linguaggio volgare”, “insulti generici” e “incitazioni all’odio”. Il processo non è finalizzato alla censura, ma al rispetto delle regole di community, promuovendo un ambiente digitale inclusivo. Gli utenti possono comunque segnalare manualmente eventuali anomalie o errori del sistema, contribuendo così al suo miglioramento. “Durante la fase di test – ha aggiunto Lani – il sistema ha dimostrato un’ottima precisione anche nei casi più complessi, come gli insulti velati o i doppi sensi. E continua a migliorare: gli utenti potranno segnalare eventuali errori, contribuendo così al suo affinamento costante”. L’adozione dell’intelligenza artificiale da parte di Citynews rappresenta un passo concreto nella direzione di un’informazione partecipativa e attenta al dialogo tra lettori, all’interno di uno spazio pubblico che vuole rimanere aperto ma anche sicuro. Il progetto riflette una strategia editoriale orientata alla responsabilità sociale, che utilizza l’innovazione tecnologica per rafforzare la coesione delle comunità digitali e la fiducia nei media. (Foto di copertina creata con Chat GPT)

Class Editori presenta MF-GPT, prima AI generativa autonoma italiana su 40 anni di contenuti

Da-sinistra-Andrea-Pazzaglia-Roberto-Bernabo-e-Paolo-Panerai-foto-Mf-sito

Class Editori ha annunciato il lancio di MF-GPT, il primo sistema di intelligenza artificiale generativa autonoma sviluppato interamente in Italia. La presentazione è avvenuta durante la quarta edizione degli Stati Generali dell’Intelligenza Artificiale, organizzati dalla stessa casa editrice. Il progetto rappresenta l’esito di un percorso di sviluppo condotto sotto la direzione di Roberto Bernabò, giornalista e responsabile dell’innovazione digitale del gruppo, con il coordinamento operativo di Andrea Pazzaglia, ingegnere nucleare laureato al Politecnico di Milano. MF-GPT è stato costruito utilizzando esclusivamente il patrimonio informativo originale del gruppo, costituito da quasi quattro decenni di contenuti editoriali prodotti attraverso testate cartacee, digitali, canali televisivi – tra cui Class Cnbc, Class Tv Moda e Up Tv – e piattaforme come l’agenzia MF-Newswires e il Centro studi finanziari. La casa editrice ha scelto di non vendere né cedere tali contenuti, rifiutando proposte provenienti da attori esterni del settore tecnologico. Il fondatore Paolo Panerai ha motivato la decisione dichiarando: “Abbiamo deciso di fare come The New York Times, il grande quotidiano americano che non ha ceduto alle offerte dei vari padroni del digitale e ha tenuto per sé tutti i diritti e i contenuti dei suoi media”. Ha poi aggiunto: “AI generativa è una straordinaria evoluzione della tecnologia, ma se diventa monopolio dei dominatori del digitale, il mondo è destinato a un pessimo futuro”. A partire dalla chiusura degli Stati Generali, sarà possibile per i cittadini registrarsi sulla piattaforma MF-GPT e partecipare alla fase di addestramento dell’intelligenza artificiale, contribuendo all’evoluzione del sistema. Secondo quanto comunicato da Class Editori, la costruzione del progetto ha visto anche la partecipazione delle aziende Nebuly per l’analisi dell’interazione utente, Cutowl per l’interfaccia grafica e Softlab per l’infrastruttura tecnologica e la gestione dei dati. “Per tutti noi è una straordinaria soddisfazione tagliare per primi il traguardo dell’AI generativa con MF GPT”, ha affermato Panerai durante la presentazione. Ha poi ricordato l’importanza della collaborazione con l’Università Bocconi, ripercorrendo le origini del gruppo editoriale: “Senza quella spinta fondamentale, nata dalla collaborazione fra la maggiore università di economia in Italia e un gruppo di giornalisti con la vocazione all’informazione autonoma a favore della democrazia, oggi non avremmo potuto mettere a frutto i contenuti di quasi 40 anni di notizie, analisi, dati, commenti al servizio dei cittadini, con il più moderno strumento della tecnologia”. (In foto, da sinistra: Andrea Pazzaglia, Roberto Bernabò e Paolo Panerai. Foto milanofinanza.it)

L’IA penalizza i media e disinforma: il pubblico vuole giornalisti, non i chatbot

Liz Reid

Le testate giornalistiche si trovano ad affrontare un momento cruciale a causa del drastico calo del traffico di ricerca, storica fonte di accesso del pubblico alle notizie. Questa diminuzione, osservata da numerose redazioni attraverso strumenti di analisi come Chartbeat, coincide con l’adozione sempre più estesa da parte di Google di riassunti generati dall’intelligenza artificiale nelle pagine dei risultati. In passato, anche durante la rivoluzione dei social media, Google era rimasto un canale stabile di riferimento per la distribuzione delle notizie. Ora, secondo quanto riportato da Courtney Radsch durante il summit Hacks/Hackers AI x Journalism, “il traffico di ricerca non tornerà mai più”. Al summit, tenutosi recentemente con la partecipazione di redazioni di alto profilo come il Washington Post, il New York Times e l’Associated Press, l’atmosfera era carica di consapevolezza del cambiamento in corso. Secondo Alex Mahadevan, direttore di MediaWise, il tono generale è stato schietto ma anche aperto all’innovazione. La crisi attuale è percepita come un nuovo punto di svolta tecnologico, paragonabile all’arrivo di internet o dei social media. Le preoccupazioni maggiori derivano da due elementi principali. Da un lato, la perdita di traffico verso le testate ha conseguenze dirette sulle entrate pubblicitarie e sull’efficacia del giornalismo nel raggiungere il pubblico. Dall’altro, i riassunti IA implementati da Google spesso impediscono agli utenti di cliccare sui link alle fonti originali, anche quando esistono contenuti accurati e approfonditi. Questo comporta non solo una perdita di visibilità, ma anche una potenziale disinformazione, poiché i modelli generativi possono restituire risposte errate o “allucinate”. Tuttavia, i dati presentati da Mahadevan mostrano anche un quadro più articolato. Uno studio condotto da Nick Hagar della Northwestern University ha rilevato che meno del 2% delle query rivolte a chatbot come ChatGPT riguardano notizie. Inoltre, una ricerca con Ben Toff dell’Università del Minnesota ha evidenziato che meno della metà della popolazione utilizza regolarmente strumenti di intelligenza artificiale per informarsi. Una quota significativa degli intervistati ha espresso esplicitamente di non voler ricevere le notizie da un chatbot. Il vero impatto, secondo Mahadevan, arriva dall’integrazione dell’intelligenza artificiale nei motori di ricerca. Le AI overview di Google sintetizzano risposte a domande degli utenti (come quelle sul nuovo papa) precludendo spesso la consultazione di fonti giornalistiche legittime. Inoltre, anche se in pochi usano oggi i chatbot per informarsi, l’eventuale adozione futura rischia di sottrarre traffico di referral non tracciabile. Nel corso delle discussioni è emersa una riflessione sull’evoluzione necessaria del modello di business giornalistico. Mahadevan osserva che molte testate hanno ancora una forte dipendenza dalla pubblicità, alimentata proprio dal traffico. Se questo si riduce drasticamente, diventa urgente ripensare il rapporto col pubblico. L’esempio di Craigslist è ricorrente: ha sottratto entrate agli annunci tradizionali offrendo un servizio più accessibile. Analogamente, Google oggi offre comodità agli utenti, e le redazioni devono interrogarsi su come offrire valore aggiunto. Elite Truong, ex vicepresidente dell’American Press Institute, ha proposto un modello centrato sul pubblico più che sugli strumenti. La sua sessione, focalizzata sulla soddisfazione dei bisogni informativi secondo la piramide di Maslow, ha suggerito un approccio che vada oltre l’ottimizzazione SEO o l’automazione redazionale. In particolare, la sfida è capire se le redazioni stiano davvero servendo i bisogni informativi delle diverse fasce di pubblico. Mahadevan sottolinea che l’intelligenza artificiale rappresenta anche un’opportunità per migliorare la personalizzazione dei contenuti. A titolo esemplificativo, cita un caso locale: un articolo sul nuovo ristorante Melting Pot a Central Avenue può interessare in modo diverso un residente anziano e un giovane appena trasferito. La differenziazione delle modalità di fruizione — video per i più giovani, newsletter per altri — può aiutare a raggiungere pubblici differenti con lo stesso contenuto base. Infine, Mahadevan osserva che la domanda centrale da porsi non riguarda solo la sopravvivenza del giornalismo, ma il suo scopo e il valore per la società. L’IA sta stravolgendo non solo i flussi informativi ma anche il modo in cui il lavoro giornalistico viene percepito e distribuito. In questo scenario, i giornalisti possono riscoprire un ruolo centrale offrendo contenuti affidabili, contestualizzati e umanamente rilevanti, proprio mentre gran parte del pubblico mostra diffidenza verso l’automazione informativa. (in foto, Liz Reid, responsabile della ricerca di Google – AP Photo/Jeff Chiu)

Papa Leone XIV studia un’etica per l’intelligenza artificiale

Papa Leone XIV.png

Papa Leone XIV ha delineato fin dal primo giorno del suo pontificato una direzione precisa: collocare l’essere umano e il lavoro al centro del discorso pubblico e della riflessione ecclesiale, in un’epoca dominata dall’avanzata della intelligenza artificiale. La scelta del nome papale, evocativa della storica enciclica Rerum Novarum promulgata nel 1891 da Leone XIII, rappresenta un segnale chiaro dell’intenzione di affrontare, in chiave moderna, i nodi centrali della questione sociale. Fonti vaticane indicano che Leone XIV potrebbe pubblicare una nuova enciclica, provvisoriamente ribattezzata Rerum Digitalium, dedicata ai diritti dei lavoratori e alla giustizia sociale nell’ambito del cosiddetto umanesimo digitale. Nel suo primo discorso pubblico, Papa Leone XIV ha posto l’accento sulla necessità di un utilizzo etico e responsabile dell’intelligenza artificiale, denunciando il rischio di una crescente dipendenza tecnologica in grado di compromettere la libertà decisionale e la responsabilità morale dell’essere umano. In linea con il pensiero del suo predecessore Francesco, Prevost ha richiamato la recente nota dottrinale vaticana Antiqua et Nova, pubblicata nel gennaio 2025, che sottolinea l’importanza di un approccio etico integrale nei confronti della tecnologia. Il documento afferma che l’intelligenza umana deve restare il fondamento di ogni processo decisionale, ribadendo che il dono dell’intelletto è parte essenziale dell’essere stati creati a immagine di Dio. L’orientamento teologico e sociale del pontefice è influenzato dalla tradizione agostiniana, alla quale egli stesso ha fatto riferimento durante l’omelia di insediamento, citando la necessità di promuovere cooperazione internazionale, solidarietà e sostenibilità ambientale. La futura enciclica potrebbe quindi configurarsi come un’estensione della dottrina sociale della Chiesa nella contemporaneità, offrendo linee guida globali su come l’umanità debba affrontare la transizione verso un’economia e una società sempre più automatizzate. “Ho pensato di prendere il nome di Leone XIV perché il Papa Leone XIII, con la storica Enciclica Rerum Novarum, affrontò la questione sociale nel contesto della prima rivoluzione industriale; oggi la Chiesa offre a tutti il suo patrimonio di dottrina sociale per rispondere a un’altra rivoluzione industriale e agli sviluppi dell’intelligenza artificiale”, ha dichiarato il neo pontefice.

Meme con mitra e croce: Trump fa infuriare la Chiesa

Donald Trump ha pubblicato sui social un meme che lo ritrae vestito da papa, con mitra dorata e crocifisso al collo, mentre alza il dito in segno di ammonimento. L’immagine, rilanciata sul suo social Truth, è apparsa a pochi giorni dall’apertura del conclave che dovrà scegliere il successore di Papa Francesco. Il contenuto ha suscitato forti reazioni nel mondo cattolico: la Conferenza dei vescovi di New York ha dichiarato che “non c’è niente di intelligente o divertente” nell’iniziativa. Secondo fonti vicine alla Chiesa, molti fedeli hanno percepito l’immagine come blasfema e irrispettosa.

Giornata Mondiale della Libertà di Stampa. IFJ: ” È ora di mettere l’AI nell’agenda sociale”

IFJ Word Press Freedom Day 2025

In occasione della Giornata Mondiale della Libertà di Stampa, che si celebra ogni anno il 3 maggio, la Federazione Internazionale dei Giornalisti (IFJ) ha lanciato un appello globale per inserire l’intelligenza artificiale al centro del dialogo sociale tra sindacati dei giornalisti e organizzazioni mediatiche. Il messaggio arriva in linea con il tema proposto quest’anno dall’UNESCO, dedicato all’impatto dell’IA sul giornalismo e sulla libertà di stampa. L’IFJ invita tutti gli attori del settore a lavorare su regole comuni per garantire che la tecnologia venga utilizzata in modo etico, senza mettere a rischio i posti di lavoro, la qualità dell’informazione e l’indipendenza editoriale. Nelle proprie raccomandazioni, adottate nel giugno 2024, la Federazione ha affermato che l’IA non può sostituire i giornalisti umani, e che i contenuti generati da algoritmi non devono essere considerati giornalismo a meno che non siano sottoposti a supervisione e controllo umano. L’IFJ evidenzia che attività come il fact-checking e il pensiero critico restano compiti centrali del giornalismo, e non possono essere delegati a sistemi automatici. Tra le principali preoccupazioni vi sono pregiudizi, stereotipi e errori fattuali che l’IA può amplificare. In particolare, la Federazione segnala la diffusione di deepfake, definiti “un attacco diretto alla democrazia e al diritto fondamentale delle persone a un’informazione affidabile e indipendente“. La crescita dell’IA all’interno delle redazioni è già in corso: la tecnologia viene utilizzata per automatizzare compiti ripetitivi, analizzare dati e produrre testi. Secondo la IFJ, però, l’adozione di queste tecnologie deve avvenire tramite accordi che includano trasparenza, formazione professionale per tutti i giornalisti, anche freelance, e il rispetto del principio che le decisioni editoriali spettano a figure umane. Inoltre, l’organizzazione chiede che venga regolato l’utilizzo delle opere giornalistiche per addestrare i sistemi di IA, garantendo ai giornalisti una giusta retribuzione e la possibilità di rifiutare l’impiego dei propri contenuti in assenza di un accordo di licenza. Il Segretario Generale della IFJ, Anthony Bellanger, ha dichiarato che “il futuro del giornalismo deve mantenere la supervisione umana, la trasparenza e la responsabilità al centro dell’utilizzo dell’IA”. La Federazione invita giornalisti, sindacati, editori e decisori politici a collaborare nella definizione di linee guida condivise, con l’obiettivo di stabilire limiti chiari, proteggere i diritti degli autori e rafforzare la contrattazione collettiva nei processi di trasformazione digitale.

Martin Wolf, editorialista del Financial Times, vittima di truffa deepfake

Martin Wolf FT

Martin Wolf, editorialista del Financial Times e tra i più noti giornalisti economici al mondo, è stato vittima di una sofisticata truffa online basata su un deepfake diffuso sui social media. Il raggiro è emerso a marzo, quando alcuni conoscenti del giornalista hanno segnalato video in cui un falso Wolf invitava gli utenti a unirsi a un gruppo WhatsApp per investimenti finanziari. I contenuti erano stati promossi su Facebook e Instagram attraverso annunci pubblicitari a pagamento. I video, realizzati con tecnologie di intelligenza artificiale, replicavano con realismo il volto e la voce del giornalista, inducendo centinaia di migliaia di utenti a credere all’autenticità del messaggio. Secondo i dati raccolti dalla Ad Library di Meta, le inserzioni contraffatte hanno raggiunto oltre 970.000 utenti solo nell’Unione Europea. L’obiettivo della truffa era attrarre uomini e donne over 45 all’interno di un gruppo WhatsApp denominato “Global Stock Elite Club”, dove venivano diffuse presunte analisi finanziarie con promesse di rendimenti fino al 150%. In realtà, si trattava di uno schema “pump and dump”, ovvero una manipolazione artificiale del valore di titoli reali — come Hims & Hers Health Inc, quotata al New York Stock Exchange — per poi rivenderli rapidamente lasciando gli investitori con azioni svalutate. I truffatori hanno utilizzato anche pagine Facebook falsificate, alcune delle quali rinominate “Martin Wolf”, per dare credibilità alla truffa. Alcuni annunci risultano ancora attivi, nonostante la rimozione di altri da parte di Meta, che monetizza queste inserzioni pur sostenendo di impiegare tecnologie di riconoscimento facciale per rimuovere i contenuti fraudolenti. Wolf, nell’articolo pubblicato sul Financial Times, ha evidenziato come la piattaforma non sia riuscita a bloccare in modo efficace la diffusione del contenuto, pur essendo stata allertata. I contatti WhatsApp utilizzati per la truffa erano associati a numeri del Regno Unito, e il gruppo era accessibile solo tramite invito. Gli amministratori, celati dietro profili fittizi, erano gli unici autorizzati a scrivere, mentre gli altri partecipanti potevano solo visualizzare e reagire. I messaggi proponevano un periodo di prova gratuito, durante il quale si cercava di guadagnare la fiducia degli utenti con grafici alterati e loghi di società finanziarie reali, non coinvolte nel raggiro. La truffa ha riguardato anche altri volti noti, inclusi personaggi pubblici italiani come Fabio Fazio, Enrico Mentana, Mara Venier, Giovanna Botteri e la presidente del Consiglio Giorgia Meloni. In tutti i casi, deepfake e annunci sponsorizzati sono stati impiegati per costruire messaggi ingannevoli. Le piattaforme di Meta risultano centrali nella dinamica di diffusione, in quanto veicolo primario dei contenuti. Secondo Wolf, è lecito domandarsi se il colosso tecnologico sia incapace di identificare in tempo questi abusi o se, invece, non ci provi nemmeno.