AGCOM, AI Act e Digital Services Act: come cambia la lotta contro disinformazione online e fake news

Nel sistema europeo che regola internet e l’intelligenza artificiale, AGCOM è oggi uno dei punti chiave per controllare i contenuti online generati o manipolati artificialmente, soprattutto quando questi possono influenzare democrazia, informazione e opinione pubblica. È quanto emerge dall’analisi firmata da Elisa Giomi, Commissaria dell’Autorità per le comunicazioni, che mette in relazione il Digital Services Act e l’AI Act, spiegando quali strumenti esistono già per contrastare disinformazione e deepfake, senza fermare lo sviluppo dell’intelligenza artificiale. AGCOM è stata designata Coordinatore dei Servizi Digitali in base al Digital Services Act, il regolamento europeo entrato in vigore nel novembre 2022 che stabilisce regole comuni per le piattaforme online, come social network, motori di ricerca e siti di condivisione video. Questo ruolo assegna all’Autorità il compito di vigilare sul funzionamento dell’ecosistema digitale e sulla protezione degli utenti. Meno conosciuto è il fatto che queste competenze si intrecciano con l’AI Act, il primo regolamento europeo pensato per disciplinare l’uso dell’intelligenza artificiale, soprattutto quando viene impiegata nei servizi online. Uno degli ambiti più delicati riguarda i contenuti manipolati artificialmente, cioè testi, immagini o video creati o modificati con l’AI, che possono sembrare veri anche quando non lo sono. Nel maggio del 2023 hanno circolato online video in cui attori famosi come Emma Stone e Brad Pitt sembravano sostenere la propaganda russa contro l’Ucraina. In realtà si trattava di interviste deepfake, generate con l’intelligenza artificiale e doppiate in francese e tedesco. Prima di essere rimosse, queste clip hanno raccolto migliaia di visualizzazioni sui social network e sulle piattaforme video. Di fronte a contenuti di questo tipo, diventa sempre più difficile capire cosa sia vero. Come scrive Lee McIntyre nel libro “Post-verità” (edito da Utet), è richiesta una vera e propria “fatica epistemica”, cioè uno sforzo mentale per distinguere la realtà da ciò che la imita. Un contenuto può riportare informazioni corrette, ma essere prodotto artificialmente, come avviene nel caso dell’automated journalism, dove articoli vengono scritti da software basati su AI. In questi casi i fatti possono essere veri, ma la scrittura non è umana. Esistono però situazioni ancora più complesse. Un’inchiesta di Newsguard, pubblicata nell’aprile 2024, ha individuato numerose content farm capaci di creare interi siti web automatizzati. Con costi che vanno da 30 a 350 dollari, questi sistemi pubblicano decine di articoli al giorno usando AI generativa, producendo notizie false o parzialmente vere su politici specifici. I testi sono spesso riscritture di notizie reali, senza citare la fonte, con dettagli inventati o spostati di contesto per sembrare credibili. Questa situazione rende difficile capire dove finisce la realtà e dove inizia la sua imitazione. Oltre alla fatica di verifica, si parla di “rischio epistemico”, cioè della difficoltà, se non impossibilità, di controllare la verità di un contenuto confrontandolo con fatti reali. Secondo l’analisi, l’AI contribuisce a un processo di “de-referenzializzazione” della conoscenza, perché produce contenuti molto verosimili, più di quanto sia mai successo con le tecnologie del passato. Allo stesso tempo, molte persone tendono a fidarsi automaticamente delle risposte fornite dalle chatbot. Questo atteggiamento è stato definito “epistemia” da alcuni studiosi, ovvero l’illusione che ciò che viene generato dall’AI sia conoscenza vera, quando invece si tratta di testi costruiti su pattern statistici, che danno un’impressione di coerenza e autorevolezza. L’uso dell’intelligenza artificiale, però, non riguarda solo i rischi. L’AI è già ampiamente utilizzata nel giornalismo e nel fact checking, aiutando a individuare notizie false più velocemente di quanto potrebbe fare un essere umano. Per questo motivo, l’obiettivo dei regolamenti europei non è bloccare la tecnologia, ma limitare gli usi distorti e rafforzare le tutele. L’AI Act chiarisce che quando l’intelligenza artificiale viene usata per fornire servizi intermediari, come piattaforme online o motori di ricerca, si applicano anche le regole del Digital Services Act. In pratica, se un motore di ricerca utilizza l’AI per produrre risultati, chi lo gestisce deve rispettare entrambe le normative. Inoltre, per i sistemi di AI integrati in piattaforme molto grandi, l’AI Act rimanda al DSA per la gestione dei rischi sistemici, cioè quelli che possono incidere su diritti fondamentali, elezioni, sicurezza pubblica e dibattito democratico. Il Digital Services Act impone alle very large online platforms e ai very large online search engines di valutare ogni anno gli effetti negativi dei loro servizi e di adottare misure per ridurli. In Italia, il soggetto incaricato di vigilare sul rispetto di queste regole è AGCOM, in qualità di Digital Services Coordinator. Tuttavia, per le piattaforme di dimensioni molto grandi, la competenza diretta spetta alla Commissione europea. Esistono però delle eccezioni. In caso di violazioni gravi del DSA che possano causare danni seri ai diritti fondamentali o alla sicurezza, AGCOM può adottare misure temporanee, anche nei confronti di piattaforme non stabilite in Italia, e segnalarle alla Commissione europea, che decide come procedere. Applicando questo schema ai video deepfake con attori famosi, se contenuti simili fossero diffusi in lingua italiana e rivolti al pubblico nazionale, potrebbero essere considerati un rischio sistemico per la formazione dell’opinione pubblica. In questi casi, anche se pubblicati su grandi piattaforme come YouTube, Facebook o TikTok, AGCOM potrebbe intervenire in via temporanea per limitarne la circolazione, in attesa di una decisione europea. Oltre agli strumenti europei, l’Autorità dispone anche di strumenti nazionali. Il regolamento attuativo dell’articolo 41.7 del Testo unico dei servizi di media audiovisivi consente ad AGCOM di intervenire contro contenuti audiovisivi diffusi da piattaforme di video sharing stabilite in altri Stati membri, quando vi sia un pregiudizio grave, imminente e irreparabile per i diritti degli utenti italiani. Questo include anche video generati o manipolati con l’AI. (Foto creata con AI)