A New York il 28/3 il via al lab AI per redazioni: selezionati 23 da 12 paesi

AI-Journalism-Lab-Adoption-Collage-e1742398788916

Il 28 marzo 2025 prenderà il via a New York l’AI Journalism Lab: Adoption Cohort, un programma internazionale promosso dall’AI Journalism Labs della Craig Newmark Graduate School of Journalism presso la CUNY, in collaborazione con Microsoft. La nuova coorte è composta da 23 professionisti del giornalismo provenienti da 12 paesi – tra cui Canada, Colombia, Etiopia, Indonesia, Nigeria, Filippine, Porto Rico, Romania, Turchia, Stati Uniti e Uruguay – selezionati per partecipare a un percorso formativo sulla adozione dell’intelligenza artificiale nelle redazioni. Il laboratorio, della durata di oltre tre mesi, si svolgerà virtualmente fino al 2 luglio 2025, ad eccezione dell’incontro inaugurale che si terrà in presenza alla Newmark J-School il 28 e 29 marzo. L’obiettivo è fornire ai partecipanti competenze e strumenti per implementare pratiche basate su intelligenza artificiale nei flussi di lavoro giornalistici. Secondo quanto dichiarato da Marie Gilot, direttore esecutivo di J+, i partecipanti sono già coinvolti attivamente nell’uso dell’AI nel giornalismo e il programma mira a rafforzarne le capacità in termini di leadership, innovazione e sicurezza nell’introduzione di nuove tecnologie. I profili selezionati comprendono giornalisti, produttori, reporter e manager, con esperienze che vanno dal giornalismo locale e internazionale alla gestione prodotti, dal coinvolgimento del pubblico alla narrazione basata sui dati. Noreen Gillespie, Journalism Director per Microsoft, ha sottolineato che l’intelligenza artificiale rappresenta un’opportunità strategica per le redazioni, ma che il processo di adozione può risultare complesso. Il programma è stato progettato per aiutare i partecipanti a integrare in modo efficace l’AI nel giornalismo, con particolare attenzione all’impatto sulle comunità servite. (Credits photo)

Google filigrana le immagini AI

Google-logo-Googleplex-headquarters-Mountain-View-California

Google ha annunciato un importante aggiornamento per contrastare la disinformazione e la manipolazione delle immagini generate dall’intelligenza artificiale, introducendo filigrane digitali per le foto modificate con il suo strumento Magic Editor. Questa innovazione, basata sulla tecnologia SynthID sviluppata da DeepMind, permette di incorporare un tag di metadati digitali direttamente nell’immagine, rendendo possibile identificare se sia stata alterata tramite strumenti di IA generativa. L’implementazione di questa funzionalità ha l’obiettivo di rendere più chiaro agli utenti quando un contenuto visivo è stato modificato artificialmente, senza alterarne l’aspetto visibile. Lo strumento Magic Editor, disponibile anche per i possessori di iPhone, consente di rimuovere o aggiungere elementi in modo realistico, aprendo però la porta alla diffusione di contenuti potenzialmente ingannevoli. La nuova filigrana si applica automaticamente alle immagini trasformate con la funzione “reimagine”, fornendo un livello aggiuntivo di trasparenza. Google ha già implementato SynthID nelle immagini generate dal modello Imagen, lo stesso utilizzato dal chatbot Gemini per la creazione di contenuti grafici. Questa iniziativa si inserisce in un contesto più ampio che vede altre aziende, come Adobe, adottare soluzioni simili per garantire la provenienza dei contenuti digitali. Entrambe le società fanno parte della Coalition for Content Provenance and Authenticity (C2PA), un consorzio che si impegna a definire standard condivisi per la gestione dell’autenticazione delle immagini e dei video generati dall’IA. Google sottolinea che la filigrana non può essere rimossa facilmente e può essere rilevata solo attraverso strumenti specializzati. Inoltre, Google Foto include la sezione “Informazioni su questa immagine”, che permette agli utenti di verificare se una foto è stata modificata con Magic Editor e accedere a dettagli come la data di creazione originale. Questo sistema non è infallibile: Google avverte che modifiche minime potrebbero sfuggire all’identificazione di SynthID. Per questo motivo, esperti del settore ritengono che la filigrana da sola non sia sufficiente a garantire una tracciabilità affidabile dei contenuti digitali su larga scala. Il futuro della lotta alla disinformazione visiva passerà quindi attraverso l’adozione di strategie diversificate, in cui tecnologie come SynthID saranno integrate con altre metodologie per migliorare l’autenticazione dei contenuti generati dall’intelligenza artificiale.

Trump, Musk e Netanyahu: i media italiani cadono in un fake IA

Trump, Musk e Netanyahu

La mattina del 4 febbraio 2025, numerose testate italiane come Ansa, RaiNews, La Stampa, la Repubblica e Fanpage hanno pubblicato una foto che ritrae il premier israeliano Benjamin Netanyahu insieme al presidente statunitense Donald Trump e al suo braccio destro Elon Musk. L’immagine è stata successivamente ripresa anche dal TG1, TG2 e TG3, rafforzando l’idea che fosse una testimonianza visiva dell’incontro tra Netanyahu e Trump alla Casa Bianca per discutere della guerra tra Israele e Palestina e delle relazioni bilaterali tra i due paesi. Tuttavia, emerge un problema cruciale: la foto non è autentica ma frutto dell’intelligenza artificiale. I media italiani l’hanno diffusa come se fosse reale, senza verificare la sua origine. La creazione dell’immagine è da attribuire a un profilo su X chiamato “George Orwell” (@OrwellTruth1984), che ha condiviso l’elaborazione digitale il 3 febbraio 2025 accompagnata da un breve testo in ebraico. Fin da subito, l’utente ha chiarito che si trattava di un’immagine generata con IA, ma nonostante ciò, ha iniziato a circolare senza il necessario contesto. Un dettaglio importante è che l’immagine originale riportava il nome utente di @OrwellTruth1984, segnalando la sua provenienza. Tuttavia, una volta diffusa, questa informazione è stata rimossa, alimentando la percezione che fosse una foto reale. Resosi conto della situazione, l’autore ha pubblicato un secondo post per ribadire che si trattava di un’elaborazione creata con software di intelligenza artificiale. Nonostante questa smentita, molti media hanno continuato a trattare l’immagine come una prova concreta dell’incontro.

Micklethwait (Bloomberg): Paywall e IA proteggono il giornalismo, ma con rischi simili al tabacco

John Micklethwait

John Micklethwait, direttore editoriale di Bloomberg, ha recentemente affermato che i paywall rappresentano “il modo più sicuro per garantire posti di lavoro giornalistici”. Durante la sua lezione annuale alla City University di Londra, ha sottolineato come, dopo un periodo in cui molti nel settore offrivano contenuti gratuiti, la stampa di qualità stia ora ottenendo risultati positivi grazie all’adozione dei paywall. I PAYWALL: LA SALVEZZA DEL GIORNALISMO DI QUALITÀ Secondo Micklethwait, i paywall rappresentano “il modo più sicuro per garantire posti di lavoro giornalistici”. Questa dichiarazione arriva dopo anni in cui molte testate hanno optato per contenuti gratuiti, una strategia che, secondo il direttore editoriale, ha danneggiato la sostenibilità economica della stampa di qualità. Micklethwait ha evidenziato due principali motivi per implementare i paywall. Sicurezza economica e occupazionale. Micklethwait ha citato l’esempio di The Economist, che ha resistito alle difficoltà del mercato adottando fin dall’inizio un modello a pagamento. Anche Bloomberg segue questa filosofia: oltre al famoso terminale finanziario, l’azienda ha attirato circa 740.000 abbonati paganti nel 2023, registrando una crescita del 50% rispetto all’anno precedente. Indipendenza editoriale. Il passaggio agli abbonamenti, secondo Micklethwait, permette alle redazioni di evitare influenze esterne, come quelle derivanti da sponsor o inserzionisti pubblicitari. Il focus si sposta interamente sul soddisfare i lettori paganti, garantendo così decisioni etiche più semplici e una maggiore libertà editoriale. MAGGIORE ACCESSO AI CONTENUTI Per quanto riguarda l’intelligenza artificiale (IA), Micklethwait ha dichiarato che Bloomberg utilizza l’automazione in oltre un terzo dei circa 5.000 articoli pubblicati quotidianamente. Ciò include l’uso di computer per monitorare i social media alla ricerca di parole chiave e l’implementazione di riassunti automatizzati in cima agli articoli, che permettono ai lettori di comprendere rapidamente il contenuto. Ha inoltre previsto che l’IA avrà un impatto maggiore sul lavoro degli editori rispetto a quello dei reporter, facilitando compiti come la verifica ortografica, l’aderenza allo stile editoriale e la verifica dei fatti. LE PREVISIONI DI BLOOMBERG Un altro tema centrale del discorso è stato il ruolo crescente dell’intelligenza artificiale nel giornalismo. Bloomberg ha già integrato l’IA in molti processi editoriali e Micklethwait ha fatto 8 previsioni sul futuro dell’IA nel settore: L’intelligenza artificiale cambierà il lavoro dei giornalisti più di quanto non li sostituisca Le ultime notizie continueranno ad avere un valore enorme, ma per periodi di tempo sempre più brevi. La rendicontazione avrà ancora un valore enorme Il cambiamento sarà probabilmente maggiore per gli editori Il mondo della Ricerca lascerà il posto a Domanda e Risposta Le allucinazioni saranno più facili da risolvere nel testo che nel video o nell’audio La personalizzazione diventerà sempre più una realtà La regolamentazione sta arrivando. John Micklethwait non ritiene che l’intelligenza artificiale ridurrà il numero di giornalisti, ma piuttosto che aumenterà la portata e la profondità della copertura giornalistica. Grazie all’automazione, Bloomberg copre più aziende e in modo più approfondito rispetto al passato, mantenendo lo stesso numero di dipendenti. Tra gli utilizzi specifici dell’IA in redazione, Micklethwait prevede la riformattazione delle storie e la combinazione di articoli esistenti per creare bozze iniziali. Ad esempio, un algoritmo potrebbe sintetizzare più articoli per produrre rapidamente una bozza su eventi complessi, come la caduta di Assad in Siria, che i giornalisti affinerebbero successivamente. Le breaking news continueranno a mantenere un valore cruciale, con l’IA che accelera il processo decisionale: il tempo necessario affinché i prezzi di mercato reagiscano alle notizie è passato da dieci a cinque secondi, un trend destinato a proseguire. Tuttavia, Micklethwait sottolinea che il giornalismo originale rimarrà insostituibile, poiché l’IA non può persuadere fonti umane a rivelare informazioni sensibili o segrete. Infine, l’IA avrà un ruolo maggiore nella modifica e revisione degli articoli, aiutando a controllare ortografia, stile e fatti fondamentali, lasciando ai redattori il compito di rifinire i contenuti. LA FINE DELLA RICERCA TRADIZIONALE John Micklethwait ha previsto che la ricerca tradizionale, come la conosciamo oggi, è destinata a scomparire a causa dell’adozione di motori di ricerca basati su intelligenza artificiale e linguaggio naturale. Ha sottolineato l’importanza di proteggere i contenuti editoriali e di negoziare accordi con aziende come OpenAI solo per periodi limitati e somme definite, evitando di cedere eccessivo controllo o valore. Micklethwait ha richiesto maggiore chiarezza legale da parte di tribunali e parlamenti su cosa possa essere utilizzato gratuitamente dall’IA. Ha anche evidenziato che Bloomberg non ha ancora firmato alcun accordo con aziende di intelligenza artificiale generativa, pur riconoscendo che tali intese potrebbero sostenere il giornalismo in futuro, a seconda dell’evoluzione legislativa. Nonostante le sfide poste dalla disinformazione generata dall’IA, Micklethwait rimane ottimista. Ha paragonato la proliferazione di contenuti di bassa qualità all’epoca del New York Sun, un giornale scandalistico che, nonostante il successo iniziale, fu superato da testate che offrivano notizie utili e affidabili. Infine, ha espresso fiducia nel fatto che il settore del giornalismo oggi sia meglio preparato a rispondere alle nuove tecnologie, prevedendo una transizione più rapida verso contenuti di qualità rispetto al passato. DIPENDENZA DA AI, COME DAL TABACCO John Micklethwait ha dichiarato che l’intelligenza artificiale potrebbe finalmente risolvere il “puzzle” della personalizzazione delle notizie, un obiettivo che considera il “Santo Graal del giornalismo”. Tuttavia, ha avvertito dell’esistenza di un “lato oscuro”, rappresentato dalla dipendenza creata dagli algoritmi di raccomandazione sui social media. Ha criticato il fatto che le società di social media non siano responsabili dei contenuti che ospitano, grazie a regole come la Sezione 230, che le equiparano a compagnie telefoniche, esonerandole dalla responsabilità editoriale. Micklethwait ha paragonato questa situazione alle strategie difensive dell’industria del tabacco, che in passato sosteneva che fumare fosse una scelta personale. Con l’avanzare dell’IA, ha sollevato preoccupazioni etiche, come il rischio di manipolazione emotiva: ad esempio, adolescenti che sviluppano relazioni con entità artificiali. Micklethwait è convinto che, proprio come è avvenuto per l’industria del tabacco, anche i giganti della tecnologia saranno chiamati a rispondere delle conseguenze del loro prodotto, soprattutto man mano che cresce la consapevolezza del pubblico sui loro effetti dannosi. BLOOMBERG VS ZXC Micklethwait ha anche criticato la controversa sentenza della Corte Suprema del Regno Unito nel caso Bloomberg vs ZXC. Questa decisione vieta alle

McDonald’s sospende l’IA negli Usa per ordini bizzarri

McDonald's

McDonald’s ha deciso di interrompere l’utilizzo dell’intelligenza artificiale nei suoi ristoranti drive-through negli Stati Uniti, sospendendo la collaborazione con IBM sui sistemi automatici di ordinazione (Automated Order Taking, AOT). La decisione è stata presa in seguito a una serie di ordini errati che sono diventati virali sui social media, evidenziando i limiti della tecnologia. Sin dall’introduzione del sistema, ci sono state critiche e preoccupazioni riguardo alla possibilità che l’IA potesse sostituire i lavoratori umani. Tuttavia, è diventato evidente che rimpiazzare i commessi con l’IA non è così semplice come previsto. “Dopo un’attenta revisione, McDonald’s ha deciso di terminare la partnership globale con IBM sul sistema AOT”, si legge in una nota ufficiale della catena di fast food. Nonostante la sospensione, McDonald’s continua a credere che questa tecnologia “farà parte del futuro dei nostri ristoranti”, secondo quanto riportato da Ansa. ORDINI BIZZARRI E DIVERTENTI Gli errori del sistema di intelligenza artificiale hanno generato una serie di situazioni comiche che hanno rapidamente guadagnato popolarità online. Tra gli ordini più bizzarri e divertenti, spiccano quelli di bacon sul gelato e centinaia di crocchette di pollo. Un video su TikTok, che ha accumulato 30.000 visualizzazioni, mostra una giovane donna esasperata mentre cerca di spiegare all’IA che vuole un gelato al caramello, ma il sistema continua ad aggiungere burro. In un altro video, che ha raggiunto 360.000 visualizzazioni, una persona racconta come il suo ordine sia stato confuso con quello di un altro cliente, portando all’addebito di nove bicchieri di tè.

L’UE pioniera nella regolamentazione dell’Intelligenza Artificiale

UE IA Act

Nella giornata del 13 marzo, Strasburgo è stata teatro di un evento storico che ha segnato un punto di svolta nel panorama della tecnologia digitale: il Parlamento europeo ha approvato con una schiacciante maggioranza di 523 voti a favore, 46 contrari e 49 astenuti, il regolamento sull’Intelligenza Artificiale (IA). Tuttavia, nonostante l’approvazione, il regolamento non entrerà in vigore prima di maggio 2024, poiché richiederà ulteriori passaggi procedurali, tra cui la traduzione in 24 lingue e la necessaria conformità alle normative nazionali. Queste prime regole al mondo per l’IA non solo mirano a tutelare i diritti dei lavoratori e dei cittadini, ma aspirano anche a fissare uno standard globale per la regolamentazione di questa tecnologia in altre giurisdizioni. Le regole dell’AI Act verranno implementate in fasi distinte. Entro sei mesi saranno introdotti divieti, mentre enti pubblici e privati dovranno valutare rapidamente i rischi dei sistemi che utilizzano. Dopo un anno, le norme si concentreranno sui modelli fondativi, con particolare attenzione alle intelligenze artificiali generative, che dovranno soddisfare rigorosi standard di trasparenza e sicurezza. Queste regole si applicheranno prima della commercializzazione dei prodotti per le AI ad alto impatto, come GPT-4 di OpenAI, mentre per modelli più semplici sarà richiesta la conformità al momento della vendita. Infine, fra due anni, l’AI Act entrerà in vigore completamente, con sanzioni che vanno dall’1,5% al 7% del fatturato globale per chi non rispetta le normative. Il commissario al Mercato Interno e al Digitale, Thierry Breton, ha commentato l’importanza di questa regolamentazione affermando: «Stiamo regolamentando il meno possibile, ma quanto necessario!». Queste parole riflettono il delicato equilibrio tra la promozione dell’innovazione e la protezione dei diritti umani. Brando Benifei, correlatore sull’AI Act della commissione per il mercato interno del Parlamento europeo, ha enfatizzato il posizionamento degli esseri umani e dei valori europei al centro dello sviluppo dell’IA. Il regolamento fornisce chiari requisiti e obblighi agli sviluppatori e agli operatori dell’IA, specificando gli usi consentiti basati sui rischi e sull’impatto delle applicazioni. Vieta l’uso di sistemi di identificazione biometrica da parte delle autorità di contrasto e introduce misure contro le manipolazioni e lo sfruttamento delle vulnerabilità degli utenti. Inoltre, vieta categoricamente pratiche come la categorizzazione biometrica basata su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali. Il regolamento stabilisce anche restrizioni su pratiche discutibili come l’uso dell’IA per rilevare emozioni nei luoghi di lavoro e nelle scuole, i sistemi di credito sociale e la polizia predittiva basata sulla profilazione. Tuttavia, non mancano le critiche, soprattutto riguardo alla sorveglianza biometrica di massa consentita alle forze dell’ordine, che potrebbe portare a discriminazioni e violazioni della privacy. Nonostante le critiche, l’approvazione di questo regolamento segna un passo significativo verso la definizione di un quadro normativo chiaro e responsabile per l’utilizzo dell’IA. L’Unione Europea, diventando il primo ente al mondo a dotarsi di regole così complete sull’IA, si pone come leader nella definizione di standard globali per questa tecnologia. Resta ora da vedere come queste norme saranno implementate e rispettate da aziende e istituzioni, ma una cosa è certa: l’IA è entrata in una nuova era di regolamentazione e responsabilità.

Google introduce Gemini: il potenziamento di Performance Max

Google introduce Gemini AI

Google annuncia l’integrazione di Gemini, la famiglia di Large Language Models (LLM) multimodali, su Performance Max, rivoluzionario strumento per le campagne pubblicitarie automatizzate. Miglioramento dell’efficacia dell’annuncio: un incremento del 6% delle conversioni: un’analisi rivela che il potenziamento dell’Ad Strength in Performance Max porta a un aumento medio del 6% delle conversioni per gli inserzionisti. L’IA al servizio della creatività pubblicitaria: Google sottolinea il ruolo cruciale dell’IA nel potenziare l’efficacia delle campagne pubblicitarie, garantendo al contempo che gli inserzionisti mantengano il controllo creativo. Generazione di asset e editing delle immagini: novità e prospettive future: il lancio della generazione di asset e dell’editing delle immagini basati sull’IA apre nuove frontiere nella creazione rapida di risorse pubblicitarie. Etica e trasparenza: la priorità di Google: la tech company assicura che Performance Max sia utilizzata in modo etico, impedendo la promozione di contenuti dannosi o fuorvianti. Espansione delle partnership e nuove funzionalità: Google annuncia l’ampliamento delle partnership con piattaforme come Canva e il lancio di nuove funzionalità per arricchire ulteriormente le esperienze pubblicitarie. Promesse per il futuro: anteprime degli annunci condivisibili: Google si impegna a semplificare i flussi di lavoro creativi consentendo la condivisione di anteprime degli annunci Performance Max tramite link.

Con Hanooman, l’India si prepara a un ruolo di primo piano nell’AI

Hanooman, AI

L’India, fino ad ora impegnata in modo modesto nel mondo dell’Intelligenza Artificiale, sembra destinata a giocare un ruolo sempre più significativo a partire dal prossimo mese con il lancio di Hanooman, un large language model (LLM) simile a ChatGPT, capace di interagire in 11 delle 22 lingue ufficiali del Paese. Tra i promotori di questo progetto, oltre a un dipartimento governativo e otto delle più prestigiose università indiane, figura una succursale di Reliance Industries, il principale gruppo industriale del Paese per capitalizzazione, guidato da Mukesh Ambani, l’uomo più ricco dell’Asia. Appena due mesi fa, nel suo messaggio di fine anno ai dipendenti, Ambani aveva annunciato il 2024 come l’anno in cui la conglomerata di famiglia, che spazia dalla raffinazione al retail e alle telecomunicazioni, abbraccerà la rivoluzione portata dall’Intelligenza Artificiale. La società del gruppo coinvolta direttamente nel progetto è Reliance Jio Infocomm, uno dei principali operatori di telefonia mobile in India, guidato dal figlio maggiore di Mukesh e Tina Ambani, il 32enne Akash. Secondo i piani dei suoi promotori, Hanooman avrà applicazioni in quattro grandi settori: salute, istruzione, servizi finanziari e governance. Il modello è stato sviluppato in collaborazione con Bhashini, un’agenzia governativa, e con l’Indian Institute of Technology (IIT) Bombay, capofila di un gruppo di istituti universitari situati in diversi Stati indiani. La scelta di diversificare geograficamente la composizione del consorzio è strategica, considerando che l’obiettivo dichiarato dell’iniziativa è rendere l’Intelligenza Artificiale accessibile anche a quei vasti strati della popolazione indiana che non parlano inglese. Tra le 11 lingue supportate dal modello ci sono alcune delle lingue indo-ariane, come l’Hindi, parlato a Delhi e in alcuni Stati del nord dell’India, il Bengali a Kolkata e il Marathi, la lingua più diffusa a Mumbai, oltre a una serie di lingue dravidiane parlate nel sud, come il Tamil, il Telugu e il Malayalam. Durante una conferenza a Mumbai, è stato proiettato un video di presentazione di Hanooman in cui un meccanico poneva una domanda a un Bot in Tamil, un banchiere chiedeva delucidazioni in Hindi e uno sviluppatore di Hyderabad, dove si parla Telegu, ricorreva all’Intelligenza Artificiale per il coding. Ganesh Ramakrishnan, uno dei promotori del progetto e responsabile del dipartimento di Ingegneria e Scienze Informatiche dell’IIT Bombay, ha spiegato che Hanooman offrirà la possibilità di convertire la voce in testo, per soddisfare i milioni di indiani che non sanno né leggere né scrivere, e in futuro sarà esteso alle lingue non incluse nella release iniziale. Tuttavia, colpisce l’assenza dell’Urdu tra le prime undici lingue supportate dal modello, nonostante sia la settima lingua più parlata in India e la più diffusa tra la popolazione musulmana. Questo fatto, insieme alla scelta del nome del modello (Hanooman, che richiama il nome di una popolare divinità induista) e del consorzio che lo sta sviluppando (Bharat GPT, con “Bharat” che è un termine molto caro ai nazionalisti indù del Bharatiya Janata Party di Narendra Modi), potrebbe sollevare domande sulle vere intenzioni di inclusione del progetto, specialmente considerando che la comunità musulmana è una delle più svantaggiate dal punto di vista sociale ed economico e potrebbe trarre maggior beneficio dall’accesso a informazioni educative e sanitarie tramite l’Intelligenza Artificiale. Questo progetto offre un’opportunità per colmare le distanze linguistiche e culturali in un Paese con quasi 1,5 miliardi di abitanti. Si prevede che entro il 2027 l’Intelligenza Artificiale genererà un giro d’affari di 17 miliardi di dollari in India, nonostante le sfide legate alla capacità computazionale e agli investimenti necessari.