Il Washington Post lancia Ripple per pubblicare (con l’AI) articoli di opinionisti da Substack

Il Washington Post lancerà un nuovo programma editoriale chiamato Ripple, con l’obiettivo di ospitare contenuti di opinione provenienti da fonti esterne, tra cui altri giornali statunitensi, autori di Substack e, in futuro, anche scrittori non professionisti. Il progetto, non ancora annunciato ufficialmente, è stato confermato da quattro fonti a conoscenza dell’iniziativa, che hanno parlato in forma anonima. Ripple sarà accessibile gratuitamente sul sito e sull’app del quotidiano, al di fuori del paywall, e opererà esternamente rispetto alla sezione opinioni del giornale. Secondo le fonti, il lancio operativo del programma è previsto per l’estate, con una fase successiva – in autunno – in cui sarà avviata la sperimentazione dei contenuti generati da collaboratori occasionali. Tali contenuti potranno essere redatti con l’assistenza di Ember, uno strumento basato sull’intelligenza artificiale sviluppato dal Post. Ember fornirà suggerimenti strutturali e indicazioni narrative in tempo reale, con funzioni come un indicatore di “forza della storia”, sezioni sulla tesi, i punti di supporto e il finale, oltre a prompt guidati per lo sviluppo dell’articolo. Il quotidiano ha recentemente assunto un redattore dedicato al coordinamento del progetto e sta valutando partnership con testate come The Salt Lake Tribune, The Dispatch, The Atlanta Journal-Constitution e il giornalista Matt Yglesias. Tuttavia, alcune di queste realtà hanno già rifiutato. Lauren Gustus, CEO del Tribune, ha dichiarato: “Preferiamo concentrarci sulla costruzione di relazioni e fiducia qui nello Utah”. Andrew Morse del Journal-Constitution ha affermato che il piano del Post “non è in linea con la nostra strategia”, aggiungendo: “Pensiamo che la scalabilità sia la guerra del passato”. Jeff Bezos, proprietario del Post e fondatore di Amazon, ha promosso la creazione di Ripple come parte di un piano più ampio per ampliare il bacino di lettori del giornale oltre le élite costiere. Secondo due fonti, il programma potrebbe raggiungere fino a 38 milioni di adulti statunitensi. Il Post sta anche esaminando la possibilità di proporre pacchetti di abbonamento con le testate partner coinvolte. Negli ultimi mesi, la sezione opinioni del giornale ha vissuto profondi cambiamenti. Bezos ha deciso di interrompere il sostegno ufficiale a candidati politici, bloccando un editoriale a favore della vicepresidente Kamala Harris. A febbraio, il proprietario ha richiesto una linea editoriale più allineata a “libertà personali e libero mercato”, portando alle dimissioni del direttore della sezione, David Shipley. Il progetto Ripple è frutto di un lavoro di ricerca e sviluppo iniziato oltre un anno fa, con prime sperimentazioni locali condotte nella città di Kansas City, Missouri. L’approvazione definitiva è avvenuta a gennaio e i lavori sono entrati nel vivo in aprile. Il progetto è guidato da Lippe Oosterhof, ex dirigente di Reuters e Yahoo, attualmente anche consulente per Symbolic.ai. Tra i nomi coinvolti nei retroscena del progetto figura anche Jennifer Rubin, ex editorialista del Post e co-fondatrice della testata The Contrarian. Secondo una fonte, quest’ultima era stata inizialmente considerata tra i potenziali partner, ma in seguito esclusa. Alla notizia, Rubin ha reagito ironicamente: “Hanno letto la mia lettera di dimissioni pubblica?”. Una portavoce del Post ha rifiutato di commentare.
NYTimes e Amazon insieme per contenuti AI su articoli, ricette e sport

Il New York Times ha stipulato un accordo pluriennale con Amazon per la concessione in licenza dei propri contenuti editoriali, che verranno utilizzati per l’addestramento dei sistemi di intelligenza artificiale generativa del colosso tecnologico. L’annuncio è stato diffuso giovedì dalla New York Times Company, che ha precisato che la collaborazione consentirà l’integrazione di articoli, ricette di NYT Cooking e contenuti sportivi di The Athletic in diverse esperienze offerte agli utenti Amazon, incluse quelle gestite tramite Alexa. Secondo quanto comunicato, si tratta del primo accordo di questo tipo per il prestigioso quotidiano statunitense. Non sono stati resi noti i termini finanziari, ma è presumibile che l’intesa preveda una remunerazione per l’utilizzo dei materiali protetti da copyright. Meredith Kopit Levien, amministratore delegato della New York Times Company, ha dichiarato allo staff: “L’accordo è coerente con il nostro principio consolidato secondo cui il giornalismo di alta qualità merita di essere pagato”. Il materiale concesso in licenza sarà impiegato da Amazon per alimentare i propri modelli linguistici e potrebbe comparire, con attribuzione e link, in risposte vocali o testuali fornite agli utenti. L’iniziativa si inserisce nel contesto di una rapida evoluzione dell’IA, che ha portato numerosi editori a scegliere tra azioni legali e accordi commerciali in risposta allo sfruttamento delle loro pubblicazioni da parte di sistemi di AI generativa. Nel 2023, lo stesso New York Times aveva intentato causa a OpenAI e Microsoft per presunta violazione del copyright, accusando le aziende di aver utilizzato milioni di articoli senza autorizzazione né compenso. OpenAI e Microsoft avevano respinto le accuse. A differenza di allora, in questo caso si è scelto un percorso negoziale. Negli ultimi mesi, anche altri grandi gruppi editoriali, tra cui Axel Springer, Condé Nast e News Corp, hanno siglato accordi di licenza per garantire un ritorno economico sull’uso dei propri contenuti da parte di sistemi di intelligenza artificiale. Il Washington Post, di proprietà del fondatore di Amazon Jeff Bezos, ha siglato un accordo con OpenAI il mese scorso. Amazon, da parte sua, ha accelerato i propri investimenti nel settore dell’AI dopo il rilascio di ChatGPT da parte di OpenAI alla fine del 2022. Tra le operazioni più significative si segnala l’accordo da almeno 330 milioni di dollari con la startup Adept, seguito da una collaborazione simile con Covariant, cofondata dal professor Pieter Abbeel dell’Università della California, Berkeley. Entrambi i ricercatori ora dirigono un laboratorio interno di Amazon focalizzato sullo sviluppo della cosiddetta intelligenza artificiale generale (AGI). Parallelamente, Amazon ha investito 4 miliardi di dollari in Anthropic, start-up concorrente di OpenAI, ottenendo accesso ai suoi modelli e rendendoli disponibili ai clienti del servizio di cloud computing AWS. Il nuovo accordo con il New York Times potrebbe quindi rafforzare le basi informative utilizzate nei progetti di ricerca avanzata di Amazon, orientati alla costruzione di sistemi capaci di replicare capacità cognitive umane. L’uso di contenuti giornalistici da parte di software di AI ha suscitato preoccupazione tra gli editori per il rischio di “allucinazioni” algoritmiche, ossia risposte contenenti informazioni errate attribuite erroneamente a fonti affidabili.
Giornata Mondiale della Libertà di Stampa. IFJ: ” È ora di mettere l’AI nell’agenda sociale”

In occasione della Giornata Mondiale della Libertà di Stampa, che si celebra ogni anno il 3 maggio, la Federazione Internazionale dei Giornalisti (IFJ) ha lanciato un appello globale per inserire l’intelligenza artificiale al centro del dialogo sociale tra sindacati dei giornalisti e organizzazioni mediatiche. Il messaggio arriva in linea con il tema proposto quest’anno dall’UNESCO, dedicato all’impatto dell’IA sul giornalismo e sulla libertà di stampa. L’IFJ invita tutti gli attori del settore a lavorare su regole comuni per garantire che la tecnologia venga utilizzata in modo etico, senza mettere a rischio i posti di lavoro, la qualità dell’informazione e l’indipendenza editoriale. Nelle proprie raccomandazioni, adottate nel giugno 2024, la Federazione ha affermato che l’IA non può sostituire i giornalisti umani, e che i contenuti generati da algoritmi non devono essere considerati giornalismo a meno che non siano sottoposti a supervisione e controllo umano. L’IFJ evidenzia che attività come il fact-checking e il pensiero critico restano compiti centrali del giornalismo, e non possono essere delegati a sistemi automatici. Tra le principali preoccupazioni vi sono pregiudizi, stereotipi e errori fattuali che l’IA può amplificare. In particolare, la Federazione segnala la diffusione di deepfake, definiti “un attacco diretto alla democrazia e al diritto fondamentale delle persone a un’informazione affidabile e indipendente“. La crescita dell’IA all’interno delle redazioni è già in corso: la tecnologia viene utilizzata per automatizzare compiti ripetitivi, analizzare dati e produrre testi. Secondo la IFJ, però, l’adozione di queste tecnologie deve avvenire tramite accordi che includano trasparenza, formazione professionale per tutti i giornalisti, anche freelance, e il rispetto del principio che le decisioni editoriali spettano a figure umane. Inoltre, l’organizzazione chiede che venga regolato l’utilizzo delle opere giornalistiche per addestrare i sistemi di IA, garantendo ai giornalisti una giusta retribuzione e la possibilità di rifiutare l’impiego dei propri contenuti in assenza di un accordo di licenza. Il Segretario Generale della IFJ, Anthony Bellanger, ha dichiarato che “il futuro del giornalismo deve mantenere la supervisione umana, la trasparenza e la responsabilità al centro dell’utilizzo dell’IA”. La Federazione invita giornalisti, sindacati, editori e decisori politici a collaborare nella definizione di linee guida condivise, con l’obiettivo di stabilire limiti chiari, proteggere i diritti degli autori e rafforzare la contrattazione collettiva nei processi di trasformazione digitale.
A New York il 28/3 il via al lab AI per redazioni: selezionati 23 da 12 paesi

Il 28 marzo 2025 prenderà il via a New York l’AI Journalism Lab: Adoption Cohort, un programma internazionale promosso dall’AI Journalism Labs della Craig Newmark Graduate School of Journalism presso la CUNY, in collaborazione con Microsoft. La nuova coorte è composta da 23 professionisti del giornalismo provenienti da 12 paesi – tra cui Canada, Colombia, Etiopia, Indonesia, Nigeria, Filippine, Porto Rico, Romania, Turchia, Stati Uniti e Uruguay – selezionati per partecipare a un percorso formativo sulla adozione dell’intelligenza artificiale nelle redazioni. Il laboratorio, della durata di oltre tre mesi, si svolgerà virtualmente fino al 2 luglio 2025, ad eccezione dell’incontro inaugurale che si terrà in presenza alla Newmark J-School il 28 e 29 marzo. L’obiettivo è fornire ai partecipanti competenze e strumenti per implementare pratiche basate su intelligenza artificiale nei flussi di lavoro giornalistici. Secondo quanto dichiarato da Marie Gilot, direttore esecutivo di J+, i partecipanti sono già coinvolti attivamente nell’uso dell’AI nel giornalismo e il programma mira a rafforzarne le capacità in termini di leadership, innovazione e sicurezza nell’introduzione di nuove tecnologie. I profili selezionati comprendono giornalisti, produttori, reporter e manager, con esperienze che vanno dal giornalismo locale e internazionale alla gestione prodotti, dal coinvolgimento del pubblico alla narrazione basata sui dati. Noreen Gillespie, Journalism Director per Microsoft, ha sottolineato che l’intelligenza artificiale rappresenta un’opportunità strategica per le redazioni, ma che il processo di adozione può risultare complesso. Il programma è stato progettato per aiutare i partecipanti a integrare in modo efficace l’AI nel giornalismo, con particolare attenzione all’impatto sulle comunità servite. (Credits photo)
Google filigrana le immagini AI

Google ha annunciato un importante aggiornamento per contrastare la disinformazione e la manipolazione delle immagini generate dall’intelligenza artificiale, introducendo filigrane digitali per le foto modificate con il suo strumento Magic Editor. Questa innovazione, basata sulla tecnologia SynthID sviluppata da DeepMind, permette di incorporare un tag di metadati digitali direttamente nell’immagine, rendendo possibile identificare se sia stata alterata tramite strumenti di IA generativa. L’implementazione di questa funzionalità ha l’obiettivo di rendere più chiaro agli utenti quando un contenuto visivo è stato modificato artificialmente, senza alterarne l’aspetto visibile. Lo strumento Magic Editor, disponibile anche per i possessori di iPhone, consente di rimuovere o aggiungere elementi in modo realistico, aprendo però la porta alla diffusione di contenuti potenzialmente ingannevoli. La nuova filigrana si applica automaticamente alle immagini trasformate con la funzione “reimagine”, fornendo un livello aggiuntivo di trasparenza. Google ha già implementato SynthID nelle immagini generate dal modello Imagen, lo stesso utilizzato dal chatbot Gemini per la creazione di contenuti grafici. Questa iniziativa si inserisce in un contesto più ampio che vede altre aziende, come Adobe, adottare soluzioni simili per garantire la provenienza dei contenuti digitali. Entrambe le società fanno parte della Coalition for Content Provenance and Authenticity (C2PA), un consorzio che si impegna a definire standard condivisi per la gestione dell’autenticazione delle immagini e dei video generati dall’IA. Google sottolinea che la filigrana non può essere rimossa facilmente e può essere rilevata solo attraverso strumenti specializzati. Inoltre, Google Foto include la sezione “Informazioni su questa immagine”, che permette agli utenti di verificare se una foto è stata modificata con Magic Editor e accedere a dettagli come la data di creazione originale. Questo sistema non è infallibile: Google avverte che modifiche minime potrebbero sfuggire all’identificazione di SynthID. Per questo motivo, esperti del settore ritengono che la filigrana da sola non sia sufficiente a garantire una tracciabilità affidabile dei contenuti digitali su larga scala. Il futuro della lotta alla disinformazione visiva passerà quindi attraverso l’adozione di strategie diversificate, in cui tecnologie come SynthID saranno integrate con altre metodologie per migliorare l’autenticazione dei contenuti generati dall’intelligenza artificiale.
Trump, Musk e Netanyahu: i media italiani cadono in un fake IA

La mattina del 4 febbraio 2025, numerose testate italiane come Ansa, RaiNews, La Stampa, la Repubblica e Fanpage hanno pubblicato una foto che ritrae il premier israeliano Benjamin Netanyahu insieme al presidente statunitense Donald Trump e al suo braccio destro Elon Musk. L’immagine è stata successivamente ripresa anche dal TG1, TG2 e TG3, rafforzando l’idea che fosse una testimonianza visiva dell’incontro tra Netanyahu e Trump alla Casa Bianca per discutere della guerra tra Israele e Palestina e delle relazioni bilaterali tra i due paesi. Tuttavia, emerge un problema cruciale: la foto non è autentica ma frutto dell’intelligenza artificiale. I media italiani l’hanno diffusa come se fosse reale, senza verificare la sua origine. La creazione dell’immagine è da attribuire a un profilo su X chiamato “George Orwell” (@OrwellTruth1984), che ha condiviso l’elaborazione digitale il 3 febbraio 2025 accompagnata da un breve testo in ebraico. Fin da subito, l’utente ha chiarito che si trattava di un’immagine generata con IA, ma nonostante ciò, ha iniziato a circolare senza il necessario contesto. Un dettaglio importante è che l’immagine originale riportava il nome utente di @OrwellTruth1984, segnalando la sua provenienza. Tuttavia, una volta diffusa, questa informazione è stata rimossa, alimentando la percezione che fosse una foto reale. Resosi conto della situazione, l’autore ha pubblicato un secondo post per ribadire che si trattava di un’elaborazione creata con software di intelligenza artificiale. Nonostante questa smentita, molti media hanno continuato a trattare l’immagine come una prova concreta dell’incontro.
Micklethwait (Bloomberg): Paywall e IA proteggono il giornalismo, ma con rischi simili al tabacco

John Micklethwait, direttore editoriale di Bloomberg, ha recentemente affermato che i paywall rappresentano “il modo più sicuro per garantire posti di lavoro giornalistici”. Durante la sua lezione annuale alla City University di Londra, ha sottolineato come, dopo un periodo in cui molti nel settore offrivano contenuti gratuiti, la stampa di qualità stia ora ottenendo risultati positivi grazie all’adozione dei paywall. I PAYWALL: LA SALVEZZA DEL GIORNALISMO DI QUALITÀ Secondo Micklethwait, i paywall rappresentano “il modo più sicuro per garantire posti di lavoro giornalistici”. Questa dichiarazione arriva dopo anni in cui molte testate hanno optato per contenuti gratuiti, una strategia che, secondo il direttore editoriale, ha danneggiato la sostenibilità economica della stampa di qualità. Micklethwait ha evidenziato due principali motivi per implementare i paywall. Sicurezza economica e occupazionale. Micklethwait ha citato l’esempio di The Economist, che ha resistito alle difficoltà del mercato adottando fin dall’inizio un modello a pagamento. Anche Bloomberg segue questa filosofia: oltre al famoso terminale finanziario, l’azienda ha attirato circa 740.000 abbonati paganti nel 2023, registrando una crescita del 50% rispetto all’anno precedente. Indipendenza editoriale. Il passaggio agli abbonamenti, secondo Micklethwait, permette alle redazioni di evitare influenze esterne, come quelle derivanti da sponsor o inserzionisti pubblicitari. Il focus si sposta interamente sul soddisfare i lettori paganti, garantendo così decisioni etiche più semplici e una maggiore libertà editoriale. MAGGIORE ACCESSO AI CONTENUTI Per quanto riguarda l’intelligenza artificiale (IA), Micklethwait ha dichiarato che Bloomberg utilizza l’automazione in oltre un terzo dei circa 5.000 articoli pubblicati quotidianamente. Ciò include l’uso di computer per monitorare i social media alla ricerca di parole chiave e l’implementazione di riassunti automatizzati in cima agli articoli, che permettono ai lettori di comprendere rapidamente il contenuto. Ha inoltre previsto che l’IA avrà un impatto maggiore sul lavoro degli editori rispetto a quello dei reporter, facilitando compiti come la verifica ortografica, l’aderenza allo stile editoriale e la verifica dei fatti. LE PREVISIONI DI BLOOMBERG Un altro tema centrale del discorso è stato il ruolo crescente dell’intelligenza artificiale nel giornalismo. Bloomberg ha già integrato l’IA in molti processi editoriali e Micklethwait ha fatto 8 previsioni sul futuro dell’IA nel settore: L’intelligenza artificiale cambierà il lavoro dei giornalisti più di quanto non li sostituisca Le ultime notizie continueranno ad avere un valore enorme, ma per periodi di tempo sempre più brevi. La rendicontazione avrà ancora un valore enorme Il cambiamento sarà probabilmente maggiore per gli editori Il mondo della Ricerca lascerà il posto a Domanda e Risposta Le allucinazioni saranno più facili da risolvere nel testo che nel video o nell’audio La personalizzazione diventerà sempre più una realtà La regolamentazione sta arrivando. John Micklethwait non ritiene che l’intelligenza artificiale ridurrà il numero di giornalisti, ma piuttosto che aumenterà la portata e la profondità della copertura giornalistica. Grazie all’automazione, Bloomberg copre più aziende e in modo più approfondito rispetto al passato, mantenendo lo stesso numero di dipendenti. Tra gli utilizzi specifici dell’IA in redazione, Micklethwait prevede la riformattazione delle storie e la combinazione di articoli esistenti per creare bozze iniziali. Ad esempio, un algoritmo potrebbe sintetizzare più articoli per produrre rapidamente una bozza su eventi complessi, come la caduta di Assad in Siria, che i giornalisti affinerebbero successivamente. Le breaking news continueranno a mantenere un valore cruciale, con l’IA che accelera il processo decisionale: il tempo necessario affinché i prezzi di mercato reagiscano alle notizie è passato da dieci a cinque secondi, un trend destinato a proseguire. Tuttavia, Micklethwait sottolinea che il giornalismo originale rimarrà insostituibile, poiché l’IA non può persuadere fonti umane a rivelare informazioni sensibili o segrete. Infine, l’IA avrà un ruolo maggiore nella modifica e revisione degli articoli, aiutando a controllare ortografia, stile e fatti fondamentali, lasciando ai redattori il compito di rifinire i contenuti. LA FINE DELLA RICERCA TRADIZIONALE John Micklethwait ha previsto che la ricerca tradizionale, come la conosciamo oggi, è destinata a scomparire a causa dell’adozione di motori di ricerca basati su intelligenza artificiale e linguaggio naturale. Ha sottolineato l’importanza di proteggere i contenuti editoriali e di negoziare accordi con aziende come OpenAI solo per periodi limitati e somme definite, evitando di cedere eccessivo controllo o valore. Micklethwait ha richiesto maggiore chiarezza legale da parte di tribunali e parlamenti su cosa possa essere utilizzato gratuitamente dall’IA. Ha anche evidenziato che Bloomberg non ha ancora firmato alcun accordo con aziende di intelligenza artificiale generativa, pur riconoscendo che tali intese potrebbero sostenere il giornalismo in futuro, a seconda dell’evoluzione legislativa. Nonostante le sfide poste dalla disinformazione generata dall’IA, Micklethwait rimane ottimista. Ha paragonato la proliferazione di contenuti di bassa qualità all’epoca del New York Sun, un giornale scandalistico che, nonostante il successo iniziale, fu superato da testate che offrivano notizie utili e affidabili. Infine, ha espresso fiducia nel fatto che il settore del giornalismo oggi sia meglio preparato a rispondere alle nuove tecnologie, prevedendo una transizione più rapida verso contenuti di qualità rispetto al passato. DIPENDENZA DA AI, COME DAL TABACCO John Micklethwait ha dichiarato che l’intelligenza artificiale potrebbe finalmente risolvere il “puzzle” della personalizzazione delle notizie, un obiettivo che considera il “Santo Graal del giornalismo”. Tuttavia, ha avvertito dell’esistenza di un “lato oscuro”, rappresentato dalla dipendenza creata dagli algoritmi di raccomandazione sui social media. Ha criticato il fatto che le società di social media non siano responsabili dei contenuti che ospitano, grazie a regole come la Sezione 230, che le equiparano a compagnie telefoniche, esonerandole dalla responsabilità editoriale. Micklethwait ha paragonato questa situazione alle strategie difensive dell’industria del tabacco, che in passato sosteneva che fumare fosse una scelta personale. Con l’avanzare dell’IA, ha sollevato preoccupazioni etiche, come il rischio di manipolazione emotiva: ad esempio, adolescenti che sviluppano relazioni con entità artificiali. Micklethwait è convinto che, proprio come è avvenuto per l’industria del tabacco, anche i giganti della tecnologia saranno chiamati a rispondere delle conseguenze del loro prodotto, soprattutto man mano che cresce la consapevolezza del pubblico sui loro effetti dannosi. BLOOMBERG VS ZXC Micklethwait ha anche criticato la controversa sentenza della Corte Suprema del Regno Unito nel caso Bloomberg vs ZXC. Questa decisione vieta alle
McDonald’s sospende l’IA negli Usa per ordini bizzarri

McDonald’s ha deciso di interrompere l’utilizzo dell’intelligenza artificiale nei suoi ristoranti drive-through negli Stati Uniti, sospendendo la collaborazione con IBM sui sistemi automatici di ordinazione (Automated Order Taking, AOT). La decisione è stata presa in seguito a una serie di ordini errati che sono diventati virali sui social media, evidenziando i limiti della tecnologia. Sin dall’introduzione del sistema, ci sono state critiche e preoccupazioni riguardo alla possibilità che l’IA potesse sostituire i lavoratori umani. Tuttavia, è diventato evidente che rimpiazzare i commessi con l’IA non è così semplice come previsto. “Dopo un’attenta revisione, McDonald’s ha deciso di terminare la partnership globale con IBM sul sistema AOT”, si legge in una nota ufficiale della catena di fast food. Nonostante la sospensione, McDonald’s continua a credere che questa tecnologia “farà parte del futuro dei nostri ristoranti”, secondo quanto riportato da Ansa. ORDINI BIZZARRI E DIVERTENTI Gli errori del sistema di intelligenza artificiale hanno generato una serie di situazioni comiche che hanno rapidamente guadagnato popolarità online. Tra gli ordini più bizzarri e divertenti, spiccano quelli di bacon sul gelato e centinaia di crocchette di pollo. Un video su TikTok, che ha accumulato 30.000 visualizzazioni, mostra una giovane donna esasperata mentre cerca di spiegare all’IA che vuole un gelato al caramello, ma il sistema continua ad aggiungere burro. In un altro video, che ha raggiunto 360.000 visualizzazioni, una persona racconta come il suo ordine sia stato confuso con quello di un altro cliente, portando all’addebito di nove bicchieri di tè.
L’UE pioniera nella regolamentazione dell’Intelligenza Artificiale

Nella giornata del 13 marzo, Strasburgo è stata teatro di un evento storico che ha segnato un punto di svolta nel panorama della tecnologia digitale: il Parlamento europeo ha approvato con una schiacciante maggioranza di 523 voti a favore, 46 contrari e 49 astenuti, il regolamento sull’Intelligenza Artificiale (IA). Tuttavia, nonostante l’approvazione, il regolamento non entrerà in vigore prima di maggio 2024, poiché richiederà ulteriori passaggi procedurali, tra cui la traduzione in 24 lingue e la necessaria conformità alle normative nazionali. Queste prime regole al mondo per l’IA non solo mirano a tutelare i diritti dei lavoratori e dei cittadini, ma aspirano anche a fissare uno standard globale per la regolamentazione di questa tecnologia in altre giurisdizioni. Le regole dell’AI Act verranno implementate in fasi distinte. Entro sei mesi saranno introdotti divieti, mentre enti pubblici e privati dovranno valutare rapidamente i rischi dei sistemi che utilizzano. Dopo un anno, le norme si concentreranno sui modelli fondativi, con particolare attenzione alle intelligenze artificiali generative, che dovranno soddisfare rigorosi standard di trasparenza e sicurezza. Queste regole si applicheranno prima della commercializzazione dei prodotti per le AI ad alto impatto, come GPT-4 di OpenAI, mentre per modelli più semplici sarà richiesta la conformità al momento della vendita. Infine, fra due anni, l’AI Act entrerà in vigore completamente, con sanzioni che vanno dall’1,5% al 7% del fatturato globale per chi non rispetta le normative. Il commissario al Mercato Interno e al Digitale, Thierry Breton, ha commentato l’importanza di questa regolamentazione affermando: «Stiamo regolamentando il meno possibile, ma quanto necessario!». Queste parole riflettono il delicato equilibrio tra la promozione dell’innovazione e la protezione dei diritti umani. Brando Benifei, correlatore sull’AI Act della commissione per il mercato interno del Parlamento europeo, ha enfatizzato il posizionamento degli esseri umani e dei valori europei al centro dello sviluppo dell’IA. Il regolamento fornisce chiari requisiti e obblighi agli sviluppatori e agli operatori dell’IA, specificando gli usi consentiti basati sui rischi e sull’impatto delle applicazioni. Vieta l’uso di sistemi di identificazione biometrica da parte delle autorità di contrasto e introduce misure contro le manipolazioni e lo sfruttamento delle vulnerabilità degli utenti. Inoltre, vieta categoricamente pratiche come la categorizzazione biometrica basata su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali. Il regolamento stabilisce anche restrizioni su pratiche discutibili come l’uso dell’IA per rilevare emozioni nei luoghi di lavoro e nelle scuole, i sistemi di credito sociale e la polizia predittiva basata sulla profilazione. Tuttavia, non mancano le critiche, soprattutto riguardo alla sorveglianza biometrica di massa consentita alle forze dell’ordine, che potrebbe portare a discriminazioni e violazioni della privacy. Nonostante le critiche, l’approvazione di questo regolamento segna un passo significativo verso la definizione di un quadro normativo chiaro e responsabile per l’utilizzo dell’IA. L’Unione Europea, diventando il primo ente al mondo a dotarsi di regole così complete sull’IA, si pone come leader nella definizione di standard globali per questa tecnologia. Resta ora da vedere come queste norme saranno implementate e rispettate da aziende e istituzioni, ma una cosa è certa: l’IA è entrata in una nuova era di regolamentazione e responsabilità.
Google introduce Gemini: il potenziamento di Performance Max

Google annuncia l’integrazione di Gemini, la famiglia di Large Language Models (LLM) multimodali, su Performance Max, rivoluzionario strumento per le campagne pubblicitarie automatizzate. Miglioramento dell’efficacia dell’annuncio: un incremento del 6% delle conversioni: un’analisi rivela che il potenziamento dell’Ad Strength in Performance Max porta a un aumento medio del 6% delle conversioni per gli inserzionisti. L’IA al servizio della creatività pubblicitaria: Google sottolinea il ruolo cruciale dell’IA nel potenziare l’efficacia delle campagne pubblicitarie, garantendo al contempo che gli inserzionisti mantengano il controllo creativo. Generazione di asset e editing delle immagini: novità e prospettive future: il lancio della generazione di asset e dell’editing delle immagini basati sull’IA apre nuove frontiere nella creazione rapida di risorse pubblicitarie. Etica e trasparenza: la priorità di Google: la tech company assicura che Performance Max sia utilizzata in modo etico, impedendo la promozione di contenuti dannosi o fuorvianti. Espansione delle partnership e nuove funzionalità: Google annuncia l’ampliamento delle partnership con piattaforme come Canva e il lancio di nuove funzionalità per arricchire ulteriormente le esperienze pubblicitarie. Promesse per il futuro: anteprime degli annunci condivisibili: Google si impegna a semplificare i flussi di lavoro creativi consentendo la condivisione di anteprime degli annunci Performance Max tramite link.