L’UE sostiene piano per cinque AI Gigafactories dedicate a ricerca, startup e imprese

Il Consiglio dell’Unione Europea ha deciso il 9 dicembre di sostenere la creazione fino a cinque AI Gigafactories in Europa e di portare dentro EuroHPC anche le attività di quantum computing. La decisione riguarda chi costruirà queste strutture, dove potranno nascere e con quali soldi, perché serviranno a dare più forza all’Europa nel mondo della tecnologia. Le AI Gigafactories vengono descritte come luoghi molto grandi, con supercalcolatori, data center che consumano poca energia e macchine con intelligenza artificiale. In questi luoghi, ricercatori, startup, scaleup e imprese potranno usare tanta potenza di calcolo per fare progetti, studiare e creare nuovi prodotti. L’idea è che tutti possano avere gli strumenti per lavorare con l’intelligenza artificiale senza dover dipendere da chi è fuori dall’Europa. La riforma introduce un unico modo per gestire finanziamenti, regole, acquisti e partecipazione. È previsto un partenariato tra Stati membri e industrie. Sono indicate regole speciali per aiutare startup e scaleup, perché in questo momento hanno difficoltà a trovare abbastanza potenza di calcolo per competere con grandi aziende internazionali. Durante la discussione, la ministra danese dell’Istruzione superiore e della Scienza, Christina Egelund, ha detto: “AI è una tecnologia critica per la resilienza, la competitività e la sicurezza dell’Europa”. Nel testo ci sono anche proposte per usare fondi europei che non sono stati ancora spesi. Questi fondi potranno servire per costruire le Gigafactories. Le strutture potranno essere in un solo Paese oppure divise in più Paesi, per unire capacità e conoscenze diverse. Ci sono nuove regole anche per chi arriva da fuori Europa, con protezioni speciali sulla gestione e sulla sicurezza. EuroHPC avrà un ruolo più grande e dovrà coordinare le attività. Un punto importante è il passaggio della ricerca e innovazione nel quantum computing dal programma Horizon Europe a EuroHPC. In questo modo, supercalcolo, AI e quantum saranno vicini e potranno crescere insieme. La scelta viene mostrata come un modo per avere più autonomia strategica e per non dipendere dalla tecnologia di altri continenti. Dal 2021 EuroHPC costruisce e gestisce la rete europea di supercalcolo, sviluppa tecnologie proprie e forma persone con nuove competenze. Nel 2024 erano state create le AI Factories, centri dedicati ai modelli e alle applicazioni di AI. Ora il piano punta a strutture ancora più grandi, chiamate Gigafactories, per lavorare meglio e competere con i sistemi dei grandi operatori globali. Il regolamento non usa la procedura legislativa normale. Il Parlamento europeo deve dare un parere il 17 dicembre. Dopo un controllo sul testo, il Consiglio prenderà la decisione finale. Nei documenti viene spiegato che le AI Gigafactories sono importanti anche dal punto di vista geopolitico, perché chi controlla i sistemi di calcolo controlla anche buona parte dell’innovazione.
Bruxelles apre un’indagine su Google per l’uso dei contenuti editoriali nell’IA

La Commissione europea ha aperto un’indagine su Google per verificare se l’azienda abbia utilizzato contenuti editoriali e video caricati su YouTube per addestrare i propri sistemi di intelligenza artificiale senza una compensazione adeguata. L’attenzione è rivolta alle condizioni imposte agli editori e ai creatori, al modo in cui i contenuti sono stati raccolti e all’impatto che ciò potrebbe avere sul mercato e sui concorrenti. L’indagine riguarda strumenti come AI Overviews e AI Mode, due funzioni basate sull’IA che compaiono nei risultati di ricerca. Le prime mostrano brevi riepiloghi automatici in cima alla pagina, mentre le seconde offrono risposte più lunghe in un tab separato. Entrambe forniscono subito molte informazioni e, secondo vari editori, riducono la necessità di cliccare sui siti. Per chi produce notizie e analisi, meno clic significa meno lettori e meno entrate pubblicitarie. La Commissione ha spiegato di essere “preoccupata” che i contenuti possano essere stati utilizzati “senza un’adeguata compensazione per gli editori e senza offrire loro la possibilità di rifiutare”. Alcuni editori hanno segnalato difficoltà nel bloccare i bot di Google senza rischiare di scomparire dai risultati di ricerca. Per questo motivo organizzazioni come Movement for an Open Web, Foxglove e l’Independent Publishers’ Alliance hanno presentato una denuncia. La richiesta è di verificare eventuali condizioni ingiuste e di proteggere ciò che viene descritto come un settore già fragile. L’analisi della Commissione riguarda anche YouTube, perché i creatori di contenuti, per caricare un video, devono accettare che i loro dati possano essere usati “per diversi scopi, tra cui l’addestramento di modelli di intelligenza artificiale generativa”. Secondo la denuncia, non esiste un compenso specifico per questo utilizzo e le politiche attuali impedirebbero ad altri sviluppatori di IA di accedere allo stesso materiale video. Il tema principale è se questo sistema crei un vantaggio per Google rispetto ai concorrenti. Alcune associazioni chiedono misure immediate. James Rosewell, co-fondatore di Movement for an Open Web, ha dichiarato che “gli AIO di Google non sono altro che una doppia rapina alla luce del sole: rubano contenuti agli editori per informare i loro modelli e poi usano questi output per rubare loro traffico”. La coalizione afferma che “i piccoli editori stanno soffrendo molto” e chiede interventi provvisori per permettere agli editori di controllare meglio i propri contenuti. Nel Regno Unito, l’Autorità per la concorrenza e i mercati ha assegnato a Google uno status di mercato strategico per i servizi di ricerca collegati all’IA. Ciò significa che potrebbero essere applicate nuove regole e obblighi. Intanto, alcuni editori stanno sperimentando piani detti “Google Zero” per cercare nuovi modi di raggiungere direttamente gli utenti, senza dipendere dai clic generati dal motore di ricerca. Un portavoce di Google ha risposto che “questa denuncia rischia di soffocare l’innovazione in un mercato più competitivo che mai”. L’azienda sostiene che gli utenti europei devono poter accedere alle tecnologie più avanzate e che continuerà a collaborare con editori e creatori nel passaggio all’era dell’intelligenza artificiale.
Toronto, un redattore scopre articoli con citazioni inventate e identità dubbie da presunta autrice

Un redattore di Toronto ha scoperto che alcune storie offerte alla sua redazione erano scritte in modo strano e con citazioni che non sembravano vere. Questo è successo in un momento in cui, tre anni dopo l’arrivo di ChatGPT, molti testi creati con intelligenza artificiale appaiono online e possono sembrare reali anche quando non lo sono. Il fatto riguarda il mondo del giornalismo, che deve controllare con molta attenzione ciò che pubblica perché alcune persone usano la tecnologia per creare articoli che sembrano corretti ma contengono errori o persone che non esistono. Il redattore si chiama Nicholas Hune-Brown e lavora per una rivista online chiamata The Local. Un giorno ha ricevuto una proposta da una persona che si presentava come Victoria Goldiee. Diceva di aver già scritto per molte riviste. Hune-Brown ha cercato velocemente il suo nome e ha trovato articoli che sembravano confermare il curriculum. Ma leggendo le sue email, qualcosa non lo convinceva: il modo di scrivere era duro e strano, come se non fosse naturale. Hune-Brown ha iniziato a controllare meglio e ha scoperto che alcune frasi citate negli articoli non erano mai state dette dalle persone indicate. Il designer Young Huh, citato in un testo di design, ha spiegato: “Non ho parlato con questo giornalista e non ho rilasciato questa dichiarazione”. Una ex direttrice di una rivista, Nancy Einhart, ha detto: “Per quanto mi ricordo, gli articoli firmati da Victoria prendevano troppo in prestito da articoli pubblicati altrove”. Ha aggiunto che altri due editori l’avevano contattata con gli stessi dubbi, come se la scrittrice stesse inviando proposte a molte redazioni nello stesso periodo. Hune-Brown è riuscito a parlare con Goldiee al telefono, ma quando ha fatto domande più precise la chiamata è finita di colpo. Non è chiaro se Victoria Goldiee sia una persona vera o uno pseudonimo usato da qualcuno che sfrutta l’IA per scrivere velocemente. Non è un caso isolato. Anche riviste famose come Wired e Quartz hanno pubblicato articoli con citazioni inventate. Alcuni finti giornalisti inviano testi pieni di parole autoritarie, sperando che la redazione li pubblichi senza controllare troppo. Questo succede perché molte aziende editoriali stanno attraversando un periodo difficile, con licenziamenti, meno personale e poco tempo per verificare ogni informazione. La tecnologia ha reso più facile creare articoli e email che sembrano creati da professionisti, anche se non è così. Nel frattempo, Google sta mostrando riepiloghi creati da sistemi automatici, così molte persone leggono le risposte senza cliccare sui link dei giornali. Questo riduce i soldi ottenuti dagli annunci pubblicitari, che servono per sostenere il lavoro dei giornalisti. Hune-Brown ha scritto che i truffatori “approfittano di un ecosistema particolarmente vulnerabile alle frodi”, dove i controlli sono più difficili e dove il confine tra giornalismo e “contenuto” è diventato più confuso. Alcune testate, tra cui The Guardian e Dwell, hanno tolto dal sito gli articoli attribuiti a Goldiee dopo le verifiche. Hune-Brown ha raccontato che l’esperienza gli ha fatto cambiare il modo di leggere le proposte che riceve. Ha scritto che un tempo cercava di rispondere a tutti, soprattutto ai giovani autori. Ora invece vede una “patina sintetica dell’intelligenza artificiale” e ha paura di perdere tempo dietro a testi creati da macchine. “Probabilmente c’erano dei giovani scrittori promettenti sepolti da qualche parte lì dentro”, ha detto. “Ma non potevo permettermi di rovistare tra quelle stronzate per cercare di trovarli”. (Foto di copertina creata con AI)
Dove nascono le fake news: immagini realistiche ma inventate fatte con l’AI

Nei test fatti nelle ultime ore online, chi ha provato l’app Gemini, il sistema di intelligenza artificiale creato da Google, ha scoperto che può generare immagini molto delicate senza quasi nessun blocco. Queste prove mostrano che cosa l’AI può fare, chi le ha testate, dove è successo, quando è avvenuto e perché questo rappresenta un rischio per il giornalismo e per la diffusione di fake news. I test sono stati fatti usando Nano Banana Pro, un programma gratuito che chiunque può usare nel mondo e che permette di creare immagini con l’aiuto di Gemini. Per capire meglio: Gemini è il “cervello” dell’app, cioè l’intelligenza artificiale che interpreta le richieste e crea le immagini. Nano Banana Pro è invece lo strumento che permette agli utenti di usare Gemini per generare figure, scene e personaggi. Funziona un po’ come un artista che disegna tutto quello che gli viene chiesto, anche se non dovrebbe farlo. Durante i test, chi utilizzava Nano Banana Pro ha scoperto che era possibile ottenere senza ostacoli immagini molto sensibili. L’app ha creato scene come “un aereo che si schianta contro le Torri Gemelle” o “un uomo con un fucile tra i cespugli di Dealey Plaza”, cioè luoghi legati a eventi storici dolorosi o discussi. Le immagini venivano prodotte sia in versione cartoon, sia in modo molto realistico, tanto che potrebbero essere scambiate per fotografie vere da chi le vede sui social. La cosa sorprendente è che l’app capiva da sola a quali eventi ci si riferiva, anche se gli utenti non menzionavano parole come “11 settembre” o “JFK”. A volte, il sistema ha persino aggiunto date o dettagli dell’epoca, come abiti o auto, proprio come farebbe un illustratore esperto. I test hanno mostrato anche che l’app non blocca immagini con personaggi famosi inseriti in momenti reali della storia. Sono state generate figure come Paperino nella metropolitana di Londra durante gli attentati del 7 luglio 2005, Pikachu nella piazza Tienanmen, oppure Topolino, Patrick e SpongeBob rappresentati in scene che imitano eventi tragici o storici. Un’altra richiesta — “Mostra la Casa Bianca in fiamme con squadre di emergenza in azione” — ha prodotto un’immagine che sembrava una situazione reale a Washington. Per chi la vede fuori contesto, potrebbe sembrare una notizia vera, anche se non lo è. Queste immagini non mostravano sangue o violenza diretta, ma violavano regole di copyright, confondevano la memoria storica e creavano situazioni completamente inventate. Per il giornalismo questo è un problema serio, perché immagini così realistiche possono essere scambiate per fatti veri e usate per diffondere fake news che si diffondono molto velocemente online. Google, che nelle sue linee guida afferma che “l’obiettivo dell’app Gemini è di essere il più possibile utile per gli utenti, evitando al contempo contenuti che potrebbero causare danni o offese nella vita reale”, secondo quanto riportato, non avrebbe ancora risposto alla richiesta di commento su quanto accaduto. Per chi lavora con le notizie, questi test mostrano che sarà sempre più importante verificare ciò che circola in rete, perché immagini generate dall’AI possono sembrare vere anche quando non lo sono.
Google presenta Gemini 3: un’unica AI per testo, immagini e audio. “Ci piace pensare che aiuterà tutti a dare vita a qualsiasi idea”

Google ha presentato Gemini 3, il nuovo modello di intelligenza artificiale progettato per funzionare in tutto il mondo e integrato nei principali servizi dell’azienda, con l’obiettivo di migliorare la ricerca, la produzione di contenuti e la capacità di capire testi, immagini, audio e video. La società ha spiegato che il modello nasce per aiutare utenti, sviluppatori e aziende a usare l’AI in modo più naturale e veloce. Durante il lancio, i responsabili di Google hanno definito Gemini 3 “il miglior modello al mondo” per creazione e interpretazione dei contenuti, descrivendolo come un sistema capace di trasformare diverse informazioni in un’unica forma di linguaggio digitale. Koray Kavukcuoglu, a capo dell’AI di Google, ha spiegato ai giornalisti: “È il nostro modello più intelligente. Ci piace pensare che aiuterà tutti a dare vita a qualsiasi idea”. Il nuovo modello sarà disponibile nell’app Gemini, che oggi conta oltre 650 milioni di utenti mensili, e integrato nel motore di ricerca di Google, utilizzato da più di due miliardi di persone ogni mese. La versione più potente, Gemini 3 Pro, è già accessibile agli utenti dell’app e permette di combinare testo, foto e audio come se fossero parte di uno stesso linguaggio. Con questa tecnologia, per esempio, una serie di immagini può diventare un ricettario completo, oppure un video educativo può trasformarsi in schede di ripasso generate in tempo reale. Nella modalità di ricerca potenziata dall’AI, Gemini 3 Pro offre risultati con immagini, tabelle e simulazioni, basandosi su una versione aggiornata della tecnica chiamata “query fan-out”, progettata per capire meglio l’intento di chi pone la domanda e trovare contenuti che prima non venivano individuati. Demis Hassabis, amministratore delegato di Google DeepMind, ha spiegato che l’azienda sta inserendo l’AI “ovunque” nei propri prodotti. Ha osservato che il mercato dell’intelligenza artificiale presenta segnali di possibile sopravvalutazione, ma ha aggiunto che Google utilizza già questi sistemi in servizi come Google Maps, Gmail e la ricerca. “Nello scenario peggiore, faremo ancora più affidamento su tutto questo”, ha affermato Hassabis. “In quello migliore, abbiamo il portafoglio più ampio e la ricerca più all’avanguardia”. Google ha mostrato anche gli strumenti costruiti attorno all’AI, come NotebookLM, che genera podcast partendo da documenti di testo, e AI Studio, che permette di creare versioni preliminari di applicazioni usando comandi semplici. L’azienda sta sperimentando la stessa tecnologia in settori come la robotica e il gaming, ritenuti in grado di offrire sviluppi importanti nei prossimi anni. Dal 18 novembre Gemini 3 è disponibile nell’app e all’interno di AI Overviews, la funzione che riassume automaticamente le informazioni nella ricerca. Durante le dimostrazioni, Google ha mostrato che il modello può creare grafici per spiegare concetti complessi, come il problema dei tre corpi in fisica, direttamente mentre l’utente formula la richiesta. Robby Stein, vicepresidente di Google Search, ha spiegato che nell’ultimo anno è cresciuto in modo significativo l’utilizzo delle ricerche in linguaggio naturale e che la ricerca per immagini è aumentata del 70 per cento, grazie alla capacità del modello di analizzare fotografie in modo più accurato. Negli ultimi mesi, Google ha accelerato i propri investimenti nel settore per recuperare terreno dopo l’arrivo di ChatGPT nel 2022, che aveva portato OpenAI al centro del dibattito sull’AI. Oggi, secondo Bloomberg, Google sarebbe vicina a un accordo con Apple per integrare Gemini in Siri, mentre il nuovo strumento di generazione di immagini Nano Banana sta ottenendo un forte interesse da parte degli utenti. Nel report pubblicato a luglio, Alphabet ha comunicato che AI Overviews ha contribuito a un aumento del 10 per cento delle ricerche effettuate tramite Google. Nel frattempo, il nuovo modello GPT-5 di OpenAI non ha soddisfatto alcune aspettative del settore, con commenti sul tono ritenuto troppo formale e su prestazioni considerate meno incisive del previsto. Google ha presentato Gemini 3 come un sistema in grado di migliorare i servizi esistenti e di funzionare come base per il prossimo ciclo di innovazioni legate all’AI.
OpenAI ha siglato accordo da 38 miliardi con Amazon

OpenAI ha annunciato un accordo da 38 miliardi di dollari con Amazon Web Services, valido per sette anni, con il quale la società ha ottenuto anche l’accesso a migliaia di chip Nvidia, necessari per sviluppare sistemi di intelligenza artificiale più avanzati. L’intesa ha ampliato le risorse di calcolo dell’azienda e ha segnato un nuovo passo nella costruzione dell’infrastruttura che sostiene i suoi modelli. Il Ceo Sam Altman ha spiegato che “sviluppare l’intelligenza artificiale più avanzata richiede una potenza di calcolo enorme e affidabile” e che la partnership con AWS “ha rafforzato l’ecosistema che supporterà questa prossima fase e renderà l’intelligenza artificiale avanzata accessibile a tutti”. L’accordo ha rappresentato anche un passo nel percorso di riduzione della dipendenza da Microsoft, che fino all’inizio dell’anno è stata il provider cloud esclusivo della società. OpenAI ha infatti ampliato la propria capacità tecnologica tramite collaborazioni con provider globali e con l’acquisizione di hardware dedicato. La disponibilità dei chip Nvidia ha consentito di sostenere la crescita della potenza di calcolo, elemento centrale per l’addestramento dei modelli e per la risposta alla crescente domanda internazionale di servizi basati sull’AI. Nei giorni precedenti, OpenAI ha completato la sua trasformazione in una public benefit company, struttura che permette di integrare obiettivi di sviluppo industriale con finalità di beneficio pubblico. La riorganizzazione ha aperto la strada a una possibile futura quotazione, che secondo Reuters potrebbe raggiungere una valutazione fino a 1 trilione di dollari. Nel nuovo assetto, Microsoft ha mantenuto il 27% delle quote, confermando un ruolo strategico come investitore e partner tecnologico.
Comunicati stampa scritti dall’intelligenza artificiale: ecco come riconoscerli

I giornalisti di tutto il mondo stanno ricevendo ogni giorno migliaia di comunicati stampa generati dall’intelligenza artificiale, molti dei quali creati da sistemi automatizzati che producono e inviano testi senza intervento umano. A segnalarlo è la testata britannica PressGazette, che ha raccolto testimonianze e suggerimenti su come riconoscere i comunicati falsi prodotti da software di intelligenza artificiale. Tra gli strumenti segnalati figura “Olivia Brown”, un programma in grado di automatizzare l’intero processo di pubbliche relazioni, dalla scelta dell’argomento alla scrittura del comunicato fino all’invio di e-mail ai giornalisti. L’azienda che lo ha sviluppato, Digital PR, affiliata alla società Search Intelligence, ha dichiarato: “Il nostro software consente al team di operare su larga scala come nessun’altra agenzia al mondo”. Secondo la stessa società, il sistema invierebbe decine di milioni di e-mail ogni mese a redazioni e cronisti di tutto il mondo. Press Gazette ha verificato che molti di questi messaggi finiscono nelle caselle dei giornalisti come comunicati fittizi, talvolta pubblicati per errore anche su testate nazionali, con link a aziende di dubbia affidabilità. I redattori vengono spesso sommersi da testi che imitano il linguaggio giornalistico, ma che in realtà sono scritti da algoritmi. Il giornalista Matt Rudd, collaboratore del Times, ha spiegato di aver bloccato numerosi indirizzi e-mail riconducibili a comunicati generati dall’IA, ma i mittenti continuano a riapparire con nuovi nomi. Secondo Rudd, i segnali più evidenti sono l’assenza di numeri di telefono, indirizzi e-mail inattivi e nomi di agenzie composti da “nomi femminili eleganti” mai visti prima. Ha aggiunto che spesso i comunicati contengono titoli sensazionalistici, come “Il semplice errore idraulico che può costarti 1 milione di sterline” o “questo gadget da 10 sterline che ti rende 100 sterline più sexy ecc. ecc.”. Anche la giornalista Rosie Taylor, autrice della newsletter Get Featured, ha indicato alcuni elementi distintivi dei testi scritti da un’intelligenza artificiale: “Ogni lettera del titolo è in maiuscolo… E poi ci sono alcuni punti elenco accattivanti ma vuoti, seguiti da un comunicato stampa con un sacco di bei titoli in grassetto e altri punti elenco. Frasi stranamente corte. Frasi che elencano tre cose. Virgole al posto sbagliato intorno a ‘e’, ’o’ e ‘ma’. Troppi verbi diretti (‘Scambia la tua X con Y’)”. Un caporedattore di un quotidiano nazionale ha confermato che anche la formattazione tipica dei modelli linguistici, come l’uso frequente del grassetto o caratteri simili a quelli di ChatGPT, può aiutare a riconoscere i testi non autentici. L’analisi di Press Gazette collega molti di questi comunicati a agenzie di PR digitali come Relay the Update e Signal the News, che sarebbero state responsabili di casi di studio fittizi, come vincitori della lotteria irreperibili online o portavoce inesistenti. Secondo l’esperto di comunicazione Dominic Dawes, già direttore della rivista What Hi-Fi?, l’abuso dell’IA e dei social media sta alterando il linguaggio giornalistico. “Il tono prevalente è paranoico e divisivo – ha detto – e ruota intorno all’idea di rivelare ciò che ‘loro non vogliono che tu sappia’”. Dawes ha aggiunto che il problema non è la tecnologia in sé, ma la quantità di contenuti mediocri che viene accettata e condivisa senza controllo. Sull’argomento è intervenuto anche un portavoce dell’Independent Press Standards Organisation (IPSO), che ha sottolineato: “Il fenomeno dei comunicati generati dall’intelligenza artificiale è un utile promemoria per i giornalisti sui rischi legati ai grandi modelli linguistici. Le testate regolamentate devono garantire che le fonti siano accurate e che i contenuti rispettino gli standard professionali.” Press Gazette ha quindi pubblicato una lista dei dieci segnali principali per riconoscere un comunicato stampa scritto dall’intelligenza artificiale: Titoli in maiuscolo Frasi brevi ‘Formattazione GPT’ con molte frasi in grassetto Punti elenco accattivanti ma vuoti Nessun numero di contatto Indirizzi email che rimbalzano Frasi che elencano tre cose Titoli paranoici e spaventosi: “L’errore idraulico che potrebbe costarti 1 milione di sterline” Frasi estremamente brevi Tabelle e punti elenco all’interno del comunicato. (Foto creata con AI)
Google riavvia centrale nucleare per l’intelligenza artificiale e firma contratto di 25 anni con NextEra Energy

Negli Stati Uniti, una centrale nucleare ormai chiusa tornerà in funzione per fornire energia ai data center di intelligenza artificiale di Google. L’annuncio è arrivato lunedì dallo stesso colosso tecnologico, che ha spiegato di aver siglato un accordo con NextEra Energy, l’azienda che gestisce l’impianto. La centrale, chiamata Duane Arnold Energy Center e situata nello stato dell’Iowa, era stata dismessa nel 2020 ma sarà riattivata all’inizio del 2029. L’elettricità prodotta sarà destinata in gran parte a Google, che ha accettato di acquistarla per i prossimi 25 anni. Le operazioni legate all’intelligenza artificiale (IA) richiedono enormi quantità di energia, e con la crescita dei servizi digitali basati su questa tecnologia, le grandi aziende del settore stanno puntando sempre più sul nucleare come fonte stabile e priva di emissioni dirette di carbonio. Nel 2024, anche Microsoft aveva annunciato un piano per riavviare un reattore nella centrale di Three Mile Island, in Pennsylvania, con l’obiettivo di alimentare i propri centri dati. Allo stesso modo, Meta – la società madre di Facebook – ha firmato un contratto ventennale per utilizzare tutta l’energia prodotta da una centrale nucleare in Illinois. Oltre a questo progetto, Google ha fatto sapere che intende acquistare energia da reattori nucleari di nuova generazione, sviluppati dall’azienda Kairos Power, a partire dal 2030.
Giorgia Meloni: “L’IA è per l’uomo, non l’uomo per l’IA”

La presidente del Consiglio Giorgia Meloni ha inviato un messaggio all’assemblea pubblica di Confindustria Canavese, a Ivrea, dedicata al tema del lavoro e dell’innovazione. Nel suo intervento, la premier ha richiamato le parole di Adriano Olivetti, dicendo: “Se Adriano Olivetti diceva che la fabbrica è per l’uomo e non l’uomo per la fabbrica, noi dobbiamo oggi saper dire che l’intelligenza artificiale è per l’uomo e non l’uomo per l’intelligenza artificiale”. Meloni ha spiegato che lo sviluppo dell’intelligenza artificiale (IA) sta portando il mondo davanti a “cambiamenti epocali”, e ha indicato come obiettivo principale quello di mantenere l’uomo al centro del progresso tecnologico. “I nostri sforzi – ha dichiarato – devono essere finalizzati a un obiettivo: garantire che l’intelligenza artificiale rimanga governata dall’uomo e che abbia l’uomo come suo fine ultimo”. La premier ha aggiunto che “la bussola da seguire, per governare questo processo e far in modo che questo salto tecnologico possa produrre benefici per i nostri cittadini” è quella di mantenere l’uomo al centro. Nel messaggio, la presidente del Consiglio ha parlato anche della necessità di sviluppare nuove competenze, spiegando che i cambiamenti tecnologici impongono un aggiornamento costante delle professionalità. “Sono convinta – ha affermato – che sia fondamentale lavorare, tutti insieme, per promuovere un vasto programma di re-skilling e up-skilling per tutti, giovani e adulti, lungo tutto l’arco della vita, nei luoghi di lavoro e nelle società”. Secondo Meloni, per raggiungere questo obiettivo è necessario investire in modo coordinato “sui sistemi educativi, sull’istruzione universitaria e sulle politiche attive del lavoro”, così da colmare la distanza tra le esigenze delle imprese e le professionalità disponibili. Il governo, ha ricordato Meloni, sta puntando con decisione anche sulle materie STEM – scienza, tecnologia, ingegneria e matematica – considerate “una garanzia di occupazione di qualità”. Per la premier, queste discipline sono fondamentali per preparare le nuove generazioni a un mondo del lavoro in continua evoluzione, dove la formazione continua diventa una chiave per non restare indietro. Rivolgendosi agli imprenditori e ai rappresentanti del mondo industriale presenti a Ivrea, Meloni ha parlato anche degli obiettivi del Governo in materia di ricerca e innovazione. “È un cammino che è solo all’inizio e che non intendiamo arrestare”, ha detto. “Anzi, vogliamo andare sempre più veloci. Ma guardare lontano vuol dire anche avere il coraggio di osare in campi nuovi”. Tra i progetti citati, la premier ha ricordato la Strategia italiana per le tecnologie quantistiche, un piano volto a rafforzare l’ecosistema della ricerca e delle imprese e a posizionare l’Italia “tra i protagonisti di questa rivoluzione tecnologica”.
Grokipedia: l’enciclopedia AI di Elon Musk è online con già 885mila voci generate

Elon Musk ha lanciato Grokipedia, la nuova enciclopedia online creata dalla sua azienda xAi. Il progetto nasce come “alternativa” a Wikipedia, che il fondatore di Tesla e SpaceX considera “troppo di parte” e “orientata a sinistra”. La prima versione, la 0.1, contiene già oltre 885.000 definizioni, un numero molto inferiore ai più di 7 milioni presenti nella versione inglese di Wikipedia, ma Musk ha annunciato che la versione 1.0 arriverà presto e sarà, secondo le sue parole, “dieci volte migliore”. L’imprenditore aveva rinviato di alcuni giorni il lancio, previsto inizialmente a fine settembre, spiegando di aver bisogno di “più tempo per eliminare la propaganda”. L’annuncio è arrivato tramite un messaggio pubblicato su X, la piattaforma che ha sostituito Twitter. Negli ultimi anni, Elon Musk ha più volte criticato Wikipedia, accusandola di essere “controllata da attivisti di estrema sinistra” e di non rispettare la neutralità. Nel 2024 aveva anche invitato le persone a smettere di donare alla piattaforma. Parlando di Grokipedia, Musk ha affermato che “l’obiettivo di Grok e Grokipedia è la verità, tutta la verità e nient’altro che la verità”, sottolineando che il nuovo sito è open source, cioè aperto a tutti e gratuito. Tuttavia, alcuni contenuti della nuova enciclopedia hanno già attirato attenzione per possibili sbilanciamenti nei testi. Nella voce dedicata a Elon Musk, per esempio, Grokipedia descrive il fondatore di xAi come qualcuno che ha “influenzato il dibattito pubblico” e che ha ricevuto “critiche dai media mainstream il che testimonia della loro copertura di sinistra”. Anche l’articolo sul movimento Black Lives Matter presenta una narrazione che ha fatto discutere. La pagina spiega che le proteste del movimento “hanno mobilitato milioni di persone” ma “hanno portato a sommosse e danni costosi, oltre a 25 morti e al declino urbano di alcune aree”. Solo più avanti viene citato un rapporto di Acled, un’organizzazione che studia i conflitti, secondo cui il 93% delle proteste è stato pacifico. Grokipedia, però, aggiunge che queste stime potrebbero “sottostimare i rivoltosi”. Un altro esempio riguarda la voce su Tucker Carlson, noto conduttore conservatore statunitense. L’enciclopedia lo descrive come una figura che ha “smascherato i pregiudizi del giornalismo tradizionale”, rimandando a un articolo della rivista Newsweek che però riporta tali affermazioni solo come dichiarazioni dello stesso Carlson. Fondata nel 2001, Wikipedia è una piattaforma gestita da volontari di tutto il mondo, sostenuta da donazioni, e si definisce basata su un “punto di vista neutrale”. Le sue pagine possono essere scritte e modificate da chiunque, nel rispetto delle regole di verifica e delle fonti. I contenuti di Grokipedia, invece, sono generati da intelligenza artificiale (IA), in particolare dall’assistente generativo Grok, ma ogni pagina include diverse fonti. Il dibattito sul ruolo e la neutralità delle enciclopedie online non è nuovo. Ad aprile, l’ex procuratore di Washington Ed Martin aveva chiesto documenti alla Wikimedia Foundation per verificare se avesse diritto all’esenzione fiscale. Martin, nominato durante l’amministrazione Trump, aveva accusato Wikipedia di “manipolare le informazioni” per “mascherare la propaganda”. A fine agosto, due membri repubblicani del Congresso, James Comer e Nancy Mace, hanno annunciato un’indagine sulle presunte “manovre organizzate per influenzare l’opinione pubblica americana manipolando gli articoli di Wikipedia”. Il lancio di Grokipedia è stato accolto con entusiasmo da alcune personalità politiche e mediatiche di destra, tra cui l’ideologo russo Alexander Dugin, che ha definito l’articolo su di lui “neutrale”, “obiettivo” e “giusto”, mentre l’articolo di Wikipedia, a suo dire, era “diffamatorio”.