OpenAI presenta ChatGPT Salute: non sostituisce i medici

chatgpt salute

OpenAI ha annunciato il lancio di ChatGPT Salute, una nuova esperienza separata all’interno di ChatGPT dedicata alle informazioni sanitarie, progettata per aiutare gli utenti a sentirsi più informati, preparati e sicuri nella gestione della propria salute, garantendo al tempo stesso livelli rafforzati di privacy e sicurezza dei dati. La novità è stata presentata come risposta a un uso già molto diffuso del chatbot in ambito medico: secondo l’analisi anonima delle conversazioni, oltre 230 milioni di persone nel mondo pongono ogni settimana domande su salute e benessere. ChatGPT Salute è disponibile inizialmente per un numero limitato di utenti tramite lista d’attesa, con l’obiettivo di estendere progressivamente l’accesso su web e iOS. La nuova sezione nasce come uno spazio dedicato, distinto dalle chat tradizionali. Qui, le conversazioni sanitarie, i file caricati come referti e ricette, le memorie e le app collegate vengono archiviati separatamente e isolati dal resto dell’esperienza su ChatGPT. OpenAI spiega che questo isolamento serve a mantenere le informazioni sanitarie private, evitando che confluiscano nelle chat generiche. Le conversazioni restano visibili nella cronologia dell’utente, ma rimangono confinate all’interno dell’area Salute, con la possibilità di visualizzare o eliminare i dati in qualsiasi momento dalle impostazioni. Dal punto di vista tecnico, ChatGPT Salute si basa sulle protezioni già presenti in ChatGPT, come la crittografia dei dati a riposo e in transito, e introduce ulteriori livelli di tutela pensati specificamente per l’ambito sanitario. Tra questi ci sono sistemi di crittografia dedicati e meccanismi di isolamento che impediscono l’uso delle conversazioni sanitarie per l’addestramento dei modelli di base. L’utente può rafforzare ulteriormente la protezione attivando l’autenticazione a più fattori (MFA). OpenAI precisa che, se una conversazione su ChatGPT riguarda temi di salute, il sistema suggerisce automaticamente di passare alla sezione Salute per beneficiare di queste protezioni aggiuntive. Uno degli elementi centrali della nuova esperienza è la possibilità di collegare in modo sicuro le informazioni sanitarie personali. Gli utenti possono integrare cartelle cliniche elettroniche e app di benessere per ottenere risposte più mirate e contestualizzate. Al momento, le integrazioni con le cartelle cliniche elettroniche sono disponibili solo negli Stati Uniti e per utenti maggiorenni, mentre per collegare Apple Salute è necessario un dispositivo iOS. Le app possono accedere ai dati solo con un consenso esplicito e rispettano requisiti specifici di privacy e sicurezza, inclusa la raccolta dei soli dati minimi necessari. L’accesso può essere revocato in qualsiasi momento. Grazie a queste integrazioni, ChatGPT Salute può aiutare a comprendere i risultati degli esami, a prepararsi a una visita medica, a ricevere indicazioni su alimentazione e attività fisica, oppure a valutare diverse opzioni assicurative in base ai modelli di assistenza sanitaria. Le risposte si basano sempre sulle informazioni che l’utente sceglie di condividere e sul contesto disponibile, con un linguaggio pensato per essere chiaro e accessibile, come se spiegasse concetti complessi anche a un bambino. OpenAI sottolinea che ChatGPT Salute non è uno strumento diagnostico e non sostituisce i medici. La funzione è stata progettata per affiancare l’assistenza sanitaria, aiutando le persone a orientarsi tra domande quotidiane e a capire l’andamento della propria salute nel tempo, così da affrontare con maggiore consapevolezza le conversazioni con i professionisti. Lo sviluppo di ChatGPT Salute è avvenuto in stretta collaborazione con i medici. In due anni di lavoro, OpenAI ha coinvolto oltre 260 medici attivi in 60 Paesi e in numerose specialità, che hanno fornito più di 600.000 feedback sulle risposte del modello. Questo contributo ha portato alla definizione di un sistema di valutazione chiamato HealthBench, un framework che misura la qualità delle risposte secondo standard clinici, dando priorità a sicurezza, chiarezza, corretto invito al follow-up medico e rispetto del contesto individuale. L’obiettivo è garantire che il modello funzioni in modo affidabile nelle attività di supporto informativo, come spiegare un referto o riassumere indicazioni di cura.

xAI di Elon Musk raccoglie 20 miliardi, mentre Grok è sotto accusa per deepfake sessuali

elon-musk-plans-to-take-on-wikipedia-with-grokipedia

La startup di intelligenza artificiale fondata da Elon Musk ha chiuso un nuovo finanziamento da 20 miliardi di dollari negli Stati Uniti, secondo quanto riportato dal Financial Times, mentre il suo chatbot Grok è finito al centro di segnalazioni per la diffusione di immagini manipolate e deepfake sessuali non consensuali che coinvolgono donne e bambini. Il round Series E ha superato l’obiettivo iniziale di 15 miliardi di dollari e ha visto la partecipazione di grandi investitori e gruppi industriali, tra cui Nvidia, Cisco, Fidelity Management, Qatar Investment Authority, Valor Equity Partners, StepStone Group, il fondo di Abu Dhabi MGX e Baron Capital. Nvidia e Cisco, già partner industriali, forniscono tecnologia e capacità di calcolo utili allo sviluppo dei modelli di IA generativa. Secondo quanto comunicato dall’azienda, le nuove risorse serviranno a migliorare i modelli di intelligenza artificiale, a sostenere la ricerca e a costruire grandi data center. Tra questi c’è il progetto Colossus a Memphis, nel Tennessee, che aveva già raccolto 10 miliardi di dollari nel luglio precedente. La società, xAI, lavora allo sviluppo del modello Grok 5 e dichiara di puntare alla missione di “comprendere l’universo”. Dal blog ufficiale emerge che Grok e la piattaforma collegata raggiungono circa 600 milioni di utenti attivi al mese. Proprio l’uso del chatbot ha però generato numerose segnalazioni per la creazione e la circolazione di contenuti sessualizzati prodotti senza il consenso delle persone rappresentate. Dopo i reclami, l’azienda ha parlato di falle nei sistemi di sicurezza e ha pubblicato delle scuse, senza riuscire a fermare subito la diffusione dei materiali segnalati. Alla richiesta di commento del Guardian, la società ha risposto con un messaggio automatico: “Le bugie dei media tradizionali”. Tra le persone coinvolte c’è Ashley St Clair, che ha denunciato la mancata rimozione delle immagini dopo le segnalazioni. “Mi sono sentita inorridita, mi sono sentita violata”, ha dichiarato, spiegando che i contenuti continuavano a circolare online. Il caso ha attirato l’attenzione delle autorità europee. Il governo francese ha trasmesso i materiali alla magistratura e ha coinvolto gli organismi di vigilanza sui media per verificare un possibile contrasto con il Digital Services Act. Nel Regno Unito, la ministra della Tecnologia Liz Kendall ha definito la situazione preoccupante, mentre l’Ofcom ha avviato contatti con xAI per valutare eventuali azioni. Anche la Commissione Ue segue la vicenda nell’ambito dell’applicazione del DSA. Un portavoce ha ricordato che a novembre è stata inviata una richiesta di informazioni a X, sottolineando che la piattaforma “è ben consapevole della nostra serietà nell’applicazione del DSA” e richiamando una sanzione comminata dall’Unione europea nel dicembre scorso.

Lavoro, AI e competenze: lo scenario 3–5 anni

AI e risorse umane

Nei prossimi 3–5 anni la gestione dello staff nelle aziende cambierà grazie all’uso crescente dell’Intelligenza Artificiale, che sta già trasformando il talent management e i processi di risorse umane. Oggi molte imprese stanno introducendo strumenti di AI per pianificare il lavoro, assegnare le persone ai progetti e sviluppare nuove competenze, in un contesto in cui la sperimentazione è ormai diffusa: il 62% delle organizzazioni internazionali dichiara di essere almeno in fase di test con agenti basati su intelligenza artificiale. In Italia, secondo i dati Istat, nel 2025 l’adozione dell’AI tra le imprese con almeno 10 addetti ha raggiunto il 16,4%, in aumento rispetto all’8,2% dell’anno precedente, mentre la principale difficoltà resta la carenza di competenze adeguate, segnalata dal 58,6% delle aziende. L’evoluzione riguarda in particolare il modo in cui le imprese gestiscono lo staffing, cioè decidono chi lavora su cosa e quando. I modelli tradizionali basati su fogli di calcolo, email e processi manuali stanno lasciando spazio a sistemi più evoluti, come i software ERP integrati con funzioni di intelligenza artificiale. Questi strumenti permettono di raccogliere dati dai progetti, dalle vendite e dalle performance interne e di usarli per prevedere in anticipo i bisogni futuri, suggerendo scenari di assegnazione delle risorse più adatti. In questo modo lo staffing passa da reattivo a predittivo, aiutando le aziende a prepararsi ai picchi di lavoro e a ridurre errori di pianificazione. Le competenze legate all’AI sono tra le più richieste e si concentrano su tre aree principali: la conoscenza degli strumenti, per scegliere e usare correttamente soluzioni di intelligenza artificiale generativa, analisi dei dati o automazione; il prompting, cioè la capacità di dare istruzioni chiare ai sistemi AI e controllarne i risultati; e la gestione dei workflow e della governance, necessaria per integrare l’AI nei processi aziendali in modo sicuro e tracciabile. Nei ruoli più esposti all’AI, le competenze evolvono il 66% più velocemente rispetto ad altri ambiti e le skill legate all’intelligenza artificiale possono portare a un premio salariale che arriva fino al 56%. Nei prossimi anni diventerà sempre più importante aggiornare le informazioni sulle competenze in tempo reale. Una skill dichiarata a inizio anno può diventare superata dopo pochi mesi. Per questo i dati devono arrivare direttamente dal lavoro quotidiano, permettendo alle aziende di avere una visione sempre aggiornata delle capacità disponibili. Lo staffing diventa così uno strumento utile non solo per l’organizzazione del lavoro, ma anche per il controllo finanziario e la gestione delle performance. Parallelamente cresce l’attenzione allo sviluppo continuo dei talenti. I dati in tempo reale su competenze e soddisfazione dei dipendenti permetteranno di personalizzare i percorsi di crescita, individuare i bisogni formativi prima che incidano sui risultati e migliorare la retention dei team. In questo modello, talent management, progetti, area commerciale e finanza non sono più separati, ma collegati in un unico processo supportato da dashboard e automazioni intelligenti. Secondo i casi analizzati da Furious, il 92% delle organizzazioni che ha adottato questi strumenti ha già ottenuto benefici come maggiore controllo dei processi, riduzione dei tempi di pianificazione e miglioramento della soddisfazione interna. (Foto creata con AI)

Meta compra Manus, l’agente IA che lavora in autonomia

Meta Manus

Meta ha firmato un accordo per acquisire Manus, un agente di intelligenza artificiale sviluppato da una startup cinese e oggi con sede a Singapore. L’operazione riguarda il gruppo americano Meta, la società creatrice di Manus legata al gruppo Butterfly Effect, e coinvolge l’integrazione del nuovo sistema nei prodotti dell’azienda statunitense, compreso Meta AI. I dettagli economici non sono stati comunicati ufficialmente, ma secondo una fonte citata da Bloomberg la valutazione dell’accordo sarebbe compresa tra i 2 e i 3 miliardi di dollari. L’operazione si inserisce in una strategia più ampia di investimenti nel settore dell’intelligenza artificiale, che include anche l’impegno annunciato a giugno per oltre 14 miliardi di dollari nella startup Scale AI, specializzata nell’organizzazione dei dati usati per addestrare i modelli di IA. Manus è un AI agent di tipo general purpose, cioè uno strumento capace di lavorare in modo autonomo partendo da poche istruzioni. A differenza di molti altri agenti presenti sul mercato, che svolgono compiti molto specifici, Manus può eseguire attività diverse senza essere guidato passo dopo passo da una persona. È stato sviluppato da una società collegata a Beijing Butterfly Effect Technology e si è fatto conoscere per la capacità di cercare informazioni, analizzare dati, organizzare contenuti e svolgere anche attività tecniche come il coding e la creazione di piccoli progetti digitali. Secondo quanto scritto da Reuters, “Un tempo acclamato come il prossimo DeepSeek cinese, Manus è diventato virale all’inizio di quest’anno su X dopo aver rilasciato quello che ha definito il primo agente di intelligenza artificiale generale al mondo”. Se l’integrazione in Meta AI sarà completata, Manus potrebbe permettere al chatbot di svolgere alcuni compiti in autonomia. Questo passaggio ridurrebbe la distanza con altri grandi gruppi tecnologici come OpenAI e Google, che hanno già introdotto funzioni di agentic IA nei loro prodotti, come ChatGPT e Gemini, senza però offrire sistemi completamente autonomi. Meta ha comunicato che continuerà a gestire e commercializzare il servizio Manus anche dopo l’accordo. In una nota ufficiale, l’azienda ha spiegato che il progetto sarà integrato nei suoi prodotti. Il fondatore e amministratore delegato di Meta, Mark Zuckerberg, ha più volte indicato l’intelligenza artificiale come un’area centrale per lo sviluppo futuro dell’azienda. Dal lato di Manus, l’amministratore delegato Xiao Hong ha dichiarato: “Continueremo a gestire e commercializzare il servizio Manus e lo integreremo anche nei nostri prodotti”.

OpenAI introduce l’app store per ChatGPT: più servizi in un’unica piattaforma

OpenAI_ChatGPT

OpenAI ha annunciato il lancio di un negozio di app per ChatGPT, ampliando le funzioni del chatbot di intelligenza artificiale e avvicinandosi ai modelli operativi dei principali colossi tecnologici, tra cui Google. La novità riguarda utenti e sviluppatori e permette di usare nuovi servizi digitali direttamente all’interno di ChatGPT, senza uscire dalla finestra di conversazione. La società guidata da Sam Altman ha presentato una vetrina di applicazioni che consente agli utenti di collegare i propri account a servizi esterni e chiedere al chatbot di svolgere azioni specifiche. Le app funzionano come strumenti aggiuntivi, che si integrano nel chatbot principale e ampliano ciò che l’intelligenza artificiale può fare in modo diretto. Tra gli esempi indicati ci sono l’integrazione con Spotify e Apple Music, che permette di chiedere a ChatGPT di creare playlist musicali, ma anche collegamenti con Booking e Tripadvisor per la prenotazione di viaggi, oltre all’uso di Photoshop per la modifica delle immagini. Come spiega OpenAI sul proprio blog, “gli sviluppatori possono inviare app per la revisione e la pubblicazione in ChatGpt, consentendo agli utenti di eseguire azioni come ordinare la spesa, trasformare una scaletta in una presentazione o prenotare un appartamento”. Per alcune operazioni, come il pagamento di beni o servizi, sarà ancora necessario completare l’azione sul sito web del fornitore, ma OpenAI ha indicato che in futuro alcune funzioni potrebbero essere gestite interamente all’interno di ChatGPT. L’azienda ha inoltre spiegato che il negozio di app rappresenta anche un passo verso nuove forme di monetizzazione dei servizi. “Stiamo esplorando ulteriori opzioni di monetizzazione nel tempo, inclusi i beni digitali, e ne condivideremo di più man mano che impareremo da come sviluppatori e utenti creano e interagiscono”, ha comunicato OpenAI, riferendosi allo sviluppo futuro della piattaforma.

Amazon pronta a investire oltre 10 miliardi in OpenAI

Sam Atlman OpenAI

Amazon sarebbe in trattative per un investimento superiore ai 10 miliardi di dollari in OpenAI. La notizia è stata riportata dal Financial Times, che cita fonti informate sui colloqui, ancora in corso e non definitivi. Secondo quanto riferito, il possibile accordo prevederebbe per OpenAI l’uso dei chip Trainium di Amazon e l’accesso alla capacità dei data center del gruppo, rafforzando la collaborazione tecnologica tra le due aziende. Se l’operazione dovesse andare a buon fine, la valutazione complessiva di OpenAI supererebbe i 500 miliardi di dollari, segnando un nuovo livello per il settore dell’IA generativa. La trattativa avrebbe anche un significato strategico per OpenAI, che continuerebbe ad ampliare il numero dei partner industriali, aumentando la propria indipendenza operativa. Negli ultimi mesi, infatti, la società ha ridefinito i rapporti con Microsoft, che resta un azionista con una quota del 27%, ma con un ruolo meno esclusivo nelle forniture tecnologiche. Per Amazon, l’eventuale investimento rappresenterebbe un ulteriore passo nel rafforzamento della sua presenza nel settore dell’intelligenza artificiale. Il gruppo ha già investito circa 8 miliardi di dollari in Anthropic, altra azienda specializzata nello sviluppo di modelli di IA, e l’ingresso in OpenAI amplierebbe ulteriormente il portafoglio di partecipazioni strategiche nel comparto. (In foto, Sam Altman, CEO di OpenAI)

AGCOM, AI Act e Digital Services Act: come cambia la lotta contro disinformazione online e fake news

Regolamentazione AI

Nel sistema europeo che regola internet e l’intelligenza artificiale, AGCOM è oggi uno dei punti chiave per controllare i contenuti online generati o manipolati artificialmente, soprattutto quando questi possono influenzare democrazia, informazione e opinione pubblica. È quanto emerge dall’analisi firmata da Elisa Giomi, Commissaria dell’Autorità per le comunicazioni, che mette in relazione il Digital Services Act e l’AI Act, spiegando quali strumenti esistono già per contrastare disinformazione e deepfake, senza fermare lo sviluppo dell’intelligenza artificiale. AGCOM è stata designata Coordinatore dei Servizi Digitali in base al Digital Services Act, il regolamento europeo entrato in vigore nel novembre 2022 che stabilisce regole comuni per le piattaforme online, come social network, motori di ricerca e siti di condivisione video. Questo ruolo assegna all’Autorità il compito di vigilare sul funzionamento dell’ecosistema digitale e sulla protezione degli utenti. Meno conosciuto è il fatto che queste competenze si intrecciano con l’AI Act, il primo regolamento europeo pensato per disciplinare l’uso dell’intelligenza artificiale, soprattutto quando viene impiegata nei servizi online. Uno degli ambiti più delicati riguarda i contenuti manipolati artificialmente, cioè testi, immagini o video creati o modificati con l’AI, che possono sembrare veri anche quando non lo sono. Nel maggio del 2023 hanno circolato online video in cui attori famosi come Emma Stone e Brad Pitt sembravano sostenere la propaganda russa contro l’Ucraina. In realtà si trattava di interviste deepfake, generate con l’intelligenza artificiale e doppiate in francese e tedesco. Prima di essere rimosse, queste clip hanno raccolto migliaia di visualizzazioni sui social network e sulle piattaforme video. Di fronte a contenuti di questo tipo, diventa sempre più difficile capire cosa sia vero. Come scrive Lee McIntyre nel libro “Post-verità” (edito da Utet), è richiesta una vera e propria “fatica epistemica”, cioè uno sforzo mentale per distinguere la realtà da ciò che la imita. Un contenuto può riportare informazioni corrette, ma essere prodotto artificialmente, come avviene nel caso dell’automated journalism, dove articoli vengono scritti da software basati su AI. In questi casi i fatti possono essere veri, ma la scrittura non è umana. Esistono però situazioni ancora più complesse. Un’inchiesta di Newsguard, pubblicata nell’aprile 2024, ha individuato numerose content farm capaci di creare interi siti web automatizzati. Con costi che vanno da 30 a 350 dollari, questi sistemi pubblicano decine di articoli al giorno usando AI generativa, producendo notizie false o parzialmente vere su politici specifici. I testi sono spesso riscritture di notizie reali, senza citare la fonte, con dettagli inventati o spostati di contesto per sembrare credibili. Questa situazione rende difficile capire dove finisce la realtà e dove inizia la sua imitazione. Oltre alla fatica di verifica, si parla di “rischio epistemico”, cioè della difficoltà, se non impossibilità, di controllare la verità di un contenuto confrontandolo con fatti reali. Secondo l’analisi, l’AI contribuisce a un processo di “de-referenzializzazione” della conoscenza, perché produce contenuti molto verosimili, più di quanto sia mai successo con le tecnologie del passato. Allo stesso tempo, molte persone tendono a fidarsi automaticamente delle risposte fornite dalle chatbot. Questo atteggiamento è stato definito “epistemia” da alcuni studiosi, ovvero l’illusione che ciò che viene generato dall’AI sia conoscenza vera, quando invece si tratta di testi costruiti su pattern statistici, che danno un’impressione di coerenza e autorevolezza. L’uso dell’intelligenza artificiale, però, non riguarda solo i rischi. L’AI è già ampiamente utilizzata nel giornalismo e nel fact checking, aiutando a individuare notizie false più velocemente di quanto potrebbe fare un essere umano. Per questo motivo, l’obiettivo dei regolamenti europei non è bloccare la tecnologia, ma limitare gli usi distorti e rafforzare le tutele. L’AI Act chiarisce che quando l’intelligenza artificiale viene usata per fornire servizi intermediari, come piattaforme online o motori di ricerca, si applicano anche le regole del Digital Services Act. In pratica, se un motore di ricerca utilizza l’AI per produrre risultati, chi lo gestisce deve rispettare entrambe le normative. Inoltre, per i sistemi di AI integrati in piattaforme molto grandi, l’AI Act rimanda al DSA per la gestione dei rischi sistemici, cioè quelli che possono incidere su diritti fondamentali, elezioni, sicurezza pubblica e dibattito democratico. Il Digital Services Act impone alle very large online platforms e ai very large online search engines di valutare ogni anno gli effetti negativi dei loro servizi e di adottare misure per ridurli. In Italia, il soggetto incaricato di vigilare sul rispetto di queste regole è AGCOM, in qualità di Digital Services Coordinator. Tuttavia, per le piattaforme di dimensioni molto grandi, la competenza diretta spetta alla Commissione europea. Esistono però delle eccezioni. In caso di violazioni gravi del DSA che possano causare danni seri ai diritti fondamentali o alla sicurezza, AGCOM può adottare misure temporanee, anche nei confronti di piattaforme non stabilite in Italia, e segnalarle alla Commissione europea, che decide come procedere. Applicando questo schema ai video deepfake con attori famosi, se contenuti simili fossero diffusi in lingua italiana e rivolti al pubblico nazionale, potrebbero essere considerati un rischio sistemico per la formazione dell’opinione pubblica. In questi casi, anche se pubblicati su grandi piattaforme come YouTube, Facebook o TikTok, AGCOM potrebbe intervenire in via temporanea per limitarne la circolazione, in attesa di una decisione europea. Oltre agli strumenti europei, l’Autorità dispone anche di strumenti nazionali. Il regolamento attuativo dell’articolo 41.7 del Testo unico dei servizi di media audiovisivi consente ad AGCOM di intervenire contro contenuti audiovisivi diffusi da piattaforme di video sharing stabilite in altri Stati membri, quando vi sia un pregiudizio grave, imminente e irreparabile per i diritti degli utenti italiani. Questo include anche video generati o manipolati con l’AI. (Foto creata con AI)

L’UE sostiene piano per cinque AI Gigafactories dedicate a ricerca, startup e imprese

UE

Il Consiglio dell’Unione Europea ha deciso il 9 dicembre di sostenere la creazione fino a cinque AI Gigafactories in Europa e di portare dentro EuroHPC anche le attività di quantum computing. La decisione riguarda chi costruirà queste strutture, dove potranno nascere e con quali soldi, perché serviranno a dare più forza all’Europa nel mondo della tecnologia. Le AI Gigafactories vengono descritte come luoghi molto grandi, con supercalcolatori, data center che consumano poca energia e macchine con intelligenza artificiale. In questi luoghi, ricercatori, startup, scaleup e imprese potranno usare tanta potenza di calcolo per fare progetti, studiare e creare nuovi prodotti. L’idea è che tutti possano avere gli strumenti per lavorare con l’intelligenza artificiale senza dover dipendere da chi è fuori dall’Europa. La riforma introduce un unico modo per gestire finanziamenti, regole, acquisti e partecipazione. È previsto un partenariato tra Stati membri e industrie. Sono indicate regole speciali per aiutare startup e scaleup, perché in questo momento hanno difficoltà a trovare abbastanza potenza di calcolo per competere con grandi aziende internazionali. Durante la discussione, la ministra danese dell’Istruzione superiore e della Scienza, Christina Egelund, ha detto: “AI è una tecnologia critica per la resilienza, la competitività e la sicurezza dell’Europa”. Nel testo ci sono anche proposte per usare fondi europei che non sono stati ancora spesi. Questi fondi potranno servire per costruire le Gigafactories. Le strutture potranno essere in un solo Paese oppure divise in più Paesi, per unire capacità e conoscenze diverse. Ci sono nuove regole anche per chi arriva da fuori Europa, con protezioni speciali sulla gestione e sulla sicurezza. EuroHPC avrà un ruolo più grande e dovrà coordinare le attività. Un punto importante è il passaggio della ricerca e innovazione nel quantum computing dal programma Horizon Europe a EuroHPC. In questo modo, supercalcolo, AI e quantum saranno vicini e potranno crescere insieme. La scelta viene mostrata come un modo per avere più autonomia strategica e per non dipendere dalla tecnologia di altri continenti. Dal 2021 EuroHPC costruisce e gestisce la rete europea di supercalcolo, sviluppa tecnologie proprie e forma persone con nuove competenze. Nel 2024 erano state create le AI Factories, centri dedicati ai modelli e alle applicazioni di AI. Ora il piano punta a strutture ancora più grandi, chiamate Gigafactories, per lavorare meglio e competere con i sistemi dei grandi operatori globali. Il regolamento non usa la procedura legislativa normale. Il Parlamento europeo deve dare un parere il 17 dicembre. Dopo un controllo sul testo, il Consiglio prenderà la decisione finale. Nei documenti viene spiegato che le AI Gigafactories sono importanti anche dal punto di vista geopolitico, perché chi controlla i sistemi di calcolo controlla anche buona parte dell’innovazione.

Bruxelles apre un’indagine su Google per l’uso dei contenuti editoriali nell’IA

Google

La Commissione europea ha aperto un’indagine su Google per verificare se l’azienda abbia utilizzato contenuti editoriali e video caricati su YouTube per addestrare i propri sistemi di intelligenza artificiale senza una compensazione adeguata. L’attenzione è rivolta alle condizioni imposte agli editori e ai creatori, al modo in cui i contenuti sono stati raccolti e all’impatto che ciò potrebbe avere sul mercato e sui concorrenti. L’indagine riguarda strumenti come AI Overviews e AI Mode, due funzioni basate sull’IA che compaiono nei risultati di ricerca. Le prime mostrano brevi riepiloghi automatici in cima alla pagina, mentre le seconde offrono risposte più lunghe in un tab separato. Entrambe forniscono subito molte informazioni e, secondo vari editori, riducono la necessità di cliccare sui siti. Per chi produce notizie e analisi, meno clic significa meno lettori e meno entrate pubblicitarie. La Commissione ha spiegato di essere “preoccupata” che i contenuti possano essere stati utilizzati “senza un’adeguata compensazione per gli editori e senza offrire loro la possibilità di rifiutare”. Alcuni editori hanno segnalato difficoltà nel bloccare i bot di Google senza rischiare di scomparire dai risultati di ricerca. Per questo motivo organizzazioni come Movement for an Open Web, Foxglove e l’Independent Publishers’ Alliance hanno presentato una denuncia. La richiesta è di verificare eventuali condizioni ingiuste e di proteggere ciò che viene descritto come un settore già fragile. L’analisi della Commissione riguarda anche YouTube, perché i creatori di contenuti, per caricare un video, devono accettare che i loro dati possano essere usati “per diversi scopi, tra cui l’addestramento di modelli di intelligenza artificiale generativa”. Secondo la denuncia, non esiste un compenso specifico per questo utilizzo e le politiche attuali impedirebbero ad altri sviluppatori di IA di accedere allo stesso materiale video. Il tema principale è se questo sistema crei un vantaggio per Google rispetto ai concorrenti. Alcune associazioni chiedono misure immediate. James Rosewell, co-fondatore di Movement for an Open Web, ha dichiarato che “gli AIO di Google non sono altro che una doppia rapina alla luce del sole: rubano contenuti agli editori per informare i loro modelli e poi usano questi output per rubare loro traffico”. La coalizione afferma che “i piccoli editori stanno soffrendo molto” e chiede interventi provvisori per permettere agli editori di controllare meglio i propri contenuti. Nel Regno Unito, l’Autorità per la concorrenza e i mercati ha assegnato a Google uno status di mercato strategico per i servizi di ricerca collegati all’IA. Ciò significa che potrebbero essere applicate nuove regole e obblighi. Intanto, alcuni editori stanno sperimentando piani detti “Google Zero” per cercare nuovi modi di raggiungere direttamente gli utenti, senza dipendere dai clic generati dal motore di ricerca. Un portavoce di Google ha risposto che “questa denuncia rischia di soffocare l’innovazione in un mercato più competitivo che mai”. L’azienda sostiene che gli utenti europei devono poter accedere alle tecnologie più avanzate e che continuerà a collaborare con editori e creatori nel passaggio all’era dell’intelligenza artificiale.

Toronto, un redattore scopre articoli con citazioni inventate e identità dubbie da presunta autrice

Gemini_Generated_Image_ocji4qocji4qocji

Un redattore di Toronto ha scoperto che alcune storie offerte alla sua redazione erano scritte in modo strano e con citazioni che non sembravano vere. Questo è successo in un momento in cui, tre anni dopo l’arrivo di ChatGPT, molti testi creati con intelligenza artificiale appaiono online e possono sembrare reali anche quando non lo sono. Il fatto riguarda il mondo del giornalismo, che deve controllare con molta attenzione ciò che pubblica perché alcune persone usano la tecnologia per creare articoli che sembrano corretti ma contengono errori o persone che non esistono. Il redattore si chiama Nicholas Hune-Brown e lavora per una rivista online chiamata The Local. Un giorno ha ricevuto una proposta da una persona che si presentava come Victoria Goldiee. Diceva di aver già scritto per molte riviste. Hune-Brown ha cercato velocemente il suo nome e ha trovato articoli che sembravano confermare il curriculum. Ma leggendo le sue email, qualcosa non lo convinceva: il modo di scrivere era duro e strano, come se non fosse naturale. Hune-Brown ha iniziato a controllare meglio e ha scoperto che alcune frasi citate negli articoli non erano mai state dette dalle persone indicate. Il designer Young Huh, citato in un testo di design, ha spiegato: “Non ho parlato con questo giornalista e non ho rilasciato questa dichiarazione”. Una ex direttrice di una rivista, Nancy Einhart, ha detto: “Per quanto mi ricordo, gli articoli firmati da Victoria prendevano troppo in prestito da articoli pubblicati altrove”. Ha aggiunto che altri due editori l’avevano contattata con gli stessi dubbi, come se la scrittrice stesse inviando proposte a molte redazioni nello stesso periodo. Hune-Brown è riuscito a parlare con Goldiee al telefono, ma quando ha fatto domande più precise la chiamata è finita di colpo. Non è chiaro se Victoria Goldiee sia una persona vera o uno pseudonimo usato da qualcuno che sfrutta l’IA per scrivere velocemente. Non è un caso isolato. Anche riviste famose come Wired e Quartz hanno pubblicato articoli con citazioni inventate. Alcuni finti giornalisti inviano testi pieni di parole autoritarie, sperando che la redazione li pubblichi senza controllare troppo. Questo succede perché molte aziende editoriali stanno attraversando un periodo difficile, con licenziamenti, meno personale e poco tempo per verificare ogni informazione. La tecnologia ha reso più facile creare articoli e email che sembrano creati da professionisti, anche se non è così. Nel frattempo, Google sta mostrando riepiloghi creati da sistemi automatici, così molte persone leggono le risposte senza cliccare sui link dei giornali. Questo riduce i soldi ottenuti dagli annunci pubblicitari, che servono per sostenere il lavoro dei giornalisti. Hune-Brown ha scritto che i truffatori “approfittano di un ecosistema particolarmente vulnerabile alle frodi”, dove i controlli sono più difficili e dove il confine tra giornalismo e “contenuto” è diventato più confuso. Alcune testate, tra cui The Guardian e Dwell, hanno tolto dal sito gli articoli attribuiti a Goldiee dopo le verifiche. Hune-Brown ha raccontato che l’esperienza gli ha fatto cambiare il modo di leggere le proposte che riceve. Ha scritto che un tempo cercava di rispondere a tutti, soprattutto ai giovani autori. Ora invece vede una “patina sintetica dell’intelligenza artificiale” e ha paura di perdere tempo dietro a testi creati da macchine. “Probabilmente c’erano dei giovani scrittori promettenti sepolti da qualche parte lì dentro”, ha detto. “Ma non potevo permettermi di rovistare tra quelle stronzate per cercare di trovarli”. (Foto di copertina creata con AI)