TikTok introduce etichettatura per contenuti generati dall’IA

TikTok ha preso un passo significativo verso una maggiore trasparenza e autenticità dei suoi contenuti. Attraverso una partnership con la Coalition for Content Provenance and Authenticity (C2PA), TikTok ha annunciato l’implementazione dell’etichettatura automatica dei contenuti generati dall’intelligenza artificiale (AIGC) provenienti da altre piattaforme. Questa mossa strategica, resa possibile grazie alla tecnologia delle Content Credentials, promette di rivoluzionare il modo in cui gli utenti interagiscono e comprendono il contenuto creato attraverso l’IA. Le Content Credentials, una tecnologia all’avanguardia, consentono non solo di identificare gli AIGC su TikTok, ma anche di fornire dettagli cruciali sul loro processo di creazione e modifica. Con questa implementazione, gli utenti avranno accesso a informazioni quali quando, dove e come è stato creato o modificato un determinato contenuto. Ciò significa che la trasparenza non sarà più un’opzione, ma una caratteristica fondamentale dei contenuti che circolano sulla piattaforma. Ma le novità non si fermano qui. TikTok ha annunciato che nei prossimi mesi le Content Credentials saranno applicate anche ai contenuti interni alla piattaforma, rimanendo associate anche dopo essere stati scaricati. Questo consentirà a chiunque di verificare l’autenticità e l’origine di un contenuto, promuovendo una cultura di fiducia e trasparenza tra gli utenti. Il motivo principale dietro queste iniziative è garantire una maggiore chiarezza riguardo all’origine dei contenuti generati dall’IA, riducendo al minimo la confusione e prevenendo potenziali inganni. TikTok ha già avviato l’implementazione di etichette per gli AIGC che utilizzano effetti IA, e questo sforzo verrà esteso su scala globale. Con 37 milioni di creatori già utilizzatori degli strumenti di segnalazione messi a disposizione dalla piattaforma, TikTok dimostra un impegno tangibile per garantire la trasparenza e la responsabilità nell’ambiente digitale.
Apple si prepara a rivoluzionare l’IA su iPhone

Secondo le recenti informazioni fornite da Mark Gurman di Bloomberg, esperto del mondo Apple, l’azienda sta attivamente sviluppando un’intelligenza artificiale (IA) dedicata agli iPhone. Questa nuova IA dovrebbe essere lanciata in concomitanza con l’atteso aggiornamento del sistema operativo iOS 18, previsto per l’autunno. Ciò che distingue questa IA dalle altre è il suo orientamento alla privacy degli utenti: si prevede che funzioni senza la necessità di una connessione internet. L’approccio di Apple prevede che gran parte del lavoro di elaborazione sia svolto direttamente sul dispositivo, basandosi su un database locale supportato dal cosiddetto Large Language Model (Llm). Questo significa che l’IA sarà in grado di rispondere alle domande degli utenti senza dover attingere continuamente a internet per informazioni aggiornate, differenziandosi così da concorrenti come ChatGPT, Copilot e Gemini di Google. Tuttavia, secondo Gurman, questo approccio potrebbe limitare il potenziale dell’IA di Apple rispetto a quelle che si connettono al web. Per ovviare a questa possibile limitazione, si ipotizza che Apple possa integrare in alcuni contesti del sistema operativo iOS 18 il sistema Gemini di Google, consentendo un accesso più ampio e aggiornato alle informazioni. L’idea di base è che un’IA operante principalmente sul dispositivo offra tempi di risposta più rapidi e una maggiore sicurezza dei dati rispetto alle soluzioni basate su cloud. Questo si allinea con la strategia di Apple incentrata sulla tutela della privacy degli utenti, uno dei suoi principi cardine. È interessante notare che solo un mese fa era emersa la notizia di un accordo tra Apple e Google per integrare l’IA di quest’ultima sugli iPhone. Questo suggerisce un’apertura da parte di Apple verso la collaborazione con altre società per migliorare le capacità dell’IA sui suoi dispositivi. Le anticipazioni ufficiali su questo progetto sono attese durante la conferenza degli sviluppatori Apple WWDC 2024, che si terrà il 10 giugno. Ci si aspetta che Tim Cook, CEO di Apple, sveli ulteriori dettagli durante il keynote di apertura, preparando il terreno per il lancio previsto in autunno con iOS 18.
Yahoo News potenziata dall’intelligenza artificiale di Artifact

Yahoo ha annunciato che l’applicazione autonoma Artifact non sarà più disponibile, ma la sua tecnologia proprietaria di personalizzazione basata sull’intelligenza artificiale verrà integrata nelle piattaforme di Yahoo, incluso l’applicativo Yahoo News. Questa mossa mira a fornire agli utenti un’esperienza ancora più rilevante e personalizzata durante la ricerca di notizie e informazioni online. L’obiettivo principale di Artifact è sempre stato quello di utilizzare l’intelligenza artificiale per fornire agli utenti storie e contenuti rilevanti. La tecnologia sviluppata da Artifact avrà un impatto significativo all’interno della vasta rete di Yahoo News, portando ad un’esperienza ancora più personalizzata per gli utenti. Yahoo, da tempo un punto di riferimento nella curatela delle notizie su Internet, si impegna costantemente a fornire contenuti di alta qualità che interessino gli utenti. L’integrazione della tecnologia di Artifact è vista come un investimento per avanzare ulteriormente questa missione, offrendo notizie affidabili e informazioni su scala globale. “Yahoo è stato uno dei primi a combinare la curatela umana e algoritmica delle notizie. Da allora, il panorama dell’apprendimento automatico e della personalizzazione è cambiato radicalmente e Artifact ha innovato con la migliore tecnologia del momento”, ha dichiarato Kat Downs Mulder, SVP e General Manager di Yahoo News. “Artifact è diventato un prodotto molto amato e siamo entusiasti di poter continuare a far crescere questa tecnologia e di portare avanti la nostra missione di diventare la guida di fiducia per le informazioni digitali e il miglior curatore che collega le persone ai contenuti che contano di più per loro”. Kevin Systrom, CEO e co-fondatore di Artifact, ha espresso entusiasmo per l’integrazione della tecnologia di Artifact in Yahoo News, riconoscendo l’opportunità di raggiungere un pubblico ancora più vasto e offrire un’esperienza di scoperta di contenuti più avanzata.
L’UE pioniera nella regolamentazione dell’Intelligenza Artificiale

Nella giornata del 13 marzo, Strasburgo è stata teatro di un evento storico che ha segnato un punto di svolta nel panorama della tecnologia digitale: il Parlamento europeo ha approvato con una schiacciante maggioranza di 523 voti a favore, 46 contrari e 49 astenuti, il regolamento sull’Intelligenza Artificiale (IA). Tuttavia, nonostante l’approvazione, il regolamento non entrerà in vigore prima di maggio 2024, poiché richiederà ulteriori passaggi procedurali, tra cui la traduzione in 24 lingue e la necessaria conformità alle normative nazionali. Queste prime regole al mondo per l’IA non solo mirano a tutelare i diritti dei lavoratori e dei cittadini, ma aspirano anche a fissare uno standard globale per la regolamentazione di questa tecnologia in altre giurisdizioni. Le regole dell’AI Act verranno implementate in fasi distinte. Entro sei mesi saranno introdotti divieti, mentre enti pubblici e privati dovranno valutare rapidamente i rischi dei sistemi che utilizzano. Dopo un anno, le norme si concentreranno sui modelli fondativi, con particolare attenzione alle intelligenze artificiali generative, che dovranno soddisfare rigorosi standard di trasparenza e sicurezza. Queste regole si applicheranno prima della commercializzazione dei prodotti per le AI ad alto impatto, come GPT-4 di OpenAI, mentre per modelli più semplici sarà richiesta la conformità al momento della vendita. Infine, fra due anni, l’AI Act entrerà in vigore completamente, con sanzioni che vanno dall’1,5% al 7% del fatturato globale per chi non rispetta le normative. Il commissario al Mercato Interno e al Digitale, Thierry Breton, ha commentato l’importanza di questa regolamentazione affermando: «Stiamo regolamentando il meno possibile, ma quanto necessario!». Queste parole riflettono il delicato equilibrio tra la promozione dell’innovazione e la protezione dei diritti umani. Brando Benifei, correlatore sull’AI Act della commissione per il mercato interno del Parlamento europeo, ha enfatizzato il posizionamento degli esseri umani e dei valori europei al centro dello sviluppo dell’IA. Il regolamento fornisce chiari requisiti e obblighi agli sviluppatori e agli operatori dell’IA, specificando gli usi consentiti basati sui rischi e sull’impatto delle applicazioni. Vieta l’uso di sistemi di identificazione biometrica da parte delle autorità di contrasto e introduce misure contro le manipolazioni e lo sfruttamento delle vulnerabilità degli utenti. Inoltre, vieta categoricamente pratiche come la categorizzazione biometrica basata su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali. Il regolamento stabilisce anche restrizioni su pratiche discutibili come l’uso dell’IA per rilevare emozioni nei luoghi di lavoro e nelle scuole, i sistemi di credito sociale e la polizia predittiva basata sulla profilazione. Tuttavia, non mancano le critiche, soprattutto riguardo alla sorveglianza biometrica di massa consentita alle forze dell’ordine, che potrebbe portare a discriminazioni e violazioni della privacy. Nonostante le critiche, l’approvazione di questo regolamento segna un passo significativo verso la definizione di un quadro normativo chiaro e responsabile per l’utilizzo dell’IA. L’Unione Europea, diventando il primo ente al mondo a dotarsi di regole così complete sull’IA, si pone come leader nella definizione di standard globali per questa tecnologia. Resta ora da vedere come queste norme saranno implementate e rispettate da aziende e istituzioni, ma una cosa è certa: l’IA è entrata in una nuova era di regolamentazione e responsabilità.
Google, stop a clickbait e notizie di bassa qualità

Google dichiara guerra ai siti web che sfruttano contenuti di bassa qualità, annunciando nuovi provvedimenti che penalizzeranno drasticamente tali pratiche. L’azienda ha reso noto che le modifiche, implementate grazie a miglioramenti agli algoritmi di classificazione, entreranno in vigore entro marzo e si concentreranno su tre principali tipi di abusi. Il primo obiettivo riguarda la lotta contro il clickbaiting, una pratica diffusa tra i siti che utilizzano sia intelligenza artificiale che contenuti generati da persone reali per creare notizie progettate esclusivamente per attirare clic, senza fornire alcun valore o informazione utile. Questo tipo di contenuto, spesso basato su titoli sensazionalistici, sarà pesantemente penalizzato, promuovendo una maggiore integrità nei risultati di ricerca di Google. Il secondo obiettivo prende di mira siti web con una reputazione positiva, ma che ospitano aree con notizie di bassa qualità provenienti da terze parti, senza supervisione dell’editore. Google intende scoraggiare questa pratica per mantenere la coerenza della qualità nei contenuti offerti agli utenti. Infine, il terzo aspetto affrontato è l’utilizzo di domini scaduti, acquistati e sfruttati per aumentare il posizionamento di ricerca di contenuti di bassa qualità o non originali. Questa tattica potrebbe ingannare gli utenti, facendoli credere che tali contenuti appartengano al sito originale. Google si impegna a contrastare attivamente questa manipolazione dei risultati di ricerca. “Riteniamo che questi aggiornamenti ridurranno la quantità di contenuti di bassa qualità nei risultati di ricerca e invieranno più traffico a siti utili e di alta qualità – si legge nel blog post. – Sulla base delle nostre valutazioni, prevediamo che la combinazione di questo aggiornamento e dei nostri sforzi precedenti ridurrà notevolmente i contenuti di bassa qualità e non originali nei risultati di ricerca del 40%”.
L’imparabile ascesa dell’IA e il ruolo cruciale delle aziende

Negli ultimi anni, l’intelligenza artificiale (IA) ha rapidamente guadagnato terreno come catalizzatore di trasformazioni nel mondo del lavoro. Una recente indagine condotta da LinkedIn rivela che i leader aziendali italiani stanno gradualmente riconoscendo l’importanza di preparare la propria forza lavoro alle sfide e alle opportunità proposte dall’IA. Secondo i dati di LinkedIn, il 39% dei leader aziendali italiani sta attivamente supportando i propri dipendenti nell’acquisizione di competenze legate all’IA. Questa tendenza è riscontrabile anche in altri paesi europei, con il 36% nei Paesi Bassi e il 38% in Francia che adottano misure simili per potenziare l’alfabetizzazione all’IA tra i loro dipendenti. Con l’avanzare rapido dell’intelligenza artificiale, la necessità di sviluppare nuove competenze è diventata cruciale per le aziende. Secondo i dati di LinkedIn, si prevede che le competenze richieste per i lavori a livello globale cambieranno del 51% entro il 2030, con un ulteriore impulso al cambiamento previsto grazie all’ascesa dell’IA generativa, che porterà a un aumento del 68%. In Italia, il 67% degli hiring manager prevede un crescente divario di competenze nei prossimi cinque anni, evidenziando l’urgenza per le aziende di concentrarsi sullo sviluppo delle competenze per sfruttare appieno le opportunità offerte dall’IA. La ricerca rivela anche che i professionisti italiani sono entusiasti di abbracciare l’IA nei loro ruoli lavorativi, con l’89% che si dice eccitato all’idea di utilizzare questa tecnologia e il 79% convinto che possa portare a un progresso significativo nella loro carriera. Non solo le competenze legate all’IA diventano sempre più cruciali per l’avanzamento professionale, ma sono anche fondamentali per la mobilità interna e la retention dei talenti. A livello europeo, il 39% degli hiring manager italiani prevede un aumento del turnover dei dipendenti nel 2024, sottolineando l’importanza della mobilità interna come strategia per trattenere i talenti. “A poco più di un anno dalla diffusione dell’IA generativa, le aziende stanno iniziando a investire nella formazione dei propri dipendenti per sfruttare al meglio questa tecnologia”, dice Marcello Albergoni, Country Manager Italia Linkedin: “Sono proprio queste imprese lungimiranti ad avere un vantaggio sulla concorrenza. Le aziende non possono permettersi di tardare nell’aggiornamento professionale se vogliono cogliere le opportunità offerte dall’IA e avere successo in un mondo del lavoro in continua evoluzione. L’aggiornamento dei dipendenti in materia di hard e soft skill non solo aiuterà le aziende a diventare più agili, ma migliorerà anche la fidelizzazione e renderà più facile passare a nuove carriere all’interno dell’organizzazione. Le imprese che riusciranno a raggiungere questo obiettivo beneficeranno del fatto di avere una forza lavoro con le competenze giuste, nei ruoli giusti e al momento giusto. Tuttavia, per avere successo, le aziende dovranno anche coltivare una cultura dell’apprendimento continuo – segnalando i ruoli interni, incoraggiando i dipendenti a considerare la loro prossima mossa e aiutandoli a individuare le competenze necessarie per accedere a nuovi ruoli”. Inoltre, la ricerca di LinkedIn identifica tre principali barriere alla mobilità interna: la mancanza di opportunità di apprendimento e sviluppo per trasformare le carriere, la mancanza di un processo efficace per la gestione della mobilità interna e il fenomeno dell’“accaparramento” dei talenti. Anandi Shankar, Global Head of Learning di Unilever, sottolinea l’importanza di adattarsi al futuro del lavoro, incoraggiando la curiosità e offrendo strumenti come LinkedIn Learning per sviluppare competenze cruciali. La chiave per il successo, secondo Shankar, risiede nell’implementazione di piani di sviluppo personalizzati per il futuro, collegando competenze e comportamenti di leadership necessari per il successo continuo delle organizzazioni.
NewsGuard, oltre 700 siti di notizie generati dall’AI

Un nuovo fenomeno nell’ecosistema mediatico ha attirato l’attenzione di NewsGuard, un’organizzazione specializzata nella valutazione dell’affidabilità dei siti di notizie in tutto il mondo: l’emergere di oltre 700 siti di notizie e informazioni generati dall’intelligenza artificiale, operanti con minima o nessuna supervisione umana. Questi siti, che operano in 15 lingue diverse tra cui italiano, sono stati individuati come fonti di informazioni generate artificialmente su una vasta gamma di argomenti, dalla politica all’intrattenimento, dalla tecnologia ai viaggi. Tuttavia, ciò che preoccupa è la diffusione di false affermazioni e bufale, inclusi articoli che presentano eventi passati come se fossero appena accaduti o notizie inventate su celebrità e leader politici. Nomi generici come iBusiness Day, Ireland Top News e Daily Time Update identificano questi siti, che spesso generano dozzine di articoli generici al giorno. Il loro modello di guadagno si basa sulla pubblicità programmatica, il che significa che gli annunci vengono forniti indipendentemente dalla qualità o dall’affidabilità del sito. Questo ha portato i principali marchi a finanziare involontariamente queste fonti di notizie poco affidabili. NewsGuard avverte che, a meno che non vengano adottate misure per escludere tali siti non affidabili dalla circolazione degli annunci, il problema potrebbe perpetuarsi, creando un incentivo economico per la proliferazione su larga scala di questi siti artificiali di notizie.
Con Hanooman, l’India si prepara a un ruolo di primo piano nell’AI

L’India, fino ad ora impegnata in modo modesto nel mondo dell’Intelligenza Artificiale, sembra destinata a giocare un ruolo sempre più significativo a partire dal prossimo mese con il lancio di Hanooman, un large language model (LLM) simile a ChatGPT, capace di interagire in 11 delle 22 lingue ufficiali del Paese. Tra i promotori di questo progetto, oltre a un dipartimento governativo e otto delle più prestigiose università indiane, figura una succursale di Reliance Industries, il principale gruppo industriale del Paese per capitalizzazione, guidato da Mukesh Ambani, l’uomo più ricco dell’Asia. Appena due mesi fa, nel suo messaggio di fine anno ai dipendenti, Ambani aveva annunciato il 2024 come l’anno in cui la conglomerata di famiglia, che spazia dalla raffinazione al retail e alle telecomunicazioni, abbraccerà la rivoluzione portata dall’Intelligenza Artificiale. La società del gruppo coinvolta direttamente nel progetto è Reliance Jio Infocomm, uno dei principali operatori di telefonia mobile in India, guidato dal figlio maggiore di Mukesh e Tina Ambani, il 32enne Akash. Secondo i piani dei suoi promotori, Hanooman avrà applicazioni in quattro grandi settori: salute, istruzione, servizi finanziari e governance. Il modello è stato sviluppato in collaborazione con Bhashini, un’agenzia governativa, e con l’Indian Institute of Technology (IIT) Bombay, capofila di un gruppo di istituti universitari situati in diversi Stati indiani. La scelta di diversificare geograficamente la composizione del consorzio è strategica, considerando che l’obiettivo dichiarato dell’iniziativa è rendere l’Intelligenza Artificiale accessibile anche a quei vasti strati della popolazione indiana che non parlano inglese. Tra le 11 lingue supportate dal modello ci sono alcune delle lingue indo-ariane, come l’Hindi, parlato a Delhi e in alcuni Stati del nord dell’India, il Bengali a Kolkata e il Marathi, la lingua più diffusa a Mumbai, oltre a una serie di lingue dravidiane parlate nel sud, come il Tamil, il Telugu e il Malayalam. Durante una conferenza a Mumbai, è stato proiettato un video di presentazione di Hanooman in cui un meccanico poneva una domanda a un Bot in Tamil, un banchiere chiedeva delucidazioni in Hindi e uno sviluppatore di Hyderabad, dove si parla Telegu, ricorreva all’Intelligenza Artificiale per il coding. Ganesh Ramakrishnan, uno dei promotori del progetto e responsabile del dipartimento di Ingegneria e Scienze Informatiche dell’IIT Bombay, ha spiegato che Hanooman offrirà la possibilità di convertire la voce in testo, per soddisfare i milioni di indiani che non sanno né leggere né scrivere, e in futuro sarà esteso alle lingue non incluse nella release iniziale. Tuttavia, colpisce l’assenza dell’Urdu tra le prime undici lingue supportate dal modello, nonostante sia la settima lingua più parlata in India e la più diffusa tra la popolazione musulmana. Questo fatto, insieme alla scelta del nome del modello (Hanooman, che richiama il nome di una popolare divinità induista) e del consorzio che lo sta sviluppando (Bharat GPT, con “Bharat” che è un termine molto caro ai nazionalisti indù del Bharatiya Janata Party di Narendra Modi), potrebbe sollevare domande sulle vere intenzioni di inclusione del progetto, specialmente considerando che la comunità musulmana è una delle più svantaggiate dal punto di vista sociale ed economico e potrebbe trarre maggior beneficio dall’accesso a informazioni educative e sanitarie tramite l’Intelligenza Artificiale. Questo progetto offre un’opportunità per colmare le distanze linguistiche e culturali in un Paese con quasi 1,5 miliardi di abitanti. Si prevede che entro il 2027 l’Intelligenza Artificiale genererà un giro d’affari di 17 miliardi di dollari in India, nonostante le sfide legate alla capacità computazionale e agli investimenti necessari.