Papa Leone XIV studia un’etica per l’intelligenza artificiale

Papa Leone XIV.png

Papa Leone XIV ha delineato fin dal primo giorno del suo pontificato una direzione precisa: collocare l’essere umano e il lavoro al centro del discorso pubblico e della riflessione ecclesiale, in un’epoca dominata dall’avanzata della intelligenza artificiale. La scelta del nome papale, evocativa della storica enciclica Rerum Novarum promulgata nel 1891 da Leone XIII, rappresenta un segnale chiaro dell’intenzione di affrontare, in chiave moderna, i nodi centrali della questione sociale. Fonti vaticane indicano che Leone XIV potrebbe pubblicare una nuova enciclica, provvisoriamente ribattezzata Rerum Digitalium, dedicata ai diritti dei lavoratori e alla giustizia sociale nell’ambito del cosiddetto umanesimo digitale. Nel suo primo discorso pubblico, Papa Leone XIV ha posto l’accento sulla necessità di un utilizzo etico e responsabile dell’intelligenza artificiale, denunciando il rischio di una crescente dipendenza tecnologica in grado di compromettere la libertà decisionale e la responsabilità morale dell’essere umano. In linea con il pensiero del suo predecessore Francesco, Prevost ha richiamato la recente nota dottrinale vaticana Antiqua et Nova, pubblicata nel gennaio 2025, che sottolinea l’importanza di un approccio etico integrale nei confronti della tecnologia. Il documento afferma che l’intelligenza umana deve restare il fondamento di ogni processo decisionale, ribadendo che il dono dell’intelletto è parte essenziale dell’essere stati creati a immagine di Dio. L’orientamento teologico e sociale del pontefice è influenzato dalla tradizione agostiniana, alla quale egli stesso ha fatto riferimento durante l’omelia di insediamento, citando la necessità di promuovere cooperazione internazionale, solidarietà e sostenibilità ambientale. La futura enciclica potrebbe quindi configurarsi come un’estensione della dottrina sociale della Chiesa nella contemporaneità, offrendo linee guida globali su come l’umanità debba affrontare la transizione verso un’economia e una società sempre più automatizzate. “Ho pensato di prendere il nome di Leone XIV perché il Papa Leone XIII, con la storica Enciclica Rerum Novarum, affrontò la questione sociale nel contesto della prima rivoluzione industriale; oggi la Chiesa offre a tutti il suo patrimonio di dottrina sociale per rispondere a un’altra rivoluzione industriale e agli sviluppi dell’intelligenza artificiale”, ha dichiarato il neo pontefice.

OpenAI potrebbe lanciare un social per sfidare Meta e X

ChatGpt-OpenAI-studia-un-nuovo-social-network

OpenAI sta valutando la creazione di un social network in grado di competere con X e Instagram, sfidando direttamente Elon Musk. La notizia è stata diffusa da The Verge e rilanciata da Ansa: il progetto, ancora in fase iniziale, si basa sulla popolarità della nuova funzione di generazione di immagini all’interno di ChatGPT, denominata ChatGPT immagini. Non è ancora chiaro se OpenAI lancerà il social come app separata o se opterà per un’integrazione diretta in ChatGPT, che lo scorso mese è diventata l’app più scaricata a livello globale. La possibile entrata di OpenAI nel mercato dei social media potrebbe intensificare la rivalità tra Sam Altman ed Elon Musk, in corso da tempo e caratterizzata anche da scontri pubblici. I rapporti tra i due si sono deteriorati a partire dalla fuoriuscita di Musk da OpenAI, società che aveva co-fondato, per divergenze sulla sua trasformazione in un’entità a scopo di lucro. Attualmente, Musk ha fondato xAI, concorrente diretta di OpenAI, e ha recentemente proposto senza successo l’acquisto di OpenAI per 97,4 miliardi di dollari. Altman, nel frattempo, ha risposto provocatoriamente offrendo di acquistare Twitter per 9,74 miliardi. Le tensioni si sono estese anche a progetti infrastrutturali come Stargate, un’iniziativa da miliardi di dollari per l’intelligenza artificiale promossa da Altman e supportata da Softbank e Oracle, criticata pubblicamente da Musk. La nuova iniziativa di OpenAI si inserisce in un contesto competitivo che coinvolge anche Meta, la quale sta lavorando a un’app AI autonoma con feed social integrato. L’eventuale lancio di un social network consentirebbe a OpenAI di ottenere dati proprietari in tempo reale, preziosi per l’addestramento dei propri modelli di intelligenza artificiale, analogamente a quanto fanno Meta e X. Secondo fonti vicine al progetto, il prototipo interno di OpenAI prevede un feed sociale incentrato sulla generazione di immagini con l’obiettivo di migliorare la qualità dei contenuti condivisi attraverso l’assistenza dell’intelligenza artificiale. Al momento, un portavoce di OpenAI non ha commentato ufficialmente la notizia e non è chiaro se il progetto verrà effettivamente lanciato. (Credits foto copertina: Primaonline)

ChatGPT crea immagini Ghibli: arte o violazione del diritto?

ChatGPT e Ghibli

Negli ultimi giorni, una massiccia diffusione online di immagini in stile Studio Ghibli, generate con il nuovo sistema GPT-4o di ChatGPT, ha sollevato interrogativi legati al diritto d’autore. Il fenomeno, divenuto rapidamente virale, ha portato l’amministratore delegato di OpenAI, Sam Altman, a commentare ironicamente su X: “Le nostre GPU stanno fondendo”, alludendo all’elevato traffico verso i server dell’azienda. L’afflusso ha infatti causato temporanee limitazioni di utilizzo e messaggi di “over capacity”, in particolare sulla piattaforma video Sora. Le immagini, che richiamano i tratti visivi dell’animazione creata da Hayao Miyazaki, hanno generato un’ondata globale di ritratti e meme condivisi sui social. Tuttavia, né Miyazaki né Studio Ghibli si sono finora espressi pubblicamente sul fenomeno. La questione centrale riguarda la liceità dell’uso di stili artistici riconoscibili da parte dell’intelligenza artificiale. Secondo l’avvocato Evan Brown, esperto di proprietà intellettuale, lo stile visivo in sé non è protetto da copyright secondo la legislazione statunitense, rendendo legittima la generazione di contenuti “in stile Ghibli”, a meno che durante la fase di addestramento dell’IA non siano stati utilizzati materiali coperti da diritto d’autore. Il punto legale cruciale resta quindi la provenienza dei dati usati per il training dei modelli generativi. Se questi includono contenuti originali senza autorizzazione, si entra in una zona grigia giuridica, soggetta a interpretazioni e a procedimenti legali in corso, come quello intentato dal New York Times contro OpenAI. La stessa azienda ha dichiarato che ChatGPT evita di replicare “lo stile di artisti viventi”, pur consentendo la replica di stili attribuiti a studi di produzione. Nel caso dello Studio Ghibli, però, questa distinzione si complica: lo stile dello studio è fortemente identificabile con Miyazaki, tuttora vivente e attivo. La controversia riporta alla memoria le dichiarazioni dello stesso Miyazaki, risalenti al 2016, quando definì “un insulto alla vita” l’uso dell’intelligenza artificiale in animazione, dopo aver visionato una demo di movimento generato al computer. L’animatore giapponese ha da sempre difeso l’artigianalità e i valori umani del disegno a mano, fondando nel 1985 lo Studio Ghibli proprio per sfuggire alla produzione seriale e ai vincoli tecnici. Le immagini AI oggi in circolazione sono spesso usate fuori contesto, in forme grottesche o satiriche, comprese rielaborazioni da parte di soggetti politici come Fratelli d’Italia o Casa Bianca, fatto che alcuni utenti hanno giudicato irrispettoso del significato culturale originario dell’opera di Miyazaki. La controversia si intreccia così con riflessioni più ampie sull’automazione creativa e il concetto stesso di arte, alimentando un dibattito che riguarda sia l’estetica che la sostenibilità economica dei contenuti digitali in un’epoca di IA generativa.

IAA Italia lancia Osservatorio sulla GenAI e comunicazione

iaa_osservatorio_ai_generativa_974951

IAA Italia annuncia il lancio dell’Osservatorio sull’Intelligenza Artificiale Generativa, un’iniziativa volta a esplorare l’impatto della GenAI nel mondo della comunicazione e del marketing. Questa tecnologia sta rivoluzionando il settore, offrendo nuove opportunità ma sollevando anche interrogativi su creatività, etica, diritto d’autore e regolamentazione. Per questo motivo, l’Osservatorio si propone di supportare aziende, agenzie e professionisti con strumenti pratici, analisi strategiche e best practice per un utilizzo consapevole della tecnologia. L’idea nasce da Vincenzo Piscopo, Chief Commercial & Digital Officer di Banijay e consigliere di IAA Italia, con l’obiettivo di approfondire le potenzialità e le implicazioni della GenAI nei diversi ambiti della comunicazione. “L’Osservatorio rappresenta un’iniziativa fondamentale per comprendere e guidare l’adozione responsabile dell’intelligenza artificiale generativa. Solo attraverso una collaborazione tra industria, accademia e istituzioni possiamo garantire un utilizzo etico e sostenibile di queste tecnologie”, afferma Piscopo. IAA Italia, da sempre promotrice di un’innovazione responsabile, mette a disposizione la propria rete di esperti multidisciplinari per fornire un punto di riferimento nell’evoluzione della comunicazione pubblicitaria. Secondo Marianna Ghirlanda, CEO di BBDO e Presidente di IAA Italia, il lancio dell’Osservatorio è un passo cruciale per offrire analisi e strategie concrete, aiutando il settore ad adottare la GenAI in modo efficace. L’iniziativa si avvale del contributo di diversi esperti: Debora Magnavacca, Board Member & Executive Producer di AKITA FILM, porta la sua esperienza nel campo della produzione audiovisiva; Cristiano Cominotto, avvocato e Founder & Managing Partner di AL Assistenza Legale, offre competenze fondamentali in materia di diritto e regolamentazione; Stefano Rocco, Chief Growth Officer di YAM112003, fornisce una visione strategica sull’innovazione digitale. Grazie a questi professionisti, l’Osservatorio si pone come un punto di riferimento per comprendere e sfruttare al meglio il potenziale della GenAI, garantendo un approccio consapevole e strategico all’intelligenza artificiale generativa nel mondo della comunicazione.

Seul sospende DeepSeek per problemi di privacy

DeepSeek

Dopo l’Australia, anche la Corea del Sud ha deciso di intervenire su DeepSeek, l’app cinese di intelligenza artificiale, sospendendone temporaneamente il servizio per preoccupazioni legate alla raccolta dei dati. La decisione è stata presa dopo che vari ministeri e agenzie governative sudcoreane hanno vietato l’accesso alla piattaforma, sollevando dubbi sulle sue pratiche di privacy. La Commissione per la protezione delle informazioni personali ha confermato che il blocco è scattato sabato alle 18:00 ora locale (10:00 in Italia) e rimarrà in vigore fino a quando l’azienda non apporterà miglioramenti e rimedi conformi alle leggi sudcoreane sulla tutela dei dati personali. Il provvedimento non giunge inaspettato. Il governo di Seul aveva già avviato un’indagine su DeepSeek, richiedendo chiarimenti sul trattamento delle informazioni. In risposta, la startup cinese ha nominato un rappresentante locale e riconosciuto alcune carenze nell’adeguarsi alle normative sudcoreane, manifestando la volontà di collaborare per risolvere le criticità. Tuttavia, ha sottolineato che un allineamento completo richiederebbe molto tempo. Per evitare un’escalation delle preoccupazioni, l’ente regolatore sudcoreano ha quindi raccomandato la sospensione del servizio fino al completamento degli adeguamenti necessari, proposta accolta dall’azienda. Nel frattempo, la Cina ha risposto alla decisione con critiche. Negli ultimi mesi, DeepSeek e il suo chatbot R1 hanno attirato l’attenzione per la loro capacità di competere con le principali soluzioni occidentali, come quelle statunitensi, a costi notevolmente inferiori. Tuttavia, il tema della archiviazione dei dati continua a suscitare perplessità a livello internazionale. L’azienda ha assicurato che le informazioni degli utenti vengono memorizzate in server sicuri situati nella Repubblica Popolare Cinese, ma ciò non ha dissipato i timori sulla sicurezza dei dati. A seguito della sospensione da parte della Corea del Sud, il governo di Pechino ha condannato le misure adottate da vari Paesi contro DeepSeek, accusandoli di politicizzare il commercio e la tecnologia. Il portavoce del Ministero degli Esteri cinese, Guo Jiakun, ha dichiarato che la Cina si augura che gli Stati coinvolti evitino di assumere posizioni che esagerano il concetto di sicurezza o impongano restrizioni basate su questioni politiche piuttosto che tecniche.

Google filigrana le immagini AI

Google-logo-Googleplex-headquarters-Mountain-View-California

Google ha annunciato un importante aggiornamento per contrastare la disinformazione e la manipolazione delle immagini generate dall’intelligenza artificiale, introducendo filigrane digitali per le foto modificate con il suo strumento Magic Editor. Questa innovazione, basata sulla tecnologia SynthID sviluppata da DeepMind, permette di incorporare un tag di metadati digitali direttamente nell’immagine, rendendo possibile identificare se sia stata alterata tramite strumenti di IA generativa. L’implementazione di questa funzionalità ha l’obiettivo di rendere più chiaro agli utenti quando un contenuto visivo è stato modificato artificialmente, senza alterarne l’aspetto visibile. Lo strumento Magic Editor, disponibile anche per i possessori di iPhone, consente di rimuovere o aggiungere elementi in modo realistico, aprendo però la porta alla diffusione di contenuti potenzialmente ingannevoli. La nuova filigrana si applica automaticamente alle immagini trasformate con la funzione “reimagine”, fornendo un livello aggiuntivo di trasparenza. Google ha già implementato SynthID nelle immagini generate dal modello Imagen, lo stesso utilizzato dal chatbot Gemini per la creazione di contenuti grafici. Questa iniziativa si inserisce in un contesto più ampio che vede altre aziende, come Adobe, adottare soluzioni simili per garantire la provenienza dei contenuti digitali. Entrambe le società fanno parte della Coalition for Content Provenance and Authenticity (C2PA), un consorzio che si impegna a definire standard condivisi per la gestione dell’autenticazione delle immagini e dei video generati dall’IA. Google sottolinea che la filigrana non può essere rimossa facilmente e può essere rilevata solo attraverso strumenti specializzati. Inoltre, Google Foto include la sezione “Informazioni su questa immagine”, che permette agli utenti di verificare se una foto è stata modificata con Magic Editor e accedere a dettagli come la data di creazione originale. Questo sistema non è infallibile: Google avverte che modifiche minime potrebbero sfuggire all’identificazione di SynthID. Per questo motivo, esperti del settore ritengono che la filigrana da sola non sia sufficiente a garantire una tracciabilità affidabile dei contenuti digitali su larga scala. Il futuro della lotta alla disinformazione visiva passerà quindi attraverso l’adozione di strategie diversificate, in cui tecnologie come SynthID saranno integrate con altre metodologie per migliorare l’autenticazione dei contenuti generati dall’intelligenza artificiale.

Stop all’AI DeepSeek in Australia per cybersecurity

DeepSeek 2

L’Australia ha deciso di vietare il download dei software di intelligenza artificiale sviluppati dalla start-up cinese DeepSeek su tutti i dispositivi governativi, considerandoli un rischio inaccettabile per la sicurezza nazionale. La misura è stata ufficializzata dal ministero dell’Interno, con una direttiva firmata dalla ministra Stephanie Foster, che impone la rimozione immediata delle applicazioni di DeepSeek da tutti i dispositivi fissi e mobili del governo australiano. La decisione si inserisce in un contesto più ampio di crescente cautela nei confronti di aziende tecnologiche cinesi, che sempre più spesso si trovano al centro di restrizioni e divieti in diversi Paesi occidentali. La posizione del governo australiano non è isolata. Anche il ministro dell’Industria e della Scienza, Ed Husic, aveva recentemente espresso preoccupazioni sulla privacy e sulla gestione dei dati degli utenti da parte della piattaforma. Secondo Husic, prima di adottare strumenti di questo tipo, è fondamentale valutare con attenzione la loro affidabilità, la sicurezza dei dati sensibili e le implicazioni per la cybersecurity nazionale. L’attenzione verso il chatbot cinese nasce dalla sua crescente popolarità, che ha sollevato interrogativi sulla sua capacità di competere con le big tech americane e sulla possibile ingerenza governativa cinese nella gestione delle informazioni. L’Australia non è nuova a misure di questo tipo: in passato ha già imposto restrizioni su aziende tecnologiche cinesi, come nel caso di Huawei e TikTok, citando preoccupazioni per la sicurezza nazionale e il possibile accesso non autorizzato ai dati governativi. La decisione di escludere DeepSeek dai dispositivi pubblici rientra in una strategia più ampia di protezione della sovranità digitale e di prevenzione di potenziali minacce informatiche.

DeepSeek sparisce dagli store, indaga il Garante Privacy

DeepSeek

DeepSeek, la piattaforma di intelligenza artificiale cinese, è improvvisamente scomparsa dagli store digitali di Google e Apple in Italia. Gli utenti che tentano di accedere al sito ufficiale della startup cinese riscontrano rallentamenti significativi nella navigazione. All’interno della sezione ‘Service Status’ della piattaforma è stato pubblicato un messaggio che segnala la presenza di un problema tecnico, attualmente in fase di risoluzione. Nel frattempo, il Garante della Privacy italiano ha avviato un’indagine formale per verificare eventuali violazioni nella gestione dei dati personali degli utenti italiani. Nella serata del 28 gennaio, l’Authority ha inoltrato una richiesta di informazioni ufficiale a Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, le due società cinesi che forniscono il servizio, disponibile sia via web che tramite app mobile. Le aziende hanno un termine massimo di 20 giorni per rispondere alle domande formulate dal Garante. L’Authority ha richiesto chiarimenti su quali dati personali vengano raccolti, quali siano le fonti di acquisizione, le finalità del trattamento e la base giuridica che ne consente l’elaborazione. Particolare attenzione viene posta sulla localizzazione dei server, per accertare se i dati vengano conservati in Cina o in altre giurisdizioni. Un altro punto critico riguarda l’uso di web scraping per l’acquisizione di informazioni personali, con la necessità di chiarire se gli utenti – iscritti o meno al servizio – siano stati adeguatamente informati sulla raccolta e il trattamento dei loro dati. L’indagine si concentra anche sull’addestramento dell’algoritmo di intelligenza artificiale, per verificare quali informazioni siano utilizzate nel processo di machine learning. Il Garante ha chiesto dettagli sulla gestione dei bias algoritmici, sulle misure di protezione dei minori e sulla prevenzione di eventuali interferenze sui diritti fondamentali, come nel caso di scenari elettorali o nella diffusione di contenuti sensibili. Interpellato dall’agenzia ANSA, il presidente dell’Autorità per la protezione dei dati personali, Pasquale Stanzione, ha commentato la rimozione di DeepSeek dagli store italiani. “La notizia della sparizione dell’app è di poche ore fa, non so dirle se è merito nostro oppure no”, ha dichiarato. Ha inoltre confermato che, una volta ricevute le risposte dalle società cinesi, verrà avviata un’istruttoria approfondita per valutare il rispetto del Regolamento Generale sulla Protezione dei Dati (GDPR) e adottare eventuali provvedimenti.

Sfida globale nell’IA: OpenAI e Big Tech rincorrono DeepSeek. “Forniremo modelli migliori”

Intelligenza artificiale

Dopo il brusco calo dovuto all’irruzione di DeepSeek, la startup cinese di intelligenza artificiale, i mercati statunitensi hanno ritrovato stabilità. Il Nasdaq ha chiuso con un rialzo del 2%, mentre le Big Tech hanno visto un rimbalzo significativo, con Nvidia che ha recuperato il 9% dopo la perdita del 17% registrata il giorno precedente. Il timore che i modelli di IA possano funzionare con meno chip del previsto aveva scatenato vendite massicce, ma la situazione sembra ora più sotto controllo. La competizione tecnologica tra Stati Uniti e Cina si fa sempre più serrata. Sam Altman, CEO di OpenAI, ha riconosciuto su X la potenza di R1 di DeepSeek, sottolineando che il modello cinese eccelle soprattutto per efficienza e costo. La novità preoccupa le aziende americane, che devono giustificare agli investitori l’enorme spesa per lo sviluppo di modelli sempre più potenti. Altman ha dichiarato che OpenAI continuerà a innovare per mantenere la leadership, ma la concorrenza si fa agguerrita. Sul fronte politico, la Casa Bianca monitora con attenzione l’avanzata cinese nel settore. Il presidente Trump ha definito l’arrivo di DeepSeek una “sveglia” per l’industria americana, riconoscendo tuttavia che la concorrenza potrebbe ridurre i costi di sviluppo. Resta da vedere se gli Stati Uniti rafforzeranno ulteriormente le restrizioni sulle esportazioni di microchip verso la Cina, dopo il giro di vite imposto da Biden prima di lasciare la presidenza. Anche l’Europa osserva con attenzione: Ursula von der Leyen ha annunciato che l’IA sarà un pilastro della strategia per la competitività europea. Intanto, il Garante della privacy italiano ha aperto un’istruttoria su DeepSeek, come già fatto con OpenAI nel 2023. L’Autorità ha richiesto dettagli su raccolta, trattamento e conservazione dei dati, inclusi quelli utilizzati per l’addestramento degli algoritmi. La sezione privacy di DeepSeek menziona l’archiviazione dei dati su server cinesi, ma il Garante vuole maggiore chiarezza. La società ha 20 giorni per rispondere, altrimenti potrebbe incorrere in sanzioni o nell’oscuramento del servizio in Italia. Nel precedente caso di ChatGPT, OpenAI aveva sospeso il servizio in Italia a seguito dell’intervento del Garante, per poi riattivarlo con modifiche alle politiche sulla privacy. Recentemente, l’Autorità ha inflitto a OpenAI una multa di 15 milioni di euro per violazioni passate, contro cui la società ha presentato ricorso.

DeepSeek, l’IA cinese che sfida la Silicon Valley, supera ChatGPT e scuote Wall Street

Liang Wenfeng DeepSeek

Un nuovo capitolo si sta scrivendo nel panorama dell’Intelligenza artificiale. Dalla Cina arriva un terremoto tecnologico che scuote le fondamenta del settore e promette di ridisegnare il futuro dell’industria globale. Il protagonista è DeepSeek, un modello di IA generativa sviluppato dall’omonima start-up fondata nel 2023 da Liang Wenfeng. In pochi giorni, questa tecnologia ha raggiunto un risultato impensabile: scalzare ChatGPT di OpenAI dalle classifiche delle app più scaricate negli Stati Uniti, superando anche i principali social network. La novità non si limita al semplice successo commerciale. Gli esperti concordano nell’affermare che l’ultima versione, DeepSeek R1, si distingue per la sua straordinaria capacità di analisi e ragionamento, supportata da ricerche web in tempo reale. Le sue prestazioni sono paragonabili ai migliori strumenti occidentali, ma con un dettaglio sconvolgente: i costi di sviluppo dichiarati si aggirano intorno ai sei milioni di dollari, una cifra irrisoria rispetto agli standard americani che richiedono investimenti di centinaia di milioni. Ciò che rende questo sviluppo ancor più significativo è il contesto tecnologico e politico in cui si colloca. La start-up cinese ha realizzato questa innovazione nonostante le sanzioni USA, utilizzando hardware di qualità inferiore rispetto ai concorrenti occidentali. Il risultato è un modello di IA non solo più economico, ma anche più efficiente in termini energetici, capace di funzionare offline e interamente open-source. Questa combinazione apre nuove prospettive di accessibilità e collaborazione globale, pur sollevando interrogativi geopolitici. Le conseguenze di DeepSeek si stanno già riflettendo sui mercati finanziari. A Wall Street, i titoli delle principali aziende tecnologiche americane hanno registrato significativi cali, con Microsoft, Meta e Alphabet tra i più colpiti. I produttori di microchip come Nvidia e AMD hanno visto crollare i loro valori, mentre il Bitcoin è sceso ben sotto i 100mila dollari. Gli analisti ritengono che l’efficienza di DeepSeek potrebbe rivoluzionare persino il settore del mining di criptovalute, alterando drasticamente l’equilibrio del mercato. Oltre all’aspetto economico, non mancano i risvolti politici e sociali. La capacità della Cina di produrre tecnologie così avanzate e a basso costo mette in discussione la supremazia occidentale nel settore tecnologico. Inoltre, l’allineamento di DeepSeek alle politiche del Partito Comunista Cinese solleva dubbi sulla trasparenza e la libertà di informazione, questioni già affrontate con altri colossi tecnologici cinesi come TikTok. Quando interrogata su temi sensibili, l’IA di DeepSeek si auto-censura, alimentando timori sul possibile utilizzo di questa tecnologia come strumento di controllo e sorveglianza da parte del governo di Pechino. (In foto, Lian WenFeng)