(Reuters) — I rapidi progressi nell’intelligenza artificiale (AI), come ChatGPT basato su Microsoft, stanno complicando gli sforzi dei governi per concordare leggi che disciplinano l’uso della tecnologia.
Ecco gli ultimi passi intrapresi dagli enti governativi nazionali e internazionali per regolamentare gli strumenti di intelligenza artificiale:
Australia
* Sollecitare input sui regolamenti
Un portavoce del Dipartimento dell’Industria e della Scienza ha dichiarato ad aprile che il governo si stava consultando con il principale organo consultivo scientifico australiano e stava valutando i prossimi passi.
Gran Bretagna
Regolamento urbanistico
Un portavoce della Financial Conduct Authority, uno dei numerosi regolatori governativi incaricati di sviluppare nuove linee guida sull’IA, ha affermato di essersi consultato con l’Alan Turing Institute e altre istituzioni legali e accademiche per migliorare la sua comprensione della tecnologia.
Il regolatore della concorrenza britannico ha dichiarato a maggio che avrebbe iniziato a esaminare l’impatto dell’intelligenza artificiale sui consumatori, le imprese e l’economia e se fossero necessari nuovi controlli.
La Gran Bretagna ha affermato a marzo di voler dividere la responsabilità della gestione dell’IA tra le autorità di regolamentazione dei diritti umani, della salute e della sicurezza e della concorrenza, piuttosto che creare un nuovo organismo.
Cina
* Applicazione della normativa provvisoria
Il 13 luglio la Cina ha emesso una serie di misure temporanee per gestire il settore dell’IA generativa, richiedendo ai fornitori di servizi di condurre valutazioni di sicurezza e implementare misure di conservazione degli algoritmi. Il giorno prima, il miliardario Elon Musk aveva elogiato l’interesse del Paese per un quadro internazionale collaborativo per l’intelligenza artificiale.
Il regolatore del cyberspazio cinese ad aprile ha svelato una bozza di procedure per la gestione dei servizi di intelligenza artificiale generativa, affermando che voleva che le aziende fornissero valutazioni di sicurezza alle autorità prima di rilasciare offerte al pubblico.
Unione Europea
Regolamento urbanistico
I legislatori dell’UE a giugno hanno approvato le modifiche al progetto di legge sul blocco dell’intelligenza artificiale. I legislatori dovranno ora affrontare i dettagli con i paesi dell’UE prima che il progetto di norme diventi legislazione.
Il problema più grande dovrebbe essere il riconoscimento facciale e il monitoraggio biometrico, poiché alcuni legislatori vogliono un divieto assoluto mentre i paesi dell’UE vogliono un’eccezione per scopi di sicurezza, difesa e militari.
Francia
* Indagare su possibili violazioni
Il garante della privacy francese CNIL ha dichiarato ad aprile che stava indagando su diversi reclami su ChatGPT dopo che il chatbot è stato temporaneamente bandito in Italia a causa di sospette violazioni delle norme sulla privacy.
L’Assemblea nazionale francese a marzo ha approvato l’uso della videosorveglianza AI durante le Olimpiadi di Parigi del 2024, ignorando gli avvertimenti dei gruppi per i diritti civili.
G7
* Sollecitare input sui regolamenti
I leader del G7 riuniti a Hiroshima, in Giappone, a maggio hanno riconosciuto la necessità di una governance dell’IA e delle tecnologie immersive e hanno convenuto che i ministri discutano la tecnologia come “Processo AI di Hiroshima” e riferiscano sui risultati entro la fine del 2023.
I ministri della digitalizzazione del G7 hanno affermato, dopo una riunione di aprile, che i paesi del G7 dovrebbero adottare una regolamentazione “basata sul rischio” sull’intelligenza artificiale.
Irlanda
* Sollecitare input sui regolamenti
Ad aprile, il Chief Data Protection Officer irlandese ha affermato che l’IA generativa deve essere regolamentata, ma che gli organi di governo devono capire come farlo prima di precipitarsi in un divieto che “non reggerà davvero”.
Israele
* Sollecitare input sui regolamenti
Ziv Katzir, direttore della pianificazione nazionale per l’IA presso l’Autorità israeliana per l’innovazione, ha affermato a giugno che Israele ha lavorato alle normative sull’IA “negli ultimi 18 mesi circa” per trovare il giusto equilibrio tra innovazione e tutela dei diritti umani e delle garanzie civili.
Israele ha pubblicato a ottobre una bozza di 115 pagine della politica sull’IA e sta raccogliendo commenti pubblici prima di prendere una decisione definitiva.
Italia
* Indagare su possibili violazioni
Un alto funzionario ha affermato a maggio che l’autorità italiana per la protezione dei dati intende esaminare altre piattaforme di intelligenza artificiale e assumere esperti di intelligenza artificiale.
ChatGPT è tornato disponibile per gli utenti in Italia ad aprile dopo essere stato temporaneamente bloccato a marzo a causa delle preoccupazioni dell’autorità nazionale per la protezione dei dati.
Giappone
* Indagare su possibili violazioni
Il Giappone prevede di introdurre entro la fine del 2023 regolamenti che probabilmente saranno più vicini alla posizione degli Stati Uniti rispetto ai severi regolamenti previsti nell’Unione Europea, ha detto a luglio un funzionario vicino alle deliberazioni, poiché guarda alla tecnologia per stimolare la crescita economica e renderlo un leader nei chip avanzati.
L’autorità di vigilanza sulla privacy del paese ha dichiarato a giugno di aver messo in guardia OpenAI dal raccogliere dati sensibili senza il permesso delle persone e di ridurre i dati sensibili che raccoglie.
Spagna
* Indagare su possibili violazioni
L’agenzia spagnola per la protezione dei dati ha dichiarato ad aprile di aver avviato un’indagine preliminare su possibili violazioni dei dati da parte di ChatGPT. Ha anche chiesto al garante della privacy dell’Unione Europea di valutare i problemi di privacy che circondano ChatGPT.
Nazioni Unite
Regolamento urbanistico
Il Consiglio di sicurezza delle Nazioni Unite ha tenuto il suo primo dibattito formale sull’intelligenza artificiale a New York il 18 luglio. Il consiglio ha affrontato le applicazioni militari e non militari dell’intelligenza artificiale, che “potrebbero avere conseguenze molto gravi per la pace e la sicurezza globali”, nelle parole del segretario generale delle Nazioni Unite António Guterres.
Guterres a giugno ha sostenuto una proposta di alcuni dirigenti di Amnesty per creare un cane da guardia dell’IA come l’Agenzia internazionale per l’energia atomica, ma ha osservato che “solo gli Stati membri possono istituirlo, non il Segretariato delle Nazioni Unite”.
Il Segretario generale delle Nazioni Unite ha anche annunciato l’intenzione di iniziare a lavorare entro la fine dell’anno su un organo consultivo di alto livello sull’IA per rivedere regolarmente le disposizioni di governance dell’IA e formulare raccomandazioni.
Noi
* Sollecitare input sui regolamenti
La Federal Trade Commission (FTC) degli Stati Uniti ha aperto un’indagine estesa su OpenAI per le accuse secondo cui interferisce con le leggi sulla protezione dei consumatori mettendo in pericolo la reputazione e i dati personali, secondo quanto riportato dal Washington Post il 13 luglio.
L’agenzia ha affermato in un post sul blog di giugno che l’IA generativa solleva problemi di concorrenza ed è al centro dell’Ufficio della tecnologia della Federal Trade Commission insieme al suo Ufficio della tecnologia.
Il senatore Michael Bennett ha scritto a giugno alle principali società tecnologiche esortandole a classificare i contenuti generati dall’intelligenza artificiale e a limitare la diffusione di materiale destinato a fuorviare gli utenti. Ad aprile aveva presentato un disegno di legge per creare una task force per esaminare le politiche statunitensi sull’intelligenza artificiale.
(Compilato da Alessandro Parodi e Amir Urusov a Danzica; Montaggio di Jason Neely, Kirsten Donovan e Mila Nissi)