I rapidi progressi nell’intelligenza artificiale (AI) come ChatGPT basato su Microsoft stanno complicando gli sforzi dei governi per concordare le leggi che regolano l’uso della tecnologia.
Ecco gli ultimi passi intrapresi dagli enti governativi nazionali e internazionali per regolamentare gli strumenti di intelligenza artificiale:
Australia
Chiedi informazioni sui regolamenti
Un portavoce del Dipartimento dell’Industria e della Scienza ha dichiarato ad aprile che il governo si stava consultando con il principale organo consultivo scientifico australiano e stava valutando i prossimi passi.
Gran Bretagna
regolamenti urbanistici
Un portavoce della Financial Conduct Authority, uno dei numerosi regolatori governativi incaricati di sviluppare nuove linee guida sull’IA, ha affermato di essersi consultato con l’Alan Turing Institute e altre istituzioni legali e accademiche per migliorare la sua comprensione della tecnologia.
Il regolatore della concorrenza britannico ha dichiarato il 4 maggio che inizierà a esaminare l’impatto dell’intelligenza artificiale sui consumatori, le imprese e l’economia e se sono necessari nuovi controlli.
Continua sotto
La Gran Bretagna ha affermato a marzo di voler dividere la responsabilità della gestione dell’IA tra le autorità di regolamentazione dei diritti umani, della salute e della sicurezza e della concorrenza, piuttosto che creare un nuovo organismo.
Cina
regolamenti urbanistici
L’autorità di regolamentazione del cyberspazio cinese ad aprile ha svelato una bozza di procedure per la gestione dei servizi di intelligenza artificiale generativa, affermando che voleva che le aziende fornissero valutazioni di sicurezza alle autorità prima di rilasciare le loro offerte al pubblico.
Il Bureau of Economics and Information Technology di Pechino ha affermato a febbraio che Pechino sosterrà le aziende leader nella costruzione di modelli di intelligenza artificiale in grado di sfidare ChatGPT.
Unione Europea
regolamenti urbanistici
Gli Stati Uniti e l’Unione Europea dovrebbero spingere l’industria dell’intelligenza artificiale ad adottare un codice di condotta volontario entro pochi mesi per fornire garanzie durante lo sviluppo di nuove leggi, ha dichiarato il 31 maggio Margrethe Vestager, Chief Technology Officer dell’Unione Europea. Vestager ha affermato di ritenere che una bozza potrebbe essere presentata “entro le prossime settimane”, con una proposta finale per l’industria da registrare “molto presto”.
I principali legislatori dell’UE l’11 maggio hanno approvato una bozza di regole più severe per frenare l’intelligenza artificiale generativa e hanno proposto un divieto della sorveglianza facciale. Il Parlamento europeo voterà a giugno il disegno di legge dell’UE sull’intelligenza artificiale.
I legislatori dell’Unione Europea hanno raggiunto un accordo provvisorio ad aprile sulla bozza, che potrebbe aprire la strada alle prime leggi globali al mondo che disciplinano la tecnologia. La protezione del copyright è fondamentale per gli sforzi del blocco per tenere sotto controllo l’intelligenza artificiale.
Il Consiglio europeo per la protezione dei dati, che riunisce i garanti nazionali della privacy in Europa, ha creato ad aprile un gruppo di lavoro su ChatGPT.
L’Organizzazione europea dei consumatori (BEUC) si è unita alla preoccupazione per ChatGPT e altri chatbot basati sull’intelligenza artificiale e ha invitato le agenzie per la protezione dei consumatori dell’UE a indagare sulla tecnologia e sui potenziali danni alle persone.
Francia
Indagare su possibili violazioni
Il garante della privacy francese CNIL ha dichiarato ad aprile che stava indagando su diversi reclami su ChatGPT dopo che il chatbot è stato temporaneamente bandito in Italia a causa di sospette violazioni delle norme sulla privacy.
L’Assemblea nazionale francese a marzo ha approvato l’uso della videosorveglianza AI durante le Olimpiadi di Parigi del 2024, ignorando gli avvertimenti dei gruppi per i diritti civili.
G7
Chiedi informazioni sui regolamenti
I leader del G7 riuniti a Hiroshima, in Giappone, il 20 maggio hanno riconosciuto la necessità di una governance dell’IA e delle tecnologie immersive e hanno concordato che i ministri discutano la tecnologia come “Processo AI di Hiroshima” e riferiscano sui risultati entro la fine del 2023.
I ministri della digitalizzazione del G7 hanno affermato dopo un incontro ad aprile in Giappone che i paesi del G7 dovrebbero adottare una regolamentazione “basata sul rischio” sull’intelligenza artificiale.
Irlanda
Chiedi informazioni sui regolamenti
Ad aprile, il Chief Data Protection Officer irlandese ha affermato che l’IA generativa deve essere regolamentata, ma che gli organi di governo devono capire come farlo prima di precipitarsi in un divieto che “non reggerà davvero”.
Italia
Indagare su possibili violazioni
L’autorità italiana per la protezione dei dati, il Garante, intende esaminare altre piattaforme di intelligenza artificiale e assumere esperti di intelligenza artificiale, ha affermato un alto funzionario in Italia il 22 maggio.
ChatGPT è tornato disponibile per gli utenti in Italia ad aprile dopo essere stato temporaneamente bloccato a marzo a causa delle preoccupazioni dell’autorità nazionale per la protezione dei dati.
Giappone
Indagare su possibili violazioni
L’autorità di vigilanza sulla privacy giapponese ha dichiarato il 2 giugno di aver messo in guardia OpenAI dal raccogliere dati sensibili senza il permesso delle persone e di ridurre i dati sensibili che raccoglie, aggiungendo che potrebbe intraprendere altre azioni se ha altre preoccupazioni.
Spagna
Indagare su possibili violazioni
L’agenzia spagnola per la protezione dei dati ha dichiarato ad aprile di aver avviato un’indagine preliminare su possibili violazioni dei dati da parte di ChatGPT. L’agenzia ha detto a Reuters ad aprile di aver anche chiesto al garante della privacy dell’Unione Europea di valutare i problemi di privacy relativi a ChatGPT.
Noi
Chiedi informazioni sui regolamenti
Il capo della Federal Trade Commission degli Stati Uniti ha dichiarato il 3 maggio che l’agenzia si è impegnata a utilizzare le leggi esistenti per sorvegliare alcuni dei rischi dell’intelligenza artificiale, come il rafforzamento del potere aziendale dominante e la frode “turbocompressa”.
Il senatore Michael Bennet ha presentato ad aprile un disegno di legge che creerebbe una task force per esaminare le politiche statunitensi sull’intelligenza artificiale e determinare il modo migliore per ridurre le minacce alla privacy, alle libertà civili e al giusto processo.
L’amministrazione Biden aveva affermato all’inizio di aprile che stava cercando un commento pubblico su potenziali misure di responsabilità per i sistemi di intelligenza artificiale.
Il presidente Joe Biden ha anche detto ai consulenti scientifici e tecnologici che l’intelligenza artificiale può aiutare ad affrontare le malattie e il cambiamento climatico, ma è anche importante affrontare i potenziali rischi per la società, la sicurezza nazionale e l’economia.
I più letti su Internet
Unisciti a una community di oltre 2 milioni di professionisti del settore
Iscriviti alla nostra newsletter per ricevere gli ultimi approfondimenti e analisi.
Scarica l’app di ET Telecom
- Ricevi aggiornamenti in tempo reale
- Salva i tuoi articoli preferiti