- Durante il fine settimana, i leader del G7 hanno convenuto che dovrebbe essere adottata una regolamentazione “basata sul rischio” per quanto riguarda l’intelligenza artificiale.
- I leader hanno inoltre sviluppato cinque principi per i responsabili politici per governare l’IA e altre tecnologie emergenti.
- Mentre l’Unione Europea sta lavorando a una legislazione di vasta portata sull’IA, l’Italia ha revocato il divieto di ChatGPT.
Il 30 aprile, i leader dei paesi più ricchi del mondo hanno concluso la loro due giorni di riunione dei ministri della tecnologia e del digitale del G7 a Takasaki, in Giappone. L’incontro faceva parte di una serie di riunioni ministeriali che si terranno il mese prossimo in vista del vertice del G7. Non è stata una grande sorpresa quando ChatGPT e intelligenza artificiale generativa Era in cima all’ordine del giorno e, sorprendentemente, non includeva un appello a fermare gli sviluppi in questo settore.
Invece, i ministri dei paesi del G7 hanno discusso di come il rapido ritmo di sviluppo dell’intelligenza artificiale abbia evidenziato ilHa bisogno di standard internazionali per controllare la tecnologia. I ministri del digitale del G7 mirano ad adottare un piano d’azione per promuovere l’uso responsabile dell’IA e per sostenere un’ampia partecipazione delle parti interessate allo sviluppo di standard internazionali.
“Sebbene il progresso delle tecnologie di intelligenza artificiale possa rendere più efficienti e produttive le imprese del governo e del settore privato, può anche creare sfide inaspettate per la democrazia”, ha affermato il ministro giapponese della tecnologia digitale Taro Kono durante il suo discorso alla sessione di apertura della riunione.
In una dichiarazione congiunta rilasciata al termine di una riunione di due giorni in Giappone, i ministri del G7 hanno affermato che tale regolamentazione dovrebbe anche “mantenere un ambiente aperto e favorevole” per lo sviluppo delle tecnologie di intelligenza artificiale ed essere basata su valori democratici.
I ministri hanno anche riconosciuto che “gli strumenti politici per raggiungere la visione condivisa e l’obiettivo di un’IA affidabile possono differire tra i membri del G7”, ma l’accordo pone una pietra miliare su come i principali paesi possono controllare l’IA tra problemi di privacy e rischi per la sicurezza.
“I risultati della riunione del G7 dimostrano che non siamo soli in questo”, ha affermato il vicepresidente esecutivo della Commissione europea Margrethe Vestager. Reuters prima dell’accordo. Per il contesto, ChatGPT, un chatbot AI della società statunitense OpenAI, ha accumulato più di 100 milioni di utenti in tutto il mondo in meno di tre mesi.
Il chatbot AI è stato addestrato su enormi quantità di dati, consentendogli di elaborare e simulare conversazioni simili a quelle umane con gli utenti. Pertanto, i ministri di Gran Bretagna, Canada, Francia, Germania, Italia, Giappone, Stati Uniti (USA) e Unione europea (UE) hanno espresso la loro opposizione a “l’uso improprio e l’abuso dell’intelligenza artificiale per minare i valori democratici, sopprimere la libertà di espressione e minacciano il godimento dei diritti umani”.
Cosa stanno facendo i paesi del G7 al riguardo?
Al termine della riunione di due giorni, la dichiarazione congiunta ha citato cinque principi per i responsabili politici Disciplinare l’uso dell’intelligenza artificiale e di altre tecnologie emergenti – Stato di diritto, giusto processo, democrazia, rispetto dei diritti umani e sfruttamento delle opportunità di innovazione. I paesi hanno finora differito nei loro approcci per bilanciare tecnologia e sistemi innovativi.
Il Giappone, presidente del G7 di quest’anno, ha adottato un approccio amichevole nei confronti degli sviluppatori di IA, impegnandosi a sostenere l’adozione pubblica e industriale dell’IA. Il ministro dell’Industria Yasutoshi Nishimura ha dichiarato prima dei colloqui ministeriali della scorsa settimana che sperava che il G7 “si accordasse su una governance flessibile o flessibile, piuttosto che su una regolamentazione preventiva generale” sulla tecnologia AI.
Separatamente, i legislatori dell’UE il 27 aprile hanno raggiunto un accordo provvisorio su una nuova bozza della prossima legge sull’IA, comprese le misure di protezione del copyright per l’IA generativa. Vestager, capo della regolamentazione tecnologica dell’UE, ha affermato che il blocco “troverà un accordo politico quest’anno” sulla legislazione sull’IA, come gli obblighi di etichettatura per le immagini o la musica generate dall’IA, per affrontare i rischi di copyright e educativi.
Anche il ministro francese per la trasformazione digitale Jean-Noel Barrot ritiene che “mettere in pausa (lo sviluppo dell’intelligenza artificiale) non sia la risposta giusta: l’innovazione deve continuare ad evolversi ma all’interno di determinate barriere che le democrazie devono porre in essere”, aggiungendo che la Francia farà alcuni eccezioni per le piccole imprese che sviluppano intelligenza artificiale ai sensi del prossimo regolamento UE.
Ricorda, l’Unione Europea È stato il primo a rispondere Verso la diffusione del ChatGPT di OpenAI, con l’Italia primo Paese al mondo Imporre un divieto temporaneo su un chatbot AI il mese scorso. L’autorità italiana per la protezione dei dati, nota come Garante, ha avviato un’indagine sulle tecniche utilizzate per raccogliere le informazioni personali degli utenti, adducendo una mancanza di base giuridica per giustificare la raccolta e l’archiviazione dei dati degli utenti per addestrare gli algoritmi di ChatGPT.
Il watchdog italiano ha anche citato preoccupazioni per la mancanza di filtri in atto per garantire che coloro che interagiscono con il chatbot abbiano più di 13 anni. spiegare Sul modo in cui raccoglie e utilizza i dati di formazione, OpenAI ha affermato di aver affrontato le preoccupazioni sollevate a marzo dall’autorità di regolamentazione della privacy di quel paese.
OpenAI ha affermato che fornisce “maggiori informazioni” su politiche sulla privacy e moduli di recesso. La società ha anche aggiunto un nuovo modulo per coloro che nell’UE vogliono opporsi all’utilizzo dei propri dati per addestrare il software AI e uno strumento per verificare l’età in Italia al momento della registrazione dei clienti. Quindi, le autorità di regolamentazione in Italia hanno confermato in una dichiarazione di aver consentito l’accesso a ChatGPT.
Cosa poi?
Nel complesso, i paesi del G7 hanno condiviso che “hanno in programma di tenere future discussioni del G7 sull’IA generativa, che potrebbero includere argomenti come la governance, come proteggere i diritti di proprietà intellettuale incluso il diritto d’autore, promuovere la trasparenza e contrastare la disinformazione”, inclusa la manipolazione delle informazioni da parte di stranieri forze.
I ministri hanno anche discusso i piani per stabilire regole normative su “Libero flusso di dati Trusted System” o DFFT. Il concetto DFFT è stato proposto al World Economic Forum nel 2019 per facilitare i trasferimenti transfrontalieri di dati basati sulla fiducia. Il Giappone ha dichiarato di voler portare avanti il concetto DFFT ottenendo un accordo dai membri del G7 per lanciare un sistema istituzionale responsabile quadro per rafforzarlo.
La sicurezza informatica deve rimanere la preoccupazione principale
È interessante notare che, mentre l’attenzione si è concentrata sulle normative AI, anche il numero di attacchi informatici contro aziende e uffici governativi in Giappone è aumentato da marzo, secondo un rapporto di Tempi del Giappone. I rapporti indicano che la maggior parte di questi attacchi informatici è causata da attacchi DDoS, che tentano di interrompere il traffico online di un server o di una rete inondandolo di dati.
Sebbene la maggior parte degli attacchi informatici sia stata risolta rapidamente, si teme che questi attacchi possano indicare piani per un attacco più ampio che potrebbe verificarsi nel prossimo futuro quando il vertice sarà in atto.
“Esiste la possibilità che (il Giappone) venga preso di mira come paese ospitante per il vertice del G7 e abbiamo avvertito le organizzazioni interessate di rimanere all’erta”, ha affermato un funzionario del National Cyber Readiness and Strategic Center.