AI Acts nel Mondo: facciamo il punto della situazione (aggiornato a Dicembre 2023)
Userò questo articolo come collettore di notizie su come si stanno muovedo le legislazioni sulle AI nelle varie nazioni.
Altro articolo che secondo me vale la pena leggere e condividere, anche a chi non è interessato alla tecnologia.
Ho appena scoperto il sito Global AI Regulation Tracker di Raymond Sun. Il sito fa un lavoro davvero egregio
Lista aggiornamenti
- 2 Settembre 2023 - Aggiunto l'interim report UK
- 14 Agosto 2023 - Aggiunto il link al Global AI Regulation Tracker di Raymond Sun
- 17 Luglio 2023 - insight su Cina.
- Aggiornamento su AI & Lavoro a New York
- 28 giugno 2023 - aggiornamenti su USA & Giappone
- 15 Giugno 2023 - prima stesura su europa
- 9 Dicembre 2023 - Accordo Raggiunto per l'europa, ti riporto i I principali elementi dell'accordo provvisorio AI ACT Europa Dicembre 2023
AI ACT: Europa
Il 14 giugno il Parlamento europeo ha dato il via libera a una bozza della legge sull'IA. La bozza ha richiesto due anni di scrittura ed ha avuto un brusco ampliamento in seguito dell'esplosione dei modelli di IA di grandi dimensioni (LLM) e i modelli di base, come il GPT-4 di OpenAI. Restano ancora alcune fasi prima che la nuova legge possa entrare in vigore: i negoziati interistituzionali dovrebbero concludersi entro la fine dell'anno.
Non tutti sono contenti ovviamente: alcune delle più grandi aziende europee hanno intrapreso un'azione collettiva di critica delle norme, sostenendo che la legge sull'intelligenza artificiale è inefficace e potrebbe avere un impatto negativo sulla competitività.
Aggiornamenti
Giugno 2023: In una lettera aperta inviata a fine giugno al Parlamento europeo e pubblicata dal Financial Times, oltre 150 dirigenti di aziende come Renault, Heineken, Airbus e Siemens hanno criticato la legge sull'intelligenza artificiale per il suo potenziale di "compromettere la competitività e la sovranità tecnologica dell'Europa".
Ai Act Europeo del 9 Dicembre 2023
Il 9 dicembre è stata raggiunto un accordo storico.
L'ho riassunto molto brevemente in questo articolo:
qui vi ripropongo i principali elementi dell'accordo
I principali elementi dell'accordo provvisorio
Rispetto alla proposta iniziale della Commissione, i principali nuovi elementi dell'accordo provvisorio possono essere sintetizzati come segue:
- regole sui modelli di IA per finalità generali ad alto impatto che possono comportare rischi sistemici in futuro, nonché sui sistemi di IA ad alto rischio
- un sistema di governance riveduto con alcuni poteri di esecuzione a livello dell'UE
- ampliamento dell'elenco dei divieti, ma con la possibilità di utilizzare l'identificazione biometrica remota da parte delle autorità di contrasto negli spazi pubblici, fatte salve le tutele
- una migliore protezione dei diritti tramite l'obbligo per gli operatori di sistemi di IA ad alto rischio di effettuare una valutazione d'impatto sui diritti fondamentali prima di utilizzare un sistema di IA
In termini più concreti, l'accordo provvisorio riguarda i seguenti aspetti:
Definizioni e ambito di applicazione
Per garantire che la definizione di sistema di IA fornisca criteri sufficientemente chiari per distinguere l'IA da sistemi software più semplici, l'accordo di compromesso allinea la definizione all'approccio proposto dall'OCSE.
L'accordo provvisorio chiarisce inoltre che il regolamento non si applica a settori che non rientrano nell'ambito di applicazione del diritto dell'UE e non dovrebbe, in ogni caso, incidere sulle competenze degli Stati membri in materia di sicurezza nazionale o su qualsiasi entità competente in questo ambito. Inoltre, il regolamento sull'IA non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Analogamente, l'accordo prevede che il regolamento non si applichi ai sistemi di IA utilizzati solo a scopo di ricerca e innovazione o alle persone che utilizzano l'IA per motivi non professionali.
Classificazione dei sistemi di IA come ad alto rischio e pratiche di IA vietate
L'accordo di compromesso stabilisce un livello orizzontale di protezione, compresa una classificazione ad alto rischio, al fine di garantire che non siano inclusi i sistemi di IA che non presentano il rischio di causare gravi violazioni dei diritti fondamentali o altri rischi significativi. I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, ad esempio rendere noto che il contenuto è stato generato dall'IA, affinché gli utenti possano prendere decisioni informate in merito all'ulteriore utilizzo.
Un'ampia gamma di sistemi di IA ad alto rischio sarebbe autorizzata, ma soggetta a una serie di requisiti e obblighi per ottenere accesso al mercato dell'UE. Tali requisiti sono stati chiariti e adeguati dai colegislatori, in modo tale da renderli tecnicamente più realizzabili e meno onerosi per i portatori di interessi, ad esempio per quanto riguarda la qualità dei dati, o in relazione alla documentazione tecnica che le PMI dovrebbero redigere per dimostrare che i loro sistemi di IA ad alto rischio sono conformi ai requisiti.
Poiché i sistemi di IA sono sviluppati e distribuiti attraverso catene del valore complesse, l'accordo di compromesso comprende modifiche che chiariscono l'assegnazione delle responsabilità e i ruoli dei vari attori in tali catene, in particolare dei fornitori e degli utenti di sistemi di IA. Chiarisce inoltre il rapporto tra le responsabilità a titolo del regolamento sull'IA e le responsabilità già esistenti in virtù di altri atti legislativi, come la pertinente normativa dell'UE in materia di protezione dei dati o la normativa settoriale.
Per alcuni usi dell'IA, il rischio è considerato inaccettabile, pertanto tali sistemi saranno vietati dall'UE. L'accordo provvisorio vieta, ad esempio, la manipolazione comportamentale cognitiva, la raccolta non mirata delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, quali l'orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per le persone.
Eccezioni a fini di attività di contrasto
Tenuto conto delle specificità delle autorità di contrasto e della necessità di preservarne la capacità di utilizzare l'IA nel loro lavoro vitale, sono state concordate diverse modifiche alla proposta della Commissione relative all'uso dei sistemi di IA a fini di attività di contrasto. Fatte salve le tutele adeguate, tali modifiche mirano a tenere conto della necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività. Ad esempio, è stata introdotta una procedura di emergenza che consente alle autorità di contrasto di utilizzare uno strumento di IA ad alto rischio che non ha superato la procedura di valutazione della conformità in caso di urgenza. È stato tuttavia stabilito anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente protetti da eventuali abusi dei sistemi di IA.
Inoltre, per quanto riguarda l'uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, l'accordo provvisorio chiarisce le situazioni nelle quali tale uso è strettamente necessario a fini di contrasto e nelle quali le autorità di contrasto dovrebbero pertanto essere eccezionalmente autorizzate a utilizzare tali sistemi. L'accordo di compromesso prevede ulteriori tutele e limita tali eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come attacchi terroristici, e alla ricerca di persone sospettate dei reati più gravi.
Sistemi di IA per finalità generali e modelli di base
Sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di IA possono essere utilizzati per molti scopi diversi (IA per finalità generali) e di quelle in cui la tecnologia di IA per finalità generali è successivamente integrata in un altro sistema ad alto rischio. L'accordo provvisorio tratta anche i casi specifici dei sistemi di IA per finalità generali.
Sono state inoltre concordate regole specifiche per i modelli di base, i grandi sistemi in grado di svolgere con competenza un'ampia gamma di compiti distintivi, quali la generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo di dati o la generazione di codici informatici. L'accordo provvisorio prevede che i modelli di base debbano rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più rigoroso per i modelli di base "ad alto impatto". Si tratta di modelli di base addestrati con grandi quantità di dati e di complessità, capacità e prestazioni avanzate ben al di sopra della media, che possono diffondere i rischi sistemici lungo la catena del valore.
Una nuova architettura di governance
A seguito delle nuove regole sui modelli di IA per finalità generali e dell'evidente necessità di una loro applicazione a livello dell'UE, è istituito un ufficio per l'IA all'interno della Commissione incaricato di supervisionare questi modelli di IA più avanzati, contribuire a promuovere norme e pratiche di prova e far rispettare le norme comuni in tutti gli Stati membri. Un gruppo scientifico di esperti indipendenti fornirà consulenza all'ufficio per l'IA in merito ai modelli di IA per finalità generali, contribuendo allo sviluppo di metodologie per valutare le capacità dei modelli di base, fornendo consulenza sulla designazione e l'emergere di modelli di base ad alto impatto e monitorando i possibili rischi materiali di sicurezza connessi ai modelli di base.
Il comitato per l'IA, composto da rappresentanti degli Stati membri, rimarrà una piattaforma di coordinamento e un organo consultivo della Commissione e attribuirà un ruolo importante agli Stati membri nell'attuazione del regolamento, compresa la progettazione di codici di buone pratiche per i modelli di base. Infine, sarà istituito un forum consultivo per i portatori di interessi, quali i rappresentanti dell'industria, le PMI, le start-up, la società civile e il mondo accademico, al fine di fornire competenze tecniche al comitato per l'IA.
Sanzioni
Le sanzioni pecuniarie per le violazioni del regolamento sull'IA sono state fissate in percentuale del fatturato annuo globale nell'esercizio finanziario precedente della società che ha commesso il reato o, se superiore, in un importo predeterminato. Ciò ammonterebbe a 35 milioni di EUR, o il 7% per le violazioni relative ad applicazioni di IA vietate, 15 milioni di EUR o il 3% per violazioni degli obblighi del regolamento sull'IA e 7,5 milioni di EUR o l'1,5% per la fornitura di informazioni inesatte. Tuttavia, l'accordo provvisorio prevede massimali più proporzionati per le sanzioni amministrative pecuniarie per le PMI e le start-up in caso di violazione delle disposizioni del regolamento sull'IA.
L'accordo di compromesso chiarisce inoltre che una persona fisica o giuridica può presentare un reclamo alla pertinente autorità di vigilanza del mercato riguardo alla non conformità con il regolamento sull'IA e può aspettarsi che tale reclamo sia trattato in linea con le procedure specifiche di tale autorità.
Trasparenza e protezione dei diritti fondamentali
L'accordo provvisorio prevede una valutazione d'impatto sui diritti fondamentali prima che un sistema di IA ad alto rischio sia immesso sul mercato dai suoi operatori. L'accordo provvisorio prevede inoltre una maggiore trasparenza per quanto riguarda l'uso dei sistemi di IA ad alto rischio. In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che alcuni utenti di un sistema di IA ad alto rischio che sono entità pubbliche saranno anche tenuti a registrarsi nella banca dati dell'UE per i sistemi di IA ad alto rischio. Inoltre, nuove disposizioni pongono l'accento sull'obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando sono esposte a tale sistema.
Misure a sostegno dell'innovazione
Allo scopo di creare un quadro giuridico più favorevole all'innovazione e promuovere un apprendimento normativo basato su dati concreti, le disposizioni relative alle misure a sostegno dell'innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione.
In particolare, è stato chiarito che gli spazi di sperimentazione normativa per l'IA, che dovrebbero creare un ambiente controllato per lo sviluppo, le prove e la convalida di sistemi di IA innovativi, dovrebbero anche consentire di testare sistemi di IA innovativi in condizioni reali. Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di IA in condizioni reali, nel quadro di condizioni e tutele specifiche. Al fine di alleggerire gli oneri amministrativi per le imprese più piccole, l'accordo provvisorio include un elenco di azioni che dovranno essere intraprese per sostenere tali operatori e prevede alcune deroghe limitate e chiaramente specificate.
Entrata in vigore
L'accordo provvisorio prevede che il regolamento sull'IA si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
Prossime tappe
In seguito all'accordo provvisorio raggiunto oggi, nelle prossime settimane proseguiranno i lavori a livello tecnico per definire i dettagli del nuovo regolamento. La presidenza sottoporrà il testo di compromesso ai rappresentanti degli Stati membri (Coreper) per approvazione una volta conclusi i lavori.
Il testo integrale dovrà essere confermato da entrambe le istituzioni e sottoposto alla messa a punto giuridico-linguistica prima dell'adozione formale da parte dei colegislatori.
Informazioni generali
La proposta della Commissione, presentata nell'aprile 2021 è un elemento chiave della politica dell'UE volta a promuovere lo sviluppo e l'adozione, in tutto il mercato unico, di un'IA sicura e lecita che rispetti i diritti fondamentali.
La proposta segue un approccio basato sul rischio e stabilisce un quadro giuridico orizzontale uniforme per l'IA che mira ad assicurare la certezza del diritto. Il progetto di regolamento mira a promuovere gli investimenti e l'innovazione nell'IA, a migliorare la governance e l'applicazione effettiva della normativa vigente in materia di diritti fondamentali e sicurezza e ad agevolare lo sviluppo di un mercato unico per le applicazioni di IA. Va di pari passo con altre iniziative, compreso il piano coordinato sull'intelligenza artificiale, che punta ad accelerare gli investimenti nell'IA in Europa. Il 6 dicembre 2022 il Consiglio ha raggiunto un accordo su questo fascicolo per un orientamento generale (mandato negoziale) e ha avviato colloqui interistituzionali con il Parlamento europeo ("triloghi") a metà giugno 2023.
- Regolamento sull'intelligenza artificiale, orientamento generale del Consiglio, 6 dicembre 2022
- Regolamento sull'intelligenza artificiale, proposta della Commissione, 14 aprile 2021
- Un approccio europeo all'intelligenza artificiale (informazioni della Commissione europea)
- Un futuro digitale per l'Europa (informazioni generali)
- La tua vita online più facile e più sicura grazie all'UE (storia multimediale)
- Intelligenza artificiale (informazioni generali)
Preso dal Sito del Consiglio dell'Unione europea: https://www.consilium.europa.eu/it/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/
AI Act in Giappone
Il Giappone invece propende per un approccio normativo sull'IA più rilassato rispetto all'UE, nel tentativo di stimolare la crescita economica e ottenere un vantaggio competitivo nelle tecnologie avanzate dei chip.
Un approccio giapponese più morbido potrebbe ostacolare gli sforzi dell'UE per stabilire le proprie regole come punto di riferimento globale, con requisiti quali la divulgazione da parte delle aziende di materiale protetto da copyright utilizzato per addestrare i sistemi di IA che generano contenuti come testo e grafica.
Il presidente del consiglio strategico sull'IA del governo giapponese, il Prof. Yutaka Matsuo dell'Università di Tokyo, ha definito le regole dell'UE "un po' troppo severe", affermando che è "quasi impossibile" specificare il materiale protetto da copyright utilizzato per il deep learning. Sarà...
Altra cosa interessante è che il Giappone vuole riconquistare il ruole di leader tecnologico e sta punatando moltissimo su Rapidus, Azienda di microchip.
Dell'importanza dei chip ne abbiamo parlato in varie newsletter.
Ai Act nel Regno Unito (UK)
Interim report
Gli UK sono la terza nazione a livello globale per quanto riguarda gli investimenti in AI a questo link si può leggere il loro Interim report.
Il governo del Regno Unito ha pubblicato un documento politico sull'intelligenza artificiale, ma gli autori di questo rapporto ritengono che l'approccio delineato non sia ambizioso abbastanza e rischi di restare indietro rispetto al ritmo di sviluppo dell'AI.
Il rapporto identifica dodici sfide chiave che devono essere affrontate per garantire che l'AI sia utilizzata in modo sicuro e responsabile. Queste sfide includono:
- Pregiudizio e discriminazione
- Privacy e sicurezza dei dati
- Sicurezza e affidabilità
- Trasparenza e spiegabilità
- Responsabilità e supervisione
- L'impatto sul lavoro e sulle competenze
- L'impatto sulla società e sulla cultura
- L'uso dell'AI in guerra
- L'esportazione della tecnologia AI
- La governance degli standard internazionali di AI
Il rapporto raccomanda che il governo del Regno Unito adotti un approccio più proattivo alla governance dell'AI, tra cui:
- L'introduzione di una specifica legislazione per l'AI
- Investimenti in ricerca e sviluppo
- Cooperazione internazionale
- Educazione pubblica sui rischi dell'AI
Il rapporto conclude che il Regno Unito ha una grande opportunità di essere un leader mondiale nell'AI, ma che questa opportunità è limitata nel tempo. Il governo deve agire ora per stabilire i giusti quadri di governance e garantire che il Regno Unito sia all'avanguardia della cooperazione internazionale sull'AI.
Ecco alcune delle parti più interessanti del rapporto:
- Il rapporto sottolinea l'importanza di affrontare il pregiudizio e la discriminazione nei sistemi di AI. I sistemi di AI possono essere addestrati su dati che riflettono i pregiudizi umani, il che può portare a questi pregiudizi a essere perpetuati nell'output del sistema. Ciò può avere un impatto negativo sulle persone che sono già marginalizzate o discriminate.
- Il rapporto sottolinea anche la necessità di privacy e sicurezza dei dati nei sistemi di AI. I sistemi di AI spesso raccolgono ed elaborano grandi quantità di dati personali, che potrebbero essere utilizzati per scopi dannosi se non sono adeguatamente protetti.
- Il rapporto sottolinea l'importanza di garantire che i sistemi di AI siano sicuri e affidabili. I sistemi di AI dovrebbero essere progettati per evitare di causare danni alle persone o alle proprietà.
- Il rapporto chiede una maggiore trasparenza e spiegabilità dei sistemi di AI. Ciò significa che le persone dovrebbero essere in grado di capire come funzionano i sistemi di AI e prendere decisioni. Ciò è importante per garantire che i sistemi di AI vengano utilizzati in modo equo e responsabile.
- Il rapporto raccomanda inoltre che il governo del Regno Unito investa in ricerca e sviluppo sull'AI. Ciò contribuirà a garantire che il Regno Unito rimanga all'avanguardia dell'innovazione dell'AI.
- Il rapporto chiede inoltre al governo del Regno Unito di costruire la cooperazione internazionale sull'AI. Ciò è importante per garantire che l'AI venga utilizzata in modo responsabile ed etico.
Nel complesso, il rapporto fornisce una panoramica completa delle sfide e delle opportunità dell'AI. È una risorsa preziosa per i decisori politici, le imprese e gli individui interessati a garantire che l'AI venga utilizzata in modo sicuro e responsabile.
AI Act negli USA
Gli USA sappiamo essere i più spregiudicati sulla regolamentazione e la privacy rispetto a EU e Giappone. Di sicuro dovranno concertarsi con la EU su delle regoli comuni. Vediamo cosa ne verrà fuori: per ora sembra che la strada sia giusta, da capire se sono semplicemente proclami.
A metà giugno il leader della maggioranza del Senato Chuck Schumer ha delineato alcuni principi chiave per la regolamentazione dell'IA e ha sostenuto che il Congresso dovrebbe introdurre rapidamente nuove leggi.
Le sue linee guida: "L'innovazione prima di tutto", ha detto Schumer, "ma con sicurezza, responsabilità, basi [democratiche] e spiegabilità".
Il discorso è diverso per i singoli stati che possono porre regolamentazioni differenti.
New York
La città di New York regolamenta l'IA durante le assunzioni: questa nuova legge, denominata NYC 144, regolamenta l'uso dell'automazione e dell'IA nelle decisioni di assunzione. La spiegano bene qui.
La legge prevede che i datori di lavoro verifichino annualmente gli strumenti di intelligenza artificiale utilizzati nelle decisioni di assunzione e promozione per identificare potenziali pregiudizi basati su razza e genere, e pubblichino i risultati.
I datori di lavoro che non si adeguano possono incorrere in sanzioni, anche se ancora vorrei capire come fa un datore di lavoro che si appoggia a serviz terzi a scoprire i dataset utilizzati.
La legge NYC 144 è un potenziale precedente per la futura regolamentazione dell'IA in altre giurisdizioni.
AI Act nella Repubblica Popolare Cinese
Ho trovato dei documenti in rete e sembra che la Cina abbia messo una bella stretta all'uso spregiudicato delle AI. Il fatto che le regole nell'uso delle AI della Cina siano più etiche delle posizione di OpenAi, Google e compagnia danzante la dice tutta.
Notizie: La Cina ha pubblicato le regole per l'IA generativa che entreranno in vigore il 15 agosto 2023. il documento è in mandarino: alcuni pezzi gli ho trovati in giro, altri gli ho tradotti con google.
Applicabilità (articolo 2)
- La legge si applica a coloro che forniscono IA generativa al pubblico in Cina. Non si applica alle IA generative utilizzate per altri scopi, come la ricerca.
Regole chiave (articoli 4, 7, 8, 12)
- Articolo 4.1 Aderire ai valori fondamentali del socialismo, non sovvertire il potere dello Stato, non mettere in pericolo la sicurezza nazionale, ecc.
- Articolo 4.2 Prevenire la discriminazione nei processi di progettazione e formazione.
- Articolo 4.3 Rispettare i diritti di proprietà intellettuale, l'etica aziendale e non utilizzare gli algoritmi per attuare il monopolio e la concorrenza sleale.
- Articolo 4.4 Rispettare i diritti e gli interessi delle persone, non mettere in pericolo la loro salute fisica e mentale, rispettare i diritti legati alla dignità, alla reputazione e alla privacy.
- Articolo 4.5 Assicurarsi nel migliore dei modi la trasparenza, l'accuratezza e l'affidabilità dei contenuti generati
- Articolo 7 Nella cura dei dati di formazione: rispettare la proprietà intellettuale e la privacy, migliorare la qualità e l'accuratezza dei dati.
- Articolo 8 Nella creazione delle label ai dati, garantire un'etichettatura di qualità.
- Articolo 12 Contrassegnare i contenuti generati come tali
Member discussion