5 min read

Ai & Etica: I principi delle AI di Asilomar

I principi delle AI di Asilomar: Ecco le 23 linee guida che gli esperti hanno votato nel 2017
Ai & Etica: I principi delle AI di Asilomar
Prompt: Design a vintage travel poster celebrating the beauty of Asilomar, showcasing its iconic coastline, sandy beaches, and picturesque fishing villages.

Questi principi sono stati sviluppati in concomitanza con l'ormai storica conferenza ad Asilomar del 2017. Questa conferenza è stata importantissima sotto tantissimi punti di vista, primo tra tutti la scrittura di 23 principi intorno a cui le Intelligenze Artificiali dovrebbero svilupparsi.

Questi 23 principi parlano tanto delle Questioni di ricerca (i punti 1-5) che sono le fondamenta, quanto l'etica e i Valori (dal 6 al 18) e ovviamente uno sguardo al futuro, coi problemi a lungo termine

La Conferenza di Asilomar si è svolta in un contesto di crescente interesse per il potenziale dell'intelligenza artificiale (IA). C'era una forte consapevolezza da parte di coloro che hanno partecipato della responsabilità e dell'opportunità di plasmarla per il meglio.

Lo scopo della conferenza, che ha riunito leader del mondo accademico e dell'industria, è stato quello di creare una visione condivisa dalla comunità dell'IA.

Nel pianificare l'incontro, i partecipanti esaminato le opportunità e le minacce create dall'IA e hanno compilato un lungo elenco di opinioni diverse su come la tecnologia dovrebbe essere gestita.

Hanno quindi poi cercato di distillare questo elenco in una serie di principi, identificando le aree di sovrapposizione e di potenziale semplificazione.

Prima della conferenza, è stato condotto un ampio sondaggio tra i partecipanti, raccogliendo suggerimenti per miglioramenti e principi aggiuntivi. Le risposte sono state inserite in un elenco utilizzato durante l'evento.

Poi si è proceduto in due fasi. Per cominciare, piccoli gruppi di lavoro hanno discusso i principi e prodotto un feedback dettagliato.

Questo processo ha generato diversi nuovi principi, versioni migliorate dei principi esistenti e, in diversi casi, più versioni concorrenti di un singolo principio.

Nella seconda fase hanno condotto un sondaggio per determinare il livello di sostegno di ciascuna versione di ogni principio.

L'elenco finale ha i 23 principi che andrete a leggere. Ognuno dei quali ha ricevuto il sostegno di almeno il 90% dei partecipanti alla conferenza.

Questi "Principi di Asilomar" sono diventati uno dei più influenti insiemi di principi di governance e guidano (o dovrebbero guidare) il lavoro sull'IA.

L'intelligenza artificiale ha già fornito strumenti vantaggiosi che vengono utilizzati quotidianamente dalle persone di tutto il mondo. Il suo continuo sviluppo, guidato dai seguenti principi, offrirà straordinarie opportunità di aiutare e potenziare le persone nei decenni e nei secoli a venire.

Principi di Asilomar

  1. Obiettivo della ricerca: l'obiettivo della ricerca sull'IA dovrebbe essere quello di creare non un'intelligenza non diretta, ma un'intelligenza benefica.
  2. Finanziamento della ricerca: Gli investimenti nell'IA dovrebbero essere accompagnati da finanziamenti per la ricerca volta a garantirne l'uso benefico, comprese questioni spinose in informatica, economia, legge, etica e studi sociali, quali:
    - Come possiamo rendere i futuri sistemi di IA altamente robusti, in modo che facciano ciò che vogliamo senza malfunzionamenti o hacking?
    - Come possiamo far crescere la nostra prosperità attraverso l'automazione, mantenendo le risorse e gli obiettivi delle persone?
    - Come possiamo aggiornare i nostri sistemi legali per renderli più equi ed efficienti, per stare al passo con l'IA e per gestire i rischi associati all'IA?
    A quale insieme di valori dovrebbe allinearsi l'IA e quale status legale ed etico dovrebbe avere?
  3. Legame tra scienza e politica: Dovrebbe esserci uno scambio costruttivo e sano tra i ricercatori di IA e i responsabili politici.
  4. Cultura della ricerca: Occorre promuovere una cultura di cooperazione, fiducia e trasparenza tra i ricercatori e gli sviluppatori di IA.
  5. Evitare la competizione: I team che sviluppano sistemi di IA dovrebbero collaborare attivamente per evitare di tagliare i ponti con gli standard di sicurezza.
  6. Sicurezza: I sistemi di IA devono essere sicuri e protetti per tutta la loro vita operativa, e verificabili laddove possibile.
  7. Trasparenza dei guasti: Se un sistema di IA causa un danno, deve essere possibile accertarne il motivo.
  8. Trasparenza giudiziaria: Qualsiasi coinvolgimento di un sistema autonomo nel processo decisionale giudiziario deve fornire una spiegazione soddisfacente e verificabile da un'autorità umana competente.
  9. Responsabilità: I progettisti e i costruttori di sistemi avanzati di IA sono coinvolti nelle implicazioni morali del loro uso, abuso e azioni, con la responsabilità e l'opportunità di dare forma a tali implicazioni.
  10. Allineamento dei valori: I sistemi di IA altamente autonomi dovrebbero essere progettati in modo da garantire che i loro obiettivi e comportamenti siano allineati con i valori umani durante tutto il loro funzionamento.
  11. Valori umani: I sistemi di IA dovrebbero essere progettati e gestiti in modo da essere compatibili con gli ideali di dignità umana, diritti, libertà e diversità culturale.
  12. Privacy personale: Le persone dovrebbero avere il diritto di accedere, gestire e controllare i dati che generano, dato il potere dei sistemi di IA di analizzare e utilizzare tali dati.
  13. Libertà e privacy: L'applicazione dell'IA ai dati personali non deve limitare in modo irragionevole la libertà reale o percepita delle persone.
  14. Benefici condivisi: le tecnologie dell'IA devono portare benefici e potenziare il maggior numero possibile di persone.
  15. Prosperità condivisa: La prosperità economica creata dall'IA dovrebbe essere condivisa in modo ampio, a beneficio di tutta l'umanità.
  16. Controllo umano: gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di IA, per raggiungere gli obiettivi scelti dall'uomo.
  17. Non sovversione: Il potere conferito dal controllo di sistemi di IA altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili da cui dipende la salute della società.
  18. Corsa agli armamenti dell'IA: si dovrebbe evitare una corsa agli armamenti autonomi letali.
  19. Attenzione alle capacità: Non essendoci un consenso, dovremmo evitare di formulare ipotesi forti sui limiti massimi delle capacità future dell'IA.
  20. Importanza: L'IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con attenzione e risorse adeguate.
  21. Rischi: I rischi posti dai sistemi di IA, soprattutto quelli catastrofici o esistenziali, devono essere oggetto di una pianificazione e di sforzi di mitigazione commisurati all'impatto previsto.
  22. Auto-miglioramento ricorsivo: I sistemi di IA progettati per auto-migliorarsi ricorsivamente o auto-replicarsi in modo tale da portare a un rapido aumento della qualità o della quantità devono essere soggetti a rigorose misure di sicurezza e di controllo.
  23. Bene comune: La superintelligenza dovrebbe essere sviluppata solo al servizio di ideali etici ampiamente condivisi e a beneficio di tutta l'umanità piuttosto che di uno Stato o di un'organizzazione.

Altri articoli su Etica & AI

AI & l’etica a Parole: OpenAI e le Informazioni personali
Primo post della serie “AI: l’etica a Parole.” Parliamo dei Termini contrattuali di OpenAI e i potenziali limiti per un’azienda che volesse utilizzare ChatGPT (updated)
Mastodon