2 min read

AI & l'etica a Parole: Bollettino dei licenziamenti

AI & l'etica a Parole: Bollettino dei licenziamenti

C'è un vecchio detto che dice: Guarda quello che fanno e non quello che dicono.

Lo uso come bussola per quando devo imparare una cosa rapidamente facendo back engineering di personaggi famosi.

E la stessa regola la posso anche usare per vedere quanto la faccenda dell'Etica sia importante per le Big Tech.

Mi rendo conto che siamo in una corsa agli armamenti dell'intelligenza artificiale e i protocolli di sicurezza rallentano solo le cose. I giganti della tecnologia non hanno mai superato l'ideologia del "muoversi velocemente e rompere le cose" che permea la Silicon Valley... anche quando il rompere le cose è il tessuto sociale del pianeta.

Ma dall'altra parte ha davvero senso affermare il proprio commitment a un mondo migliore quando proprio nei primi passi dello sviluppo di una tecnologia che - se va bene -  cambia il mondo ma se va male lo annienta decidi li licenziare il team etico che queste cose dovrebbe supervisionarle?

12 possibili scenari AI per il futuro dell’umanità secondo Max Tegmark
Cosa succederà quando si svilupperà un’AGI? Gli esseri umani e l’IA convivranno pacificamente o l’IA prenderà il sopravvento? Max Tegmark, nel suo seminale “life 3.0” ci propone 12 scenari del giorno dopo.

Ci sono preoccupazioni per quanto riguarda le implicazioni e gli sviluppi di questa tecnologia.

Microsoft

Secondo ArsTechnica Microsoft ha licenziato quasi totalmente il team etico responsabile del monitoraggio e della riduzione dei danni sociali causati dai prodotti Microsoft AI durante il recente giro di licenziamenti.

Questo alla luce dell'uscita prossima di Chat GPT 4

Microsoft come sapete ha investito pesantemente - diventandone de facto la padrona - nella società madre di ChatGPT OpenAI e per l’integrazione nel suo motore di ricerca Bing.

Ma, mentre tutte le aziende che incorporano l’intelligenza artificiale nei loro prodotti e servizi hanno un team per esaminare i possibili pericoli associati, o addirittura trattengolo il rilascio di AI quando non sono sicuri, Microsoft ha appena licenziato i membri del suo team di etica dell’IA.

Secondo Microsoft questo non è un problema perchè le linee guida per la sicurezza sono state rilasciate e che tutti i programmatori adesso ne sono a conoscenza.

Microsoft altresì si dice “impegnata a sviluppare prodotti ed esperienze di intelligenza artificiale in modo sicuro e responsabile, investendo in persone, processi e collaborazioni che danno priorità a questo”.

Emily Bender professoressa ed esperta di lingustica ed etica dei modelli linguistici definisce questa scelta "molto, molto, molto miope".

Io molto umilmente mi accodo alla prof Bender.

Mastodon