AI & l'etica a Parole: Bollettino dei licenziamenti
C'è un vecchio detto che dice: Guarda quello che fanno e non quello che dicono.
Lo uso come bussola per quando devo imparare una cosa rapidamente facendo back engineering di personaggi famosi.
E la stessa regola la posso anche usare per vedere quanto la faccenda dell'Etica sia importante per le Big Tech.
Mi rendo conto che siamo in una corsa agli armamenti dell'intelligenza artificiale e i protocolli di sicurezza rallentano solo le cose. I giganti della tecnologia non hanno mai superato l'ideologia del "muoversi velocemente e rompere le cose" che permea la Silicon Valley... anche quando il rompere le cose è il tessuto sociale del pianeta.
Ma dall'altra parte ha davvero senso affermare il proprio commitment a un mondo migliore quando proprio nei primi passi dello sviluppo di una tecnologia che - se va bene - cambia il mondo ma se va male lo annienta decidi li licenziare il team etico che queste cose dovrebbe supervisionarle?
Ci sono preoccupazioni per quanto riguarda le implicazioni e gli sviluppi di questa tecnologia.
Microsoft
Secondo ArsTechnica Microsoft ha licenziato quasi totalmente il team etico responsabile del monitoraggio e della riduzione dei danni sociali causati dai prodotti Microsoft AI durante il recente giro di licenziamenti.
Questo alla luce dell'uscita prossima di Chat GPT 4
Microsoft come sapete ha investito pesantemente - diventandone de facto la padrona - nella società madre di ChatGPT OpenAI e per l’integrazione nel suo motore di ricerca Bing.
Ma, mentre tutte le aziende che incorporano l’intelligenza artificiale nei loro prodotti e servizi hanno un team per esaminare i possibili pericoli associati, o addirittura trattengolo il rilascio di AI quando non sono sicuri, Microsoft ha appena licenziato i membri del suo team di etica dell’IA.
Secondo Microsoft questo non è un problema perchè le linee guida per la sicurezza sono state rilasciate e che tutti i programmatori adesso ne sono a conoscenza.
Microsoft altresì si dice “impegnata a sviluppare prodotti ed esperienze di intelligenza artificiale in modo sicuro e responsabile, investendo in persone, processi e collaborazioni che danno priorità a questo”.
Emily Bender professoressa ed esperta di lingustica ed etica dei modelli linguistici definisce questa scelta "molto, molto, molto miope".
Io molto umilmente mi accodo alla prof Bender.
Member discussion