Intervista con l'esperto: AI, Artificial life & Cybersicurezza con Alessandro Fontana
Prima intervista con un esperto di AI, Alessandro Fontana. Il Dott Fontana ha iniziato a studiare l'AI nel primi anni 2000 e negli ultimi anni si è specializzato in AI & Cybersicurezza, campo tra i più hot del momento.
Laureato al Politecnico di Milano, Phd alla Gdańsk University of Technology, al momento lavora come IT security officer alla Bosch "Automotive Electronics", divisione per la produzione di chip dell'azienda tedesca. Sta seguendo anche dei progetti nel campo "connected driving".
Questo formato delle interviste agli esperti mi piacerebbe che fosse un appuntamento fisso, e oltre che le AI vi porterò anche esperti in altri campi, ma sempre legati all'argomento principale.
MM: Prima cosa, raccontaci le tue credenziali (non per flexare, ma per dare un contesto a questa conversazione)
AF: Ho fatto ricerca in un campo affine all’AI, che va sotto il nome di “Artificial Life”. In pratica modelli computazionali di vari fenomeni biologici: sviluppo embrionale, evoluzione, invecchiamento, cancro. Adesso mi occupo di cybersecurity, seguo da vicino il campo dell’AI, con particolare interesse per le (crescenti) interazioni con la cybersecurity.
MM:Due domande base cosi partire tutti allo stesso livello. Cosa vuol dire deep learning, machine learning, NLP etc etc
AF: Machine learning significa “apprendimento automatico”, in pratica imparare dai dati strutturati come esempi. Il deep learning è un sottoinsieme del machine learning in cui i modelli utilizzati sono reti neurali. L’NLP (Natural Language Processing) è un campo dell’AI dedicato all’elaborazione del linguaggio naturale, non necessariamente tramite deep o machine learning, anche se oggi queste techniche hanno preso il sopravvento.
MM: Si parla di “modelli” di apprendimento, ma quanti ce ne sono?
AF: Tanti quanti gli atomi dell’universo, Tutti i mesi vengono pubblicati decine di paper con nuovi modelli o varianti di modelli esistenti, Dipende cosa intendi per modelli.
MM: Apperò, come mai? Prevedi che ne arriveranno molti altri in futuro oppure siamo già a buon punto.
AF:Direi che siamo a buon punto. Secondo me il modello transformer è una buona approssimazione dell’intelligenza umana (anche se ovviamente l’architettura computazionale del cervello umano è ancora avvolta nel mistero).
MM: Perchè un modello come midjourney non riesce a fare le scritte e le dita?
AF: Questo non lo so 😊
MM: Mi spieghi pane e salame come funziona una AI?
AF: L’intelligenza artificiale esiste dagli anni ‘50 del secolo scorso e può funzionare in tanti modi diversi.
Il paradigma oggi dominante (deep learning) ha tre componenti:
- un data set;
- un modello che dipende da un numero (spesso molto grande) di parametri;
- uno score, che definisce quanto il modello è in grado di interpretare i dati.
Nel caso di GPT, ad esempio, il data set è wikipedia + 1000 libri + stack overflow + chissà cos’altro; il modello è un transformer con 175 miliardi di parametri; l’obiettivo è prevedere la prossima parola nella sequenza del data set e lo score è una misura della bontà della previsione. L’algoritmo di apprendimento (backpropagation o stochastic gradient descent) modifica i parametri del modello per migliorare lo score.
MM: Secondo te è corretto parlare di AI come termine ombrello che comprende tutto o è meglio essere già adesso più precisi e chiamare l’AI con il modello sottostante? Oppure c’è un modo ancora migliore?
AF: La definizione di AI fa riferimento all’obiettivo (replicare l’intelligenza umana) e prescinde dal modello utlizzato.
MM: Leggo molto sulla questione modelli enormi vs modelli be allenati, qual’è il tuo punto di vista?
AF: Le due cose devono andare di pari passo: un modello enorme deve essere addestrato con un data set enorme e con una enorme potenza di calcolo. È spesso possibile ottenere una versione distillata del modello, piü piccola ma con le stesse prestazioni. Qualcosa di simile accade anche nel cervello. I neuroni vengono generati a un ritmo impressionante nel primi anni di vita, il numero complessivo raggiunge il picco verso i 6 anni, per poi diminuire grazie a un processo di “pruning” (potatura) che però non riduce le prestazioni cognitive.
MM: ChatGpt è un modello che gestisce la chat “nutrito” da un altro modello che ha molte informazioni, ma su alcune cose, tipo la matematica è pessimo perchè quelle informazioni le genera senza davvero calcolarle. È possibile che un modello come chatGPT capisca quando usare un modello e quando far ricorso a una semplice calcolatrice?
AF: Penso di si. Penso sia anche possibile che ChatGpt diventi bravo anche in matematica, utilizzando dei data set specifici.
MM: Mia personale opinione ChatGPT al momento è fighissima per avere spunti di pensiero (brainstorming) ma finisce li, Google non potrebbe mai sputtanarsi e mettere una cosa così fallace, cosa ne pensi? Chat GPT si merita questo buzz mediatico?
AF: Secondo me se lo merita. Come detto da Yan leCun (Chief AI scientist di Meta) La differenza tra OpenAI e le altre aziende /centri di ricerca non sta tanto nella parte scientifica quanto in quella ingegneristica. Come sottolineato in diverse occasioni da Ilya Sutskever, chief scientist di OpenAI (probabilmente il vero “inventore” di ChatGpt) OpenAI ha dedicato a questo aspetto un’attenzione particolare. L’eccellenza in questo campo fa la differenza tra scrivere un paper e avere un prodotto. Non è assolutamente cosa da poco.
MM: Dal punto di vista pubblico oltre ai testi e alle immagini, mi viene in mente la musica… c’è già qualcosa che tu sappia?
AF: C’è un modello che si chiama Musenet, sempre di openAI. Molti altri modelli sono sicuramente nella pipeline.
MM: I video in full 3D sono molto più complessi da generare oppure basta abbastanza potere di calcolo?
AF: Anche questo non lo so 😊
MM: Prima di parlare della tua specializzazione, parlaci di altri 3-4 campi in cui l‘AI ha già fatto passi da gigante e che ti aspetti ci sarà un grosso sviluppo.
AF: Un passo abbastanza ovvio consiste nell’integrare ChatGPT e DALL-E, ossia mettere insieme diverse modalità sensoriali. Il modello “GATO” di DeepMind rappresenta un passo in questa direzione: una singola rete neurale in grado di gestire 600 task diversi con diverse modalità. Anche la robotica antropoforma (Atlas per intenderci) direi che va abbastanza bene 😊
MM: Ho lasciato il tuo campo per ultimo perchè è uno dei lavori più hot dell’universo. Esperto di cybersicurezza, ricercatissimo intersecato con esperto di AI altrettanto raro… il signor Venn sta trasalendo per questo! Cosa vuol dire AI & cybersicurezza? Come lavorano insieme?
AF: Ci sono tre aspetti fondamentali.
Il primo è quello che l‘AI può fare per gli hackers: charGPT è un esempio, altri esempi sono dati dai deep fakes che possono essere usati nel campo della social engineering.
Il secondo aspetto è quello che l’AI può fare per i difensori: intrusion detection tramite anomaly detection, ossia capire se abbiamo un “intruso” nel nostro sistema informatico, cercando di capire se ci sono delle anomalie nel comportamento del sistema.
Il terzo aspetto è legato alla vulnerabilità dei modelli di machine learning a una nuova categoria di attacchi nota come “adversarial examples”. Questi attacchi sono uno dei principali problemi aperti, che rendono difficile l’impiego dei sistemi di AI in settori dove è richiesto un altro grado di affidabilità (ad esempio la guida autonoma). Sono anche un sintomo di un gap tra i modelli di deep learning e il cervello umano.
MM: Se una persona è già espero di sicurezza informatica ma ha un presente di sistemista, cosa dovrebbe fare?
AF: Candidarsi per un posto di security expert e acquisire esperienza sul campo. La richiesta di ingegneri è molto forte.
MM: Altra domanda: con i computer quantistici, che potrebbero arrivare nella prossima dozzina di anni la cyber sicurezza va rivista? Come? Avrebbe senso farlo già adesso?
AF: Certamente. Gli algoritmi di crittografia attualmente in uso si basano sull’ipotesi che certi problemi matematici (ad la scomposizione in fattori di numeri molto grandi) non puö essere effettuata in tempi ragionevoli, utilizzando algoritmi noti sui più potenti computer disponibili. Se la potenza disponibile aumenta (con i computer quantistici) o qualcuno si inventa algortimi piü efficienti (ad esempio tramite AI), gli algoritmi di crittografia attuali non sono piü sicuri. Diversi algoritmi a prova di computer quantistici sono già in fase avanzata di studio.
MM: Grazie mille per il tempo che ci hai dedicato Alessandro.
Potete seguire Alessandro sul suo profilo di Linkedin, su cui è molto attivo.
Selezione di articoli di Alessandro:
Member discussion