Intervista a Piercarlo Slavazza , Creatore di Explurimis - AI per gli Studi Legali
Sono discretamente gasato per questa intervista a Piercarlo Slavazza. Non solo perchè Piercarlo è molto in gamba, ma anche perchè sta offrendo un servizio che potrebbe davvero essere utile agli avvocati e ai loro clienti.
L'ospite di oggi.
Piercarlo Slavazza, è digital product designer e software engineer da più di 20 anni. Specializzato nel campo del Legal Tech, ci parlerà di AI/ChatGPT e di come li ha usati per creare Explurimis, banca dati giuridica gratuita basata su modelli LLM. Explurimis è una startup che ha lo scopo di consultare il corpus legale in maniera inedita. Gli ho fatto alcune domande a riguardo e ho sfruttato l'occasione per avere opinioni su altri temi.
Intervista con l'esperto è il mio format per esplorare il campo delle AI Applicate al business e alla Digital Transformation. Sono sempre aperto a scambiare le opinioni con chi porta avanti gli sviluppi delle AI, quindi se conosci qualcuno scrivimi proponendomi dei nomi, te ne sarei grato!
Nelle puntate precedenti:
Intervista a Piercarlo Slavazza di Explurimis.
Ciao Piercarlo, prima ancora di parlare del tuo progetto “ChatGPT+ Documenti legali”. Dicci due parole su di te: cosa hai studiato, in cosa sei specializzato, in cosa spazia la tua curiosità.
Sono laureato in Informatica, con “curriculum” in Intelligenza Artificiale. In particolare mi sono interessato da sempre agli aspetti di linguistica computazionale e ho partecipato a vari progetti per la realizzazione di sistemi di Knowledge Management per Studi Legali, sia nel campo della ricerca che nel campo dello sviluppo di software commerciali.
Più in generale ho sempre coltivato la passione per l’innovazione tecnologica e il mondo delle start up.
Diciamo che sono partito da una fascinazione in un certo senso molto accademica per il linguaggio, e col tempo l’ho intersecata con il desiderio di portare vantaggi concreti alla persone per mezzo di prodotti digitali innovativi.
Parliamo di Explurimis, il tuo recente progetto di utilizzare ChatGPT per poter interrogare il corpus legale. Come è nata l’idea, Come funziona, la tecnologia abilitante etc etc.
Il mondo degli Studi Legali è da alcuni anni alla ricerca di una sempre maggiore efficienza; la strada più efficace per raggiungere questo traguardo passa attraverso la valorizzazione del patrimonio degli Studi - patrimonio che è per eccellenza fatto di documenti.
Apparentemente dunque questo mondo è quello dove più naturalmente e più semplicemente si può fare la differenza mediante strumenti di linguistica computazionale. Però la lingua maneggiata dai professionisti del diritto è una lingua “difficile”, non solo nel senso “popolare” che tutti attribuiamo a questa osservazione, ma anche perché il diritto si pone al crocevia della descrizione “ontologica” dei fatti di cui è tessuta la collettività, e il ragionamento su questi fatti - e in tutto questo si sforza di risolvere le ambiguità di cui il linguaggio è naturalmente connotato.
Per molto tempo ci siamo chiesti in questa rete di parole, concetti e ragionamenti dove fosse il valore maggiore, e quale fosse il modo più efficiente di farlo emergere.
Le innovazioni che nell’ultimo decennio hanno attraversato il mondo dell'Intelligenza Artificiale e della linguistica computazionale hanno progressivamente creato gli strumenti migliori per approcciare questo problema “difficile” della lingua del diritto: è stato l’incredibile lavoro fatto dalla comunità scientifica sui modelli di Deep Learning - dapprima applicato al dominio delle immagini, e poi a quello della lingua - che ha creato la tecnologia abilitante anche per Explurimis.
Immagino che tu abbia scelto GPT-4 perchè è quella più potente e che meglio si integra... ma in futuro credi che utilizzare i vari LLama / Alpaca potrebbe avere un senso oppure credi che OpenAI avrà sempre una marcia in più?
Non ho ancora avuto modo di testare i modelli derivati da LLama. Ritengo che OpenAI ha un vantaggio competitivo che manterrà per molto tempo, ma che prenderà progressivamente forme diverse. I concorrenti dovranno migliorare i loro modelli per pareggiare la qualità di quelli di OpenAI, ma nel frattempo OpenAI (stando a quanto dichiarato pubblicamente da CEO e CTO) intensificherà la ricerca sul reperimento delle informazioni fattuali affidabili e sul problema cosiddetto “dell’allineamento dei modelli” (ossia della capacità dei modelli di esibire comportamenti funzionali all’intento di chi vi interagisce): quindi d’ora in avanti Meta, Alphabet e gli altri dovranno lavorare il doppio di OpenAI/Microsoft...
Dal mio blog continuo a dire che è essenziale integrarsi verticalmente con gli LLM. La tua scelta quindi è esattamente in linea con il mio pensiero, fammi togliere però il cappello dell’entusiasta e fammi mettere quello del critico: “ che differenza c’è tra un normale database e la tua APP?” - Riciclerò la risposta quanto mi verrà chiesto :-)
Penso che i modelli LLM abbiano due potenzialità:
- la linguistica computazionale, e
- la capacità di “ragionare” manipolando informazioni fattuali.
In questo momento, a dispetto di quanto potrebbe sembrare a un osservatore superficiale, i modelli sono molto forti nel campo della linguistica, sono discretamente forti nel campo del “ragionamento”, ma sono pessimi nel campo delle informazioni fattuali. Non sono stati ingegnerizzati con questo scopo. Direi che la loro capacità di produrre informazioni fattuali è, per ora, un sottoprodotto del modo in cui il modello è stato creato.
Quindi, in questo momento, gli LLM sono “production ready” (e a un livello mai visto prima) in quelle situazioni dove i modelli si possono “limitare” a “maneggiare” il linguaggio: classificazione di testi, riassunti automatici, (interfacce per il) question answering, information retrieval ecc.
Devono essere però supportati da qualche altro software specifico di un certo “vertical” che, per così dire, gli prepara materiale affidabile su cui lavorare. Sono ben lontani dall’essere degli “oracoli” generalisti: non c’è altra via che, come dici tu, “integrarsi verticalmente”.
Più sarà semplice fornire ai modelli informazioni fattuali e codificare schemi di ragionamento, più alto sarà l’impatto del loro uso - ma sempre all’interno di un certo vertical.
Penso che usciremo dai vertical solo se progressivamente questa “connessione” tra “i fatti” e i modelli assumerà una forma “distribuita”, decentrata, standardizzata, e con adeguati meccanismi formali di “allineamento”.
Parliamo di AI in generale: cosa ne pensi di tutto questa foga degli ultimi mesi? Destinato a svanire come gli NFT e le Crypto oppure riuscire a sopravvivere alla propria hype?
Credo che la componente “linguistica” rimarrà per certo.
Riguardo agli aspetti della capacità di “ragionare” (e raggiungere obiettivi mediante pianificazione), tutto dipenderà dalla risoluzione del problema dell’allineamento: al di là delle visioni catastrofiste di una AI che cancellerà il genere umano, la persone si renderanno presto conto che i modelli potrebbero avere delle difficoltà anche solo ad aiutarle efficacemente a fare shopping...
Immagino che anche tu abbia delle opinioni a riguardo del blocco di ChatGPT in Italia per le decisioni del Garante. Io, in controtendenza con la maggior parte dei siti divulgativi sulle AI non me la sono sentita di gridare allo scandalo. Vedo che ci sono delle valide ragioni per il fatto. Come ti poni tu e che rischi / opportunità ha la tua attività a seguito di un blocco del genere?
La problematica sollevata dal garante riguarda la “web app” di OpenAI per l’utilizzo di ChatGPT. I software che integrano le tecnologie di OpenAI via API sono escluse da queste problematiche: OpenAI su quel versante ha già posto in essere adeguate politiche di gestione dei dati. Quindi anche Explurimis è “sicuro”, e fuori dal raggio d’azione delle osservazioni fatte dal Garante.
Ciò detto, personalmente concordo con te al 100%. Non penso sia saggio consegnare nelle mani di una società privata un potere che le permetta di mettere a tacere una voce istituzionale - o che, in modo complementare, crei nei cittadini l’aspettativa che le istituzioni si asservano ciecamente ad essa in nome del vantaggio competitivo. La dialettica è indispensabile a tutti i livelli ma deve partire da basi solide.
Torniamo Explurimis: quali sono stati gli ostacoli che hai incontrato nello sviluppo? Senza svelarci la RoadMap quali sono le feature più apprezzate dagli utilizzatori?
Gli LLM funzionano al meglio quando hanno una certa quantità di testo a disposizione: questo perché hanno bisogno di una minima “finestra” di contesto per identificare il significato inteso di una parola. In generale, quando si effettua una ricerca giuridica, si possono dare due casi: si parte da un quesito giurisprudenziale ben articolato (ottimo per gli LLM per il motivo di cui sopra), oppure si parte da una serie di keywords (meno buono per gli LLM). Entrambe le modalità hanno la loro giustificazione - ma farle coesistere in modo che siano ben “digerite” dagli LLM ha presentato alcune difficoltà, in gran parte risolte, ma certamente ulteriormente ottimizzabili - in particolare rispetto alla possibilità di menzionare specificamente una norma (feature che in effetti è in Roadmap).
Gli utilizzatori hanno apprezzato la flessibilità di interrogazione e la precisione estrema delle risposte.
Fammi rimettere il cappello dell’avvocato del diavolo (è il caso di dirlo): “ok mi hai convinto che utilizzare un LLM è molto meglio che un database, ma in che modo potrebbe migliorare la mia vita utilizzando il tuo servizio?”
La “bestia nera” della ricerca giurisprudenziale è la ricerca cosiddetta “per fattispecie”. Le leggi e la giurisprudenza vanno per categorie, che possono essere le più specifiche possibili ma ovviamente devono mantenere un certo grado di generalità. Tuttavia una causa verte sempre su un caso molto specifico di queste categorie; quando un Avvocato esegue la relativa ricerca giurisprudenziale, da un lato vorrebbe verificare se per caso esiste già in giurisprudenza qualche Sentenza che magari tratta proprio il suo caso specifico... ma dall’altro lato non vuole fare una ricerca troppo specifica, perché altrimenti potrebbe perdere di vista casi analoghi e che rientrano nella stessa categoria. L’Avvocato deve dunque lungamente barcamenarsi tra lo specifico e il generale, camminando come un equilibrista tra eventuali sinonimi, locuzioni, abbreviazioni...
Gli LLM resettano tutta questa fatica: “magicamente” gestiscono sia la parte di sinonimi e varianti lessicali (comprese le ambiguità), e generalizzano naturalmente passando dallo specifico al generale.
Quale modello di business hai in mente per un servizio del genere?
In questo momento offriamo un servizio gratuito di consultazione della giurisprudenza, e il modello di business consiste nell’affiancare a questo servizio la consultazione dell’archivio dello Studio Legale con i medesimi strumenti supportati dagli LLM.
Anche se la tua esperienza da programmatore è ventennale, puoi dare qualche consiglio a chi è interessato a dare una direzione verso le AI alla propria carriera?
Cosa deve studiare? Che passi deve fare?
L’offerta formativa sulla AI penso sia attualmente molto ampia.
A mio avviso gli studenti dovrebbero dedicare più importanza e tempo allo studio degli aspetti di Ingegneria del Software, ampiamente sottovalutati dagli Atenei italiani. È certo vero che uno dei possibili effetti degli LLM sarà quello di riscrivere la disciplina mediante l’uso di agenti come Github Copilot; ma, anche se così fosse, a maggior ragione penso che la capacità di valutare un buon design sarà cruciale.
Grazie mille Piercarlo per il tempo che ci hai dedicato. Lascio qui di seguito il link alla tua pagina https://app.explurimis.it per chiunque sia interessato ai tuoi servizi invece dacci delle coordinate (mail social etc etc)
Member discussion