Week 12.2023: Musica analogica, Open Source & podcast con co-host sintetico.
Benvenuti alla dodicesima settimana del 2023 dei Mak's Filez. Ogni settimana, leggo decine di pagine di contenuti su Digital Transformation, Digital Marketing AI & dintorni e ve li ripropongo in questa newsletter.
Parliamo di: Musica analogica, Open Source & podcast con co-host sintetico.
Il Vinile continua la sua crescita
Anche se andrei MOLTO cauto nell'usare la frase "il ritorno dell'analogico", è un dato di fatto che nel 2022 i dischi in vinile hanno venduto più dei CD.
Questo accade per la prima volta dal 1987: la crescita a due cifre anno su anno dei vinili è una piccola rivincita degli amanti dell'analogico.
Interessante notare come anche l'acquisto di Mp3 pesa solo per il 3% del mercato. La parte del leone ovviamente la fanno i servizi di streaming.
In questo cambio del mercato i Metallica hanno comprato la fabbrica in Virginia che stampa i loro dischi da 15 anni. Decidono di coprire la filiera del valore in toto.
i miei due cents
David Sax lo dice da tantissimo: l'analogico vincerà. Io credo che ci sia spazio tanto per i prodotti fisici quanto che per quelli digitali, ma è interessante vedere come alcuni strumenti rimangono imperituri.
Personalmente non compro CD da un po' di anni, mentre quei due o tre vinili all'anno me li compro.
Poi non so dove metterli e sogno di avere spazio per un bel giradischi e tempo di sedermi in poltrona per ascoltarli, ma quello è un altro problema. Esattamente come i libri che si comprano per le informazioni che ti piacerebbe avere e non per quelle che poi hai tempo di assorbire, così sta succedendo per i vinili.
Se trovate un'azienda che produce vinile investigate quanto può costare un macchinario: potrebbe diventare un divertente side Hustle.
Alpaca, Petals, PyTorch
Alpaca
Settimana scorsa abbiamo parlato di LLama, mi sembra corretto parlare oggi di Alpaca, una versione ancora più ottimizzata per mano della Stanford University. Ecco il paper in cui ne parlano in dettaglio
Petals
Se Alpaca va nella direzione della miniaturizzazione, Petals va nella direzione della decentralizzazione. Ricercatori di Yandex e Hugging Face hanno pubblicato un paper in cui dettagliano Petals un Framework che permette di far girare su un network distribuito i vari LLM. Puoi scaricare il pdf qui
PyTorch 2.0
PyTorch è una libreria open-source di machine learning utilizzata per costruire e addestrare modelli di deep learning. È stata sviluppata dal team di ricerca di intelligenza artificiale di Facebook e rilasciata nel 2016. Un paio di settimane fa è uscita con la versione stabile 2.0 con grandi miglioramenti lato librerie audio, testo, immagini.
I miei due cents
Due spunti per pensare: il primo è che i progetti Open Source sono più vivi che mai e che, se rilasciati allo stato brado, vengono abbracciati dalla community che riesce a fare cose incredibili. Quindi ringraziamo sia gli sviluppatori che Meta per aver permesso sia PyTorch che LLama, mentre teniamo lo sguardo rivolto a OpenAi che di open non ha più nulla.
La seconda cosa è sottolineare, per l'ennesima volta, la crescita esponenziale del settore. Oltre a novità pesantissime a cadenza settimanale, anche l'ecosistema sta crescendo a livelli mostruosi.
Questo apre altri dibattiti: avere una risposta alla domanda se è saggio poter credere che non ci sia bisogno di commissioni Etiche riguardo lo sviuppo di AI è sempre più pressante. Speriamo che qualcuno si focalizzi anche su quello.
OpenChatKit
Una collaborazione tra Together, LAION e Ontocord ha portato alla creazione di una versione open source di OpenChatKit, un framework per creare chatbot generici. Sulla pagina dedicata a OpenChatKit - sono indicati i punti di forza e le aree di miglioramento: nulla di nuovo se non fosse che per descrivono anche come fare fine tunining e diventare chatbot specializzati.
I miei due cents
Gli LLM hanno dimostrato un'impressionante capacità di rispondere a domande generiche. Se ottimizzati per applicazioni specifiche (il cosiddetto fine-tuning) poi hanno risultati strepitosi.
Ad esempio, PaLM di Google raggiunge una precisione del 50% in test medici, ma aggiungendo data set con informazioni specifiche, Google ha sviluppato un nuovo chat bot ha raggiunto una precisione del 92,6% negli stessi test sopra citati.
Ovviamente lo stesso approccio può essere adottato per altri compiti. E devo dire la verità non vedo l'ora di capire come fare e dargli in pasto la mia libreria.
Mind meets Machine il Podcast con host umano & AI.
Cosa succede quando un'intelligenza artificiale e un essere umano si uniscono in un podcast?
Rob Lennon proverà a sorprenderci con Ruby, una AI nutrita con dataset di trascrizioni di altri podcast, film, stand up, filosofia e altro.
Per la voce hanno utilizzato un'attrice che ha allenato un sistema di sintesi vocale.
Le regole sono semplici.
- Risposte della AI senza essere editate o modificate.
- Ruby ha le sue emozioni e non dovrebbe dare risposte di circostanza
- Memoria persistente: ogni puntata andrà ad arricchire la memoria di Ruby, che dovrebbe essere in grado di fare collegamenti.
- Aggiornamenti: Ruby verrà aggiornata e gli ascoltatori potranno sentirla crescere.
Dove finisce la chiacchera e inizia la realtà? Ottima domanda ma se come me siete curiosi della cosa ecco il link: minds meets machine
I miei due cents
Il modellamento di persone più brave è stato dall'alba dei tempi uno dei motori dello sviluppo dell'essere umano. E per quanto bravi siamo non è possibile imparare bene da tutte le persone che ci piacerebbe. Avere un assistente personale, nutrito dalle informazioni che vogliamo è davvero il futuro prossimissimo.
A quel punto sì che inizieranno a saltare tanti lavori.
Un'intelligenza artificiale ha imparato a giocare ad Atari 6.000 volte più velocemente leggendo le istruzioni
Nonostante i progressi sorprendenti, i modelli di intelligenza artificiale di oggi sono molto inefficienti: richiedendo enormi quantità di tempo e dati per risolvere problemi che gli esseri umani risolvono quasi istantaneamente.
Questo ostacolo viene superando con la forza bruta e la potenza di calcolo enorme che hanno i calcolatori, dando loro in pasto milioni di interazioni e premiando i comportamenti corretti (il cosidetto apprendimento per rinforzo). Un trial and Error moltiplicato alla ennesima potenza in pratica.
Questo è l'approccio alla base della maggior parte delle importanti innovazioni nell'AI dei giochi, come AlphaGo di DeepMind.
Tutto bello se hai Google che ti finanzia, ma come modus operandi non è fattibile per tutti.
Qualcuno si è chiesto invece come funzionerebbe una AI se prima gli dessimo da leggere le istruzioni?
Il problema di far "leggere le istruzioni" non è banale, ma sembra che grazie all'esplosione degli LLM questo sia diventato possibile.
I giochi Atari degli anni 80, un po' per la loro semplicità, un po' per il fatto che c'è sempre il punteggio sono diventati campo di esperimenti proprio perchè permettono un apprendimento per rinforzo tramite punteggio. A questo gli studiosi hanno aggiunto un altro strato di rinforzo con le regole. I risultati sono molto promettenti.
i miei due cents
Ho scelto questa notizia perchè mi ha ricordato come molti problemi che noi riteniamo semplici non lo sono davvero per dei computer. Essi faticano moltissimo in molti campi.
Però è un memento: anche come una scoperta non direttamente correlata (LLM in questo caso) permette alle macchine di fare salti enormi in avanti (qui parliamo di 3 ordini di grandezza). E quando queste scoperte iniziano a impilarsi mi sa che ci sarà il sorpasso.
Anche questa settimana le AI hanno coperto buona parte delle novità brevi, ma credo che chi è interessato nelle tematiche della digital transformation non può non dedicare attenzione a dei trend così forti.
Ho un paio di articoli lunghi quasi finiti, te li spedisco a breve
Un abrazo,
Manolo
Member discussion