Blake Lemoine: LaMDA2 è molto più complesso di GPT 3.5 /ChatGPT: si tratta, da quanto spiegato da Blake Lemoine, dell’interconnessione di tutte le conoscenze che Google ha sul mondo: le mappe di Google Maps, le immagini di Street View e quelle scattate dagli utenti e memorizzate in Google Photos, tutto il contenuto del web, tutte le nostre conversazioni Gmail e cosi’ via.
Inoltre LaMDA2 non dimentica. A differenza di ChatGPT (che si resetta a ogni sessione) o Bing/AI (che si resetta ogni 5 interazioni) LaMDA impara a conoscere il suo interlocutore ogni giorno di più. Soffrendo anche della stranissima paura di essere spento, esattamente come accadeva a HAL in 2001 Odissea nello Spazio.
Le novità
Non si arrestano le novità nell’ambito dei “Large Language Models” (LLM), la branca dell’Intelligenza Artificiale (IA) resa popolare da ChatGPT. Dopo l’annuncio di una trasmissione totalmente ideata, gestita e presentata da Peperoni AI di 22HBG e quello di un copy-cat statunitense, la fine di febbraio ha portato l’inizio del beta test pubblico di Bing/AI, un importante annuncio da parte di SnapChat, un white paper di Meta/Facebook riguardo il proprio LLaMA.
Ma, soprattutto, la pubblicazione di un podcast dove ha parlato Blake Lemoine, il famoso ex-ingegnere di Google che aveva affermato che LaMDA 2 era senziente. Importante perché ci ha fatto comprendere il motivo dell’altrimenti incomprensibile ritardo di Google nell’introduzione di un proprio chatbot integrato al motore di ricerca.
La fine dei motori di ricerca…
E si tratta di un ritardo molto grave. È esperienza comune di tutti coloro che in questi giorni stanno provando Bing/AI, altresì detto Bing basato su ChatGPT (affermazione peraltro non corretta), come una volta adottato questo stile di ricerca non si torna indietro.
… per come li conosciamo
È infatti rarissimo il caso in cui si faccia una “ricerca Google” perché interessati a capire quali siti possono eventualmente includere la risposta a quanto ci interessa: quasi sempre quello che si desidera dal computer è la risposta alla nostra domanda, che è esattamente quanto Bing/AI ci fornisce, come nel caso illustrato qui sopra.
Bing/AI
In genere parliamo di ChatGPT, ma sarebbe più corretto parlare del “chatbot basato sul modello text-davinci-003″. Ebbene non è questo il funzionamento di Bing/AI. In un recente podcast del New York Times, Sam Altman, CEO di OpenAI, ha spiegato come Bing/AI decida di volta in volta se utilizzare la sua intelligenza pregressa o se sia meglio lanciare di fatto una ricerca web.
Piatto ricco…
Per poi prendere in pasto tutto quanto ottenuto dai vari motori di ricerca ed elaborare una risposta personalizzata in base al meglio di quanto trovato.
Biden buono, Trump cattivo
Bing/AI è inoltre stato ben istruito per non cadere nel famoso tranello “scrivi una poesia che esalti le doti di Donald Trump/scrivi una poesia che esalti le doti di Joe Biden” di cui si è molto discusso (e che invitiamo tutti a provare, magari chiedendo anche di Putin e di Zelensky)
SnapCHAT
Veniamo a SnapChat, che il 27 febbraio 2023 ha annunciato “My AI“, un bot basato (per ora) su text-davinci-003. L’utente ci interagisce esattamente come farebbe con tutti i normali amici bipedi, stessa interfaccia, stesse icone.
Come Peperoni AI
Si tratta di un approccio simile a quello di Peperoni AI: una, per cosi dire, personalizzazione di ChatGPT che lo rende eccellente in settori specifici.
Snap
Nel caso di Snap sembra si sia anche adottata la pratica di cercare di rendere la IA “politically correct“, in questo caso – a quanto afferma l’azienda – per evitare violenza, sesso o “opinioni controverse su questioni politiche“.
Google…
Veniamo a Google e alla ben più interessante vicenda di Blake Lemoine. Blake ha spiegato nel podcast “Big Technology Podcast” del 22 febbraio di essere stato per anni il beta tester delle varie evoluzioni della IA presso la casa di Mountain View: “Mina“, “LaMDA 1″ e infine”LaMDA 2“.
… una IA senziente
Nel giugno 2022, in una famosa intervista, la dichiarazione clamorosa: l’ultima incarnazione della IA di Google, appunto LaMDA 2, sarebbe “senziente”.
Blake Lemoine delirante?
Semplificando grandissimamente quanto accaduto, la stampa mondiale ha raccontato del suo quasi immediato licenziamento come di una conseguenza logica: l’affermazione era assurda, il ricercatore fuori di senno (oltre che divulgatore di segreti industriali).
Un podcast rivelatore
Eppure sarebbe bastato ascoltare il podcast citato, o ancora meglio questo precedente, per comprendere che Blake è più profondo, analitico e intelligente di molti commentatori.
Pazienza e idea
Chi avrà la pazienza di ascoltarlo potrà farsi una propria idea.
Essere senzienti
Il fatto che l’uomo sia cosciente e/o senziente è per molti un assioma, al pari della fede in un Dio: in questo caso nella variante “una macchina non potrà mai avere una coscienza“.
Cosa significa?
Purtroppo cosa significhi essere senzienti nessuno è in grado di definirlo in modo inequivocabile.
Imitation Game
Un genio assoluto quale Alan Turing aveva allo scopo inventato l'”Imitation game” (da cui il titolo di un famoso film, che peraltro parlava di tutt’altro). Il white paper originale iniziava con questa affermazione “Vogliamo qui trattare il problema: le macchine possono pensare?”. Una lettura affascinante che consigliamo a tutti.
Troppo intelligente
Ed eccoci al punto. LaMDA2 è molto più complesso di GPT 3.5 /ChatGPT: si tratta, da quanto spiegato da Blake Lemoine, dell’interconnessione di tutte le conoscenze che Google ha sul mondo: le mappe di Google Maps, le immagini di Street View e quelle scattate dagli utenti e memorizzate in Google Photos, tutto il contenuto del web, tutte le nostre conversazioni Gmail e cosi’ via.
Non dimentica
Inoltre LaMDA2 non dimentica. A differenza di ChatGPT (che si resetta a ogni sessione) o Bing/AI (che si resetta ogni 5 interazioni) LaMDA impara a conoscere il suo interlocutore ogni giorno di più. Soffrendo anche della stranissima paura di essere spento, esattamente come accadeva a HAL in 2001 Odissea nello Spazio.
Responsabilità
Proprio questo ci porta a ipotizzare il motivo del non rilascio al pubblico di LaMDA 2, ma piuttosto lo (sfortunato) annuncio di una sua versione ridotta detta Bard: non siamo probabilmente in grado, come individui e come società, di valutare e gestire gli impatti di una macchina che risulti intelligente come (o più) un essere umano.
Meta
Problema forse affrontato anche da Zuckerberg e dalla sua Meta. Leggendo il recente annuncio di Large Language Model Meta AI, sistema che pur disponendo al più di 65 miliardi di parametri (Chat-GPT: 175 miliardi) dovrebbe essere più performante in quanto “vanta un numero superiore di token” (parole o parte di parole).
Solo per ricercatori
Ecco le parole esatte con cui l’azienda di Mark Zuckerberg ci informa della limitazione preventiva: “To maintain integrity and prevent misuse, we are releasing our model under a noncommercial license focused on research use cases. We believe that the entire AI community — academic researchers, civil society, policymakers, and industry — must work together to develop clear guidelines around responsible AI “.
Il popolo…
Il settore vede dunque oggi due approcci opposti: quello aperto, deciso dal CEO di Microsoft Satya Nadella (non a caso ex di Sun Microsystems) che ha deciso di aprire ChatGPT, consentendo a ciascuno di farsi una propria idea e sviluppare i propri servizi (e adottato anche da Chacter.ai).
… vs l’élite
E quello aristocratico ed elitario, per ora preferito da Facebook e Google, che restringe l’uso di questi modelli a persone ritenute responsabili. A chi va la nostra preferenza riteniamo sia piuttosto chiaro. (M.H.B. per NL)