Il nostro gruppo editoriale ha abbracciato senza indugio i nuovi sistemi basati sui Large Language Models (LLMs, il cui rappresentante piu’ famoso e’ ovviamente ChatGPT), collaborando attivamente alla prima sperimentazione italiana in ambito radiofonico.
Proprio per questo motivo riteniamo importante che sia proprio NL a parlare anche dei rischi e dei pericoli impliciti nella IA: non per invitare a starne alla larga o – peggio ancora – suggerire una sua regolamentazione da parte dei politici, ma per comprenderne a fondo tutti i risvolti.
Good & bad news
Il panorama ci presenta le classiche good news e bad news, le prime delle quali vengono dall’Università di Stanford.
Confronto
Su questi argomenti abbiamo anche deciso di confrontarci con Gianluca Busi, ceo di 22HBG.
Bad news first
Partiamo con le notizie negative, indispensabile premessa per la rivoluzionaria buona notizia con cui chiuderemo l’articolo.
Morale imposta dai tecnocrati
L’esempio qui sopra mostra la prima cattiva notizia: il motore utilizzato attualmente da Peperoni – e non Peperoni in sé, attenti a questo particolare di cui parleremo tra poco proprio con Busi – si rifiuta di spostare il dialogo tra le due nostre amiche Sonia e Patrizia sul terreno erotico.
Boccaccio e Pasolini
Forse negli States ignorano come Giovanni Boccaccio e Pier Paolo Pasolini facciano parte della cultura (con la C maiuscola) italiana e non capiamo perché mai dovremmo accettare che qualche auto-proclamato “etico” dell’IA debba decidere cosa possiamo leggere od elaborare.
Erotico non è porno
Scelta al limite accettabile se avessimo chiesto un racconto “pornografico”, ma anche su questo nutriamo qualche dubbio.
Politici non graditi
La seconda notizia sarebbe una old news, non fosse che qui non stiamo affatto usando ChatGPT, ma un modello totalmente differente, quello di you.com. Ripetiamo questo punto essenziale: la risposta arriva da un sistema di IA alternativo e concorrente a ChatGPT, trainato da persone differenti.
No Trump, sì Biden
Ma non se ne esce: di Trump non si può parlare, mentre Biden è un uomo di onore e grazia che “In politica estera e in diplomazia ha dimostrato leadership e rara empatia”
Utilizzo dei nostri dati
Veniamo a un punto più importante. Le nostre conversazioni con ChatGPT, Bing/AI e il futuro Bard non sono confidenziali e riservate: vanno invece opzionalmente ad alimentare proprio la base di conoscenza dei modelli. È dunque inopportuno inserire informazioni confidenziali (documenti sensibili quali atti giudiziari o strategie aziendali).
Microsoft
Come recita il sito di Microsoft, vero proprietario provvisorio di OpenAI “Authorized Microsoft employees can access your prompt & completion data“.
Riservatezza? Decide Gates
Certo, secondo i termini d’utilizzo si può richiedere la riservatezza, ma il giudice finale pare essere la società medesima: “These Limited Access features will enable potential customers to opt out of the human review and data logging processes subject to eligibility criteria governed by Microsoft’s Limited Access framework“.
Pericolo esistenziale
L’ultimo problema posto dalla IA si chiama “allineamento”: si tratta di una questione poco discussa, ma che incorpora in se i peggiori rischi di questa tecnologia, quelli che avevano fatto affermare già dieci anni fa a Bill Gates ed Elon Musk che “la IA rappresenta un rischio esistenziale per l’umanita‘“.
Due non come noi
È il caso di prendere in seria considerazioni quanto detto dai due imprenditori.
Covid e razzi riciclati
Il primo aveva previsto la pandemia dovuta al COVID già nel 2014, mentre il secondo è l’unico ad avere immaginato, progettato e realizzato – tra l’altro – razzi capaci di tornare sulla terra per essere riutilizzati.
Allinamento
Il problema alla base, l’allineamento, è stato in parte inserito da Sir Arthur Charles Clarke in 2001 Odissea nello Spazio.
HAL 9000
Come si ricorderà il computer HAL 9000 era stato messo di fronte al conflitto tra l’ordine di essere onesto e preciso e la necessità di mentire a parte dell’equipaggio al fine di completare la missione.
HAL 9001
La scelta di HAL, ovvia, era stata quella di eliminare l’intero equipaggio – in modo da non essere costretto a mentire. Per chi lo avesse dimenticato, nel romanzo di Clarke Hal 9000 era definito un “sentient general artificial intelligence computer” (vedere qui) capace di riconoscere il dialogo, riconoscere i volti, generare testi, generare arte, giocare a scacchi e ragionare autonomamente. In ogni caso il problema dell’allineamento va anche oltre e chi volesse approfondire può iniziare da questo video.
Conversazione con Gianluca Busi
Prima di passare alla promessa good news abbiamo deciso di discutere di alcune di queste problematiche con Gianluca Busi, ceo di 22HBG, che ha fornito alcune preziose integrazioni a quanto esposto finora.
I pericoli secondo Busi
(Newslinet) – Quali sono a tuo avviso i pericoli posti dall’IA?
(Gianluca Busi) – Il pericolo a mio avviso è la comprensione da parte dell’utente medio di quando a rispondere è una persona in carne e ossa rispetto a quando è un’intelligenza artificiale. La complessità nell’individuare i contenuti veri e finti: cosa che accadrà oltretutto anche sui social.
Distinguo
In generale già nelle scuole americane ci si pone il tema di individuare il vero lavoro svolto dai ragazzi rispetto a quello generato da ChatGPT e similari. Probabilmente scuole e metodo di apprendimento saranno i primi settori a essere impattati.
Un cinquantenni di 12 anni
Quello che spesso dico, è una mia visione ovviamente, per me la IA è una persona di 50 anni circa, con un medio quoziente intellettivo, forse un paio di lauree e una conoscenza orizzontale un po’ su tutto. Senza specializzazioni dettagliate – che ovviamente si possono aggiungere in un secondo momento. Ma questa persona di 50 anni ha la velocità di apprendimento di un ragazzo di 12 anni. Dobbiamo dunque vigilare se e fino a quando questo è uno strumento utile e quando diviene troppo invasivo.
Oltre ChatGPT e Bard
(NL) – Oltre GPT-4 e ora BARD esistono modelli che possono funzionare in locale: non hanno bisogno dei grandi service americani ma è sufficiente addirittura un normale MacBook. Pensate di evolvere Peperoni verso questo modello distribuito e funzionante in locale?
(G.B.) – Il problema è che io non ho il CINECA dietro: e per il training, per l’istruzione della IA serve ancora grandissima potenza di calcolo, anche se come dici tu il deployment può ora essere fatto su computer slegati dai grandi gruppi americani.
Problema di calcolo
Il problema del futuro e’ la potenza di calcolo.
Peperoni oggi
(NL) – Considerato l’incredibile aumento di potenza dei computer a basso basati su architetture ARM e l’invenzione della quantizzazione a 4 bit dovremmo a mio avviso presto superare questo ostacolo. Quali le vostre strategie?
(G.B.) – Come sai si tratta di sviluppi delle ultime settimane, per non dire degli ultimi dieci giorni. Per ora la nostra scelta è la seguente: in Peperoni abbiamo messo abbastanza intelligenza per comprendere le domande dell’utente e inviarla al sistema più adeguato per elaborare la risposta: GPT 3.5, Bing/AI e DALL.e oggi, BARD a breve e ovviamente gli altri modelli man mano che saranno resi disponibili. Parcellizzando le informazioni non solo otteniamo il meglio di quanto disponibile, ma rendiamo arduo il lavoro di profilare la nostra utenza.
The Good News
Concludiamo con la promessa buona notizia. Si tratta di un annuncio del marzo di quest’anno, che abbiamo installato e verificato in prima persona in questi giorni. Sviluppato in uno dei più prestigiosi atenei statunitensi, la Stanford University, è stato reso pubblico con questo paper.
Alpaca
Si tratta di Alpaca, un “modello che si comporta in modo qualitativamente simile a ChatGPT (text-davinci-003) pur essendo incredibilmente snello ed economico da replicare”. Niente super computer; il training è stato effettuato su un PC da 600 dollari.
Alpaca
Il documento ha dell’incredibile e invitiamo tutti alla lettura. Questo modello, pur essendo in grado di funzionare su un Mac con soli 8 GB di RAM, è in grado di rispondere quasi a livello di GPT-3 ed è privo di censure.
Modelli
Il tutto grazie alla surreale idea di trainarlo partendo dal modello di Facebook e utilizzando proprio ChatGPT come antagonista.
IA che impara da altre IA
Avete capito bene: Alpaca ha appreso quanto possibile proprio facendo parlare tra loro (legalmente) due IA concorrenti, quelle di Meta e Open AI.
Interazioni
Le due interazioni di prova che seguono sono state eseguite da chi scrive il 23 marzo 2023 su un Macbook Air M1 con 8 GB di RAM non connesso alla rete.
Conclusioni
Abbiamo voluto descrivere alcuni dei problemi posti attualmente dalla IA non per cercare di rallentarne l’adozione ma, al contrario, per invitare tutti alla sperimentazione.
Potenzialità e limiti
Solo comprendendone a fondo potenzialità e limiti saremo in grado di beneficiare di questa rivoluzione importante probabilmente quanto quella della macchina a vapore. (M.H.B. per NL)