Breaking News. L’articolo che segue è stato da noi redatto giovedì 30 marzo. Ma nella notte tra giovedì e venerdì un articolo di Forbes non solo sposa ma estende le nostre osservazioni su questa strana vicenda.
Vale la pena la lettura del nostro articolo originale, non fosse altro che per l’analisi puntuale dei fatti. Ma anche riassumere in due righe la tesi di Forbes (che è la nostra).
Ci era infatti sembrato molto strano che Elon Musk firmasse una petizione di tale importanza, ma non ne facesse cenno su Twitter. Ebbene, l’istituto che ha proposto la moratoria di sei mesi, Future File, è finanziato da proprio di Elon Musk. Uno che non ha particolari scrupoli a rilasciare versioni beta di software di nome Autopilot. L’unica logica spiegazione è dunque che l’imprenditore abbia usato questa strategia laterale per permettere a Twitter (o forse x.com) di recuperare i sei mesi di ritardo che ha accumulato rispetto ad OpenAI. Complottista forse, ma certamente possibile. Ed ecco il nostro articolo originale.
L’articolo in origine
C’era da aspettarselo. Anche se ipotizzavamo che l’iniziativa sarebbe venuta da qualche politico e non da un sito poco conosciuto, quello dell’istituto “Future of Life“.
Mercoledì 30 marzo 2023 è stata pubblicata una lettera aperta che invita ad una “pausa negli esperimenti sulle IA giganti“.
Future of Life
Vediamo insieme cos’ è Future of Life, cosa dice la lettera aperta, e quale è l’attuale approccio alla questione da parte dell’Unione Europea.
Ah, la risposta alla seconda domanda del titolo vi sorprenderà. E non e’ per nulla in stile HAL 9000.
Musk Uber Alles
Letteralmente “Futuro della vita”, l’Istituto, Future of Life, è stato fondato nel marzo 2014 grazie ad una donazione di dieci milioni di dollari da parte di Elon Musk. Tra le persone chiave figurano imprenditori (quali il fondatore di Skype), cosmologi, ricercatori provenienti da società concorrenti di OpenAI, astrofisici e attori quali Morgan Freeman.
Missione aziendale
Missione dichiarata: “orientare le tecnologie rivoluzionarie (“transformative”) verso i benefici per la vita e lontano dai rischi estremi su larga scala”.
Vision
Per realizzare questa vision, l’istituto organizza seminari, supporta ricerche specifiche e cerca di “creare ponti tra gli esperti di settore e le istituzioni pubbliche, cioè le entità legittimate e che dispongono dei fondi per governare questi fenomeni”.
La petizione di Future of Life
Ma cosa afferma la petizione? La premessa è l’asserzione che i laboratori di ricerca sono “impegnati in una corsa fuori controllo allo sviluppo ed all’impiego di menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile.”
Propaganda e falsità
Prosegue la petizione “Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, intelligenza, obsolescenza e sostituzione? Dovremmo rischiare di perdere il controllo della nostra civiltà?”
Conclusione
La conclusione è apparentemente propositiva, ma in realtà subdolamente dirigistica. Ecco l’enunciato: “Chiediamo a tutti i laboratori di IA di mettere immediatamente in pausa per almeno 6 mesi l’addestramento di sistemi più potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile ed includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.”
Biden, Meloni, Putin, Urban e Macron in soccorso?
In pratica, si chiede di smettere di addestrare per sei mesi i modelli in fase di sviluppo (nel caso di OpenAI un potenziale GPT 4.5 o superiore).
Punto chiave
Ma – e questo è il punto chiave – se gli attori del settore non obbediranno si chiede ai governi di forzarli ad adeguarsi.
Lobbying 2.0
Ora, su queste pagine abbiamo ripetutamente parlato dei pericoli della IA, sostanzialmente dovuti alle questioni di allineamento. Ci saremmo aspettati di trovare, tra i lavori dell’istituto, numerosi paper di approfondimento, ma tutto quello che troviamo sono messaggi inviati ai poteri politici: si tratta a nostro avviso dunque di un gruppo di “lobbying 2.0″.
1350 firme
Le firme raccolte in 24 ore sono sorprendentemente poche, ammontano solo a 1415 (numero dichiarato alle ore 17 del 30 marzo 2023). Il sito afferma che questo è dovuto alla necessità di verificare, uno a uno, l’autenticità dei firmatari.
AlphaFold
Mentre compaiono ben pochi italiani, appare abbastanza evidente una grande presenza di membri di DeepMind, laboratorio divenuto parte di Google nel 2014 e sviluppatore del famoso AlphaFold, modello di intelligenza artificiale progettato per prevedere la struttura tridimensionale (3D) delle proteine in base alla loro sequenza di aminoacidi.
I firmatari? Concorrenti ritardatari
Tra le varie analisi della lettera aperta ne abbiamo trovata una particolarmente affascinante, ben espressa dal tweet qui sopra riportato.
Modello allo stato dell’arte
Dove si fa notare come le firme sembrano in gran parte provenire da società che non dispongono attualmente di un modello allo stato dell’arte: enti, dunque, a cui una pausa di sei mesi potrebbe far comodo al fine di recuperare il ritardo.
Unione Europea
Ci limitiamo a citare questo punto di vista, senza in nessun modo affermare di condividerlo.
Chiudiamo piuttosto citando il lavoro che sta facendo – ormai dal numerosi anni – l’Unione Europa, probabilmente grazie anche alla spinta di Future Labs (o almeno questo quanto si intuisce dal sito dell’istituto).
IA DOC
L’intervento normativo si ipotizzava inizialmente articolato in quattro livelli, dal più blando al più restrittivo. Il blando prevedeva “un’etichettatura obbligatoria” delle app (stile bottiglie di vino DOC), il più restrittivo “uno strumento legislativo orizzontale UE che stabilisce requisiti obbligatori per tutti i sistemi di AI“.
Sistemi di IA
Pare che oggi si vada nella direzione del livello numero tre, che si differenzia dal più restrittivo solo per il fatto di essere limitato solo a “sistemi di IA ad alto rischio, in modo proporzionato“. Negativo il commento di Future of Life, che afferma manchino i criteri per definire un alto rischio.
Buone intenzioni
Insomma, la EU ha lodevolmente cercato di affrontare il problema con un buon anticipo, ma sospettiamo il risultato finale sarà – in pieno stile euro burocrat – simile all’abominio che obbliga a chiudere quotidianamente decine di dialog boxes che chiedono all’infinito il consenso ai “cookies”
Le IA sono d’accordo
Insomma, regole complesse che non riescono a centrare il problema. Non ci resta che osservare sgomenti come perfino i modelli non censurati, quali Alpaca, siano sostanzialmente d’accordo con i firmatari.
I leader della intelligenza artificiale
Non ci resta che vedere se i veri leader della IA di oggi (Microsoft, Open AI, Google e la comunità open accetteranno senza fiatare di essere messi in pausa (M.H.B. per NL)