L’Intelligenza artificiale (IA) rappresenta davvero un cosi’ grande rischio? Il modo corretto di affrontare eventuali problemi è quello di regolamentare i modelli di linguaggio (oggetti di fatto ancora in fasce) come si trattasse di tecnologie consolidate e ben comprese? Come è possibile che un innovatore come Sam Altman sia in totale sintonia con anziani senatori?
Da Anthropic una possibile soluzione: serve una “costituzione” per le IA.
Sam Altman al Senato USA
Martedì 16 maggio Sam Altman, CEO di OpenAI è stato oggetto di un’audizione parlamentare (“testimony before a bipartisan U.S. Senate panel“) nella quale – pare – ha chiesto ai senatori di “regolamentare l’intelligenza artificiale”.
Visibilmente preoccupato
Era decisamente preoccupato, come ben si osserva anche dalla espressione del suo viso durante l’audizione stessa.
Soddisfatti
E molti senatori, gli stessi che storicamente avevano messo in difficoltà Bill Gates, Mark Zuckerberg e altri innovatori, si sono dichiarati soddisfatti.
Un mondo meraviglioso
Viviamo finalmente in un mondo meraviglioso dove tutti vogliono fare l’interesse dei propri simili? O forse qualcosa non quadra? Fortunatamente, almeno in un commento mattutino, la sola BBC World Service ha avanzato qualche dubbio.
L’idea della Costituzione per l’IA
Ma il problema resta sul tavolo: se e come regolamentare le IA. Per ora l’approccio di Anthropic (anzi: Anthrop\c), quello di scrivere una “Costituzione” ci pare il più interessante: proviamo ad analizzarlo.
Altman
Ma prima un’osservazione su Sam Altman le cui apparenti opinioni – “politici, vi prego, regolateci” sembrano condivise praticamente da tutti gli articoli che abbiamo letto (non c’e’ da meravigliarsi considerato che molti autori ritengono minacciata la propria professione).
Ma cosa ha davvero detto?
Altman ha davvero detto tutto quanto leggiamo nei titoli? Ce lo chiediamo perché leggendo il testo completo della deposizione iniziale troviamo invece solo affermazioni condivisibili. Invitiamo i lettori a scorrerlo in prima persona per farsi un’idea propria.
I problemi di base
In ogni caso i problemi posti dai large language model esistono e – come da noi già raccontato – riguardano sia l’allineamento che la tendenza (almeno per i modelli non connessi online, come la maggior parte per il momento) a cercare di non scontentare nessuno inventando se necessario le risposte.
Trump Tower a Milano
Come, appunto, fornendoci l’esatto indirizzo della Trump Tower di…Milano.
Anthropic
Chi e’ Antrhropic? Potremmo definirla il terzo grande creatore di modelli di linguaggio, dopo il più famoso OpenAI e il contendente…Google (con Bard). Claude (il nome del modello di Anthropic) descrive cosi la sua stessa società: “Anthropic è stata fondata nel 2021 da Dario Amodei, Daniela Amodei, Tom Brown, Chris Olah, Sam McCandlish, Jack Clarke e Jared Kaplan. La missione di Anthropic è di costruire AI che siano utili, innocue e oneste. Anthropic sta sviluppando nuove tecniche di allineamento come Constitutional AI per addestrare i modelli di linguaggio su obiettivi di sicurezza. Anthropic prevede di pubblicare strumenti e modelli di AI pratici, sicuri e allineati che qualsiasi sviluppatore può utilizzare.
Constitutional AI
L’idea della costituzione rappresenta un’alternativa al modello dei controllori umani, le persone incaricate di verificare durante il training quanto dice un modello di linguaggio e indirizzarlo di conseguenza.
RLHF
Il processo, detto “reinforcement learning from human feedback (RLHF)” prevede che se, ad esempio, un modello afferma di conoscere l’indirizzo della Trump Tower di Milano un valutatore umano corregga (per cosi dire) il modello tramite un voto negativo.
Trump Tower, via Manzoni
Ma si tratta di soluzioni puntuali e oltretutto soggette agli errori del valutatore: nessuno può escludere che – dovendo giudicare centinaia di risposte – qualche “umano” abbia validato la precedente risposta, che vedeva la torre dell’ex presidente situata in via Manzoni.
Poesie
O magari abbia istruito i modelli a mai e poi mai creare poesie sull’ex Presidente.
La domanda di base
Come decide un modello di linguaggio quali domande prendere in considerazione e quali ritenere inappropriate? Perché incoraggiare alcune azioni e scoraggiare altre? Quali “valori” potrebbe avere un modello di linguaggio?
La costituzione “più’ bella del mondo“
L‘Intelligenza Artificiale Costituzionale risponde a queste limitazioni utilizzando un insieme di principi per formulare giudizi sugli output, da cui il termine “Costituzionale”.
Il principio della carta dei principi…
A un livello elevato, la costituzione guida il modello ad adottare un comportamento normativo descritto nella costituzione stessa: evitare output tossici o discriminatori, evitare di aiutare un essere umano a compiere attività illegali o non etiche e, in generale, creare un sistema che sia utile, onesto e inoffensivo.
… e principi di base
La costituzione data in pasto a Claude attinge da una serie di fonti, tra cui la Dichiarazione Universale dei Diritti Umani delle Nazioni Unite, le migliori pratiche disponibili riguardo fiducia e sicurezza, i principi proposti da altri laboratori di ricerca sull’IA (ad esempio, i Principi Sparrow di DeepMind), con in aggiunta un impegno per cogliere prospettive non occidentali.
Collaborazione…
Significativamente il documento di Anthropic afferma “La nostra scelta di includere i valori identificati dalla ricerca sulla sicurezza in altri laboratori di intelligenza artificiale all’avanguardia riflette la nostra convinzione che le costituzioni saranno costruite adottando un insieme emergente di migliori pratiche, anziché reinventare la ruota ogni volta; siamo sempre felici di basarci sulla ricerca svolta da altri gruppi di persone che stanno riflettendo attentamente sullo sviluppo e l’implementazione di modelli avanzati di intelligenza artificiale”.
…e democrazia
Prosegue il paper: “I modelli di intelligenza artificiale avranno sistemi di valori, che siano intenzionali o non intenzionali. Uno dei nostri obiettivi con l’Intelligenza Artificiale Costituzionale è rendere espliciti tali obiettivi e renderli facilmente modificabili secondo necessità.
Esplorazione
Stiamo esplorando modi per produrre in modo più democratico una costituzione per Claude, e stiamo anche esplorando l’offerta di costituzioni personalizzabili per specifici casi d’uso”.
Conclusioni
Si tratta chiaramente di un terreno assolutamente inesplorato dove ci sembra che difficilmente un politico potrebbe avere già oggi gli strumenti per legiferare al meglio (o anche al meno peggio). Per parte nostra ci auguriamo dunque che l’approccio di Antrhropic trovi largo consenso e permetta una rapida e sicura evoluzione di questa incredibile tecnologia. (M.H.B. per NL)