Da molti anni, ben prima dello scoppiare del fenomeno ChatGPT, Newslinet si occupa di Intelligenza artificiale. Una tecnologia che sta rivoluzionando innumerevoli settori e che non lascerà certo immutato quello del broadcasting. Dopo il debutto di ChatGPT nel novembre 2022 abbiamo assistito a un’accelerazione di annunci, sperimentazioni ed eventi clamorosi culminati nel recente avvicendamento di quattro CEO in tre giorni da parte di OpenAI.
È giunto dunque il momento di fare il punto, cercare di comprendere il motivo di tanti movimenti, ipotizzare cosa sia Q* e gettare uno sguardo alla tecnologia forse più impattante per radio e televisioni.
Un anno di articoli
Per iniziare è utile ricordare alcuni dei principali articoli comparsi proprio sulla nostra testata. A febbraio abbiamo pubblicato un’intervista alla giurista Gloria Siri (Consultmedia) riguardante il problema dei diritti di autore: un tema scottante per chi produce contenuti originali e potenzialmente rischioso per chi utilizza quanto prodotto da un LLM (Large Language Model, la categoria di sistema cui appartengono GPT4/ChatGPT, Anthropic, Inflection.ai e LLAMA-2).
Creators
Il tema – irrisolto durante l’anno – è: i creatori di contenuti devono essere retribuiti quando il materiale da loro prodotto viene usato nella fase di training iniziale di un LLM ? Sembrerebbe logico rispondere sì, ma è d’altra parte estremamente difficile trovare una diretta correlazione tra le opere “apprese” dagli LLM e le risposte date agli utenti. Un semplice esempio aiuta a chiarire le idee:
Appropriarsi dei contenuti
Nell’esempio qui sopra, Bard obbedisce prontamente a una chiara richiesta di appropriazione di contenuti. Fortunatamente non tutti i sistemi risultano altrettanto accondiscendenti: Copilot (GPT-4) ci propone solo un riassunto, mentre Claude di Anthropic si rifiuta totalmente di rispondere, affermando “Non posso riportare o riformulare frasi di Gloria Siri che sembrino essere state scritte da te per non violare eventuali diritti”.
Legislazione immutata
In quanto alla legislazione in essere, nulla sembra essere cambiato nel corso del 2023 e quanto affermato da parte (della vera) Siri risulta tutt’ora attuale.
Il Diario di Patrizia…
Ad aprile l’emittente radio-televisiva e testata giornalistica 70-80.it ha iniziato a diffondere il “diario di Patrizia“, un format depositato SIAE i cui testi erano completamente creati da GPT 3.5 tramite Peperoni AI di 22HBG.
Sintesi vocale
Grande successo di ascolti nella versione “testi creati da IA e letti da speaker professionista”, ma la fase due del programma – quella dove anche la speaker avrebbe dovuto essere sostituita da una voce sintetica identica a quella della conduttrice umana – non è stata mai messa in onda.
Non ancora pronta la sintesi
Qualità ancora insufficiente, aveva affermato l’editore.
…e copycat
Nel resto del mondo avvenivano intanto numerose altre sperimentazioni, nessuna delle quali totalmente convincente.
Evoluzione
Ma le cose si evolvono alla velocità della luce.
Voice Cloning
Siamo recentemente venuti a conoscenza di svariate sperimentazioni in lingua italiana talmente convincenti (abbiamo potuto sentirne una dove la voce generata dalla IA era praticamente identica a quella dello speaker originale) da meritare un articolo separato dedicato.
Conseguenze della clonazione
Anche perché “clonare” le voci di professionisti ha numerose ricadute etiche e legali, come ben sa chi ha letto il nostro articolo di marzo o seguito le vicende dei vari scioperi negli USA.
RSI: quando la IA è accettabile
Mentre a maggio ChatGPT era bloccato in Italia, Sergio Savoia della Radio Svizzera Italiana, forte di una sperimentazione reale, ha spiegato a NL come lo speaker umano abbia ancora un vantaggio quando occorre un rapporto emozionale con l’ascoltatore, ma che l’uso della IA risulta appropriato “ (..) per leggere i notiziari, il meteo, le informazioni di servizio dove l’approccio è per natura più neutrale.”
IA e media tradizionali
E veniamo a un punto che ci permette forse di trovare una chiave di lettura alle recenti vicende di OpenAI e di cui parleremo tra poco.
Editori preoccupati
A settembre, in un articolo a firma sempre di Gloria Siri, ci siamo occupati di “Preoccupazioni degli editori”.
CNN e Fake News
Molti i temi affrontati, ma il principale è forse quello riassunto in un’affermazione di CNN: “(il rischio oggi è) un vuoto di fonti autorevoli per addestrare i modelli di intelligenza artificiale, (dove) la disinformazione potrebbe essere trasmessa in modo autorevole da robot confusi che si nutrono di una dieta di cattive informazioni”.
Obbligo di citare le fonti
L’articolo si concludeva con la richiesta di “Obbligare ChatGPT a citare le fonti“: una pratica effettivamente adottata poco dopo da Microsoft Copilot e da Perplexity.ai e illustrata in questo esempio:
Safety
Citando le fonti risulta spesso evidente la tendenza dei modelli a rispondere in modo biased, quasi sempre in una direzione specifica (facilmente intuibile scorrendo l’esempio riportato qui sopra).
Il motivo
Il motivo? L’azione dei filtri di sicurezza posti a monte e valle di ogni tipo di risposta che possa essere sospettata di essere “fake“.
Rallentare o accelerare?
La tematica conseguente è riassumibile come segue: alla luce dei potenziali problemi di sicurezza, da alcuni ritenuti tanto gravi da porre una minaccia all’umanità stessa, lo sviluppo delle IA deve essere rallentato? Dobbiamo essere ultra-conservatori rispetto a una tecnologia che nel nostro settore mette anche a rischio “il posto” di decine di speaker, autori e doppiatori?
OpenAI
Tra venerdì 17 e martedì 21 novembre il consiglio di amministrazione di OpenAI ha visto l’avvicendamento di quattro amministratori delegati (CEO). Il board aveva inizialmente licenziato Sam Altman, accusandolo di aver mentito (“Non candido nelle comunicazioni“), per poi fare marcia indietro, rifiutandosi però di spiegare la natura delle accuse.
Di nuovo in sella
In capo a tre giorni Altman era di nuovo in sella, due dei tre membri esterni del consiglio di amministrazione erano stati sostituiti e tutti hanno potuto dormire sonni tranquilli.
Sweet dreams
O forse no. Qual era la questione tanto grave da causare un tale terremoto? Alcune testate prestigiose parlano un certo Q*, un recentissimo e misterioso successore a GPT-4 che mostrerebbe segni di vera intelligenza (detta AGI). A nostro avviso questo potrebbe essere solo l’innesco.
Q*
Veramente complesso spiegare cosa sia, visto anche che molte sono supposizioni. Ma dopo aver letto le opinioni di numerosi esperti una ipotesi ci sembra credibile: OpenAI sarebbe riuscita a “far apprendere la IA dai propri stessi errori”.
Umani in affanno
Fatto per nulla secondario in quanto permetterebbe al modello di superare rapidamente le capacità intellettuali degli umani stessi.
Non serviamo
La IA non avrebbe più bisogno di umani per evolvere: un’altra rivoluzione dello stesso ordine di grandezza di ChatGPT, in altre parole.
Rendere pubblico o nascondere?
Il board di OpenAI avrebbe deciso di congedare (leggi: licenziare) Altman, ritenuto troppo propenso a rendere pubblica la nuova tecnologia senza attendere il parere degli “eticisti” della IA.
Satya dixit
A decidere la situazione ci ha pensato il CEO di Microsoft Satya Nadella, che facendo pesare il proprio investimento nella società – pari a 13 miliardi di dollari – ha obbligato di fatto il consiglio a dimettersi.
Ri-assunzione
Non prima di aver ri-assunto Altman al ruolo originale.
Conseguenze
Le conseguenze – crediamo – sono chiare: la IA non verrà rallentata e probabilmente le limitazioni e gli errori dei modelli LLM che abbiamo visto nel corso del 2023 verranno superati non dagli eticisti ma dalla tecnologia stessa.
Restare vigilanti
A noi resta il compito di restare vigilanti e soprattutto illustrare e raccontare tutti i modi positivi in cui questi sistemi possono aiutare le nostre aziende e le nostre iniziative editoriali.
Promessa
Non mancheremo di farlo, anche nei prossimi mesi. (M.H.B. per NL)