Con la pubblicazione dell’ultimo articolo concernente le vicende che interessano l’intelligenza artificiale (il caso The New York Times/OpenAI) abbiamo assistito come la spaccatura tra i sostenitori dello sviluppo dei sistemi informatici intelligenti e coloro (specialmente gli editori) che, invece, demonizzano tali strumenti, si sta facendo sempre più profonda e inconciliabile.
La minaccia
Sul terreno tecnologico-informatico, un po’ tutti gli editori si trovano minacciati dagli abusi commessi dai colossi che, invece, vi sono saldamente insediati e vi sguazzano.
Round 1: Editori vs Google
Basta pensare a Google, al suo monopolio pubblicitario online e alle sue pratiche anticoncorrenziali, oltre alle innumerevoli cause intentate da editori importanti statunitensi (come Gannett) e, ancora, alla diatriba su News Showcase, che ha lasciato l’amaro in bocca alle testate per questioni di monetizzazione dei propri contenuti.
Round 2: Editori vs AI
Ora tocca a OpenAI e al suo chatbot basato su un modello linguistico di grandi dimensioni, ChatGPT che, in assenza di una regolamentazione che metta dei paletti all’operato dell’AI, sta instillando forti dubbi e perplessità sugli effetti a lungo termine conseguenti dall’utilizzo di tale tecnologia.
Cattive informazioni
La principale preoccupazione che ha sollevato la CNN è che con lo sfruttamento dell’AI si creerà “un vuoto di fonti autorevoli per addestrare i modelli di intelligenza artificiale e la disinformazione potrebbe essere trasmessa in modo autorevole da robot confusi che si nutrono di una dieta di cattive informazioni”.
Futuro cupo
Sulla stessa linea d’onda si è posizionata anche Danielle Coffey, presidente e ceo della News Media Alliance, dichiarando apertamente che il futuro che ci aspetta sarà cupo.
Le preoccupazioni degli editori non sono infondate
Queste preoccupazioni, in effetti, non sono del tutto infondate. Il caso eclatante di un avvocato newyorkese che si è affidato all’AI per difendere il proprio cliente nelle aule del tribunale ne è una dimostrazione lampante.
Il caso dell’avvocato di New York
Il fatto, a dir poco imbarazzante, ha visto coinvolto il legale Steven Schwartz (e il suo collega Peter LoDuca), che ha pensato bene di utilizzare ChatGPT in un processo per chiedere un risarcimento alla compagnia aerea colombiana Avianca.
ChatGPT surrogato della professione legale
In particolare, Schwartz ha richiesto al software di fornire dei precedenti giudiziari per costruire la propria difesa. Compito che ChatGPT ha effettivamente portato a termine egregiamente, generando almeno sei precedenti utilizzati poi in aula.
Tutto inventato
Peccato che i casi legali tirati fuori dall'”istruito” chatbot si sono rivelati tutti falsi. Durante il dibattimento, non trovando alcun riferimento ai casi citati, il giudice distrettuale P. Kevin Castel, ha richiesto al legale di fornire le sentenze integrali.
ChatGPT è fantasioso e gentile
Interrogato nuovamente da Schwartz, ChatGPT alla fine ha confessato di essersi inventato tutto, porgendo le sue scuse. Un brutto scherzo, questo, che è costato 5 mila dollari di multa al legale, oltre ovviamente al danno di reputazione.
Caso docet
Caso docet: le insidie dietro lo sfruttamento dell’AI sono molte. Anche questi strumenti all’avanguardia possono infatti avere delle serie “allucinazioni” e la regola seguita da ChatGPT e simili sembra essere una: pur di non fare brutta figura con l’utente (del resto, è un sistema di intelligenza artificiale!), è meglio dare una risposta inventata di sana pianta, piuttosto che nulla.
Strafalcioni non da poco
Per contro, però degli strafalcioni della portata del caso citato, potrebbero costare cari al futuro di OpenAI.
L’umano resta in prima linea
Una cosa è certa. Questa vicenda incresciosa dimostra senz’altro che siamo ben lontani dagli scenari apocalittici paventati sul web circa il rischio di far perdere il posto di lavoro a milioni di lavoratori. Il fattore umano è ancora indispensabile per indirizzare l’attività dell’AI in qualsiasi settore commerciale.
Fonti inaffidabili
ChatGPT, per ora (e forse ancora per poco), si nutre dei contenuti giornalistici presi qua e là sul web senza alcuna autorizzazione.
Chatbot
In assenza di un controllo umano, il chatbot potrebbe quindi attingere a siti poco affidabili per soddisfare la quantità esorbitante di richieste pervenute dagli utenti. E il risultato è quello che abbiamo appena finito di raccontare.
Tiriamo le somme…
Tirando le somme, quindi, è davvero così temibile questa intelligenza artificiale?
Si torna al nodo degli editori: meglio una trattativa pacifica
Certo, per gli editori rimane il nodo da risolvere della violazione del copyright. Come lo è stato per Google, anche in questo caso non dovrebbe essere impensabile la via di siglare un accordo di licenza tra le parti.
Soluzione transitoria
Ma, poiché tale opzione sembra essere momentaneamente scartata, potrebbe soccorrere una soluzione transitoria, prima che il legislatore si pronunci.
Citare le fonti degli editori
Obbligare ChatGPT a citare le fonti, per il bene di tutti. (G.S. per NL)