AI. La spaccatura tra editori e promotori dell’intelligenza artificiale è evidente. Ma forse questi ultimi non sanno valutare i rischi?

editori

Con la pubblicazione dell’ultimo articolo concernente le vicende che interessano l’intelligenza artificiale (il caso The New York Times/OpenAI) abbiamo assistito come la spaccatura tra i sostenitori dello sviluppo dei sistemi informatici intelligenti e coloro (specialmente gli editori) che, invece, demonizzano tali strumenti, si sta facendo sempre più profonda e inconciliabile.

La minaccia

Sul terreno tecnologico-informatico, un po’ tutti gli editori si trovano minacciati dagli abusi commessi dai colossi che, invece, vi sono saldamente insediati e vi sguazzano.

Round 1: Editori vs Google 

Basta pensare a Google, al suo monopolio pubblicitario online e alle sue pratiche anticoncorrenziali, oltre alle innumerevoli cause intentate da editori importanti statunitensi (come Gannett) e, ancora, alla diatriba su News Showcase, che ha lasciato l’amaro in bocca alle testate per questioni di monetizzazione dei propri contenuti.

Round 2: Editori vs AI

Ora tocca a OpenAI e al suo chatbot basato su un modello linguistico di grandi dimensioni, ChatGPT che, in assenza di una regolamentazione che metta dei paletti all’operato dell’AI, sta instillando forti dubbi e perplessità sugli effetti a lungo termine conseguenti dall’utilizzo di tale tecnologia.

Cattive informazioni

La principale preoccupazione che ha sollevato la CNN è che con lo sfruttamento dell’AI si creerà “un vuoto di fonti autorevoli per addestrare i modelli di intelligenza artificiale e la disinformazione potrebbe essere trasmessa in modo autorevole da robot confusi che si nutrono di una dieta di cattive informazioni”.

Futuro cupo

Sulla stessa linea d’onda si è posizionata anche Danielle Coffey, presidente e ceo della News Media Alliance, dichiarando apertamente che il futuro che ci aspetta sarà cupo.

Le preoccupazioni degli editori non sono infondate

Queste preoccupazioni, in effetti, non sono del tutto infondate. Il caso eclatante di un avvocato newyorkese che si è affidato all’AI per difendere il proprio cliente nelle aule del tribunale ne è una dimostrazione lampante.

Il caso dell’avvocato di New York

Il fatto, a dir poco imbarazzante, ha visto coinvolto il legale Steven Schwartz (e il suo collega Peter LoDuca), che ha pensato bene di utilizzare ChatGPT in un processo per chiedere un risarcimento alla compagnia aerea colombiana Avianca.

ChatGPT surrogato della professione legale

In particolare, Schwartz ha richiesto al software di fornire dei precedenti giudiziari per costruire la propria difesa. Compito che ChatGPT ha effettivamente portato a termine egregiamente, generando almeno sei precedenti utilizzati poi in aula.

Tutto inventato

Peccato che i casi legali tirati fuori dall'”istruito” chatbot si sono rivelati tutti falsi. Durante il dibattimento, non trovando alcun riferimento ai casi citati, il giudice distrettuale P. Kevin Castel, ha richiesto al legale di fornire le sentenze integrali.

ChatGPT è fantasioso e gentile

Interrogato nuovamente da Schwartz, ChatGPT alla fine ha confessato di essersi inventato tutto, porgendo le sue scuse. Un brutto scherzo, questo, che è costato 5 mila dollari di multa al legale, oltre ovviamente al danno di reputazione.

Caso docet

Caso docet: le insidie dietro lo sfruttamento dell’AI sono molte. Anche questi strumenti all’avanguardia possono infatti avere delle serie “allucinazioni” e la regola seguita da ChatGPT e simili sembra essere una: pur di non fare brutta figura con l’utente (del resto, è un sistema di intelligenza artificiale!), è meglio dare una risposta inventata di sana pianta, piuttosto che nulla.

Strafalcioni non da poco

Per contro, però degli strafalcioni della portata del caso citato, potrebbero costare cari al futuro di OpenAI.

L’umano resta in prima linea

Una cosa è certa. Questa vicenda incresciosa dimostra senz’altro che siamo ben lontani dagli scenari apocalittici paventati sul web circa il rischio di far perdere il posto di lavoro a milioni di lavoratori. Il fattore umano è ancora indispensabile per indirizzare l’attività dell’AI in qualsiasi settore commerciale.

Fonti inaffidabili

ChatGPT, per ora (e forse ancora per poco), si nutre dei contenuti giornalistici presi qua e là sul web senza alcuna autorizzazione.

Chatbot

In assenza di un controllo umano, il chatbot potrebbe quindi attingere a siti poco affidabili per soddisfare la quantità esorbitante di richieste pervenute dagli utenti. E il risultato è quello che abbiamo appena finito di raccontare.

Tiriamo le somme…

Tirando le somme, quindi, è davvero così temibile questa intelligenza artificiale?

Si torna al nodo degli editori: meglio una trattativa pacifica

Certo, per gli editori rimane il nodo da risolvere della violazione del copyright. Come lo è stato per Google, anche in questo caso non dovrebbe essere impensabile la via di siglare un accordo di licenza tra le parti.

Soluzione transitoria

Ma, poiché tale opzione sembra essere momentaneamente scartata, potrebbe soccorrere una soluzione transitoria, prima che il legislatore si pronunci.

Citare le fonti degli editori

Obbligare ChatGPT a citare le fonti, per il bene di tutti. (G.S. per NL)

 

Questo sito utilizza cookie per gestire la navigazione, la personalizzazione di contenuti, per analizzare il traffico. Per ottenere maggiori informazioni sulle categorie di cookie, sulle finalità e sulle modalità di disattivazione degli stessi clicca qui. Con la chiusura del banner acconsenti all’utilizzo dei soli cookie tecnici. La scelta può essere modificata in qualsiasi momento.

Privacy Settings saved!
Impostazioni

Quando visiti un sito Web, esso può archiviare o recuperare informazioni sul tuo browser, principalmente sotto forma di cookies. Controlla qui i tuoi servizi di cookie personali.

Questi strumenti di tracciamento sono strettamente necessari per garantire il funzionamento e la fornitura del servizio che ci hai richiesto e, pertanto, non richiedono il tuo consenso.

Questi cookie sono impostati dal servizio recaptcha di Google per identificare i bot per proteggere il sito Web da attacchi di spam dannosi e per testare se il browser è in grado di ricevere cookies.
  • wordpress_test_cookie
  • wp_lang
  • PHPSESSID

Questi cookie memorizzano le scelte e le impostazioni decise dal visitatore in conformità al GDPR.
  • wordpress_gdpr_cookies_declined
  • wordpress_gdpr_cookies_allowed
  • wordpress_gdpr_allowed_services

Rifiuta tutti i Servizi
Accetta tutti i Servizi
Send Mail 2a1 - AI. La spaccatura tra editori e promotori dell'intelligenza artificiale è evidente. Ma forse questi ultimi non sanno valutare i rischi?

 

ATTENZIONE! Il 14/12/2024 scade termine per iscrizione in lista SIG (Servizi di Interesse Generale) istituita da Agcom per rilevanza in elenchi dei device smart: [email protected]

Ricevi gratis la newsletter di NL!