Curtis Le Geyt (NAB), rischio loop degenerativo: l’intelligenza artificiale considera affidabili i contenuti informativi di radio tv perché autorevoli e quindi li sfrutta. Ma cosa succede se le notizie delle emittenti sono elaborate dalla stessa IA? Si crea un loop di disinformazione”.
La sintesi del loop disinformativo
Poiché la I.A. integra le notizie cosiddette autorevoli con altre fonti non sempre verificate, come i social media, il prodotto finale è inaffidabile.
Ma c’è di peggio: se la I.A. è utilizzata dalle emittenti, il rischio di creare un vortice per cui la notizia inaffidabile creata dall’intelligenza artificiale è recuperata di nuovo da una fonte ritenuta attendibile (radio e tv) e amplificata. E magari integrata con i medesimi criteri negativi. Si rischia così un’esplosione di fake news.
Chi sono Le Geyt e NAB
Curtis Le Geyt, presidente della National Association of Broadcasters l’antico (1923) e potente sindacato delle emittenti radiofoniche e televisive via etere americane (8300 stazioni iscritte) ha chiesto maggiori tutele per il giornalismo e le stazioni radio-tv in un forum sull’intelligenza artificiale.
Affidabilità contenuti radio-tv espone a rischio sfruttamento indebito
Il primo problema sollevato è lo sfruttamento indebito del materiale umano.
Curtis Le Geyt (NAB) preme per la protezione di radio-tv dall’ingerenza dell’intelligenza artificiale: “I contenuti espressivi delle emittenti sono particolarmente preziosi per l’acquisizione dell’intelligenza artificiale, proprio perché sono considerati controllati e affidabili”.
Verifica delle fonti
Le Geyt, nel suo intervento, ha sottolineato la vulnerabilità dei contenuti umani ad un uso improprio da parte dell’intelligenza artificiale: “Il personale umano delle emittenti deve dedicare sempre più tempo al I.A. fact-checking, per esaminare le storie create e verificare le fonti.
L’attacco a Israele
“Per esempio, dopo gli attacchi ad Israele di ottobre, è stato pubblicato un numero significativo di foto e video sui social media rivelatisi falsi. Dopo una verifica puntuale, solo il 10% del materiale è stato ritenuto utilizzabile o autentico”, ha sottolineato Le Geyt.
Sviluppo incontrollato
“La proliferazione di strumenti di intelligenza artificiale facili da usare e la mancanza di supervisione stanno creando una tempesta perfetta di disinformazione”, ha affermato il presidente della NAB, sottolineando che quasi il 70% degli americani si è imbattuto in notizie false sui social media.
Impegno crescente per la verifica necessita di riconoscimento economico
Evidenziando esempi di impegno contro le fake news online da parte di player come CBS News, Le Geyt ha precisato che “questi sforzi necessari aumentano ulteriormente i costi per fornire al nostro pubblico notizie e informazioni affidabili su cui fanno affidamento ed impongono che le emittenti siano equamente compensate quando si accede ai loro contenuti attraverso piattaforme tecnologiche esistenti ed emergenti, compresi i sistemi di intelligenza artificiale“.
Sfruttamento indebito materiale
Nell’intervento del presidente della NAB è stata poi evidenziata la questione dello sfruttamento non autorizzato e quindi senza compenso di materiale protetto da copyright. “Una tendenza che potrebbe potenzialmente ostacolare gli investimenti nel giornalismo”, ha evidenziato Le Geyt.
Equo compenso
“L’utilizzo di contenuti protetti da parte delle piattaforme di intelligenza artificiale sta causando danni significativi, ha affermato, poiché si basa sullo sfruttamento di attività editoriale senza equo compenso”.
Contenuti preziosi
“Il contenuto espressivo delle emittenti è particolarmente prezioso per l’intelligenza artificiale proprio perché è controllato e affidabile”, ha affermato.
Rischio degenerazione
“Se le emittenti non ricevono un compenso per l’utilizzo delle loro opere preziose ed espressive, saranno sempre meno in grado di investire nella creazione di contenuti di notizie locali. Avere meno risorse da investire in notizie e contenuti locali avrebbe un impatto negativo sulle comunità servite”.
IA creativa in forma subdola
Nello specifico, vi è una crescente preoccupazione riguardo agli strumenti di intelligenza artificiale utilizzati per creare immagini, video e audio, che sostituiscono le sembianze di un personaggio radiofonico o televisivo affidabile per diffondere disinformazione o commettere frodi.
Strumenti di (dis)informazione
“L’uso dell’intelligenza artificiale per manipolare e distorcere le informazioni è un problema significativo e crescente che deve essere affrontato in equilibrio con il primo emendamento della Costituzione”, ha affermato.
Responsabilità IA
Le Geyt ha menzionato un videoclip di una discussione di routine tra due conduttori televisivi che è stato modificato e manipolato per creare uno sfogo odioso, razzista e antisemita. “La tecnologia I.A. utilizzata per realizzare questi eventi deve essere ritenuta responsabile”, ha affermato.
Manipolazione e distorsione
“L’uso dell’intelligenza artificiale per manipolare e distorcere le informazioni è un problema esplosivo che deve essere affrontato. Sono in gioco la fiducia, l’integrità e l’autenticità del giornalismo”, ha concluso il presidente NAB. (E.G. per NL)