Partendo da un’annuncio della società di automazione radiofonica Aiir a riguardo del rebranding del sistema Radio News Ai, facciamo il punto sull’impatto della intelligenza artificiale nel mondo radiofonico col contributo di esperti americani e italiani della materia. E ciò considerato il livello qualitativo raggiunto, oggettivamente indistinguibile dalle produzioni umane, come è possibile ascoltare negli esempi riportati.
Aiir
Aiir, società angloamericana (sede a New York, ma fondazione in UK) specializzata in sistemi di automazione radiofonica e schedulazione musicale, CMS per siti web, app e skill e sistemi di revenue generation, ha annunciato il piano di rinnovamento del marchio Radio News AI, recentemente acquisito e confluito nella sua offerta Audio.co.
TM Studios
Secondo un comunicato di Aiir, Audio.co lancerà nel primo trimestre del 2025 un potente strumento di produzione commerciale (realizzazione testo e produzione audio) basato sull’intelligenza artificiale tramite una partnership con TM Studios.
Sintesi vocale
Per parte propria, Audio.co continuerà inoltre a offrire sistemi di sintesi vocale evoluta per news, previsioni del tempo, traffico e resoconti informativi attraverso tools di IA per la clonazione delle voci di speaker umani.
Il livello raggiunto, verificabile qui, è oggettivamente impressionante.
Lee Price
Per il lancio del prodotto, Aiir ha incaricato il product specialist Lee Price, forte di una vasta esperienza nella produzione radiofonica ed audio presso Global e Bauer Media Group.
Studio Dragonfly
“Audio.co consentirà agli utenti di generare spec spot scripts, creare voci fuori campo basate sull’intelligenza artificiale e, grazie alla nuova partnership con TM Studios, scegliere un brano musicale dalla vasta libreria musicale di Studio Dragonfly“, ha affermato Price nel comunicato.
PlayoutOne
Altri prodotti Aiir, commercializzati in Italia da BVMedia, prevedono applicazioni quali il sistema di automazione PlayoutOne, web CMS, station app e dashboard per il controllo della messaggistica in studio.
Il punto della sintesi vocale
Ma, a poco più di un anno di distanza dallo sbarco dell’Intelligenza Artificiale in radio per la sintesi vocale, quale è l’impatto concreto sul mercato? Le cose sono andate come previsto? In che misura le emittenti hanno iniziato a sostituire gli speaker umani con l’I.A.? L’intelligenza artificiale è stata sfruttata essenzialmente per la capacità di sintetizzare le voci o è andata oltre?
Intelligenza artificiale generativa
All’indomani dell’introduzione di soluzioni tecnologiche di elevata fattura in grado di clonare voci umane e di dotarle di skills adatte alla conduzione live di trasmissioni radiofoniche, si era, prevedibilmente, sviluppato un acceso dibattito, che vedeva contrapposti conduttori, doppiatori e giornalisti – preoccupati di perdere il lavoro – agli editori che, viceversa, in alcuni casi, intuivano la presenza di grandi opportunità dallo sfruttamento della I.A. generativa per ruoli scomodi, complessi o costosi (come la conduzione notturna, i week-end, la copertura di eventi straordinari, ecc.).
Un anno dopo
A distanza di oltre un anno da tali fatti, quale è la situazione?
Umani al loro posto
“Se la I.A. si è rapidamente consolidata come sostituto delle ricerche su Google, per effettuare elaborazioni testuali (riassunti, revisioni, estensioni, approfondimenti, ecc.) o per la creazione di immagini inedite a corredo di articoli e post sui social, l’idea di sostituire i conduttori umani con prodotti di sintesi vocale, al momento, non pare essersi particolarmente radicata in Europa”, commenta Massimo Rinaldi, ingegnere di Consultmedia, player particolarmente impegnato nello studio di applicazione I.A. applicate al mondo mediatico.
Specchietto
“Ad essere sinceri, anche negli USA, dove l’idea di clonare le voci umane per la conduzione sintetica aveva ricevuto maggior enfasi, le iniziative non sono concretamente andate oltre lo sfruttamento a fini comunicativi; in pratica, per creare attenzione e quindi pubblicità gratuita”, puntualizza Rinaldi.
Futuri Media corregge il tiro
Tanto è vero che anche un altro player della prima ora nell’IA broadcast, l’americana Futuri Media, impegnata come Aiir nel processo di creazione di voci sintetiche ad uso radiofonico, ha corretto il tiro.
Dalla clonazione alla co-conduzione
E lo ha fatto passando dall’offerta di clonazione delle personalità radiofoniche (col progetto RadioGPT, rinominato recentemente AudioAI per aprire ad un mondo sonoro più vasto), a quella della co-conduzione artificiale.
Interazione umana-artificiale in real time
La nuova offerta di Futuri Media, denominata CoHostAI, si basa sull’interazione in real-time tra ospiti umani e personalità artificiali durante le trasmissioni.
User experience I.A.
Un utilizzo che consente agli umani di “impegnarsi in conversazioni naturali e dinamiche con controparti AI, offrendo una user experience accattivante e coinvolgente per gli ascoltatori”.
CallerAI
Un altro prodotto, appellato CallerAI, permette invece “agli ascoltatori di chiamare e parlare direttamente con l’intelligenza artificiale radiofonica. Le stazioni in questo caso possono registrare le conversazioni con il permesso degli ascoltatori ed usarle in onda”, spiegano da Futuri Media.
Nuove forme di engagement
Il prodotto aprirebbe, secondo gli editori, a “nuove possibilità di coinvolgimento del pubblico, creando contenuti in onda ed user experience uniche“.
Nuove opportunità
Questa tecnologia, sempre secondo Futuri Media, faciliterebbe “l’interazione diretta tra intelligenza artificiale e ascoltatori, favorendo conversazioni significative con personalità I.A., allargando l’attività editoriale a nuove opportunità per live show ma anche per podcast, promuovendo connessioni più profonde tra le stazioni e il loro pubblico.
Campo largo
E così arricchendo l’offerta ampliando le strade della partecipazione del pubblico”.
Domani, ma oggi?
Si tratta, tuttavia, di visioni prospettiche mentre il nostro interesse è l’attualità, come detto in apertura.
Sintesi della sintesi vocale
“Dal punto di vista contenutistico ci pare che il maggior sfruttamento delle voci sintetiche, allo stato, sia quello per jingles, stations ID e breaks. E ciò tanto più che gli attuali cataloghi di sintesi vocale professionali sono in lingua inglese, mentre l’offerta di quelle in italiano è molto limitata“, interviene Patrizia Cavallin, consulente editoriale di Consultmedia.
L’umano costa meno
“Del resto, almeno per ora ed al di là di ogni considerazione di stampo etico, addestrare una I.A. alla conduzione comporta tempo ed investimenti che non la rendono competitiva con il lavoro umano. Anche se risulta comunque che diverse emittenti nazionali italiane stiano conducendo dei test a riguardo“, continua Patrizia Cavallin.
L’imprevedibilità umana è garanzia di superiorità sulle voci sintetiche
“E’ evidente che all’onniscienza della I.A. fanno da contraltare (per ora e probabilmente ancora per lungo tempo) la sua prevedibilità e la sua incapacità di uscire dagli schemi che, alla lunga, la possono rendere noiosa.
Quel che può fare l’I.A. generativa…
Finché si tratta di annunciare brani, leggere notizie e curiosità, l’I.A. può essere un surrogato, in prospettiva, vantaggioso per un’azienda radiofonica; ma se l’obiettivo è l’engagement, la creatività e l’imprevedibilità, l’estro umano rimane irraggiungibile.
… e quelli che sono i suoi limiti
In un interessante seminario di Andrew Finlayson, EVP Digital Strategies AI di Smith Geiger Group (collaborative community of inquisitive thinkers), sono stati evidenziati quelli che, al momento, rappresentano gli importanti limiti della I.A. generativa.
Autenticità, engagement, approccio, astrazione
Limiti che si concretano essenzialmente nell’incapacità di garantire alcuni plusvalori della conduzione umana: l’autenticità (anche senza raffinatezza); l’engagement con stile personale; l’approccio “everyman”; la capacità di astrazione.
Il paradosso
Ed è qui che i conduttori umani possono trarre, paradossalmente, spunti evolutivi per mantenere la supremazia sulla I.A.”, conclude la content consultant.
Humus per l‘I.A. in radio
Tuttavia esiste un ambiente radiofonico dove, in maniera meno evidente, ma più efficace, l’intelligenza artificiale sta facendo il suo ingresso: quello dell’analisi dell’ascolto e delle scelte di programmazione.
Workflow operativo
Gli editori più lungimiranti si stanno convincendo a “dotarsi di piattaforma di gestione del workflow operativo di tutta la filiera di creazione e della giornata lavorativa di una radio”, interviene Roberto Bellotti, di BVMedia, tra i principali distributori italiani di prodotti e servizi per la produzione di contenuti radiofonici (hardware e software).
Filiera coinvolta
“Esistono piattaforme molto interessanti che, attraverso il coinvolgimento di tutte le risorse umane, anche esterne, permettono di concorrere al prodotto finale.
A.I. integration
E possono farlo tenendo conto di tutti gli eventi coinvolti, programmandoli anche in anticipo, controllandoli e rendendoli disponibili ai propri collaboratori.
Confacente
In quest’ottica, l’integrazione della I.A. appare confacente”, continua Bellotti.
Aircheck
“La I.A. appare utile anche per ripristinare la cultura dell’aircheck analizzando cosa si è mandato in onda (musica e contenuti). E non solo per verificare come lo abbiamo fatto noi, ma come lo hanno fatto le altre emittenti.
Conoscere la concorrenza…
Bisogna conoscere e comparare i competitor.
… e i suoi clienti
Anche sotto il profilo degli investitori pubblicitari altrui, che possono diventare nostri.
Workflow ed analisi della concorrenza
Direi che gestione del workflow e l’analisi della concorrenza sono certamente due elementi fondamentali sui quali investire attraverso la I.A.”, conclude Bellotti.
L’I.A. c’è
In conclusione, per rispondere alla domanda iniziale, possiamo dire che l‘I.A. ha fatto sì ingresso nel mondo radiofonico, ma dalla porta sul retro, in maniera meno evidente. Ma, comunque, nella casa c’è. E dobbiamo imparare a conoscerla e a conviverci. (E.G. per NL)