Radio e Tv sono alle prese con l’ennesimo problema del processo di trasformazione legato alla veicoilazione dei contenuti attraverso l’integrazione delle piattaforme.
Si tratta, da una parte, del prezzo da pagare per un errore strategico commesso negli ultimi anni e, dall’altra, di un aspetto legato essenzialmente al costante sviluppo della SEO (Search Engine Optimization)
Premessa
Con multipiattaforma (eterogenea) si intende la distribuzione di contenuti radiotelevisivi su vettori distinti (FM, DTT, satellite, DAB, IP).
Con ecosistema mediatico si definisce invece la presenza del medesimo contenuto su più piattaforme omogenee, tendenzialmente web. E’ per esempio il caso di un contenuto esistente allo stesso tempo su un sito, sui social e su piattaforme di distribuzione di contenuti (es. servizi di streaming on demand, piuttosto di aggregatori testuali, audio o audio/video).
Accessione
In diritto si definisce “accessione” la preminenza della proprietà immobiliare: ogni bene mobile che venga materialmente unito a un bene immobile accede a questo, ossia diventa proprietà del proprietario del bene immobile. In altre parole, il proprietario del suolo è proprietario anche dei beni che lì si trovano.
Coi social accade la stessa cosa.
Hosting
Lo sbaglio tattico degli editori di cui in apertura sta quindi nell’aver investito eccessivamente sui social, in particolare Facebook (considerato il target tendenzialmente adulto della fruizione radiotelevisiva), invece che sui rispettivi siti internet.
Progressivamente le piattaforme social, da satelliti dei portali delle singole emittenti finalizzati ad intercettare e dirottare utenti verso quest’ultimi, sono diventati gli host primari (cioè le pagine social sono divenute le principali vetrine dei contenuti). Addirittura nella gran parte dei casi, si è arrivati a riempire di contenuti i social network relegando i siti internet a meri player di flussi streaming o, nella migliore delle ipotesi, di podcast.
Free content provider
Il risultato è stato ovviamente quello di diventare fornitori di contenuti a titolo gratuito dei social media, subendone le logiche sempre più stringenti. Come gli algoritmi di Facebook, che stanno gradatamente costringendo chi desidera ottenere visibilità ad acquistare spazi a pagamento per promuovere post e pagine.
Click & SEO
Metabolizzata la necessità di cambiare strategia, ritornando ad investire sul proprio sito per riportarlo da periferico a centrale nel proprio ecosistema web, gli editori si sono resi conti che, nel frattempo, era avvenuto un altro cambiamento importante.
Una volta era sufficiente che un sito web fosse molto frequentato affinché venisse indicizzato dai motori di ricerca.
Le nuove regole del dominatore assoluto della ricerca sul web, Google, hanno però mutato questo paradigma.
Googlebot intelligenti
Come noto, Google attraverso i Googlebot (i crawler dedicati alla ricerca di pagine internet) scansiona e memorizza tutte le pagine web che conosce in un indice dove ogni voce descrive i contenuti e la posizione (URL) di una pagina. Il verbo indicizzare indica quindi il processo con cui Google recupera una pagina, la legge e poi l’aggiunge all’indice.
Per favorire il compito dei crawler e quindi conseguire un migliore posizionamento nei risultati (quindi la collocazione in cima alle liste di risposta alle domande poste a Google), si è affinata una tecnica, chiamata SEO (ottimizzazione per i motori di ricerca), che via via è diventata sempre più sofisticata per adeguarsi a criteri via via più selettivi di Google.
Infodemia
In un mondo sottoposto ad un’infodemia sempre maggiore, dove il lettore raramente va oltre il sottotitolo se non addirittura al titolo di un articolo, i redattori di un content provider sono sottoposti ad uno stress non indifferente per ottimizzare titolazioni affinché non siano eccessivamente lunghe, ma allo stesso tempo risultino invoglianti, integrate da snippet esaustivi e da tag e metatag efficaci.
Contenuti originali
L’intelligenza artificiale di Google sta affinando la capacità di riconoscere e premiare contenuti originali, cioè non copiaincollati da terze parti (es. Wikipedia), assegnandogli posizionamenti premiali più che in conseguenza che del numero di accessi (che, d’altro canto, ben potrebbero essere falsati da bot).
E ciò non vale solo per i contenuti testuali, ma anche per quelli audio/video, come i podcast.
Un problema potenziato dalla diffusione sempre maggiore degli smart speaker, che utilizzano logiche di indicizzazione dello stesso tipo.
Figure professionali specifiche indispensabili
Un’emittente che vuole affermare la propria presenza sul web non può quindi prescindere da figure professionali adeguatamente preparate alle nuove regole e costantemente aggiornate. I redattori della stazione devono, quindi, adattare il proprio modello di scrittura per favorire l’indicizzazione degli articoli. Il SEO manager deve ottimizzare il sito agli adeguamenti costantemente richiesti da Google, mentre il content curator deve, infine, porre efficacemente in relazione il sistema di caricamento dei contenuti (semplificandone al massimo il processo) con la fruizione (rendendola più agevole possibile per l’utente anche meno avvezzo).
Selezione, esaltazione e marginalizzazione
Una complessità che progressivamente emarginerà tutte quelle emittenti che non possono o non sanno adeguarsi ad un rinnovato sistema di selezione ed esaltazione dei contenuti.
Perché oggi non basta più creare un buon contenuto per essere preferiti da un utente bombardato da offerte sempre più allettanti: occorre anche saperlo far emergere tra le stesse.