La dura vita degli aggregatori di notizie

newsMentre non accenna a placarsi la battaglia fra aggregatori di notizie (Google News in testa) e il magnate dell’editoria Rupert Murdoch, non sono pochi quelli che scommettono sul trionfo del Web a scapito delle testate editoriali, convinti che i mezzi di informazione di domani si presenteranno sempre meno come una redazione e sempre di più come una piattaforma che raccoglie e ridistribuisce l’informazione.

Difficile dargli torto, visto che il quadro generale è molto cambiato rispetto a qualche anno fa e la macchina dell’informazione vede dati di diversa natura (testo, immagine, suono, video ma anche link e metadati) provenienti da fonti multiple, entrare da un lato ed uscire dall’altro verso destinazioni diverse: siti, flussi RSS, widget, cellulari, stazioni dei trasporti pubblici, e anche radio, tv, carta….
Il centro nevralgico di questa architettura dei media basata su aggregatori di notizie e giornalismo partecipativo non è più la redazione, con la sua collezione di firme di giornalisti, ma piuttosto la “torre di controllo” che supervisiona la gestione complessiva di questi flussi.


Ma gli aggregatori di notizie, anche se vengono perfezionati ogni giorno, sono ben lontani dall’essere soddisfacenti. Il principio stesso del loro approccio alla selezione dell’ informazione è basato sulla popolarità e non sulla pertinenza del contenuto. Gli addetti ai lavori promettono un salto qualitativo con l’arrivo dei motori di ricerca semantica, che saranno capaci di analizzare il contenuto che essi indicizzano, e non si limiteranno più soltanto a produrre dei link. Ma questa tecnologia è ancora solo all’inizio.
Nell’attesa, la ricerca basata sull’analisi dei link che portano verso un documento ha raggiunto già i suoi limiti, come spiega con chiarezza Jean Veronis, su Technologies du langage , sottolineando “la difficoltà crescente dei motori di ricerca nel calcolare delle funzioni di pertinenza (ranking) soddisfacenti. Il buon vecchio tempo dell’algoritmo PageRank è finito. Era relativamente adatto a una Rete piuttosto stabile nel tempo e fortemente interconnessa. L’espolosione dei blog e dei siti di informazione ha fortemente cambiato il quadro. La grandissima parte del Web è ormai di natura volatile ed effimera e, salvo eccezioni, i post e gli articoli di attualità sono molto poco linkati”.

Contare il numero di link ha quindi sempre meno senso, soprattutto per quello che riguarda l’ informazione, che è “calda” per natura e presenta ancora più interesse quando non è ancora linkata, perché vuol dire che non è stata ancora sufficientemente diffusa, perché è – letteralmente – una “notizia”.

Una strada da percorrere sembra allora essere quella degli “aggregatori editorializzati”, che propongono un insieme gerarchizzato di contenuti di origine mista. La classificazione può essere realizzata sia dai lettori, sia da piccole equipe, da piccole comunità di redattori (giornalisti o non). Non sono pochi i siti che già praticano questo approccio. È il caso di The Huffington Post, Drudge Report, Paperblog, France 24 Observers, ma anche degli italiani Liquida e Blitz Quotidiano.
Il successo di questi aggregatori dimostra che in un sistema di informazioni in cui i contenuti debordano e le fonti di informazione non cessano di moltiplicarsi, il bisogno di gerarchizzazione, di filtraggio e di editorializzazione diventano più importanti della creazione dell’informazione stessa.

Un esperimento in questo senso è stato messo in atto sul portale dell’enciclopedia Treccani, che nella sezione Scelti nel web ospita una selezione delle più prestigiose riviste specializzate nei settori della scienza, della tecnologia, ma anche dell’arte e della letteratura, per avere un quadro sempre aggiornato su ciò che viene pubblicato in Rete.

Una tale evoluzione non significa naturalmente la morte a breve termine di qualsiasi pubblicazione cartacea, (ne scrivevamo ormai un anno fa in questo blog ) né che i siti di informazione prodotti dai giornalisti non siano più fattibili. Ma è indubbio che il centro di gravità dell’ informazione si stia spostando verso il cuore di Internet, per abbracciare l’insieme dei contenuti disponibili online e tutti i meccanismi di diffusione che derivano dal carattere essenzialmente sociale della Rete.

Elena Dalla Massara

Analista e digital strategist specializzata in cultura, comunicazione istituzionale e intercultura. Laureata in Filosofia teoretica, come giornalista pubblicista ha realizzato alcune inchieste in Albania, Afghanistan, Tajikistan, Sudan e Mongolia. In Cultur-e dal 2001, oggi coordina il team interno di Social Intelligence e realizza web reputation analysis e strategie di intervento per enti, imprese e top manager. Lingue: italiano, inglese e francese.