Web semantico: a che punto siamo?

webQuando l’utente cerca un’informazione in rete inserisce nel motore di ricerca una certa espressione convinto che quella parola o quella frase individui nel modo più efficace il contenuto che gli interessa. Se poi arriva a consultare un sito, l’utente deve scegliere tra le voci del menu di navigazione quella che esprime meglio il contenuto che sta cercando.
In entrambe le situazioni l’utente si affida ad un’espressione unica che ha un rapporto molto generico col contenuto effettivamente ricercato. Nel caso del motore di ricerca infatti qualsiasi query è sempre soggetta al rischio della ambiguità (cercando la parola “albero” potrei trovare contenuti legati all’informatica, alla botanica o alla nautica) mentre nel caso di una barra di navigazione la genericità è data dal tipico meccanismo dell’indice, che sotto un unico titolo deve raccogliere un gruppo spesso vario di contenuti.

Insomma Internet è un insieme di testi collegati tra loro ma questi collegamenti sono deboli, nel senso che sono troppo generici e vaghi. Oltre a portare in un determinato luogo un collegamento dovrebbe descrivere il luogo verso cui porta. È per questo che quando si parla di web semantico si intende un web che possieda delle strutture di collegamenti più espressive di quelle attuali.

Da quando il termine Semantic Web è stato proposto per la prima volta nel 2001 da Tim Berners Lee,  è stato associato all’idea di un web nel quale agiscano degli agenti intelligenti, applicazioni in grado di comprendere il significato dei testi presenti sulla rete e quindi di guidare l’utente direttamente verso l’informazione ricercata.

Ma come è possibile scrivere un codice in grado di compiere operazioni semantiche? In fin dei conti un codice è una serie di regole sintattiche che non ha altra capacità che seguire le istruzioni descritte dal programmatore. In realtà tutto dipende dallo schema che si è deciso di utilizzare per archiviare quelle informazioni. Lo schema è infatti un insieme di regole che stabiliscono come devono essere organizzati i dati. Riassumendo il web semantico deve comporsi di tre livelli fondamentali:

  1. al livello più basso abbiamo i dati
  2. i metadati riportano questi dati ai concetti di uno schema
  3. nello schema (o ontologia) si esprimono le relazioni fra concetti, che diventano classi di dati.

Questa proposta ha affascinato molto la comunità informatica. Il W3C ha attivato immediatamente un gruppo di lavoro e le università hanno aperto numerosi programmi di ricerca legati a questi temi. Si sono imposti subito degli standard, il più famoso dei quali è certamente RDF, un linguaggio in sintassi XML per definire ed esprimere ontologie.

Tuttavia è facile avanzare una critica alla effettiva validità di questo progetto. Quanto tempo servirebbe per mappare tutto il web su delle ontologie? E se anche si riuscisse a farlo, come far comunicare fra loro ontologie diverse? È evidente infatti che un’ontologia è valida solo per il dominio per la quale è stata progettata. Per funzionare il web semantico deve invece potersi poggiare su ontologie condivise. Se un sito web utilizza una classificazione semantica non condivisa da nessun altro, le informazioni in esso contenuto hanno la stessa possibilità di essere individuate di quelle contenute in un sito web non semantico, quindi la sua fruibilità non aumenta. Al contrario le ontologie devono essere definite dalle comunità di pratica che le utilizza.

Lo scenario ipotizzabile è che ogni comunità possa descrivere una propria ontologia, mettendola in relazione con quelle già esistenti, producendo in questo modo un accrescimento progressivo ed esponenziale che abbracci tutti gli ambiti del sapere e renda la rete una enciclopedia “destrutturata” realmente utile e facile da usare.
Difficilmente la Rete assumerà le caratteristiche del web semantico in breve tempo. Gli strumenti a disposizione sono primitivi (e costosi) e per ora possono essere utilizzati solo per progetti specifici. Diverso però è il discorso se parliamo dell’uso di schemi semantici all’interno di architetture legate a un dominio specifico di informazioni, quindi a servizio di comunità definite di utenti, orientate a uno scopo preciso. In questo caso la prospettiva di un web in cui le macchine siano in grado di capire il significato dei dati è (forse) più vicina.

Elena Dalla Massara

Analista e digital strategist specializzata in cultura, comunicazione istituzionale e intercultura. Laureata in Filosofia teoretica, come giornalista pubblicista ha realizzato alcune inchieste in Albania, Afghanistan, Tajikistan, Sudan e Mongolia. In Cultur-e dal 2001, oggi coordina il team interno di Social Intelligence e realizza web reputation analysis e strategie di intervento per enti, imprese e top manager. Lingue: italiano, inglese e francese.