Il problema della qualità nell’ informazione digitale

2281

da Lsdi.it

I responsabili dell’ aggiornamento dell’ algoritmo di Google che gestisce le classifiche dei risultati delle ricerche e il ranking dei siti web spiegano i criteri con cui è stato messo a punto il meccanismo di rivalutazione della qualità dei contenuti – Intanto dalle esperienze compiute dopo l’ applicazione dell’ aggiornamento il dibattito ha fatto emergere una serie di indicazioni per risalire nelle classifiche – Contenuti di bassa qualità, in particolare, possono provocare la perdita di posti di classifica per l’ intero sito————

Che cos’ è la qualità nella produzione di cointenuti di siti web? In alcuni casi – vedi le cosiddette ‘’content farm’’, le fabbriche di contenuti – si arriva alla soglia dello spam: come definire questa soglia? Come determinare che un sito è superificiale e produce contenuti di bassa qualità?

Google ha cercato di mettere a punto un meccanismo empirico che desse una risposta a questi interrogativi. Ne aveva bisogno per far partire l’ operazione ”Panda’’ (è solo il nome di un ingegnere di Mountain View), quel complesso aggiornamento del suo motore di ricerca che ha interessato quasi il 12% dei risultati delle ricerche, come racconta Davide ‘’Tagliaerba’’ Pozzi nel suo omonimo blog.

L’ operazione puntava a ridimensionare le classificazione dei siti con contenuti di bassa qualità, che riuscivano però a posizionarsi meglio dei siti con contenuti qualitativamente superiori, e a consentire la giusta classifica dei siti apprezzati invece per la qualità dei loro contenuti. Il tutto fra molte polemiche, naturalmente.

Il meccanismo è stato spiegato bene qualche giorno fa da Amit Singhal e Matt Cutts, i due responsabili del progetto, in una intervista a Wired, di cui Tagliaerbe riporta alcuni passi.

W.: Come fate a riconoscere un sito con contenuti superficiali? Potete dare una definizione di contenuti di bassa qualità?
A.S.: Questo è un problema molto, molto difficile che cerchiamo di risolvere, e siamo in una continua evoluzione per cercare di farlo. Abbiamo voluto mantenere un approccio rigorosamente scientifico, e quindi abbiamo usato il sistema di valutazione standard che abbiamo sviluppato, dove in pratica inviamo i documenti a dei tester esterni. A queste persone abbiamo posto domande del tipo: “Ti fideresti a dare il tuo numero di tua carta di credito a questo sito? Ti fideresti a dare le medicine prescritte da questo sito ai tuoi figli?”

M.C.: Un ingegnere ha preparato un set di domande molto rigorose, del tipo “Consideri autorevole questo sito? Sarebbe OK se questo sito fosse una rivista? Questo sito ha un numero eccessivo di annunci pubblicitari?” e così via.

A.S.: Sulla base di questo, abbiamo fondamentalmente definito cosa può essere considerato di bassa qualità. Inoltre abbiamo lanciato il Chrome Site Blocker, ma non abbiamo utilizzato i dati raccolti per questo update. Tuttavia, confrontando tali dati, abbiamo notato un 84% di sovrapposizione, che ci ha fatto capire che siamo nella giusta direzione.

W.: Ma come avete implementato questa cosa algoritmicamente?
M.C.: Penso che l’ingegnere cerca di riportare la sua stessa intuizione e la sua stessa “experience” agli utenti. Ogni volta che guardiamo ai siti che abbiamo bloccato, grazie alla nostra intuizione e alla nostra esperienza, cerchiamo di capire se questa cosa sarà o meno di valore per l’utente. E attualmente l’idea è quella di classificare i siti di alta qualità da una parte, e quelli di bassa qualità dall’altra. contina a leggere qui