Un vero e proprio scandalo sta scuotendo il mondo del web, sconquassato da un leak di dati davvero senza precedenti. Non stiamo parlando della ricetta della Coca-Cola, e neppure di un dossier dettagliato sugli esperimenti segreti svolti nei laboratori dell’Area 51, ma della diffusione di circa 2500 pagine di documenti privati che riguardano il funzionamento del motore di ricerca più famoso ed utilizzato del mondo: Google. 

Le rivelazioni contenute all’interno di questi documenti ribadiscono la sensazione che esperti navigati e utenti di ogni sorta annusavano ormai da anni, confermando quello che da sempre è stato il segreto di Pulcinella più grande da quando esiste il web: c’è una bella differenza tra il comportamento di Google dichiarato dai suoi rappresentanti pubblici in interviste e conferenze stampa e ciò che succede realmente negli intricatissimi algoritmi del motore di ricerca. Ma da dove ha inizio questo leak di proporzioni così enormi?

La sopracitata folta documentazione è giunta via mail all’esperto SEO più famoso d’America, Rand Fishkin, deliberatamente fatta trapelare da una persona che farebbe parte della divisione di ricerca di Google. Dopo giorni di dubbi e silenzi assordanti, il colosso americano ha finalmente (seppure indirettamente) confermato l’autenticità di quei file, dando il via a una reazione a catena senza precedenti nel settore. 

Queste scoperte forniscono una visione assai più dettagliata di come il motore di ricerca Google controlli le informazioni che consumiamo quotidianamente. L’azienda di Palo Alto, dopotutto, è la porta di ingresso principale per praticamente tutto lo scibile umano presente su Internet, il viatico per la stragrande maggior parte delle ricerche. Come potrai immaginare, portare puntualmente la pagina web giusta sul tuo device in base alla tua query non è un compito estremamente semplice, poiché migliaia di decisioni editoriali vengono prese per conto tuo da un sistema complicatissimo di algoritmi che gli esperti SEO provano faticosamente a domare. 

Un intero settore, quello SEO, il cui destino è sempre appeso al filo delle decisioni di Google, un filo sottilissimo che sembra pronto a spezzarsi, così come la fiducia dei consumatori nei confronti del web browser. Sono molteplici le contraddizioni evidenziate dagli esperti che hanno analizzato i documenti, comparando le “linee guida” ufficiali di Google con quelli che si sono invece rivelati essere i criteri applicati dallo stesso motore di ricerca, sapientemente nascosti in migliaia di documenti secretati. Andiamo ad evidenziare alcune delle scoperte più eclatanti!

Google e le sue contraddizioni

A quanto pare, al centro di Google vi è un modulo chiamato “Super Root”, la radice (di nome e di fatto) dalla quale si diramano tutte le risposte del motore di ricerca, che se ne serve per scandagliare altresì tutti quelli che sono i servizi ad esso collegati come le mappe e YouTube, prima ancora di fornire alcun risultato alla query. 

Le risposte di Google alle nostre query si basano su un riordinamento messo in pratica ogni qual volta il motore di ricerca viene interrogato, e l’elenco dei risultati viene stilato in SERP in base a diversi fattori che conoscevamo solo parzialmente, se non nulla affatto. All’interno di questo sistema si snodano circa 2600 moduli software per determinare il ranking di un sito web e circa 14mila features, ovvero tutti quegli attributi che segnalano a Google se il sito web è autorevole o meno, determinando quali indirizzi indicizzare. 

Tra queste, alcune vanno in netta contraddizione con i suggerimenti che Google ci aveva fornito fino ad oggi. Da Palo Alto hanno sempre negato, ad esempio, di tenere in considerazione l’autorevolezza di un dominio come fattore di ranking. Da quanto è emerso, al contrario, esiste una feature chiamata proprio “autorevolezza del dominio”. Sono sempre stati sottovalutati altri fattori come i click sui link e la durata della visita sul server da parte degli utenti, così come le cosiddette “sandbox”.

Per sandbox si intende quel purgatorio in cui moltissimi siti e domini appena creati vengono costretti per una durata di tempo variabile in attesa di essere finalmente un giorno mostrati nelle SERP, un concetto da sempre ipotizzato dalle migliori Web Agency che adesso trova finalmente un riscontro oggettivo. Le stesse Web Agency da tempo avvertivano l’effetto penalizzante che Google infliggeva alle realtà più piccole, favorendo le grandi aziende: tutte tristi verità che stanno emergendo da questi preziosi file. 

Stando all’esame generale degli algoritmi presi in considerazione all’interno di questi documenti, il dominio risulta essere il fattore più determinante per il successo di un sito, con risvolti a dir poco clamorosi: decidere di acquistare un dominio abbastanza datato potrebbe rivelarsi una scelta incredibilmente vantaggiosa, in quanto Google passa al setaccio (per decretarne l’autorevolezza) soprattutto i nuovi domini appena creati. Va da sé che cominciare partendo da un dominio piuttosto stagionato può davvero dimezzare i tempi di sviluppi di un sito web, velocizzando il processo di scalata nel motore di ricerca. Inoltre molto spesso, acquistare un dominio già esistente, potrebbe essere un ottima idea anche per ottenere una link building già esistente.

Nel campo delle notizie e dell’informazione, Google aveva sempre marginalizzato l’importanza del nome dell’autore di una determinata pagina. Al contrario, dall’esame di questi documenti emerge chiaramente la preferenza verso gli autori più blasonati o riconosciuti come tali dagli algoritmi, che sfruttano sistematicamente gli stessi dati forniti da Chrome che invece non sarebbero dovuti essere presi in considerazione. Google aveva anche negato il proprio bias politico nei confronti della destra americana, pregiudizio che ha trovato tuttavia riscontro nell’analisi dei dati. 

Gli esperti del settore, a partire dallo stesso Fishkin, hanno reagito con sgomento alle informazioni contenute in questo leak epocale, che vanno a sovvertire i dettami che hanno costituito le fondamenta sulle quali moltissimi esperti SEO hanno plasmato i propri siti web. La sensazione più diffusa che si è fatta largo in chi lavora in questo ambito è quella di essere stati presi in giro ed ingannati per davvero troppo tempo, sorpresi e traditi dopo anni passati a capire come sviluppare pagine web di successo in balia delle mille modifiche che l’azienda di Palo Alto effettua periodicamente sui suoi algoritmi, tenuti all’oscuro da centinaia di informazioni cruciali per riuscire a svolgere nelle migliori condizioni il proprio lavoro. In tanti, tuttavia, avevano da tempo già intuito queste dinamiche attraverso l’esperienza diretta. 

Al momento lo studio su questi documenti è ancora in corso, dunque è presto per giungere a conclusioni ancora più specifiche. Dal canto suo, Google ha fatto sapere tramite un suo rappresentante di nome Davis Thompson sul portale The Verge che non vuole lasciare spazio a strumentalizzazioni, invitando i lettori a non formulare ipotesi inesatte ma di continuare a basarsi sulle spiegazioni e le informazioni rilasciate sui canali ufficiali circa il funzionamento del motore di ricerca e i fattori valutati dai suoi sistemi. La domanda che sorge spontanea è: c’è ancora da fidarsi?

Approfondimenti esterni: