Notizie molto interessanti in ambito SEO sono arrivate dall’Inghilterra: secondo quanto riportato su Google Plus da Pierre Far (che lavora con Google UK), durante l’ultima settimana di settembre 2014 sarebbe stata introdotta una versione migliorata di Panda che dovrebbe mostrare il proprio effetto a partire da questo mese, su una percentuale di ricerche che andrebbero dal 3 al 5%.
L’aggiornamento Google Panda 4.1, da quel che ne sappiamo, si basa su nuovi segnali anti-spam che permetterebbero di individuare contenuti di scarsa qualità in modo ancora più preciso e che influirebbero soprattutto su una maggiore quantità di siti piccoli e medio-piccoli portandoli, nella migliore delle ipotesi, nelle posizioni più alte della SERP.
Se è vero che non si tratta di una novità assoluta, visto che Google ha sempre indicato la qualità dei siti come un mix di fattori che rendono le pagine utili per gli utenti, si tratta certamente di un piccolo, ulteriore passo, per fornire risultati di ricerca migliori. Bisognerà vedere, comunque, se e quando questo aggiornamento arriverà anche in Italia, visto che non viene specificato per il momento all’interno del comunicato.
Come suggerito anche nel nostro precedente articolo “Google Panda: 4 consigli per non essere penalizzati”, Panda è una sezione algoritmica di Google che si occupa di distinguere i siti di qualità dal cosiddetto “thin content”, cioè pagine qualitativamente scarse che riescono spesso a risalire nei ranking del motore grazie al keyword stuffing e ad altre pratiche illecite simili.
Il sito SEO by the sea si è inoltre sbilanciato nell’associare l’aggiornamento ad un brevetto di Google (Predicting Site Quality, archiviato nel 2013 e pubblicato il 18 settembre di quest’anno) che propone un metodo per classificare la qualità dei siti sulla base di pattern testuali, denominati tecnicamente n-gram, che vengono processati, analizzati ed utilizzati per determinare uno score o punteggio, relativo alla qualità.
Tale approccio di fatto, viene utilizzato per vari ambiti da Google, tra cui la distribuzione dei termini all’interno dei libri indicizzati su Google Books, ma anche per effettuare traduzioni automatiche, riconoscimento testuale, spelling, rilevamento di entità nel testo, Information Retrieval e così via.
Appare alquanto azzardato proporre una spiegazione dettagliata del meccanismo utilizzato da Google Panda, sia perchè Google stessa potrebbe utilizzare degli aggiustamenti nei propri algoritmi che deviano da quanto scritto nel brevetto, sia perchè il brevetto stesso presenta soltanto indicazioni a grana piuttosto grossa e diventa facile, più che altro, fare confusione.
Questo tipo di informazioni, di fatto, sembrano richiamare un processo che dovrebbe essere già noto in Information Retrieval: ovvero il fatto che, quando si analizza un documento (una pagina web, per capirci):
- non si tiene conto, come l’intuito porterebbe invece a ritenere, di tutti i termini che occorrono – le congiunzioni, ad esempio, sono cosiddette stop-words e vengono ignorate;
- non è affatto detto che sia una cosa positiva ripetere sempre le stesse parole chiave (keyword stuffing), poichè le parole più frequenti definiscono il contesto del sito ma prese singolarmente, non suggeriscono null’altro e non è buona norma isolare questi concetti per trarne politiche SEO.
In altri termini, questa news deve essere vista positivamente dai gestori di piccoli e medi siti e non deve incentivare i webmaster a ripetere forzatamente gruppi di parole chiave: sarebbe banale pensarlo oltre che semplicistico farlo, senza considerare che in queste valutazioni rientrano anche ulteriori fattori – come sempre – che nessun professionista del settore dovrebbe trascurare.
Lascia un commento