Aggiornamento Panda Google n.2.2 da SMX Avanzato 2011

Se il primo non vi è bastato, è in arriva l’aggiornamento Panda Google 2 (anzi 2.2.)! Se ne è parlato al Search Marketing Expo (SMX) Advanced di Seattle, tenutosi ad inizio giugno 2011. Il primo intervento sull’algoritmo di fine febbraio 2011, denonimato Farmer Panda Update e conosciuto più semplicemente come ” Panda 2.2″, vede una fase 2 e torna ad essere nuovamente l’argomento principale del SMX: Matt Cutts, la mente del Google Spam Team, ha confermato che una nuova versione del Panda (versione 2.2) è stata approvata internamente, ma non ancora attivata. A mio parere sarà attivata il 3 o 4 Luglio 2011 (ma questa è una mia previsione, non ci sono conferme ad oggi.

Quello che sappiamo dalla discussione con Cutts al SMX Advanced è che la nuova versione del Panda II cerca di indirizzare il problema dei siti Scraper che superano di posizione gli autori originali. I siti Scraper sono quei siti che prendono in modo automatizzato i contenuti da altri e li ripubblicano sul proprio sito web, cercando di trarne vantaggio.

Sembra anche che la nuova versione dell’aggiornamento potrebbe superare la rigidità di quella precedente che era già stata aggressiva con un certo numero di siti e probabilmente non tutti quelli colpiti dovevano esserlo. Cutts ha aggiunto anche che tutti quei siti colpiti dal Panda che hanno effettuato le opportune correzioni, non vedranno miglioramenti immediati su Google poiché l’algoritmo Panda è uno di quelli che vengono attivati manualmente e non così di frequente.
Cutts ha anche detto all’audience del SMX che la data ufficiale in cui il Panda verrà applicato anche alle lingue diverse da quella Inglese non è disponibile.
Cosa si intende per la “bassa qualità” a cui il Panda 2.2 dà la caccia?

Nonostante nessuno probabilmente sia d’accordo con un’unica definizione di contenuti di bassa qualità, tutti tendono a riconoscerli quando li vedono. Questo è il vero test che Google effettua quando conduce una ricerca per incorporare un feedback umano nell’algoritmo Panda.

Cutts e Singhal avevano già spiegato in un’intervista a Wired.com il processo per determinare i siti di bassa qualità. Da Aprile 2011, nell’ambito di una strategia social volta ad integrare l’opinione degli utenti, Google ha iniziato ad utilizzare i dati provenienti dalla funzione Site-Blocking con cui gli utenti possono bloccare i siti non sicuri e poco graditi.

In un interessante articolo sul sito Search Engine Land, Vanessa Fox prepara una checklist panda per i proprietari di siti web per controllare la qualità dei propri siti in previsione del Panda 2:

• Il tema di ogni pagina è chiaro?

• Il contenuto è originale o è aggregato da altre risorse (io lo chiamo Pagina Hamburger)?

• La quantità e il posizionamento degli annunci pubblicitari consente ai visitatori un accesso veloce ai contenuti?

• Guardando oggettivamente al sito, il focus primario è l’esperienza dell’utente o un obiettivo di ranking e/o raccolta dati?

• Il contenuto della pagina è autorevole e di valore? Risponde alle ricerche in maniera migliore rispetto ad altre pagine sul web

• Se alcune delle pagine del sito sono autorevoli, di qualità alta e accattivanti, le altre pagine hanno lo stesso livello qualitativo? Google ha stabilito che un certo numero di contenuti di bassa qualità su di un sito web sono in grado di ridurre il ranking dell’intero sito, non solo quello delle pagine di bassa qualità.

Soprattutto sul fronte dei contenuti, i proprietari di siti web devono essere rigidi nei parametri di qualità, in termini di coerenza ad un tema trattato, in modo che gli utenti non debbano andare a cercare da un’altra parte le informazioni che stavano cercando. Questa è la chiave discriminante: ciò potrebbe implicare che il tasso di rimbalzo del vostro sito potrebbe essere il meccanismo che fà scattare la verifica “panda”.

È possibile dare supporto su questo fronte con le attività SEO, applicando il Siloing dei contenuti.
Quali sono le prossime mosse del Panda? Secondo Cutts al SMX Advanced 2011, il Panda sta cercando di assicurare che gli utenti abbiano una buona esperienza, motive per cui, continuerà ad effettuare modifiche all’algoritmo per migliorare costantemente l’obiettivo di eliminare dalle SERP i siti di scarsa qualità e i contenuti irrilevanti per le interrogazioni degli utenti.

Per i proprietari dei siti ciò significa prestare attenzione alla qualità dei propri contenuti in previsione della prossima versione del Panda. Il consiglio finale di Cutts? Non correre dietro all’algoritmo di Google, ma fare ciò che serve ai tuoi utenti: ed anche Google apprezzerà.

Torna in alto
Torna su