Analisi dei cambiamenti delle serp: se “premiati da google” si abbassa il ctr

In merito alle serp trovo molti dubbi sui concetti applicati di recente da Google, in varie fasi della ricerca.

Per il primo concetto comincio a far capire con esempi i risultati delle serp su key dettagliate:

  • prima del panda freelancer.com era un sito che per le mie ricerche era omnipresente (senza esser affine, solo per un lavoro di seo su troppe key), questo è stato considerato spam ed ora molto difficilmente lo ritrovo (ottimo risultato da parte di Google).
  • il sito stackoverflow.com era omnipresente anch’esso, ma invece di essere spam era iper affine con le mie ricerche (capibile benissimo dal mio percorso di navigazione), è stato considerato come freelancer ed è stato inabissato nelle serp.

Questo passo particolarmente grande fatto dai recenti aggiornamenti dell’algoritmo lascia un po’ perplessi, di sicuro però in testa ai risultati non sempre si trova quello che si cerca e nel dubbio di spam si è voluto inabissare molti siti.

Come secondo concetto è che spesso si trovano risultati di applicazioni sempre proprietarie di Google, per esempio con il meteo.

Il terzo concetto sono i cambiamenti estetici delle serp con varie aggiunte, di seguito un esempio:

miglior domanda?

Nell’immagine se si cerca  [zend framework sitemap] come terzo risultato ti verrà fuori stackoverflow che invece di offrire vari titoli come descrizione (classica rappresentazione per più pagine nella risposta) ha generato sotto “miglior domanda” e “miglior risposta” di una sola pagina, facendogli cosi perdere tantissimo ctr (spazio visivo minore, link possibili minori, possibilità di rilevazione ricerca esatta annullata e aggiuta di parole prima della descrizione che fanno perdere il ‘colpo d’occhio’).

Il vero problema è quando un sito viene “premiato” raggiungendo un grado di popolarità più alto ed avendo una struttura di path e titoli altamente capibili anche dagli spiders, avete visto che succede?

Ricercando sulle serp una vostra pagina vi comparirà una forma “diversa”, diversificando il normale flusso visivo delle serp e detta in parole povere, se si cerca una parola mi mira ad un risultato che in base a com’è visualizzato può cambiare di molto il percorso dell’utente.

Se si pensa ad un risultato come una lista html, dove sta più in alto quello con più peso per la ricerca, allora la visualizzazione è equa.

Se si fa una cosa del genere invece:

rappresentazione risultati di ricerca alterata

Possiamo notare che dal primo risultato al penultimo ogni risultato è rappresentato con un elemento DIVERSO.

  1. Lista numerata di altri risultati
  2. Mini sitemap delle macroaree del sito
  3. Url assoluta espressa come path relativa
  4. Data dell’articolo
  5. Numero di elementi nel sito simili + descrizione (che sarebbe bello capire a che utilità serve metterci questa parola)
  6. Risultato rappresentato in stile normale (siamo però usciti dall’area della parte di schermo visibile senza scorrere la pagina in giu)

L’ultimo elemento invece dovrebbe essere lo standard e quello equo.

Conclusioni

E’ facile intuire dall’ultima immagine che rappresentando visivamente cosi i dati si produce un effetto visivo indotto che ha effetto “dispersione” sull’utente, inoltre risultano molto meno comparabili in quanto appoggiano su logiche di rappresentazione diverse e quindi sono più dispersivi.

Detto questo fattore si può intuire che lo scopo finale è quello di aumentare la permanenza nella pagina e magari il numero medio delle pagine viste prima di uscire dallo stesso google..

Se la pagina serve alla ricerca, l’aumento del tempo di permanenza serve a .. cosa c’è a lato delle pagine? google ads.

Ultimamente con tante applicazioni nuove di google, anche a pagamento .. cosa c’è sopra la pagina? +Tu, Google Drive, Google Pay store, ecc.

Mi piacciono le funzionalità offerte, anche quelle a pagamento, ma reputo queste scelte cacca, mi stanno stressando sulle basi del mio lavoro, troppo.