Google’s Hummingbird Algorithm: the Entity Search Revolution

See on Scoop.itInternet (e anche un po’ di tecnologia)

Searchmetrics has analyzed how the new Google Hummingbird algorithm effects the SERPs: The diversity of search results decreases, while Knowledge Graph integrations become more specific and elaborate.

Giovanni Sonego‘s insight:

Il nuovo (beh, nuovo, ormai sono passati 6-7 mesi..) algoritmo di Google produce, per ricerche differenti, risultati uguali. Nell’esempio sono analizzate due pagine di risultati cercando in un caso "bang hairstyles" nell’altro "hairstyles with bangs". Prima del colibrì 6 risultati su dieci erano diversi. Adesso, del due pagine dei risultati differiscono soltanto per uno sito.

Perciò, se prima di Hummingbird, ricerche diversamente formulate potevano valorizzare o far emergere pagine web più vicine alla differente formulazione, oggi, molte ricerche diverse sono considerate identiche e producono risultati identici o quasi. 

E’ un percorso a tappe forzate verso l’appiattimento dei "risultati migliori" iniziato già da un po’ di tempo. Con Google AdWords, ormai da anni, le parole estremamente specifiche sono altamente penalizzate. Vengono classificate come "a basso volume di ricerca" e non fanno neppure vedere gli annunci abbinati.

Google preferisce perdere quel possibile introito derivante da ricerche molto specifiche che incontrano annunci pubblicitari altrettanto specifici. Ma in questo modo, i piccoli investitori non hanno scelta: o scompaiono perché i loro annunci, ben curati, molto pertinenti e quindi interessanti per gli utenti sono fatti scomparire forzatamente oppure devono accettare la competizione sulle parole generiche.

Ma sulle parole generiche, con migliaia di inserzionisti in competizione sulla stessa parole, cresce a dismisura la competizione, i costi diventano presto esorbitanti, e alla fine solo i big spenders possono permetterseli. 

Adesso, con l’avvento di hummingbrird, lo stesso processo di compressione è stato attivato anche per i risultati della ricerca naturale. Questo algoritmo appiattisce le ricerche sui siti "big", cioè quelli che già si posizionano bene e che vedranno rafforzata la loro "rendita di posizione". 

Chi ha la "fortuna" di essere stato scelto, vedrà aumentare gli accessi al proprio sito. Chi invece è stato escluso, li vedrà diminuire gradualmente…. 

Al di là della sorte di tanti siti, ci rimetteranno gli utenti. Come al solito. La diversità è un valore in molti ambiti, specialmente quando "gioca con le parole". Cercare "Roma" o cercare "La capitale d’Italia" non è la stessa cosa. Ricerche di questo tipo DEVONO produrre risultati diversi. Qualcuno persa che forzare gli utenti a trovare sempre le stesse risposte sia positivo?

Provate ad immaginare se d’un tratto, veniste costretti a leggere tutti lo stesso libro, ad ascoltare tutti la stessa musica, mangiare lo stesso cibo o indossare lo stesso vestito… o a trovare, nelle vostre ricerche, sempre wikipedia… 

A me sembra una grande schifezza, non so a voi.

(se vi può interessare, bing, per il momento, offre una varietà di risultati molto più ampia) 

See on www.searchmetrics.com

Leave a Reply

Your email address will not be published.