La absoluta hegemonía mundial de Google en el campo de las búsquedas (en el mercado español copa más de un 90%) ha provocado que el posicionamiento de una web en el buscador de referencia resulte vital.

Hasta hace unos años el posicionamiento en Google dependía de la pericia de los programadores, diseñadores y productores de contenidos para adaptarse a los algoritmos del buscador, lo que provocó algunas prácticas como la creación de las llamadas granjas (content farms) -estructuras de producción de contenidos específicamente destinados a la indexación para conseguir la mayor relevancia en las búsquedas- que generaban una distorsión en los resultados obtenidos por los usuarios.

Consciente de que la base de su negocio se basa en la utilidad y la eficacia de su servicio, Google comenzó en febrero de 2011 (con el cambio de algoritmo conocido como Panda) a realizar una serie de ajustes de fondo destinados a primar los contenidos de calidad y a castigar a las webs que ofrecían contenidos con poco valor o que utilizaban la picaresca para conseguir mejores resultados. En 2012 llegó Penguin, una adaptación destinada a acabar con los comportamientos considerados spam, y en 2013 Hummingbird, el mayor cambio desde 2001, que modifica la indexación y busca potenciar las webs adaptadas al lenguaje natural.

Pero independientemente de las etiquetas y de los cambios publicitados expresamente, como los comentados, Google tiene en cuenta centenares de factores, todos los años realiza centenares de cambios y el peso que da a cada uno de los elementos que se tienen en cuenta ha ido variando a lo largo del tiempo.

Para perfeccionar sus algoritmos Google realiza distintos experimentos y controles a través de evaluadores para los que edita de forma periódica un manual, gracias al cual sí podemos conocer muchos de los criterios utilizados. La última actualización de este documento se dio a conocer en noviembre del 2015 y sigue la línea de las anteriores: considera contenido de mayor calidad, aquel en el que se ha invertido tiempo, esfuerzo y cuidado, y valora como páginas de calidad aquellas que tienen contenido original y correctamente redactado.

De todos modos tenemos que tener en cuenta que cuando Google define el contenido de calidad no realiza un juicio de valor sobre la temática, sino que analiza la adaptación del mismo a los intereses de las personas que realizan las búsquedas. Así, una web de cotilleos bien documentada y con contenido actualizado -es decir, que satisfaga las pretensiones de las personas que busquen ese tipo de información-, para Google va a tener más calidad que -por ejemplo- una página con contenido académico sobre la misma temática cuya información resulte engorrosa, poco actualizada o no cumpla los estándares técnicos o de diseño que Google establece.

Es decir, lo que Google valora es que los resultados mostrados por las búsquedas satisfagan los intereses y las expectativas de los usuarios de la mejor forma posible y que las páginas se creen pensando en los propios usuarios y no en los motores de búsqueda.

El resumen que Google hace a sus propios evaluadores es que la calidad ha de valorarse tanto por la cantidad de contenido original que podemos encontrar en una página, como por la reputación y el criterio de autoridad del website. Y para ello ha acuñado un acrónimo EAT (Expertise/ Authoritativeness/ Trustworthiness) que resume la fórmula que incluye los tres ingredientes que debe tener una web que aspire a copar las primeras posiciones en las búsquedas: poseer experiencia y conocimiento en la temática tratada, tener capacidad para establecer un criterio de autoridad y generar confianza en su audiencia.