Irremediablemente debemos de tener en cuenta a Google a la hora de crear nuestro sitio web y de ir agregando nuevo contenido, si es que queremos que el buscador también nos tenga en cuenta a la hora de ofrecer nuestras páginas a sus usuarios que realizan consultas.
En cualquier sitio web, de cierto tamaño, la importancia del canal de búsquedas orgánicas (que suele ser equivalente a lo que nos llega a través de Google) puede ser considerable. Por este motivo los proyectos que se ponen en marcha en Internet buscan la captación de la mayor cantidad posible de visitantes de calidad gracias al posicionamiento, al mismo tiempo que intentando explotar al máximo las bondades de la optimización seo, no se corra el riesgo de una penalización.
En este artículo lo que pretendo es dar a conocer a Google a través de sus actualizaciones más agresivas, que condujeron a multitud de sitios web a perder, o ganar, visitas de manera inesperada.
En el fondo de todas las actualizaciones se encuentra la “calidad” que persigue Google en sus resultados, que tiene un significado muy peculiar porque para Google la calidad es una mezcla, soportable, de resultados relevantes que aporten información original y destacada, con otros que simplemente no molesten demasiado a pesar de que nos puedan dejar indiferentes.
En mitad de todo este proceso de la conquista de la calidad, apareció AdWords y Google dejó de ser un buscador para convertirse en una especie de asesor que nos aconseja a clientes suyos (AdWords) de manera preferente sobre otros que no están sometidos al pago de campañas de publicidad pero que padecen las numerosas actualizaciones de su algoritmo que se han sucedido a lo largo de los años.
Por lo tanto, si queremos seguir disfrutando de las ventajas del posicionamiento en Google hay dos grandes errores que no debemos de cometer:
1) No debemos de sobre optimizar nuestro sitio web, ni debemos de llevar al extremo ninguna técnica que nos haga aparecer ante el buscador como manipuladores de sus resultados de búsqueda.
2) No podemos ser tan cándidos como para creer que la calidad de nuestro proyecto en Internet puede ser ajena a la definición de calidad que utiliza Google.
Tal vez a alguien le parezca que la segunda razón es un tanto contradictoria como posible causa para perder visitas en Google ya que el buscador aconseja precisamente que se trabaje intentando crear contenido de la mayor calidad posible. Eso es cierto, pero el detalle fundamental (dejando incluso al margen el programa de publicidad AdWords) es entender que la calidad siempre hay que etiquetarla como la que Google puede reconocer y valorar ajustándose a sus criterios. Si alguien decide que, debido a que en Internet se suele leer poco es mejor publicar artículos de 100 o 200 palabras, o decide convertir los artículos en imágenes que mezclan texto y fotografías, o decide suprimir en sus textos los estilos, puede que tenga muy contentos y satisfechos a sus usuarios, pero Google no le recompensará con mejores posiciones ya que esos criterios no coinciden con los suyos para identificar páginas con elevado nivel de calidad.
Por lo tanto, ni sobre optimizando lograremos mejores posiciones, sino que nos arriesgamos a ser penalizados, ni ignorando los criterios utilizados por Google para valorar las páginas vamos a poner a nuestro favor al buscador.
Si comprendemos que para obtener el máximo de visitas posible a través de Google tenemos que buscar la calidad que es válida para el buscador, tan sólo nos quedaría conocer cuál ha sido su lucha constante a lo largo de los últimos años para llegar a la situación actual.
Veamos las actualizaciones más destacadas del algoritmo de Google en los últimos 15 años. Cada una de ellas nos informa de lo que no debemos de hacer, pero también de las debilidades de Google pues demuestra, sin pretenderlo, cuál es su manera de valorar las páginas.
Cassandra y Dominic (2003)
Dejó de ser útil que una misma empresa tuviese varios dominios desde los cuales, y de manera masiva, generase enlaces hacia sus páginas.
Los enlaces de valor son aquellos que no se pueden controlar, o por lo menos los que Google no tiene indicios que hayan sido solicitados o comprados.
Florida (2003)
En aquellos primeros años era habitual encontrar páginas realmente absurdas que estaban plagadas de multitud de palabras clave. Se acumulaban sin más sentido y esto empezó a penalizarlo Google.
Recuerdo un caso en el que el propietario de un sitio web se dedicó a publicar texto 100% válido que ocultó asignándole el mismo color que el fondo. ¿Por qué esa persona actuó de esa manera tan poco sensata? Probablemente por simple picaresca pues la publicación de textos con las técnicas de keyword stuffing solían ocultar de esa manera ese relleno. Así que probablemente pensó que si ocultaba el texto su sitio web estaría mejor posicionado. ¡En fin, es la mente enrevesada del ser humano!
Brandy (2004)
Google amplió la importancia de las palabras que se utilizan en los enlaces y eso condujo también a que tuviese mayor valor la temática de cada página y los grupos que se generan de sitios web relacionados.
Nofollow (2005)
Formó parte de la lucha contra el spam que ha sido tan habitual en la zona de comentarios. Google, y los demás buscadores, se enfrentaban a un gran problema pues en sitios web de total validez se podían conseguir enlaces que apuntasen a páginas sin ningún valor.
En aquellos años la concienciación contraria al spam era más laxa que la actual, de hecho, recuerdo que en el primer foro dedicado al seo en España se inició una campaña de spam masivo por parte de uno de sus participantes, haciéndolo público como un gran logro. A ese primer spammer le siguieron decenas más.
Jagger (2005)
Los enlaces vuelven a estar en el punto de mira de Google, y en especial las granjas de enlaces y los recíprocos.
Los enlaces de pago, incluso los que se añaden con criterios de calidad, empiezan a ser mal vistos.
Poco antes se había producido el boom de los directorios, de hecho, el spammer del foro seo que mencioné en el punto anterior, fue el creador de un software para directorios que se hizo conocido a nivel mundial. Los directorios con ese programa fueron apagándose progresivamente. Incluso DMOZ ha terminado desapareciendo, cuando en los inicios de Google llegó a aparecer como enlaces complementarios en los resultados de búsqueda y un enlace en ese directorio llegó a tener un valor enorme para el posicionamiento.
Vince (2009)
Aunque mencionado como un cambio de importancia menor, lo cierto es que es la base del modelo actual de Google con el cual favorece a los grandes sitios web, a las grandes marcas, o a los sitios que alcanzan un elevado nivel de reputación, es decir, a partir de ese momento los que comienzan, los más pequeños, lo tienen todavía más difícil.
Site Speed (2010)
Google se preocupa por la velocidad de carga de las páginas para que los sitios web ofrezcan la mejor experiencia a sus usuarios.
Mayday (2010)
Es otra de esas actualizaciones que mencionan la mejora de calidad de los resultados pero que inciden de manera clara en intereses económicos.
Esta actualización afectó a los términos long-tail, es decir, a esas expresiones de varias palabras que a pesar de tener cada una de ellas un tráfico menor que las búsquedas que se realizan empleando una o dos palabras, suelen tener el atractivo de un mayor valor en sus conversiones.
Por lo tanto esta actualización afectó sobre todo a tiendas online, y como suele suceder cuando un sitio web es “penalizado” aunque se mejore la calidad de las páginas y se intente rebajar la tasa de rebote, ya no se vuelve a la situación anterior, en parte porque el escenario no es el mismo.
Freshness (2011)
Google mejora la valoración de las publicaciones recientes en temas de actualidad. Esto añade cierta presión a los sitios web ya que sus contenidos, publicados sobre todo en zonas de blogs, pierdan valor por el paso del tiempo.
Venice (2012)
Es una actualización importante en las búsquedas locales pues deja de ser necesario que se escriba tu propia localidad para que los resultados se personalicen para tu zona de residencia.
EMD (2012)
Pierde importancia en el posicionamiento, pero no toda, tener un nombre de dominio con las palabras clave que más nos interesan.
Page Layout (2014)
Google rechaza los sitios web creados expresamente para contener publicidad y que, por lo tanto, ofrecen una mala experiencia a sus usuarios.
Actualizaciones que se han producido a lo largo de varios años y en las que no voy a entrar en detalles pues ya las he abordado en otros artículos:
Panda (2011 a 2015)
Se penaliza la baja calidad de los sitios web que, copian su contenido, o que tienen contenido duplicado, o que es insuficiente y de poco interés para los usuarios, o que incluyen una cantidad excesiva de anuncios.
Pingüino (2012 a 2016)
De nuevo los enlaces y la posible manipulación para mejorar el posicionamiento son el centro de atención de Google.
En resumen
La actitud correcta, en la creación de los sitios web, para tener a Google a nuestro favor tiene como base el conocimiento de lo que el buscador identifica como sitios web de calidad, pero manejando ese conocimiento con prudencia porque con Google los extremos nunca nos van a favorecer.
La calidad por si misma no tiene ningún valor. De hecho, si publicamos el mejor artículo imaginable en un sitio web nuevo, con un dominio recién registrado, Google se mostrará indiferente ante ese contenido. Sin embargo, el mismo artículo, pero escrito de manera mediocre, puede tener un enorme éxito gracias a Google si se publica en un sitio web con una elevada autoría.
Evidentemente, no todo está a nuestro alcance para disponer de la situación más favorable posible, pero en lo que sí esté bajo nuestro control, hay que seguir las reglas de Google.
En DMOZ, los editores eran unos románticos que pensaban que ellos podían seguir adelante apostando por la calidad. Hoy DMOZ ya es historia, y Google sigue dictando sus normas.
- 50 rápidos consejos para ganar, y no perder, dinero en Google Ads (AdWords) - 21 septiembre, 2019
- Automatizando AdWords. Los scripts (1): Detector de anomalías - 26 julio, 2018
- El riesgo de contagio - 23 julio, 2018