Google Panda

¿Te preocupa la aplicación de Google Panda a España desde el 12 de agosto? En esta entrada te explico en qué consiste, cómo se aplica, cuáles son sus consecuencias en los resultados de búsqueda.

Google pone en funcionamiento el 23 de febrero de 2011 Google Panda, un cambio importante en el algoritmo para ofrecer mejores resultados de búsqueda, al premiar a los sitios con contenidos de más calidad y hacer perder posiciones a los que no tienen buena calidad de contenidos. Según Google, afecta al 11,8% de las búsquedas (idioma inglés, Estados Unidos).

3 días después, el 26 de febrero, una empresa alemana especializada en software para marketing online, llamada Sistrix, publica datos sobre los efectos de Google Panda en el tráfico de sitios web en Estados Unidos.

Algunos de los sitios que pierden más tráfico de Google son sitios web de publicación de artículos abiertos a cualquier autor que se registre y algún sitio de preguntas y respuestas. A continuación indicamos algunas de las pérdidas de tráfico desde Google cuantificadas por Sistrix: wisegeek.com: -77%; ezinearticles.com: -90%; suite101.com: -94%; hubpages.com: -87%; buzzle.com -85%. El análisis de la empresa alemana afirma que la caída de tráfico se debe a dos causas que combinadas suponen esa gran cifra: en primer lugar, las páginas de estos sitios posicionan para un número mucho menor de keywords que antes de Google Panda, pero es que además el ranking para las palabras en que todavía posicionan ha empeorado mucho.

El 3 de marzo, la agencia especializada en SEO Distilled y la empresa de software SEOmoz publican su punto de vista sobre Google Panda. Distilled apunta su convencimiento (apuntalado por una respuesta del ingeniero de Google Matt Cutts a Wired) de que el exceso de publicidad es un factor negativo en Google Panda.

SEOmoz apunta cuatro conclusiones basadas en su análisis de los sitios que han perdido tráfico y los sitios que han ganado tráfico, entre los que destaca popeater.com, un sitio de noticias sobre famosos. Las conclusiones de SEOmoz sobre Google Panda son:

– Los sitios más agresivos con la publicidad pierden más (misma idea que Distilled).
– Los sitios con mejor experiencia de usuario y diseño salen mejor parados.
– En los sitios de contenido generado por los usuarios, obtienen mejores resultados aquellos en que las contribuciones son menos escuetas, con contenido más auténtico, no remunerado y sin intención SEO o de obtención de links.
– Las páginas de mucho contenido con mejor usabilidad tienen mejores rankings que las menos usables.

Distilled también se hace eco de las quejas de algunos sitios web que no se consideran granja de contenidos de baja calidad pero se han visto afectados por el algoritmo. En una entrevista publicada por Wired, Matt Cutts y Amit Singhal (la cara más visible de Google Panda) afirman que escuchan el feedback y trabajan en el algoritmo para pulir sus imperfecciones, aunque no harán excepciones manuales, es decir, no harán que algunos sitios vuelvan a tener buenos rankings por decisión “humana”.

Con respecto al feedback que Google parece dispuesto a escuchar, hay pruebas: ese mismo día, el 3 de marzo, Google abre un hilo en el foro de Webmaster Central solicitando a los usuarios de Internet que les comuniquen cualquier sitio web de calidad que se haya visto afectado negativamente por Google Panda. A día de hoy, este hilo es uno de los más activos de su categoría, con más de 5000 mensajes.

En abril de 2011, Google lanza a nivel mundial Google Panda para las búsquedas en inglés. Tras dos meses de prueba y comprobar el buen funcionamiento de este cambio Google se anima a lanzarlo en todo el mundo.

Además de lanzar a nivel internacional en inglés este cambio algorítmico, Google incorpora nuevas señales: “Para los casos en los que estamos muy seguros, hemos empezado a incorporar los sitios web que nuestros usuarios bloquean en nuestros algoritmos. Este cambio afecta al “long tail” de sitios web para ofrecer resultados de alta calidad y para ello miramos a muchas páginas, con un menor tráfico, y que nuestros algoritmos podría no haber sido capaces de evaluar antes. El impacto de estas nuevas señales es pequeño en comparación con el cambio original: en un 2% de las búsquedas realizadas en los Estados Unidos se apreció un cambio notable”.

El 25 de abril Adam Audette publica en Search Engine Land un artículo en el que da 5 consejos para hacer SEO en un mundo post-Panda. Estos consejos se basan en la afirmación oficial por parte de Google de que muchas páginas de baja calidad dentro de un sitio web afectan a la valoración global de la calidad del sitio web. Por tanto, Audette aconseja:

– Decidir cuál es la versión canónica de cada contenido y comunicárselo claramente a Google (canonical, robots.txt, sitemap XML, estrategia de enlaces internos)
– Decidir qué URLS son más valiosas y potenciarlas
– Eliminar contenidos duplicados y de escaso valor
– Redefinir la estrategia de link building desde sitios externos para favorecer a las páginas adecuadas
– Usar social media para conseguir links de calidad

El 6 de mayo de 2011, y ante la caída en tráfico de muchos sitios web de gran volumen de páginas que antes copaban primeras posiciones, Google explica lo que entiende por sitios de alta calidad, para lo que ofrece una serie de preguntas aplicables a cualquier sitio web. El listado es este:

  • ¿Proporciona la página un valor sustancial en comparación con otras páginas que aparecen en los resultados de las búsquedas?
  • ¿Cuánto control de calidad se realiza sobre el contenido?
  • ¿Describe el artículo las dos caras de cada historia?
  • ¿Es el sitio una autoridad reconocida en el tema?
  • ¿Está el contenido generado en masa por un gran número de redactores o repartido en una amplia red de sitios, de modo que cada página o sitio individual no reciben demasiada atención ni cuidados?
  • ¿Está el artículo bien editado o parece producido de forma descuidada o con prisas?
  • ¿Para realizar una consulta sobre salud, confiarías en la información de este sitio?
  • ¿Reconocerías este sitio como fuente autorizada al mencionar su nombre?
  • ¿Proporciona este artículo una descripción completa y detallada del tema?
  • ¿Contiene este artículo un análisis detallado o información relevante más allá de lo obvio?
  • ¿Se trata del tipo de página que desearías guardar en tus marcadores, compartir con un amigo o recomendar a alguien?
  • ¿Contiene este artículo una cantidad excesiva de anuncios que distraigan o interfieran con el contenido principal?
  • ¿Esperarías ver este artículo impreso en una revista, una enciclopedia o un libro?
  • ¿Son los artículos cortos, insustanciales o carecen de algún otro modo de detalles específicos útiles?
  • ¿Están las páginas editadas con mucho cuidado y atención por el detalle o con poca atención?
  • ¿Se quejarán los usuarios al ver páginas del sitio?

Además de este listado de preguntas, que Google aconseja aplicar a cualquier sitio web, el buscador especifica que “un contenido de baja calidad en algunas partes de un sitio web puede tener impacto sobre la clasificación del sitio en conjunto. Por este motivo, eliminar las páginas de baja calidad, fusionando o mejorando el contenido de las páginas individuales más superficiales para que sean más útiles, o moviendo las páginas menos útiles a otro dominio, podría ayudar, eventualmente, a mejorar la clasificación del contenido de mayor calidad”.

El 21 de junio Danny Sullivan de Search Engine Land publica un artículo explicando por qué considera que Google Panda no es un cambio en el algoritmo de Google sino un factor de posicionamiento. Sullivan considera Google Panda un filtro ideado por Google para identificar con facilidad las páginas que tienen baja calidad y hacer que no aparezcan en primeras posiciones. Además, si tu sitio web tiene muchas páginas de estas características, puedes esperar que todo tu sitio web sea “pandatizado”. Sullivan explica que Google Panda es modificado aproximadamente cada mes por los ingenieros de Google desde su aparición para introducir mejoras, y que los sitios web que se esfuerzan por mejorar en este sentido pueden esperar mejoras tras alguna de estas modificaciones mensuales.

En una noticia publicada por el Wall Street Journal el 13 de julio, los responsables de hubpages.com explican que el uso de subdominios para identificar a los autores de los contenidos (con el beneplácito de Matt Cutts) está consiguiendo que los artículos de más calidad recuperen posiciones en rankings. Google Trends for Websites no muestra esta supuesta mejora aún.

El 12 de agosto Amit Singhal indica que Google Panda se lanza en diferentes idiomas, entre ellos el español, con un impacto entre el 6 al 9% de las consultas realizadas. Un impacto mucho menor que el del lanzamiento inicial de Panda que afectó, con impacto notable, a casi el 12% de las consultas en inglés.

Google ya ha abierto el foro en español sobre la actualización del algoritmo de búsqueda para sitios de alta calidad en español.

Publicado por

Gonzalo Arrabal

Trabajo en Desigual, como Traffic Acquisition Manager.

3 comentarios sobre “Google Panda”

  1. He leido mucho sobre Panda y te felicito por la recopilación cronológica que has realizado. Explico mi caso:

    El 29 de Noviembre de 2011 mi web desaparece al 95% de las búsquedas orgánicas. A partir de la fecha, mensualmente Google me vuelve a indexar durantes unos días obteniendo visitas desde KW más relevante que antes de la caida.

    Primero eliminé las URLS que podrían considerarse contenido duplicado y el último cambio ha sido colocar en el robots.txt todas aquellas URLS que se pueden considerar de baja calidad. Para ello me he basado en el Bounce rate.

    Consideras que debo eliminar las URLS del robots.txt?

    Un saludo.

  2. Hola David,

    Gracias por tu mensaje. En noviembre uno de los cambios de Google afectaba al scraped content, concretamente mejoró la detección de cuál es el contenido original en caso de contenido duplicado: http://searchengineland.com/google-parked-domains-scraper-sites-targeted-amongsearch-changes-103302

    No sé si era tu caso, pero diversos comparadores de seguros tienen el contenido sobre las aseguradoras duplicado de las páginas de estas.

    Dices que has colocado las URL que de baja calidad en el robots .txt pero al mismo tiempo mantienes esas URL en el sitemap XML. Mensaje contradictorio para Google.

    Si consideras que esas páginas tienen baja calidad, no las pongas en el robots txt con disallow, elimínalas y haz una redirección 301 a la página más equivalente que sí aporte valor.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *