¿Es la personalización de contenidos eficaz? ¿Y es lo que queremos?

En este vídeo de una TED Talk de hace 3 años el autor del libro “The Filter Bubble: What The Internet Is Hiding From You“, Eli Pariser, hace una exposición de la principal tesis de su libro, a saber: Google y Facebook están utilizando filtros de personalización que si bien de entrada parecen una buena idea, ya que se adaptan al gusto de cada usuario la información que ofrecen, en realidad están limitando (y sin avisar, o sin avisar lo suficiente) el tipo de información que cada usuario recibe.

Sinceramente, a mí el vídeo me parece escalofriante. Todos los que me conocen saben que soy pro-tecnología, lo he sido siempre: disfruto con todas las posibilidades de Internet desde que se empezó a popularizar la web, trabajo como consultor SEO, me gustan los gadgets tecnológicos, tener una tele LED de tropocientas pulgadas, casi no escucho CDs y soy adicto a mi smartphone en el que veo series, mi tablet y mi Spotify Premium… Me parece bien la llegada del cine digital y lo que que puede suponer de abaratamiento en las producciones, en fin… creo que no soy sospechoso de ser rancio en temas tecnológicos.

Pero este vídeo me da miedo, porque si todos estamos expuestos a esto, y tantas personas que ignoran cómo funciona esto tienen tan reducido sin saberlo su campo mental de información… Por eso, a pesar de que han pasado 3 años, el vídeo me parece absolutamente actual, y que merece difusión. No solo no hay que dar por hecho que todo está en Internet, ni buscadores ni redes sociales indexan todo el contenido del mundo; no solo hay que tener claro que lo que se nos muestra NO es la realidad; además, hay que tener absolutamente claro que ni siquiera es nuestra realidad, o la realidad que necesitamos ver. Porque todo el contenido que nos muestran buscadores y redes sociales está basada en una personalización hecha por un algoritmo que fundamentalmente premia la relevancia, y no la importancia, ya que los algoritmos todavía no son tan eficaces como los editores humanos. Quien sabe de este tema necesita mejorarlos, y es deber de todos estar atentos y exigir que suceda.

Al mismo tiempo, creo firmemente en la necesidad de que seamos nuestro propio editor de información, con criterio para saber qué nos interesa y qué no, cuánto queremos saber sobre ello y tener curiosidad por conocer las distintas versiones de una misma historia.

Con Internet es más fácil informarse, también es más fácil estar completamente desinformado y no saberlo. Otra cosa es que no te interese, pero si te interesa, ten en cuenta que tus principales fuentes de información, en las que pasas más tiempo durante el día, están afectando tu percepción de las cosas, filtrando lo que ves de una forma que igual no te interesa.

Publicado en SEO contenidos | Etiquetas , | Deja un comentario

SEO y notas de prensa: Google exige el no follow en anchor text optimizado

Hace mucho tiempo que se discute sobre los beneficios que las notas de prensa pueden aportar para el posicionamiento en buscadores. Durante muchos años esta técnica fue muy utilizada por muchos consultores SEO. Incluso era frecuente encontrar en internet listados de sitios web de notas de prensa organizados por idioma/país, con las modalidades de publicación: gratis, de pago, en función de los enlaces que te permitían añadir o de la difusión que le fueran a dar a los comunicados.

El caso de las notas de prensa, a mi entender, siempre ha sido distinto al de los artículos que se pueden publicar en sitios como ezinearticles.com o articuloz.com. Si bien algunos de los artículos de estos sitios tienen calidad, otros muchos son de vergüenza ajena, por ser suave. Meras excusas para poner un enlace hacia un sitio web. Las notas de prensa, en cambio, son una útil herramienta de comunicación más antigua que los buscadores. Aportan valor, ya sea si estás dando difusión a nuevo producto o servicio, informando sobre las cuentas de tu empresa o sobre tu política de RSC. Claro, si la publicas en internet también es lógico que pongas un enlace hacia tu sitio.

Así que si bien Google Panda atizó con fuerza a los sitios de artículos, me pareció bien que no surgiera nada relacionado con las notas de prensa.

Ahora bien, en los últimos meses hay un runrún sobre si sirven o no sirven, sobre si Matt Cutts ha dicho que no, sobre si te penalizan o no… Voy a tratar de aclarar la situación, en orden cronológico, aunque os avanzo el final: Google equipara oficialmente a las notas de prensa a piezas publicitarias, y solicita el no follow obligatorio en los enlaces con anchor text optimizado, y lo recomienda en todos los enlaces, aunque sean sin anchor text optimizado.

En 2005, ya Matt Cutts escribía en un post de su blog, hablando de Rand Fishkin, que no creía que Rand “esperara una mejora de PageRank por la publicación de una nota de prensa en prweb.com”.

En 2011, en SMX West, un evento sobre buscadores y social media que se celebra en California, Matt Cutts dijo que los links en las notas de prensa no cuentan para pasar PageRank, pero que si un periodista lee el comunicado de prensa y escribe su propia pieza de contenido sobre ese tema y enlaza al sitio, ese enlace sí cuenta.

En enero de 2012, un artículo publicado en el blog de Moz ponía en duda el beneficio de publicar notas de prensa como estrategia de link building.

En diciembre de 2012 Matt Cutts contestaba en un foro de Google a una pregunta sobre el SEO en las notas de prensa diciendo “Yo no esperaría que los links en los sitios de notas de prensa mejoren los rankings de tu sitio web”.

En enero de 2013, para desmontar esta afirmación de Matt Cutts, la agencia SEO Consult llevó a cabo un test publicando en un sitio web de notas de prensa una nota de prensa con enlace al propio blog de Matt Cutts utilizando como anchor text una palabra inventada. De acuerdo, no se trata por tanto de un término competitivo, pero el caso es que el blog de Matt Cutts empezó a posicionar por esa palabra, simplemente por haber sido enlazado usándola en sitios web de notas de prensa. Por tanto, algo sí parecen contar los enlaces desde esos sitios.

En julio de 2013 Google actualizó sus directrices de contenido relacionadas con los esquemas de enlaces. En concreto, añadió una mención a los comunicados de prensa, cerca de donde hablaba de los artículos. Por tanto, ya es oficial: según Google, “los enlaces con anchor text optimizado en artículos o comunicados de prensa distribuidos en otros sitios” son enlaces no naturales que incumplen sus directrices. Nótese que habla únicamente de enlaces con anchor text optimizado.

Ese mismo mes Barry Schwartz de Search Engine Land pregunta a uno de los trabajadores de Google que más responde dudas de los SEO, John Mueller, sobre este tema, para ampliar información. La respuesta de Mueller es clara: equipara las notas de prensa a publicidad. Al ser preguntado específicamente sobre si todos los links en una nota de prensa deben usar el atributo no follow o únicamente los que tengan anchor text optimizado, la respuesta de John Mueller es que aunque puede ser suficiente con hacer no follow a los links con anchor text optimizado, él recomienda como práctica más segura hacer no follow en todos los enlaces en las notas de prensa.

Y así está la cosa. A Google le parece bien que distribuyan notas de prensa siempre que no las usemos para mejorar los rankings de nuestro sitio web. La idea, la que siempre transmiten: incluye un contenido espectacular en tus notas de prensa (imágenes, vídeo, concursos, premio, ofertas, valor añadido…) de tal forma que la gente hable sobre ello y te enlacen de forma natural. ¿Mi opinión? Bueno, las notas de prensa existían mucho antes que Google, y son una potente herramienta de comunicación. Y vale la pena distribuirlas en sitios web de notas de prensa, por varios motivos. En primer lugar, porque es cierto que los periodistas buscan información en ellos, además de en muchos otros sitios. Pero también porque no importa solo cuántos enlaces tienes, sino desde cuántos dominios. Y los sitios de notas de prensa dan diversidad al perfil de enlaces de un sitio web. Así que al menos la primera vez distribuye tu nota en todos los sitios de calidad que encuentres, y en las posteriores cíñete a los 5 mejores.

Eso sí, mi recomendación es no incluir a partir de ahora ningún anchor text optimizado en los comunicados, sino simplemente un enlace con la URL hacia el sitio web que se quiere promocionar. En la firma misma, por ejemplo, bajo la nota de prensa. Aunque el test que hemos mencionado antes demuestre que el tema del anchor text funcione para keywords no competitivas. Porque no se trata de que funcione o no funcione, de que Matt Cutts tenga razón o no; de lo que se trata es de que al haberlo hecho oficial Google en sus directrices de contenido, poner enlaces con anchor text optimizado y en las notas de prensa y distribuirlas en sitios de notas de prensa es una buena forma de que tu sitio web sea penalizado. Si te pillan te van a cascar. Y hay muchas víctimas de Google Penguin por ahí que iban de sobrados y que no se recuperan de su caída de tráfico.

Publicado en Link building | Etiquetas , , | 2 Comentarios

Hay que aprender a buscar

Me gano la vida como consultor SEO, es decir, ayudo a sitios web a posicionar bien en resultados de buscador para que tengan tráfico y vendan más. Eso quiere decir, entre otras muchas cosas, que tengo que ponerme en la mente del cliente potencial de estas organizaciones, para entender cómo pueden estar buscando esos productos y servicios. Eso requiere hacer investigación de palabras clave. Porque los sitios web van a tener que usar esas palabras en sus contenidos.

Dicho esto, hoy me apetece darle la vuelta al tema. Y hablar de los usuarios, de las personas, de cómo utilizamos los buscadores. Porque desgraciadamente los buscadores todavía no son buenos respondiendo a preguntas hechas en lenguaje natural, dan buenas respuestas cuando utilizamos palabras clave. Y aunque por mi profesión me parece obvio, no es sencillo: para muchas personas es muy complicado trasladar la pregunta que tienen en la cabeza a palabras clave que les permita obtener resultados que contesten bien a su pregunta en buscadores.

Y aunque está muy extendida la creencia de que son las personas de más edad las que más problemas tienen al usar buscadores, por su menor familiaridad con las nuevas tecnologías, lo cierto es que yo en mi entorno lo que veo es que las carencias en capacidad de uso de los buscadores no tienen edad, y hay muchos adolescentes también limitados a la hora de encontrar información útil o documentarse sobre cualquier tema.

Escribo hoy sobre este tema por dos motivos: el más importante, que llevo tiempo dándole vueltas a esto, y tengo en mente crear un taller para poder darlo en el colegio al que va mi hijo. Probablemente no ahora, tiene 5 años, pero sí de aquí a un par de años. Y poder contribuir un poco a que tanto él como sus compañeros busquen de forma más eficaz cuando utilicen buscadores. Y el segundo motivo es que he encontrado un estudio interesante sobre este tema. El estudio se llama Adolescent Search Roles y se ha publicado en el Journal of The American Society for Information Science and Technology.

jackson
Michael Jackson en 1983 y en 2009: no es lo mismo

Recomiendo la lectura del estudio completo, es interesante, pero para comentar en este post me quedo con el análisis del estudio sobre cómo los adolescentes se las arreglaron con la búsqueda más compleja que se les propuso en el estudio: ¿Cuándo fue más popular la música de Michael Jackson, en 1983 o en 2009, y por qué?

¿Por qué es esta una búsqueda compleja? Bueno, hay diversos motivos; el más relevante, que encontrar una respuesta válida requiere necesariamente de varios pasos. El éxito en la investigación de la respuesta a esta pregunta se puede plantear en 4 fases: si se es capaz de refinar la búsqueda tras un primer intento, si existe la iniciativa por parte de la persona de convertir el concepto “popular” en algo medible (ventas, presencia en listas de éxito), si existe una capacidad de plantearse la fiabilidad de las fuentes de información y si se llega a realizar una comparación de datos entre los años especificados.

La pregunta tiene su miga: 1983 es el año en que se registraron las mayores ventas de Thriller, el disco más vendido de toda la historia; pero 2009 fue un año de tremendas ventas de discos de Michael Jackson, debido a que fue el año en que murió.

¿Cómo se les dio a los adolescentes contestar a esta pregunta con la ayuda de los buscadores? De los 38 adolescentes (entre 14 y 17 años) que participaron en el estudio, un 42% fue capaz de dar una respuesta satisfactoria. El promedio de búsquedas para encontar una respuesta fue de 2,1 y visitaron 1,9 páginas.

Detalles interesantes: el 18% de los adolescentes utilizó lenguaje natural en el buscador, usando la misma frase o similar de la pregunta. Y no obtuvieron resultados concluyentes. El 50% no modificó el concepto “popular” para convertirlo en algo medible. Y tampoco obtuvieron respuesta a la pregunta. Por último, un 39% de los adolescentes al finalizar su búsqueda dieron una opinión no basada en una comparación entre los años especificados en la pregunta.

En resumen: buscar no es tan fácil como parece, y desde luego nadie nace enseñado: quienes tenemos la suerte de tener esa facilidad por el motivo que sea, por ejemplo que se trata de una actividad muy relacionada con nuestra profesión, podemos ayudar a quienes nos rodean. Hoy día, no saber utilizar bien los buscadores es estar muy limitado, una forma de analfabetismo digital que te puede limitar mucho en tus posibilidades de desarrollo, tanto personal como profesional.

A todo esto, ¿cuándo creéis vosotros que fue más popular la música de Michael Jackson, en 1983 o en 2009, y por qué?

Publicado en SEO contenidos | Etiquetas , | 1 Comentario

3 falsos mitos del SEO

No voy a hablar de los mitos ya conocidos, tipo si pagas Adwords posicionas bien, o las metakeywords van bien para SEO. Voy a hablar de cosas que, dicho sea esto sin ánimo de ofender, me discuten incluso consultores SEO. Y, qué queréis que os diga, yo creo que no tienen razón.

Porque sí, Google quiere ganar dinero, es una empresa, no es un servicio público, bla bla bla… Que sí, que esconderán muchas cosas, como todas las organizaciones, pero sobre estos 3 puntos me parece que es que no tiene sentido que sea distinto a como lo voy a exponer.

1. Con el sitemap XML tu SEO va a ir mejor

Pues no. No directamente, al menos. Tener sitemaps XML no mejora el posicionamiento de un sitio. Mejora la indexación de las páginas: Google indexa más páginas de tu sitio y más rápido, pero eso no significa que posicionen mejor. Y aun así solo indexará lo que le dé la gana.

Es más, tal como dice la ayuda de las Herramientas para Webmasters de Google, “Google no garantiza que se rastreen o indexen todas sus URL.”

En mis 4 años como consultor SEO he visto de todos los colores, por ejemplo sitios web creando páginas solo para SEO, no enlazándolas desde el menú de navegación pero incluyéndolas en los sitemaps con prioridad máxima. Absurdo. Los sitemaps son útiles si tu sitio web utiliza alguna tecnología que dificulta la indexación de algunas páginas relevantes, pero el buscador tiene muchas pistas para entender la relevancia del contenido de una página respecto al resto del sitio y respecto a otras páginas, y su inclusión en el sitemap no la avala como buen contenido.

Insisto una vez más: los sitemaps mejoran la indexación de las páginas, y esto les convierte en una buenísima herramienta, indispensable de hecho para sitios web de tamaño medio y tamaño grande, como aquellos con los que estamos acostumbrados a trabajar en Onetomarket. Porque necesitas que te indexen los contenidos rápido, que sepa que son tuyos y no de otro que los copie a los 3 segundos de publicarse, que entienda bien tu estructura y que le facilites sitemaps de imágenes, vídeos, noticias, etc. Pero con ellos Google no te posicionará mejor, te incluirá en sus resultados antes, lo que es muy distinto.

2. Los enlaces con no follow no sirven para nada

Tonterías. Los enlaces con no follow (el sistema que Google puso en marcha para la compra de enlaces sin intención de posicionar) sí sirven y forman parte de un perfil de enlaces natural. Es conveniente tener enlaces con no follow desde la Wikipedia, desde otros blogs, de sitios web a los que patrocinamos, de comentarios en blogs del mismo sector en los que intervenimos, etc.

3. Los microdatos posicionan muy bien

Que no. Que con una correcta implementación de los microdatos mejora el CTR, eso está claro; y también digo que estoy absolutamente convencido de que en un futuro es probable que Google los incluya como factor SEO, que por eso los está promocionando tanto. Pero a día de hoy esto es un NO. Y, una vez más, me remito a la ayuda de las Herramientas para Webmasters de Google: “Ten en cuenta que Google no te garantiza que vaya a utilizar el marcado de fragmentos enriquecidos que añadas al contenido de tus páginas y que dicho marcado no influirá en la posición de tus páginas en los resultados de búsqueda“. La negrita es mía. Y ante la cara de duda de algunos colegas SEO, me pregunto: ¿pero qué gana Google mintiendo en este punto? Si están claramente interesados en que la gente los implemente. Al contrario, simplemente anunciando que sí cuentan los fomentarían más, que es lo que quieren, así que tiene que ser verdad que a día de hoy no cuentan.

Publicado en SEO técnico | Etiquetas , , , | 6 Comentarios

Proyectos SEO

El concepto proyectos SEO no me gusta. Lo siento, pero eso es del siglo pasado. Eso es no entender cómo funciona un negocio y el marketing online. El SEO no es un proyecto, son procesos que deben formar parte de tu estrategia de marketing online y de negocio. Si no estás haciendo SEO todos los días del año, tu organización se puede resentir. Los proyectos SEO se inician y se acaban, y esto no funciona así: yo no te hago unos pocos Title, unas cuantas meta descriptions, un poquito de contenido, unos cuantos enlaces, unas gotitas de viralidad y ¡hala! a dormir, que ya hemos cumplido. Y sin medir, total ¿para qué? Si seguro que ha ido bien…

No. Yo no quiero proyectos SEO. A mí me gusta involucrarme en el negocio del cliente, en sus procesos, en los beneficios que ofrece a sus clientes, en su diferenciación con respecto a la competencia. ¿Cómo voy a redactar contenidos de valor sobre un producto o servicio que no se distingue en nada de los demás? La propuesta de valor del cliente tiee que empapar toda la estrategia de marketing online, y el SEO forma parte de ella, especialmente en lo que se refiere al SEO de contenidos.

Tener una estrategia de contenidos con objetivos a corto y medio plazo, tanto de tráfico como de conversiones, es primordial. Esta estrategia de contenidos debe ser revisada y reprogramada regularmente. ¿O es que no queremos seguir vendiendo y posicionando bien más adelante? Vale ya de proyectos SEO, el SEO debe ser parte esencial de cualquier organización con interés en su futuro.

Publicado en SEO contenidos | Etiquetas | Deja un comentario

SEO manuales

¿Cómo aprendí lo que sé sobre SEO? Mucha lectura de blogs de referencia, mucho análisis de sitios web, y trabajando mucho cada día. Pero también es justo reconocer que la primera lectura del manual SEO para principiantes de SEOmoz fue una gran ayuda para sentar las bases.

En cambio, la Guía para principiantes sobre optimización para motores de búsqueda de Google, mucho más básica, la recomiendo para todos los propietarios de sitios web que se planteen cómo mejorar sus rankings en buscadores. No les va a revelar un mundo nuevo, pero tras leerla sabrán mejor qué deben pedir a su agencia SEO o al SEO in-house que tengan.

Ambos manuales SEO se actualizan con regularidad, por lo que no dejan de estar actualizados y cumplir su objetivo.

Publicado en SEO contenidos | Etiquetas , | 2 Comentarios

Google Panda

¿Te preocupa la aplicación de Google Panda a España desde el 12 de agosto? En esta entrada te explico en qué consiste, cómo se aplica, cuáles son sus consecuencias en los resultados de búsqueda.

Google pone en funcionamiento el 23 de febrero de 2011 Google Panda, un cambio importante en el algoritmo para ofrecer mejores resultados de búsqueda, al premiar a los sitios con contenidos de más calidad y hacer perder posiciones a los que no tienen buena calidad de contenidos. Según Google, afecta al 11,8% de las búsquedas (idioma inglés, Estados Unidos).

3 días después, el 26 de febrero, una empresa alemana especializada en software para marketing online, llamada Sistrix, publica datos sobre los efectos de Google Panda en el tráfico de sitios web en Estados Unidos.

Algunos de los sitios que pierden más tráfico de Google son sitios web de publicación de artículos abiertos a cualquier autor que se registre y algún sitio de preguntas y respuestas. A continuación indicamos algunas de las pérdidas de tráfico desde Google cuantificadas por Sistrix: wisegeek.com: -77%; ezinearticles.com: -90%; suite101.com: -94%; hubpages.com: -87%; buzzle.com -85%. El análisis de la empresa alemana afirma que la caída de tráfico se debe a dos causas que combinadas suponen esa gran cifra: en primer lugar, las páginas de estos sitios posicionan para un número mucho menor de keywords que antes de Google Panda, pero es que además el ranking para las palabras en que todavía posicionan ha empeorado mucho.

El 3 de marzo, la agencia especializada en SEO Distilled y la empresa de software SEOmoz publican su punto de vista sobre Google Panda. Distilled apunta su convencimiento (apuntalado por una respuesta del ingeniero de Google Matt Cutts a Wired) de que el exceso de publicidad es un factor negativo en Google Panda.

SEOmoz apunta cuatro conclusiones basadas en su análisis de los sitios que han perdido tráfico y los sitios que han ganado tráfico, entre los que destaca popeater.com, un sitio de noticias sobre famosos. Las conclusiones de SEOmoz sobre Google Panda son:

- Los sitios más agresivos con la publicidad pierden más (misma idea que Distilled).
- Los sitios con mejor experiencia de usuario y diseño salen mejor parados.
- En los sitios de contenido generado por los usuarios, obtienen mejores resultados aquellos en que las contribuciones son menos escuetas, con contenido más auténtico, no remunerado y sin intención SEO o de obtención de links.
- Las páginas de mucho contenido con mejor usabilidad tienen mejores rankings que las menos usables.

Distilled también se hace eco de las quejas de algunos sitios web que no se consideran granja de contenidos de baja calidad pero se han visto afectados por el algoritmo. En una entrevista publicada por Wired, Matt Cutts y Amit Singhal (la cara más visible de Google Panda) afirman que escuchan el feedback y trabajan en el algoritmo para pulir sus imperfecciones, aunque no harán excepciones manuales, es decir, no harán que algunos sitios vuelvan a tener buenos rankings por decisión “humana”.

Con respecto al feedback que Google parece dispuesto a escuchar, hay pruebas: ese mismo día, el 3 de marzo, Google abre un hilo en el foro de Webmaster Central solicitando a los usuarios de Internet que les comuniquen cualquier sitio web de calidad que se haya visto afectado negativamente por Google Panda. A día de hoy, este hilo es uno de los más activos de su categoría, con más de 5000 mensajes.

En abril de 2011, Google lanza a nivel mundial Google Panda para las búsquedas en inglés. Tras dos meses de prueba y comprobar el buen funcionamiento de este cambio Google se anima a lanzarlo en todo el mundo.

Además de lanzar a nivel internacional en inglés este cambio algorítmico, Google incorpora nuevas señales: “Para los casos en los que estamos muy seguros, hemos empezado a incorporar los sitios web que nuestros usuarios bloquean en nuestros algoritmos. Este cambio afecta al “long tail” de sitios web para ofrecer resultados de alta calidad y para ello miramos a muchas páginas, con un menor tráfico, y que nuestros algoritmos podría no haber sido capaces de evaluar antes. El impacto de estas nuevas señales es pequeño en comparación con el cambio original: en un 2% de las búsquedas realizadas en los Estados Unidos se apreció un cambio notable”.

El 25 de abril Adam Audette publica en Search Engine Land un artículo en el que da 5 consejos para hacer SEO en un mundo post-Panda. Estos consejos se basan en la afirmación oficial por parte de Google de que muchas páginas de baja calidad dentro de un sitio web afectan a la valoración global de la calidad del sitio web. Por tanto, Audette aconseja:

- Decidir cuál es la versión canónica de cada contenido y comunicárselo claramente a Google (canonical, robots.txt, sitemap XML, estrategia de enlaces internos)
- Decidir qué URLS son más valiosas y potenciarlas
- Eliminar contenidos duplicados y de escaso valor
- Redefinir la estrategia de link building desde sitios externos para favorecer a las páginas adecuadas
- Usar social media para conseguir links de calidad

El 6 de mayo de 2011, y ante la caída en tráfico de muchos sitios web de gran volumen de páginas que antes copaban primeras posiciones, Google explica lo que entiende por sitios de alta calidad, para lo que ofrece una serie de preguntas aplicables a cualquier sitio web. El listado es este:

  • ¿Proporciona la página un valor sustancial en comparación con otras páginas que aparecen en los resultados de las búsquedas?
  • ¿Cuánto control de calidad se realiza sobre el contenido?
  • ¿Describe el artículo las dos caras de cada historia?
  • ¿Es el sitio una autoridad reconocida en el tema?
  • ¿Está el contenido generado en masa por un gran número de redactores o repartido en una amplia red de sitios, de modo que cada página o sitio individual no reciben demasiada atención ni cuidados?
  • ¿Está el artículo bien editado o parece producido de forma descuidada o con prisas?
  • ¿Para realizar una consulta sobre salud, confiarías en la información de este sitio?
  • ¿Reconocerías este sitio como fuente autorizada al mencionar su nombre?
  • ¿Proporciona este artículo una descripción completa y detallada del tema?
  • ¿Contiene este artículo un análisis detallado o información relevante más allá de lo obvio?
  • ¿Se trata del tipo de página que desearías guardar en tus marcadores, compartir con un amigo o recomendar a alguien?
  • ¿Contiene este artículo una cantidad excesiva de anuncios que distraigan o interfieran con el contenido principal?
  • ¿Esperarías ver este artículo impreso en una revista, una enciclopedia o un libro?
  • ¿Son los artículos cortos, insustanciales o carecen de algún otro modo de detalles específicos útiles?
  • ¿Están las páginas editadas con mucho cuidado y atención por el detalle o con poca atención?
  • ¿Se quejarán los usuarios al ver páginas del sitio?

Además de este listado de preguntas, que Google aconseja aplicar a cualquier sitio web, el buscador especifica que “un contenido de baja calidad en algunas partes de un sitio web puede tener impacto sobre la clasificación del sitio en conjunto. Por este motivo, eliminar las páginas de baja calidad, fusionando o mejorando el contenido de las páginas individuales más superficiales para que sean más útiles, o moviendo las páginas menos útiles a otro dominio, podría ayudar, eventualmente, a mejorar la clasificación del contenido de mayor calidad”.

El 21 de junio Danny Sullivan de Search Engine Land publica un artículo explicando por qué considera que Google Panda no es un cambio en el algoritmo de Google sino un factor de posicionamiento. Sullivan considera Google Panda un filtro ideado por Google para identificar con facilidad las páginas que tienen baja calidad y hacer que no aparezcan en primeras posiciones. Además, si tu sitio web tiene muchas páginas de estas características, puedes esperar que todo tu sitio web sea “pandatizado”. Sullivan explica que Google Panda es modificado aproximadamente cada mes por los ingenieros de Google desde su aparición para introducir mejoras, y que los sitios web que se esfuerzan por mejorar en este sentido pueden esperar mejoras tras alguna de estas modificaciones mensuales.

En una noticia publicada por el Wall Street Journal el 13 de julio, los responsables de hubpages.com explican que el uso de subdominios para identificar a los autores de los contenidos (con el beneplácito de Matt Cutts) está consiguiendo que los artículos de más calidad recuperen posiciones en rankings. Google Trends for Websites no muestra esta supuesta mejora aún.

El 12 de agosto Amit Singhal indica que Google Panda se lanza en diferentes idiomas, entre ellos el español, con un impacto entre el 6 al 9% de las consultas realizadas. Un impacto mucho menor que el del lanzamiento inicial de Panda que afectó, con impacto notable, a casi el 12% de las consultas en inglés.

Google ya ha abierto el foro en español sobre la actualización del algoritmo de búsqueda para sitios de alta calidad en español.

Publicado en SEO contenidos | Etiquetas , | 3 Comentarios

Desigual: el efecto en tráfico orgánico de marca de una campaña para tiendas físicas

En el pasado mes de enero la marca de ropa Desigual llevó a cabo una campaña: los 100 primeros clientes que entraran en determinadas tiendas Desigual, en ropa interior, se llevaban de regalo un conjunto completo de ropa. Tuvo un efecto visible en las búsquedas de “tienda desigual” en Google España.

La noticia fue publicada entre otros medios por Europa Press, pero además la campaña tuvo viralidad en blogs de ropa y ofertas.

La campaña se repite justo ahora, para el verano, en otras tiendas. Veremos qué efecto tiene esta vez. Aquí os dejo el vídeo de promoción:

Publicado en SEO contenidos | Etiquetas , , | Deja un comentario

Como en la cocina, con mimo sale mejor

Para explicar por qué el link building tiene que hacerse con mimo no se me ocurre nada mejor que recurrir a mi propia experiencia… en la cocina. No tengo habilidad para cocinar, así que siempre necesito un manual (sí, sí, manual, no receta) que me detalle hasta el último paso. Por ejemplo, si hay que batir un huevo, necesito que el manual diga cómo hay que cascar el huevo y cuánto tiempo batirlo. El problema viene, según mi mujer, que es la experta, por el hecho de que me atengo al manual literalmente, y no tengo la soltura de ir modificando el plan a medida que avanzo. Ella (mi mujer) corrige de sal, deja algo en el fuego más tiempo de lo previsto si es necesario, inventa y añade un ingrediente que no está en la lista… y sale perfecto. Yo hago exactamente lo que pone el papel… y sale algo soso. Ni siquiera está malo, simplemente se puede comer, pero resulta complicado deleitarse con ello. No alcanzas el punto de fanatismo de Homer con la carne: “…y de beber, albóndigas“.

Pues eso, exactamente lo que sí consigue mi mujer al cocinar, es lo que yo sí consigo más a menudo con el link building. El link building requiere trabajo, y tiempo, y muchos mimos. Si quieres obtener enlaces de calidad, es muy aconsejable tener un buen gancho, y dirigirte a los blogs adecuados. Hasta ahí bien, casi todo el mundo sabe y hace eso. Pero el objetivo de este post es resaltar que es esencial invertir tiempo en esos blogs:

- ¿Quién es el responsable? ¿Cómo se llama? ¿Qué le interesa? ¿Cada cuánto publica? ¿El blog forma parte de una red de blogs o es una iniciativa personal? Dentro del tema del blog, ¿cuáles son los subtemas que más le interesan? ¿Suele publicar material ajeno? ¿Qué política de enlaces tiene? ¿Únicamente enlaza en el blog roll o lo hace también en los posts?

La respuesta a estas y otras preguntas requiere tiempo de navegación por esos blogs que teóricamente pueden venir bien para conseguir un enlace. Y tiempo es lo que el cliente no quiere pagar: el cliente quiere pagar por resultados. Pero yo siento que es la manera de hacerlo bien, y estoy convencido de que 10 enlaces de calidad rendirán más con el tiempo que 100 enlaces a cascoporro conseguidos por otros métodos más o menos automatizados. El caso es que esta manera de trabajar limita la cantidad de blogs a los que puedes acudir, lo que te obliga a ser más estricto en los criterios. Pero, amigo, cuando lo logras, cuando consigues un enlace de calidad, cuando la web de tu cliente entabla una relación de cooperación con el blogger contactado, que abre nuevas posibilidades de cooperación en el futuro (tú me sirves contenidos, yo te proporciono acceso a un segmento de clientes al que no llegabas o que quieres reforzar, etc.) pues eso da mucha satisfacción.

Así que aprovecho para agradecer a la agencia de marketing online en la que trabajo el hecho de que fomente que los consultores hagamos link building de esta forma. Hala, que aproveche

Publicado en Link building | Etiquetas | Deja un comentario