¿Es la personalización de contenidos eficaz? ¿Y es lo que queremos?

En este vídeo de una TED Talk de hace 3 años el autor del libro “The Filter Bubble: What The Internet Is Hiding From You“, Eli Pariser, hace una exposición de la principal tesis de su libro, a saber: Google y Facebook están utilizando filtros de personalización que si bien de entrada parecen una buena idea, ya que se adaptan al gusto de cada usuario la información que ofrecen, en realidad están limitando (y sin avisar, o sin avisar lo suficiente) el tipo de información que cada usuario recibe.

Sinceramente, a mí el vídeo me parece escalofriante. Todos los que me conocen saben que soy pro-tecnología, lo he sido siempre: disfruto con todas las posibilidades de Internet desde que se empezó a popularizar la web, trabajo como consultor SEO, me gustan los gadgets tecnológicos, tener una tele LED de tropocientas pulgadas, casi no escucho CDs y soy adicto a mi smartphone en el que veo series, mi tablet y mi Spotify Premium… Me parece bien la llegada del cine digital y lo que que puede suponer de abaratamiento en las producciones, en fin… creo que no soy sospechoso de ser rancio en temas tecnológicos.

Pero este vídeo me da miedo, porque si todos estamos expuestos a esto, y tantas personas que ignoran cómo funciona esto tienen tan reducido sin saberlo su campo mental de información… Por eso, a pesar de que han pasado 3 años, el vídeo me parece absolutamente actual, y que merece difusión. No solo no hay que dar por hecho que todo está en Internet, ni buscadores ni redes sociales indexan todo el contenido del mundo; no solo hay que tener claro que lo que se nos muestra NO es la realidad; además, hay que tener absolutamente claro que ni siquiera es nuestra realidad, o la realidad que necesitamos ver. Porque todo el contenido que nos muestran buscadores y redes sociales está basada en una personalización hecha por un algoritmo que fundamentalmente premia la relevancia, y no la importancia, ya que los algoritmos todavía no son tan eficaces como los editores humanos. Quien sabe de este tema necesita mejorarlos, y es deber de todos estar atentos y exigir que suceda.

Al mismo tiempo, creo firmemente en la necesidad de que seamos nuestro propio editor de información, con criterio para saber qué nos interesa y qué no, cuánto queremos saber sobre ello y tener curiosidad por conocer las distintas versiones de una misma historia.

Con Internet es más fácil informarse, también es más fácil estar completamente desinformado y no saberlo. Otra cosa es que no te interese, pero si te interesa, ten en cuenta que tus principales fuentes de información, en las que pasas más tiempo durante el día, están afectando tu percepción de las cosas, filtrando lo que ves de una forma que igual no te interesa.

Hay que aprender a buscar

Me gano la vida como consultor SEO, es decir, ayudo a sitios web a posicionar bien en resultados de buscador para que tengan tráfico y vendan más. Eso quiere decir, entre otras muchas cosas, que tengo que ponerme en la mente del cliente potencial de estas organizaciones, para entender cómo pueden estar buscando esos productos y servicios. Eso requiere hacer investigación de palabras clave. Porque los sitios web van a tener que usar esas palabras en sus contenidos.

Dicho esto, hoy me apetece darle la vuelta al tema. Y hablar de los usuarios, de las personas, de cómo utilizamos los buscadores. Porque desgraciadamente los buscadores todavía no son buenos respondiendo a preguntas hechas en lenguaje natural, dan buenas respuestas cuando utilizamos palabras clave. Y aunque por mi profesión me parece obvio, no es sencillo: para muchas personas es muy complicado trasladar la pregunta que tienen en la cabeza a palabras clave que les permita obtener resultados que contesten bien a su pregunta en buscadores.

Y aunque está muy extendida la creencia de que son las personas de más edad las que más problemas tienen al usar buscadores, por su menor familiaridad con las nuevas tecnologías, lo cierto es que yo en mi entorno lo que veo es que las carencias en capacidad de uso de los buscadores no tienen edad, y hay muchos adolescentes también limitados a la hora de encontrar información útil o documentarse sobre cualquier tema.

Escribo hoy sobre este tema por dos motivos: el más importante, que llevo tiempo dándole vueltas a esto, y tengo en mente crear un taller para poder darlo en el colegio al que va mi hijo. Probablemente no ahora, tiene 5 años, pero sí de aquí a un par de años. Y poder contribuir un poco a que tanto él como sus compañeros busquen de forma más eficaz cuando utilicen buscadores. Y el segundo motivo es que he encontrado un estudio interesante sobre este tema. El estudio se llama Adolescent Search Roles y se ha publicado en el Journal of The American Society for Information Science and Technology.

jackson
Michael Jackson en 1983 y en 2009: no es lo mismo

Recomiendo la lectura del estudio completo, es interesante, pero para comentar en este post me quedo con el análisis del estudio sobre cómo los adolescentes se las arreglaron con la búsqueda más compleja que se les propuso en el estudio: ¿Cuándo fue más popular la música de Michael Jackson, en 1983 o en 2009, y por qué?

¿Por qué es esta una búsqueda compleja? Bueno, hay diversos motivos; el más relevante, que encontrar una respuesta válida requiere necesariamente de varios pasos. El éxito en la investigación de la respuesta a esta pregunta se puede plantear en 4 fases: si se es capaz de refinar la búsqueda tras un primer intento, si existe la iniciativa por parte de la persona de convertir el concepto “popular” en algo medible (ventas, presencia en listas de éxito), si existe una capacidad de plantearse la fiabilidad de las fuentes de información y si se llega a realizar una comparación de datos entre los años especificados.

La pregunta tiene su miga: 1983 es el año en que se registraron las mayores ventas de Thriller, el disco más vendido de toda la historia; pero 2009 fue un año de tremendas ventas de discos de Michael Jackson, debido a que fue el año en que murió.

¿Cómo se les dio a los adolescentes contestar a esta pregunta con la ayuda de los buscadores? De los 38 adolescentes (entre 14 y 17 años) que participaron en el estudio, un 42% fue capaz de dar una respuesta satisfactoria. El promedio de búsquedas para encontar una respuesta fue de 2,1 y visitaron 1,9 páginas.

Detalles interesantes: el 18% de los adolescentes utilizó lenguaje natural en el buscador, usando la misma frase o similar de la pregunta. Y no obtuvieron resultados concluyentes. El 50% no modificó el concepto “popular” para convertirlo en algo medible. Y tampoco obtuvieron respuesta a la pregunta. Por último, un 39% de los adolescentes al finalizar su búsqueda dieron una opinión no basada en una comparación entre los años especificados en la pregunta.

En resumen: buscar no es tan fácil como parece, y desde luego nadie nace enseñado: quienes tenemos la suerte de tener esa facilidad por el motivo que sea, por ejemplo que se trata de una actividad muy relacionada con nuestra profesión, podemos ayudar a quienes nos rodean. Hoy día, no saber utilizar bien los buscadores es estar muy limitado, una forma de analfabetismo digital que te puede limitar mucho en tus posibilidades de desarrollo, tanto personal como profesional.

A todo esto, ¿cuándo creéis vosotros que fue más popular la música de Michael Jackson, en 1983 o en 2009, y por qué?

Proyectos SEO

El concepto proyectos SEO no me gusta. Lo siento, pero eso es del siglo pasado. Eso es no entender cómo funciona un negocio y el marketing online. El SEO no es un proyecto, son procesos que deben formar parte de tu estrategia de marketing online y de negocio. Si no estás haciendo SEO todos los días del año, tu organización se puede resentir. Los proyectos SEO se inician y se acaban, y esto no funciona así: yo no te hago unos pocos Title, unas cuantas meta descriptions, un poquito de contenido, unos cuantos enlaces, unas gotitas de viralidad y ¡hala! a dormir, que ya hemos cumplido. Y sin medir, total ¿para qué? Si seguro que ha ido bien…

No. Yo no quiero proyectos SEO. A mí me gusta involucrarme en el negocio del cliente, en sus procesos, en los beneficios que ofrece a sus clientes, en su diferenciación con respecto a la competencia. ¿Cómo voy a redactar contenidos de valor sobre un producto o servicio que no se distingue en nada de los demás? La propuesta de valor del cliente tiee que empapar toda la estrategia de marketing online, y el SEO forma parte de ella, especialmente en lo que se refiere al SEO de contenidos.

Tener una estrategia de contenidos con objetivos a corto y medio plazo, tanto de tráfico como de conversiones, es primordial. Esta estrategia de contenidos debe ser revisada y reprogramada regularmente. ¿O es que no queremos seguir vendiendo y posicionando bien más adelante? Vale ya de proyectos SEO, el SEO debe ser parte esencial de cualquier organización con interés en su futuro.

SEO manuales

¿Cómo aprendí lo que sé sobre SEO? Mucha lectura de blogs de referencia, mucho análisis de sitios web, y trabajando mucho cada día. Pero también es justo reconocer que la primera lectura del manual SEO para principiantes de SEOmoz fue una gran ayuda para sentar las bases.

En cambio, la Guía para principiantes sobre optimización para motores de búsqueda de Google, mucho más básica, la recomiendo para todos los propietarios de sitios web que se planteen cómo mejorar sus rankings en buscadores. No les va a revelar un mundo nuevo, pero tras leerla sabrán mejor qué deben pedir a su agencia SEO o al SEO in-house que tengan.

Ambos manuales SEO se actualizan con regularidad, por lo que no dejan de estar actualizados y cumplir su objetivo.

Google Panda

¿Te preocupa la aplicación de Google Panda a España desde el 12 de agosto? En esta entrada te explico en qué consiste, cómo se aplica, cuáles son sus consecuencias en los resultados de búsqueda.

Google pone en funcionamiento el 23 de febrero de 2011 Google Panda, un cambio importante en el algoritmo para ofrecer mejores resultados de búsqueda, al premiar a los sitios con contenidos de más calidad y hacer perder posiciones a los que no tienen buena calidad de contenidos. Según Google, afecta al 11,8% de las búsquedas (idioma inglés, Estados Unidos).

3 días después, el 26 de febrero, una empresa alemana especializada en software para marketing online, llamada Sistrix, publica datos sobre los efectos de Google Panda en el tráfico de sitios web en Estados Unidos.

Algunos de los sitios que pierden más tráfico de Google son sitios web de publicación de artículos abiertos a cualquier autor que se registre y algún sitio de preguntas y respuestas. A continuación indicamos algunas de las pérdidas de tráfico desde Google cuantificadas por Sistrix: wisegeek.com: -77%; ezinearticles.com: -90%; suite101.com: -94%; hubpages.com: -87%; buzzle.com -85%. El análisis de la empresa alemana afirma que la caída de tráfico se debe a dos causas que combinadas suponen esa gran cifra: en primer lugar, las páginas de estos sitios posicionan para un número mucho menor de keywords que antes de Google Panda, pero es que además el ranking para las palabras en que todavía posicionan ha empeorado mucho.

El 3 de marzo, la agencia especializada en SEO Distilled y la empresa de software SEOmoz publican su punto de vista sobre Google Panda. Distilled apunta su convencimiento (apuntalado por una respuesta del ingeniero de Google Matt Cutts a Wired) de que el exceso de publicidad es un factor negativo en Google Panda.

SEOmoz apunta cuatro conclusiones basadas en su análisis de los sitios que han perdido tráfico y los sitios que han ganado tráfico, entre los que destaca popeater.com, un sitio de noticias sobre famosos. Las conclusiones de SEOmoz sobre Google Panda son:

– Los sitios más agresivos con la publicidad pierden más (misma idea que Distilled).
– Los sitios con mejor experiencia de usuario y diseño salen mejor parados.
– En los sitios de contenido generado por los usuarios, obtienen mejores resultados aquellos en que las contribuciones son menos escuetas, con contenido más auténtico, no remunerado y sin intención SEO o de obtención de links.
– Las páginas de mucho contenido con mejor usabilidad tienen mejores rankings que las menos usables.

Distilled también se hace eco de las quejas de algunos sitios web que no se consideran granja de contenidos de baja calidad pero se han visto afectados por el algoritmo. En una entrevista publicada por Wired, Matt Cutts y Amit Singhal (la cara más visible de Google Panda) afirman que escuchan el feedback y trabajan en el algoritmo para pulir sus imperfecciones, aunque no harán excepciones manuales, es decir, no harán que algunos sitios vuelvan a tener buenos rankings por decisión “humana”.

Con respecto al feedback que Google parece dispuesto a escuchar, hay pruebas: ese mismo día, el 3 de marzo, Google abre un hilo en el foro de Webmaster Central solicitando a los usuarios de Internet que les comuniquen cualquier sitio web de calidad que se haya visto afectado negativamente por Google Panda. A día de hoy, este hilo es uno de los más activos de su categoría, con más de 5000 mensajes.

En abril de 2011, Google lanza a nivel mundial Google Panda para las búsquedas en inglés. Tras dos meses de prueba y comprobar el buen funcionamiento de este cambio Google se anima a lanzarlo en todo el mundo.

Además de lanzar a nivel internacional en inglés este cambio algorítmico, Google incorpora nuevas señales: “Para los casos en los que estamos muy seguros, hemos empezado a incorporar los sitios web que nuestros usuarios bloquean en nuestros algoritmos. Este cambio afecta al “long tail” de sitios web para ofrecer resultados de alta calidad y para ello miramos a muchas páginas, con un menor tráfico, y que nuestros algoritmos podría no haber sido capaces de evaluar antes. El impacto de estas nuevas señales es pequeño en comparación con el cambio original: en un 2% de las búsquedas realizadas en los Estados Unidos se apreció un cambio notable”.

El 25 de abril Adam Audette publica en Search Engine Land un artículo en el que da 5 consejos para hacer SEO en un mundo post-Panda. Estos consejos se basan en la afirmación oficial por parte de Google de que muchas páginas de baja calidad dentro de un sitio web afectan a la valoración global de la calidad del sitio web. Por tanto, Audette aconseja:

– Decidir cuál es la versión canónica de cada contenido y comunicárselo claramente a Google (canonical, robots.txt, sitemap XML, estrategia de enlaces internos)
– Decidir qué URLS son más valiosas y potenciarlas
– Eliminar contenidos duplicados y de escaso valor
– Redefinir la estrategia de link building desde sitios externos para favorecer a las páginas adecuadas
– Usar social media para conseguir links de calidad

El 6 de mayo de 2011, y ante la caída en tráfico de muchos sitios web de gran volumen de páginas que antes copaban primeras posiciones, Google explica lo que entiende por sitios de alta calidad, para lo que ofrece una serie de preguntas aplicables a cualquier sitio web. El listado es este:

  • ¿Proporciona la página un valor sustancial en comparación con otras páginas que aparecen en los resultados de las búsquedas?
  • ¿Cuánto control de calidad se realiza sobre el contenido?
  • ¿Describe el artículo las dos caras de cada historia?
  • ¿Es el sitio una autoridad reconocida en el tema?
  • ¿Está el contenido generado en masa por un gran número de redactores o repartido en una amplia red de sitios, de modo que cada página o sitio individual no reciben demasiada atención ni cuidados?
  • ¿Está el artículo bien editado o parece producido de forma descuidada o con prisas?
  • ¿Para realizar una consulta sobre salud, confiarías en la información de este sitio?
  • ¿Reconocerías este sitio como fuente autorizada al mencionar su nombre?
  • ¿Proporciona este artículo una descripción completa y detallada del tema?
  • ¿Contiene este artículo un análisis detallado o información relevante más allá de lo obvio?
  • ¿Se trata del tipo de página que desearías guardar en tus marcadores, compartir con un amigo o recomendar a alguien?
  • ¿Contiene este artículo una cantidad excesiva de anuncios que distraigan o interfieran con el contenido principal?
  • ¿Esperarías ver este artículo impreso en una revista, una enciclopedia o un libro?
  • ¿Son los artículos cortos, insustanciales o carecen de algún otro modo de detalles específicos útiles?
  • ¿Están las páginas editadas con mucho cuidado y atención por el detalle o con poca atención?
  • ¿Se quejarán los usuarios al ver páginas del sitio?

Además de este listado de preguntas, que Google aconseja aplicar a cualquier sitio web, el buscador especifica que “un contenido de baja calidad en algunas partes de un sitio web puede tener impacto sobre la clasificación del sitio en conjunto. Por este motivo, eliminar las páginas de baja calidad, fusionando o mejorando el contenido de las páginas individuales más superficiales para que sean más útiles, o moviendo las páginas menos útiles a otro dominio, podría ayudar, eventualmente, a mejorar la clasificación del contenido de mayor calidad”.

El 21 de junio Danny Sullivan de Search Engine Land publica un artículo explicando por qué considera que Google Panda no es un cambio en el algoritmo de Google sino un factor de posicionamiento. Sullivan considera Google Panda un filtro ideado por Google para identificar con facilidad las páginas que tienen baja calidad y hacer que no aparezcan en primeras posiciones. Además, si tu sitio web tiene muchas páginas de estas características, puedes esperar que todo tu sitio web sea “pandatizado”. Sullivan explica que Google Panda es modificado aproximadamente cada mes por los ingenieros de Google desde su aparición para introducir mejoras, y que los sitios web que se esfuerzan por mejorar en este sentido pueden esperar mejoras tras alguna de estas modificaciones mensuales.

En una noticia publicada por el Wall Street Journal el 13 de julio, los responsables de hubpages.com explican que el uso de subdominios para identificar a los autores de los contenidos (con el beneplácito de Matt Cutts) está consiguiendo que los artículos de más calidad recuperen posiciones en rankings. Google Trends for Websites no muestra esta supuesta mejora aún.

El 12 de agosto Amit Singhal indica que Google Panda se lanza en diferentes idiomas, entre ellos el español, con un impacto entre el 6 al 9% de las consultas realizadas. Un impacto mucho menor que el del lanzamiento inicial de Panda que afectó, con impacto notable, a casi el 12% de las consultas en inglés.

Google ya ha abierto el foro en español sobre la actualización del algoritmo de búsqueda para sitios de alta calidad en español.

Desigual: el efecto en tráfico orgánico de marca de una campaña para tiendas físicas

En el pasado mes de enero la marca de ropa Desigual llevó a cabo una campaña: los 100 primeros clientes que entraran en determinadas tiendas Desigual, en ropa interior, se llevaban de regalo un conjunto completo de ropa. Tuvo un efecto visible en las búsquedas de “tienda desigual” en Google España.

La noticia fue publicada entre otros medios por Europa Press, pero además la campaña tuvo viralidad en blogs de ropa y ofertas.

La campaña se repite justo ahora, para el verano, en otras tiendas. Veremos qué efecto tiene esta vez. Aquí os dejo el vídeo de promoción:

LDA y SEO (II): un poco de mi gozo en un pozo

Actualización al post anterior sobre LDA y SEO: el responsable de la herramienta en SEOmoz admite un error importante en sus cálculos y reconoce abiertamente que ahora mismo lo único que prueba LDA es que Google utiliza clusters y que la optimización de contenido es relevante, pero retira su afirmación de que Google concede tanta importancia a la optimización de contenidos como a la keyword en el nombre de dominio o a la diversidad de dominios desde los que te enlazan.

Una pena, pero es lo que hay. Esto pincha bastante mis expectativas: todo el mundo puede equivocarse, pero resumiendo lo que ha pasado, SEOmoz dijo que la optimización de contenidos se estaba infravalorando porque para Google era muy importante y ahora la vuelve a poner en donde estaba, muy por debajo de los enlaces. En fin, a mí me sigue divirtiendo mucho más planear una buena estrategia de contenido y optimizar contenido para conseguir visitas y que estas conviertan que buscar enlaces. Aunque de todo hago, claro, que para eso me pagan.

LDA y SEO: la optimización de contenidos nunca ha dejado de ser importante

Aunque todo el mundo está hablando de Google Instant estos últimos días, a mí me ha llamado mucho más la atención la nueva herramienta de SEOmoz, LDA (Latent Dirichlet Allocation). Esta herramienta, aún en fase muy inicial, permite conocer el grado de correlación entre un texto (o una página web) y una frase de búsqueda. ¿En qué se diferencia esto de la infame keyword density o de la práctica de moda que consiste en utilizar los términos que ofrece Google como búsquedas relacionadas en la rueda de búsquedas para incluirlos en la página que queremos optimizar? Y la segunda pregunta: ¿qué lleva a SEOmoz a decir que muy probablemente la incidencia del contenido de un sitio en la forma en que este sitio posiciona se está infravalorando, y mucho?

Pues la diferencia es que esta herramienta se basa en topic modelling, es decir, clusters de palabras, que permiten identificar de qué tema trata un documento. Al introducir un texto o una URL en esta herramienta y comprobar su grado de correlación con una query, nos dará un porcentaje, y ese porcentaje no se basa en el número de veces en que la frase de búsqueda está repetida en el texto o página web, ni tampoco en la cantidad de sinónimos de la query que se incluyen, sino en la inclusión de otros términos que permiten definir con la menor duda posible que ese es el tema de la página, y no otro.

O sea, insisto, no basta con incluir búsquedas relacionadas de la rueda de búsquedas, hablamos de escribir con la intención de dejarle claro al buscador que esa página que está indexando es relevante para un concepto sin asomo de duda. En SEOmoz ponen un ejemplo de Star Trek, pero yo voy a poner uno del Barça. Si Google encuentra una página que incluye las palabras “fútbol”, “liga”, “deportes” y “Barcelona” puede que esa página hable del FC Barcelona, pero también podría hablar del Espanyol, ¿verdad? Pero si esa página incluye también las palabras “Messi”, “Rosell” o “Laporta”, Google lo va a tener más claro.

Y dicho esto, ¿por qué en SEOmoz dicen que creen que se está infravalorando el poder de los contenidos en los sitios web a la hora de posicionar? Bueno, como es sabido por diversas pruebas y tests de cierta fiabilidad, parece demostrado que, por ejemplo, tener la palabra clave en el nombre de dominio y tener enlaces desde una gran diversidad de dominios son elementos mucho más importantes para posicionar que cualquier elemento de optimización on-page, incluido el title, la URL, los encabezados, etc. Bien, pues tras analizar más de 10.000 resultados de búsqueda en SEOmoz han encontrado una altísima correlación entre un alto porcentaje de LDA y unos altos rankings para la palabra clave en cuestión. Y esa correlación les parece casi tan importante como las dos mencionadas anteriormente, la de la keyword en el nombre de dominio y la diversidad de dominios en los enlaces. Atentos, porque eso querría decir que un alto LDA (una optimización del contenido de una página) puede ser más importante que un Title.

¿Qué conclusiones podemos sacar de esto? Ojo, aquí quiero precisar que desde SEOmoz insisten en que su tesis no está demostrada y que hay que cogerla con pinzas. Hay correlación entre su LDA y los rankings de Google, pero correlación no significa causalidad: mejorar el LDA de tu página no te hará mejorar en rankings de forma segura; entre otras cosas, porque lo que parece demostrado es que Google utiliza clusters de palabras y corpus, pero con toda probabilidad tendrán diferencias con los utilizados por SEOmoz. Aun así, profesionalmente no puedo alegrarme más: sé que los enlaces son importantes, pero en los últimos años se ha hablado tanto de ellos que en muchas ocasiones el cliente solo quiere enlaces, y se olvida de mejorar su texto, lo que no ayuda a hacerles comprender la importancia de la estrategia de contenido. Y por otra parte, es un nuevo campo de experimentación: haz búsquedas de los sectores en los que tienes clientes, y comprueba el LDA de los que están en las primeras posiciones con el de tu cliente. Obviamente estamos hablando de SEO, no olvides tener en cuenta otros factores como los enlaces, pero si compruebas que hay mucha similitud en factores como backlinks y title y ves mucha diferencia en el porcentaje de LDA, creo que será muy buena idea entrar a mirar con lupa los textos de la competencia.

En fin, aunque me he enrollado bastante para lo que es habitual, creo que el tema lo merece. En cualquier caso podéis ver el Whiteboard Friday de SEOmoz dedicado al LDA y SEO.

Microcopy

Aunque me dedico desde hace tiempo a la estrategia de contenidos, generación y optimización de contenidos de sitios web pensando en los usuarios y en los buscadores, he trabajado muy poco el microcopy. El motivo es que a menudo no llego a todo. O dicho de otro modo, que las horas que paga el cliente debo decicarlas en exclusiva a crear titles y metadescriptions únicos donde no los hay, y generar algo de texto en páginas de listados que no tienen contenido más allá de los propios listados.

El caso es que en esas condiciones, insisto, por prestar atención a lo urgente, no queda dinero del cliente o tiempo mío para dedicarlo a un aspecto que cada vez me parece más importante: el microcopy. Para explicar el microcopy voy a traducir la definición que hacen en Bokardo, yo no sabría definirlo mejor: El microcopy es copy breve pero potente, con un gran efecto sobre las decisiones que toma el usuario.

Trabajas microcopy cuando en una situación determinada reduces la incertidumbre del usuario, por ejemplo en un formulario, al facilitar un dato clave en pocas palabras que puede evitar que el usuario se eche atrás o que llame al servicio de atención al cliente. Es un breve texto que acompaña al usuario o le aclara un aspecto importante cuando queremos que tome una decisión. Pero el microcopy se puede aplicar en cualquier página, no hablamos solo de formularios. A veces pueden ser simples anotacioens bajo unos iconos o un para de términos descriptivos bien puestos en un menú.

Podéis ver en este grupo de Flickr bastantes ejemplos de microcopy, algunos más acertados que otros, pero todos ilustrativos.

Mide el rendimiento de tu inversión en SEO: OTMDashboard

OTMDashboard es la nueva herramienta desarrollada por Onetomarket, la agencia de marketing online en la que trabajo como consultor SEO de contenidos: es un dashboard o cuadro de mando que se personaliza en función de las necesidades de los clientes. Permite seguir fácilmente el ROI de las campañas de marketing online.

Aunque sirve tanto para Adwords como para SEO, me voy a centrar en el posicionamiento en buscadores, porque es el departamento en el que estoy. ¿Qué aportamos con esta herramienta? Información útil para tomar decisiones. Por nuestra experiencia, sabemos que demasiadas empresas tienen puesto el código de Google Analytics y o bien no miran los datos o se limitan a mirar las visitas y las páginas vistas.

Y ya está: a menudo las visitas bajan en verano, Navidad y Semana Santa, y el resto del año a esperar que suban, así, como por arte de magia. Pues no: una de las tareas que más eficazmente llevamos a cabo en mi empresa es hacer ver a nuestros clientes que esta situación es la prueba de que no están aprovechando su sitio web, que no tienen objetivos claros marcados y que no los están midiendo para ver si mejoran en el tiempo.

Índices de fidelización, tasas de rebote, descargas por visita, compras, registros, solicitudes de información, otros tipos de conversiones: pensar en objetivos concretos es una forma de ver de forma clara cómo sacer partido de tu sitio web y poder medir si lo estás consiguiendo.

El caso es que a pesar de los beneficios de nuestra consultoría, muchos clientes no tienen tiempo de acceder a Google Analytics y extraer los datos que necesitan. Los datos que realmente necesitan no son fáciles de consultar (objetivos, segmentos avanzados, etc.) y son distintos a veces no solo en función del cliente, sino en función del departamento de la empresa.

Y ahí es donde interviene nuestro dashboard, que de un vistazo te permite saber si la campaña SEO va bien o no, a partir de diversas métricas personalizadas en función del cliente: de su sitio web, de las palabras clave de su proyecto, de qué considera una conversión, etc. Ayudamos a los clientes a fijar sus objetivos y establecemos las métricas que van a permitir seguir su evolución en el tiempo: una vez el cuadro de mando está personalizado, el cliente únicamente tiene que entrar en su dashboard de marketing online, con sus claves de acceso y consultar en todo momento cómo va su SEO.