Actualización PR, diciembre 2008

Matt Cutts ha confirmado en su cuenta de Twitter la última actualización del 2008 o la primera actualización de PageRank del 2009, manteniendo de esta manera la tónica de una actualización de PR cada 2-3 meses.

De momento he visto bajadas importantes en la blogosfera  y hay quien habla de una bajada masiva de PageRank. Veremos como se estabiliza esta actualización y como afecta al SERP en las próximas horas.

Penalización por contenido duplicado

Interesante el post para desmitificar las penalizaciones por contenido duplicado que han publicado en El Blog para Webmasters.

Una vez más se insiste en que la duplicación de contenido natural no penaliza y que cuando Google habla de penalizaciones por duplicación de contenido, se refiere a sitios que copian a terceros o que generan múltiples dominios o subdominios con contenido idéntico.

Sobre el contenido duplicado natural se insiste en que el único resultado es la agrupación del contenido:

  1. Cuando detectamos contenido duplicado, por ejemplo a través de variaciones en los parámetros de la URL, agrupamos las URL duplicadas en un grupo.
  2. Seleccionamos lo que creemos es la “mejor” URL para representar a dicho grupo en los resultados de búsqueda.
  3. A continuación, se consolidan todas las propiedades de las URL del grupo, como por ejemplo la popularidad de los enlaces, para la URL que las representa.

Resumiendo:  dadas dos URLs http://dominio.com/listado?orden=nombre o http://dominio.com/listado?orden=relevancia con idénticos contenidos, Google elegirá cual considera mejor y la mostrará para la búsqueda pertinente.

Allá nosotros si queremos dar esa responsabilidad extra a Google  Risa

SEO: Múltiples idiomas, dominios, subdominios, …

Ante la típica duda SEO de como planetar un site multiidioma a nivel de dominios o URLs, Matt Cutts responde lo siguiente en el Webmaster Chat del mes de Octubre:

Suppose my website supports English and French. Should the English version of a particular page and the French version have different URLs? Any other best practices for multi-lingual site architecture?
Matt Cutts: If you can afford it, I would do domain.com and domain.fr. If that’s not possible, I would consider doing en.domain.com and fr.domain.com. If that’s not possible, then domain.com/en and domain.com/fr can work. In webmaster tools, you can geographically target a site (and I believe parts of a site such as fr.domain.com), which will help as well.

Si nos cogemos al pié de la letra lo que responde Matt, podemos suponer que la apuesta ganadora es en primer lugar usar dominios diferentes, subdominios si no es posible trabajar con multi-dominios y en último caso los subdirectorios en un mismo dominio.

Lógicamente,  esta decisión será relevante para nuestro posicionamiento, pero tiene que ir acompañada de más decisiones acertadas. Ya sabemos que una única decisión adecuada no es concluyente en esta labor.

¿Software vulnerable peor SEO?

El pasado jueves, en el Official Google Webmaster Central Blog anunciaban que Google está testeando la notificación, vía WebmasterTools, de la peligrosidad de tu CMS.

Aviso Google WebmasterTools

Esto es, si tienes una versión de WordPress antigua y vulnerable, recibirás un aviso a través de las Google WebmasterTools que te informará de la peligrosidad de usar esa versión del CMS y recomendándote una actualización.

Esta nueva herramienta o utilidad de Google puede ser de gran interés para los Webmasters despitados que disponen de versiones antiguas y vulnerables de su CMS en producción. Pero cabe que nos preguntemos algo más ¿afectarán estas notificaciones, o esta información, al posicionamiento de nuestra página en Google?

Siguiendo la misma lógica que se usa para dar importancia al hosting de nuestro site a la hora de rankear (mayor fiabilidad del hosting = mejor posicionamiento), parece lógico pensar que para Google un site vulnerable es menos de fiar que uno que no lo sea, ya que en cualquier momento puede ser hackeado y sus contenidos pueden cambiar radicalmente.

Está claro que si Google recoge esta información, algún motivo (a parte de informar al usuario gratuitamente) debe tener.

Y si aceptamos que este factor puede influir en el SEO de nuestra página nos podemos hacer muchas preguntas:

  • ¿Será mejor, hablando únicamente de SEO,  no usar un CMS genérico para nuestro site?
  • ¿Deberemos esconder nuestro CMS o nuestra versión del mismo a los crawlers?
  • ¿Empezará a hacer Google testeos de vulnerabilidades sobre dominios para penalizar sites vulnerables?

¿Estamos ante un nuevo parámetro del algoritmo? ¿O quizás no es tan nuevo?

URL estáticas o dinámicas

Como era de esperar, desde que la gente de Google publicó un artículo informando que ya no era necesario transformar en estáticas las URLs dinámicas, el mundo SEO ha hablado mucho del tema: en SEOmoz han aportado su grano de arena, en SEOBook también han hecho algun comentario, al igual que vSeo, IlMaestro o en MPR.

Está claro que Google la ha liado gorda, pero por otro lado, ¿de qué nos sorprende? Estamos jugando en su cancha, con sus reglas y además estas no son públicas… pero donde estaría la diversión sino.

Bajo mi punto de vista es posible que Google haya decidido quitar relevancia al hecho de que una URL sea estática o no y seguramente han mejorado el algoritmo de crawleo para que las URL dinámicas se indexen mejor que hasta ahora. No obstante, el único input real del usuario que Google puede desprender de una páginas de resultados es el CTR y este se puede ver alterado por una URL dinámica:

Un usuario que busque información sobre la discoteca Pacha de Ibiza, ante estas dos URLs:

Es fácil pensar que hará click en la segunda. Además, como se comenta en el artículo de SEOmoz, si alguien usa la URL estática como anchor del propio enlace (tal y como está en este ejemplo), la propia URL se transforma en un anchor text interesante.

En mi opinión el debate generado alrededor del artículo de Google, debería centrarse en URLs semánticas o no. Del mensaje de Google deduzco que para el crawler estas dos URLs van a ser iguales:

  • http://www.mitienda.com/productos/producto_23.html
  • http://www.mitienda.com/productos.php?id_producto=23

En estas, ya no nos es tan fácil saber cual va a tener mayor CTR y al final el enlace por si mismo aporta idéntica información al usuario.

De momento, las reglas para mi no han cambiado, las URLs como más semánticas y más optimizadas para las KW que queremos potenciar, mejor. No sólo para mejorar los resultados SEO, también para mejorar la experiencia de usuario, la facilidad de recordar la URL y por tanto los resultados generales del site.

SEO y la paginación

La paginación de un site puede generar problemas en nuestra estrategia SEO: por un lado nos podemos encontrar con contenido duplicado (el contenido que está hoy en la URL única de la página 1, mañana estará en la URL única de la página 2) y por otro lado tenemos la dificultad de que los crawlers naveguen hasta la última página de nuestro site.

Enric Ramos hace un tiempo ya comentó diferentes métodos de paginación y los pros i contras de cada uno de ellos en función del objetivo de nuestra estrategia.

Hoy en  el WhiteBoard Friday de SeoMoz, Rand Fishkin, nos hace una buena propuesta sobre como paginar nuestros sites para que sean fácilmente indexables y para evitar los problemas que comentaba.

Un poco de luz en la oscuridad del paginado 😉

Malas campañas que afectan al SERP

Esta claro que cualquier mala campaña en contra de nuestra marca puede salir muy cara, especialmente si afecta al SERP para la misma y de rebote a nuestra estrategia SEO.

Yo destacaría tres orígenes distintos de malas campañas que pueden afectar a nuestro SERP:

  1. Google Bombing
  2. Clientes insatisfechos
  3. El día a día

Google Bombing

Esta técnica, que consiste en enlazar con una cierta anchor text una misma página, desde cientos de sitios web parece ser que es fácilmente detectable, y cada vez con más rapidez Google está poniendo fin a estas acciones. Por lo que nos deberían preocupar relativamente poco.

En la WikiPedia podemos encontrar decenas de ejemplos de este conocido ataque, que se ha usado en varias ocasiones en contra de la SGAE, Telefónica, etc.

Clientes insatisfechos

Otro clásico de las malas campañas son, igual que lo serían offline, los clientes insatisfechos. Si nuestra marca ofrece un servicio al público, es totalmente utópico creer que vamos a satisfacer el 100% de nuestros clientes. ¿Qué pasa si este (bajo) porcentaje de clientes insatisfechos deciden expresar sus quejas a través de la red de forma más o menos trabajada? Su acción en la red puede afectar seriamente a nuestras posibles ventas.

Este tipo de campañas van a ser mucho más duras de salvar, ya que suelen afectar a la credibilidad de nuestra marca. La magnitud del problema irá de la mano de la seriedad y la dedicación de los clientes insatisfechos. A priori Google no desindexará una página web que habla mal de nuestra marca sin ningún otro motivo.

Un claro ejemplo de estas malas campañas por clientes insatisfechos puede verse al buscar Agrupació Mútua en Google,  en los primeros resultados aparece una página de clientes insatisfechos con esta compañía, www.decebutsagrupaciomutua.com, afectando claramente a los intereses de la marca.

El día a día

La famosa Universal Search de Google hace posible que el día a día también sea una mala campaña que afecta al SERP y que puede afectar a nuestros posibles clientes.

El día a día genera noticias de las que no podemos escapar, las noticias son contenido fresco que Google posicionará rápidamente en las primeras posiciones del SERP para dar información fresca a los usuarios que la soliciten.  ¿Qué pasa cuando las noticias, como es habitual, son malas noticias?

Recientemente ha habido varias noticias relacionadas con el sector turístico/aviación. Si buscamos en Google ciertas marcas relacionadas con dicho sector: Spanair, RyanAir, Atrápalo, eDreams (por ejemplo), en las primeras páginas del SERP de todas ellas encontramos noticias no muy faborables para las marcas que afectarán posiblemente a sus ventas.

Batallar con las noticias o eventos del día a día es algo duro y difícil. Una de las mejores opciones, bajo mi punto de vista, es la constancia en la publicación de notas de prensa y noticias para generar noticias buenas, y reales lógicamente, sobre nuestra marca.