SEO: Rollback de los cambios de octubre

Parece que Google también comete errores y están deshaciendo los cambios que habían hecho en el SERP a finales de octubre.

Parece que le propio Matt Cutts ha comentado que se están revertiendo los cambios en el foro de WebmasterWorld (requiere registro)

I think this was a short-term issue and things should be back to normal pretty soon (if not already).

Vamos a ver en que queda de todo, al fin y al cabo es bueno ver que también hay humanos que cometen errores trabajando en Google 😉

Google Images: caras, fotos, noticias, etc.

No me había dado cuenta que Google Images (de momento sólo la versión inglesa) ya muestra el filtro para especificar qué tipo de fotografía o imagen queremos buscar:

Google Images Content Type

Pudiendo elegir si queremos ver imágenes de caras, fotos o imágenes aparecidas en Google News. Google ya permitía aplicar estos filtros, pero hasta ahora no había hecho público el acceso al mismo. Con ello se incrementa la facilidad para encontrar imágenes de interés para el usuario y añade otro parámetro a los dos existentes (tamaño y fotos ‘safe’) que afecta a la indexación de las imágenes.

SEO: Cambios Google Octubre

Este último mes ha habido varios bailes en los SERP de Google, páginas que suben y bajan de un día a otro, tráfico que se dispara para una KeyWord particular seguido de una caída para la misma KeyWord, etc…

Como comentan en AdSeok, parece que Google ha aplicado una serie de cambios este pasado Octubre que han quitado relevancia ciertos los enlaces (fácilmente comprables) como los de los footers, webs recomendados, etc.

Sea como sea, está claro que se avencinan cambios en el mundo SEO, quizás menos estancamiento en los SERP, menos peso aún a los enlaces patrocinados o no contextualizados, etc. Si esto fuera así, preveo que se van a disparar los bloggers que van a poder vivir por los posts patronciados.

Universia.es de PR10 a PR6

¡Y sin pasar por la casilla de salida! Universia.es pasará a la historia como la primera web española que consiguió un PageRank 10 pero seguramente también como la web que más rápido lo perdió.

Ahora mismo el portal tiene un PR6, bajo mi punto de vista, a causa de alguna penalización por enlaces patrocinados.

Veremos si hacen una petición de reconsideración y como resulta.

Actualización: Vuelve a tener un PR10, ¿baile de PR? ¿Tendrá algo que ver la redirección a “index.htm” que ahora hacen y antes no hacían?

SEO: Múltiples idiomas, dominios, subdominios, …

Ante la típica duda SEO de como planetar un site multiidioma a nivel de dominios o URLs, Matt Cutts responde lo siguiente en el Webmaster Chat del mes de Octubre:

Suppose my website supports English and French. Should the English version of a particular page and the French version have different URLs? Any other best practices for multi-lingual site architecture?
Matt Cutts: If you can afford it, I would do domain.com and domain.fr. If that’s not possible, I would consider doing en.domain.com and fr.domain.com. If that’s not possible, then domain.com/en and domain.com/fr can work. In webmaster tools, you can geographically target a site (and I believe parts of a site such as fr.domain.com), which will help as well.

Si nos cogemos al pié de la letra lo que responde Matt, podemos suponer que la apuesta ganadora es en primer lugar usar dominios diferentes, subdominios si no es posible trabajar con multi-dominios y en último caso los subdirectorios en un mismo dominio.

Lógicamente,  esta decisión será relevante para nuestro posicionamiento, pero tiene que ir acompañada de más decisiones acertadas. Ya sabemos que una única decisión adecuada no es concluyente en esta labor.

¿Software vulnerable peor SEO?

El pasado jueves, en el Official Google Webmaster Central Blog anunciaban que Google está testeando la notificación, vía WebmasterTools, de la peligrosidad de tu CMS.

Aviso Google WebmasterTools

Esto es, si tienes una versión de WordPress antigua y vulnerable, recibirás un aviso a través de las Google WebmasterTools que te informará de la peligrosidad de usar esa versión del CMS y recomendándote una actualización.

Esta nueva herramienta o utilidad de Google puede ser de gran interés para los Webmasters despitados que disponen de versiones antiguas y vulnerables de su CMS en producción. Pero cabe que nos preguntemos algo más ¿afectarán estas notificaciones, o esta información, al posicionamiento de nuestra página en Google?

Siguiendo la misma lógica que se usa para dar importancia al hosting de nuestro site a la hora de rankear (mayor fiabilidad del hosting = mejor posicionamiento), parece lógico pensar que para Google un site vulnerable es menos de fiar que uno que no lo sea, ya que en cualquier momento puede ser hackeado y sus contenidos pueden cambiar radicalmente.

Está claro que si Google recoge esta información, algún motivo (a parte de informar al usuario gratuitamente) debe tener.

Y si aceptamos que este factor puede influir en el SEO de nuestra página nos podemos hacer muchas preguntas:

  • ¿Será mejor, hablando únicamente de SEO,  no usar un CMS genérico para nuestro site?
  • ¿Deberemos esconder nuestro CMS o nuestra versión del mismo a los crawlers?
  • ¿Empezará a hacer Google testeos de vulnerabilidades sobre dominios para penalizar sites vulnerables?

¿Estamos ante un nuevo parámetro del algoritmo? ¿O quizás no es tan nuevo?

Search Congress Barcelona 2009: precios, blog y twitter

Desde hace unos días los organizadores del Search Congress Barcelona han puesto en marcha el blog del evento donde nos mantendrán informados de los sucesos importantes que afectan al SCB. Además, en una estrategia de comunicación muy 2.0, también han dado de alta un usuario en Twitter: @searchcongress donde esperamos encontrar la información clave del evento.

El tiempo avanza y los ponentes del Search Congress Barcelona van confirmando su asistencia, se van acabando de definir las sesiones y WorkShops así como los precios de los mismos.

Los precios del Search Congress Barcelona dependen del número de WorkShops a los que asistas, de manera que puedes configurarte las sesiones y precios a tu gusto. Compres la entrada que compres, puedes usar el código promocional volldammSCB y obtendrás importantes descuentos sobre los precios originales.

URL estáticas o dinámicas

Como era de esperar, desde que la gente de Google publicó un artículo informando que ya no era necesario transformar en estáticas las URLs dinámicas, el mundo SEO ha hablado mucho del tema: en SEOmoz han aportado su grano de arena, en SEOBook también han hecho algun comentario, al igual que vSeo, IlMaestro o en MPR.

Está claro que Google la ha liado gorda, pero por otro lado, ¿de qué nos sorprende? Estamos jugando en su cancha, con sus reglas y además estas no son públicas… pero donde estaría la diversión sino.

Bajo mi punto de vista es posible que Google haya decidido quitar relevancia al hecho de que una URL sea estática o no y seguramente han mejorado el algoritmo de crawleo para que las URL dinámicas se indexen mejor que hasta ahora. No obstante, el único input real del usuario que Google puede desprender de una páginas de resultados es el CTR y este se puede ver alterado por una URL dinámica:

Un usuario que busque información sobre la discoteca Pacha de Ibiza, ante estas dos URLs:

Es fácil pensar que hará click en la segunda. Además, como se comenta en el artículo de SEOmoz, si alguien usa la URL estática como anchor del propio enlace (tal y como está en este ejemplo), la propia URL se transforma en un anchor text interesante.

En mi opinión el debate generado alrededor del artículo de Google, debería centrarse en URLs semánticas o no. Del mensaje de Google deduzco que para el crawler estas dos URLs van a ser iguales:

  • http://www.mitienda.com/productos/producto_23.html
  • http://www.mitienda.com/productos.php?id_producto=23

En estas, ya no nos es tan fácil saber cual va a tener mayor CTR y al final el enlace por si mismo aporta idéntica información al usuario.

De momento, las reglas para mi no han cambiado, las URLs como más semánticas y más optimizadas para las KW que queremos potenciar, mejor. No sólo para mejorar los resultados SEO, también para mejorar la experiencia de usuario, la facilidad de recordar la URL y por tanto los resultados generales del site.

Search Congress Barcelona 2009: Los ponentes

En la recién estrenada página del Search Congress Barcelona 2009, ya podemos ver quienes van a ser los ponentes del congreso, entre los que se cuentan algunos de los consultores SEO más habituales de congresos y jornadas, así como el lugar del evento y cual es el timing previsto.

El evento se dividirá en dos partes: los workshops que se llevarán acabo el primer día (28.01.09) y el congreso que se realizará los días 29 y 39 de enero, con conferencias de varios niveles en paralelo.

Un panorama prometedor para el primer Search Congress Barcelona.

Cuando compres la entrada, puedes usar el código promocional para el Search Congress Barcelona: volldammSCB y obtendrás importantes descuentos sobre los precios originales.