Lively se muere

Google ha anunciado que va a dejar de ofrecer Lively a partir de mes de diciembre. Parece que Google quiere centrar sus esfuerzos y recursos en su core: el buscador, los anuncios, etc. dejando de lado ideas locas 😉

Lively nació el pasado mes de julio como respuesta de Google al crecimiento de Second Life, un mundo virtual donde podíamos crear nuestro alterego y pasearlo por habitaciones y situaciones de lo más peculiares. Lively permitía crear nuestras propias habitaciones, compartirlas de forma senzilla e invitar a nuestros amigos virtuales o no a visitarlas. En una mezcla de Second Life con The Sims, nuestros personajes debían ir de compras parar adquirir productos para diseñar y decorar sus habitaciones.

Lively shutdown

Muerte virtual para un proyecto de vida virtual :

Lively is shutting down
Rooms and avatars will not be available after December 31st, 2008

Guía SEO

Ahora que por fin he acabado la Guía de SEO Básico para los nuevos negocios de Grupo Intercom leo que Google lanza su propia Guía de SEO, ¿me habrán plagiado? Todo bien

Bromas e ironias a parte, como cabe esperar en la Guía publicada por Google no hay ningún tema especialmente delicado, son más bien un conjunto de recomendaciones básicas que todo el mundo debería conocer, dudo que se introduzcan en temas más delicados.

Post para subirse el ánimo a uno mismo 😉

Penalización por contenido duplicado

Interesante el post para desmitificar las penalizaciones por contenido duplicado que han publicado en El Blog para Webmasters.

Una vez más se insiste en que la duplicación de contenido natural no penaliza y que cuando Google habla de penalizaciones por duplicación de contenido, se refiere a sitios que copian a terceros o que generan múltiples dominios o subdominios con contenido idéntico.

Sobre el contenido duplicado natural se insiste en que el único resultado es la agrupación del contenido:

  1. Cuando detectamos contenido duplicado, por ejemplo a través de variaciones en los parámetros de la URL, agrupamos las URL duplicadas en un grupo.
  2. Seleccionamos lo que creemos es la “mejor” URL para representar a dicho grupo en los resultados de búsqueda.
  3. A continuación, se consolidan todas las propiedades de las URL del grupo, como por ejemplo la popularidad de los enlaces, para la URL que las representa.

Resumiendo:  dadas dos URLs http://dominio.com/listado?orden=nombre o http://dominio.com/listado?orden=relevancia con idénticos contenidos, Google elegirá cual considera mejor y la mostrará para la búsqueda pertinente.

Allá nosotros si queremos dar esa responsabilidad extra a Google  Risa

SEO: Rollback de los cambios de octubre

Parece que Google también comete errores y están deshaciendo los cambios que habían hecho en el SERP a finales de octubre.

Parece que le propio Matt Cutts ha comentado que se están revertiendo los cambios en el foro de WebmasterWorld (requiere registro)

I think this was a short-term issue and things should be back to normal pretty soon (if not already).

Vamos a ver en que queda de todo, al fin y al cabo es bueno ver que también hay humanos que cometen errores trabajando en Google 😉

Google Images: caras, fotos, noticias, etc.

No me había dado cuenta que Google Images (de momento sólo la versión inglesa) ya muestra el filtro para especificar qué tipo de fotografía o imagen queremos buscar:

Google Images Content Type

Pudiendo elegir si queremos ver imágenes de caras, fotos o imágenes aparecidas en Google News. Google ya permitía aplicar estos filtros, pero hasta ahora no había hecho público el acceso al mismo. Con ello se incrementa la facilidad para encontrar imágenes de interés para el usuario y añade otro parámetro a los dos existentes (tamaño y fotos ‘safe’) que afecta a la indexación de las imágenes.

SEO: Cambios Google Octubre

Este último mes ha habido varios bailes en los SERP de Google, páginas que suben y bajan de un día a otro, tráfico que se dispara para una KeyWord particular seguido de una caída para la misma KeyWord, etc…

Como comentan en AdSeok, parece que Google ha aplicado una serie de cambios este pasado Octubre que han quitado relevancia ciertos los enlaces (fácilmente comprables) como los de los footers, webs recomendados, etc.

Sea como sea, está claro que se avencinan cambios en el mundo SEO, quizás menos estancamiento en los SERP, menos peso aún a los enlaces patrocinados o no contextualizados, etc. Si esto fuera así, preveo que se van a disparar los bloggers que van a poder vivir por los posts patronciados.

Universia.es de PR10 a PR6

¡Y sin pasar por la casilla de salida! Universia.es pasará a la historia como la primera web española que consiguió un PageRank 10 pero seguramente también como la web que más rápido lo perdió.

Ahora mismo el portal tiene un PR6, bajo mi punto de vista, a causa de alguna penalización por enlaces patrocinados.

Veremos si hacen una petición de reconsideración y como resulta.

Actualización: Vuelve a tener un PR10, ¿baile de PR? ¿Tendrá algo que ver la redirección a “index.htm” que ahora hacen y antes no hacían?

¿Software vulnerable peor SEO?

El pasado jueves, en el Official Google Webmaster Central Blog anunciaban que Google está testeando la notificación, vía WebmasterTools, de la peligrosidad de tu CMS.

Aviso Google WebmasterTools

Esto es, si tienes una versión de WordPress antigua y vulnerable, recibirás un aviso a través de las Google WebmasterTools que te informará de la peligrosidad de usar esa versión del CMS y recomendándote una actualización.

Esta nueva herramienta o utilidad de Google puede ser de gran interés para los Webmasters despitados que disponen de versiones antiguas y vulnerables de su CMS en producción. Pero cabe que nos preguntemos algo más ¿afectarán estas notificaciones, o esta información, al posicionamiento de nuestra página en Google?

Siguiendo la misma lógica que se usa para dar importancia al hosting de nuestro site a la hora de rankear (mayor fiabilidad del hosting = mejor posicionamiento), parece lógico pensar que para Google un site vulnerable es menos de fiar que uno que no lo sea, ya que en cualquier momento puede ser hackeado y sus contenidos pueden cambiar radicalmente.

Está claro que si Google recoge esta información, algún motivo (a parte de informar al usuario gratuitamente) debe tener.

Y si aceptamos que este factor puede influir en el SEO de nuestra página nos podemos hacer muchas preguntas:

  • ¿Será mejor, hablando únicamente de SEO,  no usar un CMS genérico para nuestro site?
  • ¿Deberemos esconder nuestro CMS o nuestra versión del mismo a los crawlers?
  • ¿Empezará a hacer Google testeos de vulnerabilidades sobre dominios para penalizar sites vulnerables?

¿Estamos ante un nuevo parámetro del algoritmo? ¿O quizás no es tan nuevo?

URL estáticas o dinámicas

Como era de esperar, desde que la gente de Google publicó un artículo informando que ya no era necesario transformar en estáticas las URLs dinámicas, el mundo SEO ha hablado mucho del tema: en SEOmoz han aportado su grano de arena, en SEOBook también han hecho algun comentario, al igual que vSeo, IlMaestro o en MPR.

Está claro que Google la ha liado gorda, pero por otro lado, ¿de qué nos sorprende? Estamos jugando en su cancha, con sus reglas y además estas no son públicas… pero donde estaría la diversión sino.

Bajo mi punto de vista es posible que Google haya decidido quitar relevancia al hecho de que una URL sea estática o no y seguramente han mejorado el algoritmo de crawleo para que las URL dinámicas se indexen mejor que hasta ahora. No obstante, el único input real del usuario que Google puede desprender de una páginas de resultados es el CTR y este se puede ver alterado por una URL dinámica:

Un usuario que busque información sobre la discoteca Pacha de Ibiza, ante estas dos URLs:

Es fácil pensar que hará click en la segunda. Además, como se comenta en el artículo de SEOmoz, si alguien usa la URL estática como anchor del propio enlace (tal y como está en este ejemplo), la propia URL se transforma en un anchor text interesante.

En mi opinión el debate generado alrededor del artículo de Google, debería centrarse en URLs semánticas o no. Del mensaje de Google deduzco que para el crawler estas dos URLs van a ser iguales:

  • http://www.mitienda.com/productos/producto_23.html
  • http://www.mitienda.com/productos.php?id_producto=23

En estas, ya no nos es tan fácil saber cual va a tener mayor CTR y al final el enlace por si mismo aporta idéntica información al usuario.

De momento, las reglas para mi no han cambiado, las URLs como más semánticas y más optimizadas para las KW que queremos potenciar, mejor. No sólo para mejorar los resultados SEO, también para mejorar la experiencia de usuario, la facilidad de recordar la URL y por tanto los resultados generales del site.