¿Software vulnerable peor SEO?

El pasado jueves, en el Official Google Webmaster Central Blog anunciaban que Google está testeando la notificación, vía WebmasterTools, de la peligrosidad de tu CMS.

Aviso Google WebmasterTools

Esto es, si tienes una versión de WordPress antigua y vulnerable, recibirás un aviso a través de las Google WebmasterTools que te informará de la peligrosidad de usar esa versión del CMS y recomendándote una actualización.

Esta nueva herramienta o utilidad de Google puede ser de gran interés para los Webmasters despitados que disponen de versiones antiguas y vulnerables de su CMS en producción. Pero cabe que nos preguntemos algo más ¿afectarán estas notificaciones, o esta información, al posicionamiento de nuestra página en Google?

Siguiendo la misma lógica que se usa para dar importancia al hosting de nuestro site a la hora de rankear (mayor fiabilidad del hosting = mejor posicionamiento), parece lógico pensar que para Google un site vulnerable es menos de fiar que uno que no lo sea, ya que en cualquier momento puede ser hackeado y sus contenidos pueden cambiar radicalmente.

Está claro que si Google recoge esta información, algún motivo (a parte de informar al usuario gratuitamente) debe tener.

Y si aceptamos que este factor puede influir en el SEO de nuestra página nos podemos hacer muchas preguntas:

  • ¿Será mejor, hablando únicamente de SEO,  no usar un CMS genérico para nuestro site?
  • ¿Deberemos esconder nuestro CMS o nuestra versión del mismo a los crawlers?
  • ¿Empezará a hacer Google testeos de vulnerabilidades sobre dominios para penalizar sites vulnerables?

¿Estamos ante un nuevo parámetro del algoritmo? ¿O quizás no es tan nuevo?

oriol

oriol wrote 1166 posts

Post navigation