Enlaces pagados

En el Blog para webmasters de Google comentan la compra de enlaces por parte de Google Japan y extrapolan para hablar de los enlaces pagados.

Si el dueño de un sitio web enlaza a una página web es en principio porque cree que esa página puede ser de utilidad o de valor añadido para sus lectores o usuarios.

[ … ]

Ahora bien si alguien ofrece dinero por enlazarle se está entrando en otro terreno con diferentes efectos, no solo para los usuarios (los cuales deberían ser advertidos) sino para el propio sitio web en cuanto su posición en los resultados de un determinado motor de búsqueda, digamos Google.

 

Consecuencias del error (humano) de Google

Cuando ya hace tres días del error humano que hizo que Google indicara que todo Internet era Malware en su indice, podemos medir las consecuendias de dicho error.

A parte de los entre 2 y 3 millones de dólares que perdió Google, según los expertos, en concepto de Adsense en esos 45 minutos de pánico mundial Lengua fuera, tenemos las perdidas que se ocasionaron a terceros.

Os adjunto unas métricas de como afectó a varios negocios el apagón de Google el pasado sábado, comparando los datos del sábado 31 con los del sábado anterior:

efectos Google - malware I

efectos Google - malware II

efectos Google - malware III

Como veis, independientemente del tamaño del site la caída se percibió sin ninguna duda.

Me pregunto si caídas como estas tienen también efectos sobre la marca de algún site, hasta que punto un usuario estándard de Google que busca el site de una marca YYY para comprar un billete de avión volverá a intentar acceder a ese sitio después de que Google le haya avisado de que la página en cuestión podía dañar su ordenador.

¿Creeis que se dió cuenta un usuario estándard del error de Google?

Search Congress 2009: opinión primer día

Search Congress BarcelonaAcabado el Search Congress 2009 en Barcelona es hora de dar feedback para que las próximas ediciones sean mejores Todo bien, de momento os avanzo el resumen del primer día.

Una semanas antes del Search Congress decidí que no asistiría a los WorkShops de está edición, ya que me no tenía nada claro el nivel de los mismos, tras comentarlo en un par de ocasiones con Ouali la duda seguía allí y un problema de agenda acabó por decantar la balanza 😉 Así que no os podré dar feedback del primer día del Search Congress, aunque lo que me han comentado varios compañeros que asistieron a las sesiones es que el nivel de las mismas era básico.

El jueves, tras el día de WorkShops, arrancan las conferencias con un retraso importante (espero que la organización haya aprendido que las distribución de ‘chapas’ con el nombre no es algo ágil). La buena noticia es que la organización había pensado en la WiFi y por tanto podíamos contrastar la información de los ponentes, así como Twittear el evento en directo, no obstante como siempre tiene que fallar algo, teníamos WiFi pero no tomas de corriente (suerte que pudimos desenchufar las lámparas de la sala de recepción).

Las conferencias empezaron con la charla de Ricardo Baeza (Yahoo) sobre minería de datos que, bajo mi punto de vista, aportó poca información nueva y se apoyó en datos (dió algun dato del 2005), no obstante se comentó la existencia de WET (Web Exploration Tool) una herramienta aún en desarrollo que promete ser una delicia para obtener información de navegación de nuestro site.

La segunda charla, fue la primera con cambios, la gente de Minube no pudo venir así que la conferencia únicamente contó con Miguel Orense (KanvasMedia) que se centró en la intersección entre SMO y SEO, siendo el primero en insistir en la idea que se repitió durante todo el congreso, el SEO está cambiando y ya no vale con lo que nosotros decimos de nuestra marca, hay que contemplar lo que dicen los usuarios y la segmentación que ofrecen las redes sociales nos puede ayudar a conseguir buenos resultados al respecto.

Tercera charla, sin tiempo para respirar ni hacer un café, Lennert de Rijk (OneToMarket) da la mejor conferencia de la mañana (siempre bajo mi humilde punto de vista Guiño), de su charla me quedo especialmente con la información relevante sobre como trabajar el posicionamiento en Google Local y la importancia que van a tener estas búsquedas de la mano del concepto de Local Search = Mobile (no hace falta hablar del crecimiento que están teniendo las conexiones a la red desde terminales móviles).

Queriendo pasearme por el Village y habiendo oído a Ismael El-Qudsi (Havas), decidí tomar un café e  interactuar con otros SEO, el Village quedaba un poco escondido y no daba mucho de sí, como siempre Microsoft regalando chorradillas en su stand y consultoras haciéndose sitio y sombra las unas a las otras.

Los retrasos que se acumularon durante el día hicieron que la conferencia de Overalia sobre ORM (Online Reputation Managament) se realizara tras el break para comer,  llegué tarde y me la perdí, pero por lo que he podido contrastar fue similar a la que dieron en el SMX de Madrid del año pasado, perderme la sesión por una comida productiva fue un mal menor.

La tarde, para mi, empieza con la sesión del Massimo Burgio (SEMPO) que me sirvió para contrastar lo que ya sospechaba, la manera de exponer de Massimo agrada a unos y altera a otros tantos Sonrisa, la charla fue una rápida introducción a SEMPO que Massimo siempre cuela bajo el comentario de “no voy a hablaros ahora de SEMPO ;-)”, seguida de una exposición sobre el nuevo concepto de búsqueda para la web actual y la importancia del Search Marketing para consolidar una marca. Otra vez la misma idea, el SEO no se muere, está cambiando.

La exposición de Microsoft, a cargo de  Juan Antonio Roncero fue la más distendida de la jornada, básicamente se realizó una presentación de los nuevos buscadores verticales de Live Search que vienen a emular lo ya existente en otros buscadores, a excepción de xRank (una especie de ranking de famosos – Ej: xRank de Penélope Cruz). A pesar de las preguntas incomodas del Windows Media y de los asistentes, Juan Antonio Roncero salió bastante airoso del encuentro Lengua fuera

Para acabar el primer día de Search Congress teníamos una sorpresa anunciada, Enrique Aguilera no pudo asistir al congreso y Enric Ramos le sustituyó en la charla sobre Advanced SEO sin duda la mejor conferencia del día. En ella Enric comentó la importancia de hacer seguimiento de los KPIs para detectar posibles incidencias en el posicionamiento de nuestro site, se extendió en la importancia de tener contenidos de valor y una estrategia de linking natural dando una estimación, bajo su punto de vista, de la importancia de estos dos factores respecto al resto de las técnicas OnPage:  80% (Contenido + Linking) / 20% (Otras estrategias OnPage).  Para acabar explico qué hacer en el peor de los casos, cuando nos encontramos ante una penalización o baneo de nuestro site.

El primer día, bajo mi punto de vista fue positivo. A mejorar de cara a nuevas ediciones: La puntualidad, que tan cara va en estos eventos y un desayuno o comida bien organizados que facilitan mucho el networking en este tipo de conferencias.

Google y páginas sin resultados

Matt Cutts nos anima a notificar a Google la indexación de páginas sin resultados de forma específica a través del Spam Report de Google:

1. Go to our authenticated spam report form. You’ll need a Google account to sign into our webmaster console. This form is available in dozens of languages, not just English.

2. In the “Additional details” section, make sure you include the word “noresults” (all one word, all lowercase). Feel free to fill in the other fields with info if you want.

3. Provide an actual “no results found” or “empty review” example url. For example, in the “Additional details” section, the text can be as short as this:

When I searched for [blue widget reviews] on Google, the url http://www.example.com/review/2008?q=blue+widget looks like it has reviews, but when you click through you see the message “No Comments | 0 Positive Reviews | 0 Negative Reviews. Overall Rating: No Ratings. Leave Your Ratings or Reviews here!” The page doesn’t actually have any information or reviews of the blue widget product.

¿Cuantos de los casi 3 millones de resultados con la KW no results found for deberían ser reportados?

De momento Google nos pide feedback, veremos que passa próximamente.

Actualización PR, diciembre 2008

Matt Cutts ha confirmado en su cuenta de Twitter la última actualización del 2008 o la primera actualización de PageRank del 2009, manteniendo de esta manera la tónica de una actualización de PR cada 2-3 meses.

De momento he visto bajadas importantes en la blogosfera  y hay quien habla de una bajada masiva de PageRank. Veremos como se estabiliza esta actualización y como afecta al SERP en las próximas horas.

Comprar enlaces sin comprarlos

La compra de enlaces cada día es una práctica más habitual para conseguir Link Juice, a pesar de ser una práctica penalizada muchos SEO nos podrían contar fabulosos resultados con esta práctica.

Desde SEOmoz, randfish publica su presentación sobre cómo realizar una compra de enlaces sin efectuar tal compra, en la que se dan ejemplos de las siguientes prácticas:

  • Esponsorizar un evento
  • Hacer donaciones
  • Comprar sitios web
  • Comprar contenidos
  • Comprar tráfico viral
  • Vender o promover que los bloggers hagan revisiones de tus productos
  • Acuerdos como proveedores de contenidos
  • Generar o incubar blogs

Interesante colección de técnicas para mejorar nuestro Link Juice de forma natural.

Guía SEO

Ahora que por fin he acabado la Guía de SEO Básico para los nuevos negocios de Grupo Intercom leo que Google lanza su propia Guía de SEO, ¿me habrán plagiado? Todo bien

Bromas e ironias a parte, como cabe esperar en la Guía publicada por Google no hay ningún tema especialmente delicado, son más bien un conjunto de recomendaciones básicas que todo el mundo debería conocer, dudo que se introduzcan en temas más delicados.

Post para subirse el ánimo a uno mismo 😉

Penalización por contenido duplicado

Interesante el post para desmitificar las penalizaciones por contenido duplicado que han publicado en El Blog para Webmasters.

Una vez más se insiste en que la duplicación de contenido natural no penaliza y que cuando Google habla de penalizaciones por duplicación de contenido, se refiere a sitios que copian a terceros o que generan múltiples dominios o subdominios con contenido idéntico.

Sobre el contenido duplicado natural se insiste en que el único resultado es la agrupación del contenido:

  1. Cuando detectamos contenido duplicado, por ejemplo a través de variaciones en los parámetros de la URL, agrupamos las URL duplicadas en un grupo.
  2. Seleccionamos lo que creemos es la “mejor” URL para representar a dicho grupo en los resultados de búsqueda.
  3. A continuación, se consolidan todas las propiedades de las URL del grupo, como por ejemplo la popularidad de los enlaces, para la URL que las representa.

Resumiendo:  dadas dos URLs http://dominio.com/listado?orden=nombre o http://dominio.com/listado?orden=relevancia con idénticos contenidos, Google elegirá cual considera mejor y la mostrará para la búsqueda pertinente.

Allá nosotros si queremos dar esa responsabilidad extra a Google  Risa