Cuando se habla de sobreoptimización en términos SEO, se quiere dar a entender un abuso de las oportunidades de enriquecimiento de páginas web en base a los puntos de intervención más conocidos.

En consecuencia, estos puntos de intervención SEO más típicos son fácilmente patronizables en forma de algoritmos de "busca y captura", ya sea por parte de Google u otros buscadores.

La sobreoptimización no es un peligro nuevo, ni hay alertas específicas a tener en cuenta: es una trampa que simplemente ha estado ahí durante mucho tiempo y que las circunstancias han vuelto a poner sobre la mesa.

Google ha estado luchando sistemáticamente contra casi todas (sinó todas) las estratagemas que la comunidad SEO global ha ido urdiendo para manipular las SERP al servicio del cliente o de objetivos propios.

Esta persecución recurrente de ciertos tópicos y sus enésimas variantes ha causado que una parte del peso de los factores de posicionamiento web, variable según opiniones, haya vuelto a residir en algunos puntos que muchos habían dado por desaparecidos hace años. De hecho estas "desapariciones" tienen mucho que ver con esa sentencia que hemos leído y oído hasta la saciedad en un pasado reciente:

EL SEO HA MUERTO

¿Cómo es que vuelve la sobreoptimización otra vez si hay tantos otros puntos a tener en cuenta?
Tal vez necesitemos un poco de perspectiva histórica...

Historia del SEO resumida

Alta en buscadores ¡Qué tiempos aquellos!

Recuerdo cuando se luchaba por la primera posición en buscadores como Altavista, Yahoo, Lycos y un Google primigenio para lo que era la versión hispana y primeriza del (aún por nacer) SEO, el alta en buscadores que algunos despistados todavía ofrecen. A punto de estrenar siglo, todo estaba por hacer...

Esta palabra clave vintage lo dice todo por sí misma por lo que respecta a la tecnología de la época. En aquél momento el primer problema era hacer llegar al rastreador (crawler) de turno al dominio cliente, "la web a posicionar" ¡Y no era fácil!

Lo que tal vez estas dando hoy por hecho era una utopía no hace mucho tiempo, la actitud de los buscadores (de sus rastreos) era casi totalmente pasiva, con honrosa excepción de los volcados mensuales de bases de datos como el Open Directory Project (DMOZ).

¡Sí! Por eso todo el mundo quería ser "editor desinteresado" del ODP, por eso era tan importante conseguir un buen listado para tus clientes (y para tu propio proyecto) y por eso sobreviven parámetros como el , que evitaban que Google utilizara proactivamente las descripciones del listado ODP como alternativa en caso de ausencia de snippets o que estos tengan una calidad baja.

Se podría decir que entonces, cualquier actividad orientada a buscadores podría considerarse una sobreoptimización. Lo que pasa es que no había testigos ni se había descrito la falta.

El inicio de las prácticas de sobreoptimización:
Nacimiento del SEO

La vertiginosa escalada de la potencia de proceso y la aparición de miles de nuevas subredes con protocolos mejorados propició una gran oportunidad de negocio a los buscadores, señalando de paso el punto de inflexión a partir del cual asistimos a la consolidación de un gigante con impacto global llamado Google. Mientras, otros gigantes intentan adaptarse al nuevo ritmo gestando proyectos paralelos, por ejemplo Microsoft (MSN=Bing), o la aparición de nuevas semillas como Yandex o Baidu...

EL CAMBIO, el definitivo, pasó totalmente inadvertido para la mayor parte del incipiente colectivo digital: los buscadores punteros dedican sus esfuerzos tecnológicos a rastrear la siempre creciente cantidad de información disponible en la Red de Redes.

Pasando de una actitud de rastreo pasiva a totalmente activa, las propias empresas responsables de los motores de búsqueda dieron nacimiento a lo que hoy conocemos como SEO, comenzando a usar el término anglosajón Search Engine Optimization de forma universal, que en España se traduce como Optimización para Motores de Búsqueda.

Tanta información recogida exige una indexación autónoma

Como casi todos los saltos del conocimiento humano, el SEO se alimentó (y sigue así) de una dinámica de medida/contramedida en una carrera entre las empresas que explotan los motores de búsqueda y todos los nichos que surgieron en la tan creciente Internet superficial*.

* La parte más visible de toda la información acumulada y circulante, ya que es ofrecida verticalmente por los sistemas de búsqueda y organización de información como Google; si te imaginas un iceberg, se estima que la Internet superficial sería algo así como el tercio superior de la parte visible (!).

Las empresas como Google comenzaron a desarrollar algoritmos cada vez más sofisticados, para indexar y almacenar la información recogida en clústers lógicos tematizados.
En poco tiempo se llegó al punto en que los creadores de la lógica de Google dejaron de entender completamente cómo funcionaba esta; un punto tal de complejidad y extensión de los cálculos y ponderaciones en que no había explicación precisa para dar respuestas al mercado si, en una sola semana, se caía el tráfico orgánico de tal o cual conocido dominio con los grandes perjuicios económicos que eso implica.

El punto álgido entre los cálculos y ponderaciones de Google podría situarse en el año 2010, cuando el índice de Google cambió sustancialmente el paradigma de indexación, pasando de una experiencia "lenta y basada en texto" a una oferta de información "rápida y variada" entre texto, imagen y video entre otros.
Este cambio, bautizado como Google Caffeine fue tan importante en su momento como lo fuera en 2013 Google Hummingbird donde Google pasó a una concepción semántica y de autoaprendizaje (IA).

A partir de este punto los cambios y actualizaciones de algoritmos se sucedieron sin cesar, algunos elevados a literatura de estudio y otros (muchos) que parece que ni siquiera sucedieron... En casi todas las ocasiones, alguien salía MUY perjudicado a nivel de rankings.

Llegados a este punto de "madurez", el SEO ya hacía mucho que pasaba por su propio autoreconocimiento y abundaba la figura del/la especialista SEO (otra cosa es que se mereciera el apelativo).
Mediante estudio, experimentación propia y prácticas extendidas, los/las especialistas en SEO eran capaces de conseguir manipular los rankings de Google en favor propio o de una empresa cliente, aunque a años luz de la "facilidad" y los procedimientos simples de la década anterior.


Historia resumida de las tácticas de sobreoptimización más extendidas

No voy a detallar las llamadas técnicas black hat (literalmente "sombrero negro" o "de chistera" en alusión a los magos, magia negra, etc) porque las técnicas que merecen el apelativo se escapan muchísimo de lo que hablamos, por más que mucha gente del pelotón SEO se pone los galones. Estas técnicas son de base tecnológica y no están al alcance de cualquiera. Para que te hagas una idea, personalmente lo incluyo en el rango de ataque cibernético de bajo impacto.

Keyword stuffing o saturación de palabras clave

La saturación de palabras clave fue probablemente uno de los primeros trucos del incipiente SEO para conseguir mejores rankings en Google y otros, aparte de la saturación en sí la cantidad de artimañas y trucos técnicos para meter palabras clave en un documento parecía no tener fin: los más burdos serían probablemente poner texto del mismo color que el fondo, textos de tamaño minúsculo que aparecía en pantalla como una aparente fila de puntos sin sentido... Ese nivel :) ¡Pero funcionó por un tiempo!

La fiebre de los enlaces

PageRank es la Ley que hace la trampa

No olvidemos que el motor de Google partía en sus inicios de una patente bautizada como PageRank para evaluar la autoridad y popularidad de un documento entre otros documentos del mismo dominio y a su vez su interrelación con documentos de otros dominios. PageRank establecía una puntuación entre 0 y 10, donde la dificultad de progreso hasta el PR10 se incrementaba geométricamente. Es decir, que PageRank es la Ley que hace la trampa: a más dominios de PageRank alto (>=5) que te enlazan, mayor autoridad y a mayor cantidad de enlaces (volumen) mayor popularidad se atribuía.

Los enlaces valían su precio en oro y todo valía para conseguirlos.
Algunos de los más valiosos provenían de fuentes como Wikipedia y en sus días de gloria también del Open Directory Project (ODP).

Técnicas de manipulación de PageRank
  • Link building
    Sin profundizar mucho, podemos destacar estas especialidades:

    • Intercambio de enlaces: sencillo, un trato de enlaces recíprocos
    • Autor invitado: una forma amable de plantar tu bandera en otros dominios
    • Notas de prensa: ya hace mucho que se consideran una institucionalización del link-building
    • Advertorials: juego de palabras inglés entre "anuncio" y "tutorial"
    • Pirateo: consiste en invadir inadvertidamente webs ajenas y plantar en ellas contenido y/o enlaces. Es una práctica muy extendida entre aprendices de hacker que propició en parte la popularización de WordPress como CMS y el uso de versiones vulnerables de Joomla
  • Link sculpting: es un trabajo interno, es decir sobre tu propia web. Consiste en crear flujos hacia páginas identificadas como importantes, si imaginas que cada página individual tiene una "carga", lo que consigues es trasladar parte de esa "carga" a una página concreta de tu interés.
  • Link baiting: otro ejemplo de trabajo interno que consiste en ofrecer un contenido (artículo, caso de estudio, infografía, tutorial, etc) de alto valor añadido y que se perciba como realmente interesante, algo que haga sentir al público que mencionar, compartir o referenciar (con enlaces) semejante contenido resulta positivo. Lo de baiting es otro anglicismo, básicamente el nombre de esta técnica significa "plantar trampas para conseguir enlaces.

El caso es que las técnicas relacionadas con la manipulación del PageRank han sido de largo las más agresivamente perseguidas por los ingenieros de Google, causando grandes fluctuaciones en los podios virtuales del ranking por keywords e insisto, castigando también a muchos inocentes. De ahí la alta peligrosidad de jugar con la "paciencia" de Google, que ha demostrado ser muy voluble en unos aspectos a la vez que bastante laxa en otros. Hubo épocas en que esperabas leer "me gusta el olor a napalm por la mañana!" bajo el Doodle de turno...

El éxito en Redes Sociales como factor de posicionamiento

Google buscó socios para contrastar de forma externa a PageRank la autoridad y popularidad de los dominios rastreados, para hacerlo buscó el apoyo de Facebook y Twitter como redes mayoritarias. La historia era un poco "si eres grande probablemente lo eres en todas partes donde tienes presencia".

Aquí comenzó la fiebre de los Likes, los Fans, los followers y los RT.

Servicios tipo "1000 likes for $100" eran de lo más típico...

Contenido fresco, regular y... Más enlaces

Fue una de esas actualizaciones más bien opacas y poco comentadas fuera de círculos muy especializados. Básicamente Google buscaba datos recientes para ciertas consultas; mientras conservaba un índice añejo para temas con fecha de caducidad larga o académicos, se lanzó a promocionar contenido reciente y de fuentes que fueran "regulares" en la pubñicación, dando a entender que eso era sinónimo de calidad.

No tardó mucho en desmandarse la cosa y el mundo se volvió loco por el contenido, algunos sectores como el turismo eran un hervidero de plagios, artículos spineados (múltiples variantes de un mismo contenido) y ante todo el reinado de la cantidad por encima de la calidad.

Lo dicho, medida y contramedida. Con la pelota en el techo de Google, aparecen dos nuevos matones: Mayday, actualización de Google para cazar contenido duplicado que a grandes rasgos iba a por las granjas de contenido y cadenas de blogs, luego llegó el Panda con más mala leche del mundo para rematar la jugada a largo plazo y zanjar el asunto del thin content, contenidos sin mayor relevancia que dar cobijo a palabras clave y enlaces.

La historia de nunca acabar

Al final, lo que vemos hoy en día es la versión superdesarrollada del "más de lo mismo", solamente que las cosas que hacemos son mucho más elegantes que antaño.

El cliente quiere más negocio, para ello necesita hacer sobresalir su web, lo que exige optimizarla más y mejor que sus competidores. Dado que estos no se quedan pasmados, la sobreoptimización acaba imponiéndose...

Ya puestos, ¿qué prefieres: médicos o matasanos? Si tienes preferencia por lo bueno, nos encantaría conocer tu proyecto y sus necesidades.

Comentarios (0)

No hay comentarios.

Deja un comentario

Muestra de Clientes