Evitar Spam en Buscadores
El spam en buscadores (correo publicitario no solicitado) es uno de los problemas más complicados que encuentran los rastreadores de buscadores. Y también puede ser un verdadero problema para los propietarios de sitios Web, porque aquellos que utilizan el spam para mejorar sus ranking de sitios Web dificultan todavía más que los sitios Web legítimos consigan buenos ranking.
¿Qué es exactamente el spam en buscadores? Yahoo! lo define de esta manera:
«Páginas creadas deliberadamente para engañar al buscador ofreciendo resultados de búsqueda inapropiados, repetitivos, o de baja calidad.»
Otros buscadores utilizan una definición similar para describir el spam en buscadores. Debemos evitar el uso del spam en buscadores a toda costa. Hay una línea muy fina entre optimizar nuestro sitio Web y crear spam en buscadores. Y podemos cruzar esa línea inesperadamente. El problema es que los buscadores penalizarán nuestro sitio si perciben que algún elemento del sitio Web es spam. Y en algunos casos, esa penalización puede conllevar la eliminación de las listas de los rankings de buscadores.
Hay más de una docena de clases de spam en buscadores. Algunos tipos, como el robo de contenido, ya lo hemos tratado. Pero existen muchos más y con el fin de evitarlos, deberíamos saber cuáles son.
Páginas de entrada
Las páginas de entrada (doorwaypages) se confunden a menudo con las páginas de aterrizaje (landingpages), aunque no tienen las mismas funciones.
Las páginas de aterrizaje están diseñadas para ser ricas en contenido, y normalmente los visitantes llegan a esas páginas a través de la publicidad PPC. Las páginas de entrada, por otro lado, están creadas concretamente para los buscadores con el propósito de aumentar los rankings de los resultados en buscadores.
Por lo general, las páginas de entrada utilizan algún tipo de redirección para que cuando los visitantes hagan clic a través del enlace en los resultados del buscador y aterricen en la página, se les dirija inmediatamente a otra página. Esto se consigue utilizando un rápido Meta refresh, JavaScript, o redirección en el servidor. Meta refresh (meta actualizar) es una técnica que se utiliza con menos frecuencia ahora que en el pasado, porque muchos buscadores penalizan a los sitios Web que utilizan dichas tácticas.
En lugar de Meta refresh, algunos sitios Web han encontrado maneras más astutas de engañar a los visitantes para que hagan clic en un enlace que les dirige al sitio Web al que están siendo atraídos. También hay algunos sitios Web que han diseñado entradas ricas en contenido, que son páginas de entrada que tienen algún elemento de contenido incluido, además de una estructura de navegación básica que es coherente con el resto del sitio Web. Estas páginas, como otras páginas de entrada, siguen siendo diseñadas para atraer una gran cantidad de visitantes.
Texto oculto y diminuto
Si tenemos pensado utilizar texto oculto o texto diminuto en nuestra página para atraer los rankings en buscadores, con toda seguridad deberíamos cambiar nuestros planes. Esta práctica se utilizaba mucho en el pasado.
Se consigue incluyendo texto rico en palabras clave que sea del mismo color que el fondo de nuestro sitio Web. Los visitantes que llegan a nuestra página no pueden ver este texto, pero los rastreadores sí lo pueden leer.
El problema con la utilización de esta técnica es que los buscadores ya la conocen, por lo que buscarán este engaño y si lo encuentran, nos penalizarán o posiblemente nos eliminarán de las listas. El problema se agrava si se da la casualidad que utilizamos el keyword stuffing para ocultar nuestro texto dentro de nuestro sitio Web. Cuando combinamos este método con la ocultación de nuestro texto, es sólo una cuestión de tiempo que los buscadores se nieguen a incluir nuestro sitio en sus rankings en buscadores.
Envío masivo de sitios Web
Enviar nuestros sitios a buscadores y directorios es una táctica que algunos propietarios de sitios Web utilizan para garantizar que sus sitios sean detectados por los motores de búsqueda. Pero la mayoría de los buscadores más importantes, aunque proporcionan un modo de enviar un URL, en realidad sugieren que el mejor modo para estar incluido en sus indices es ofrecer un enlace al URL.
No debemos utilizar los servicios de envío automáticos si decidimos enviar nuestro URL. Lo enviaremos todo «a mano», leeremos las instrucciones completamente.
Robo de páginas
El robo de páginas (pagejacking) es un método de spam en buscadores que es similar al robo de contenido (content scraping). La diferencia radica en que mediante el robo de páginas, las páginas completas, e incluso sitios Web completos, se copian con el objeto de aumentar el ranking de búsquedas y el tráficó de otro sitio.
Por ejemplo, una persona podría copiar todo un sitio Web como Microsoft. Después encubriría ese sitio, aunque todavía aparecería en las listas de búsqueda. Entonces, cuando los usuarios desprevenidos hicieran clic a través del listado para Microsoft, no serían conducidos a la página de Microsoft, sino que llegarían a otra página a la que el «secuestrador» los ha dirigido.
El robo de páginas no sólo es una manera de ser eliminado de las listas de los resultados de buscadores, sino también un delito que puede tener como consecuencia una dura multa y probablemente la cárcel. También hay problemas de incumplimiento de marcas registradas y copyright asociados con el robo de páginas.
Timo del artículo gancho
Quién no recuerda el viejo timo del artículo gancho (bait-and-switc/z). Alguien ofrecía unos productos como si fueran un gran negocio, y después, cuando los usuarios se presentaban para comprarlos, el vendedor intentaba cambiarlos por productos más caros o artículos de peor calidad. Este fraude todavía sucede hoy día, y llega a Internet.
Este timo en el posicionamiento en buscadores es la práctica de crear una página Web optimizada específicamente para los motores de búsqueda con la intención de conseguir buenos rankings. Una vez que se consiguen las clasificaciones, la compañía reemplaza el sitio Web optimizado por otro que está menos optimizado ymás normal. El resultado es casi tráfico instantáneo cuando el sitio Web ha sido reemplazado.
Este fraude tiene un gran problema. La mayoría de rastreadores de buscadores vuelven a visitar un sitio Web varias veces al mes. Y cuando el rastreador vuelva a examinar un sitio bait-and-switch, observará que el contenido de la página ha cambiado, y ajustará los rankings de búsquedas en consecuencia. En otras palabras, la persona que establezca esta práctica engañosa destina demasiado tiempo a una solución de optimización temporal.
Tienen mucho más sentido realizar nuestra optimización de la manera correcta la primera vez. Después, cuando el rastreador vuelva a examinar nuestro sitio, verá una imagen coherente del sitio, y el ranking del sitio Web permanecerá uniforme.
Cloaking
El cloaking o encubrimiento es otra técnica SEO. Con la finalidad del posicionamiento, «encubrir’ un sitio es un método de entregar una página basándose en quién esté solicitando la página (entregar distintos contenidos a buscadores y a personas que visitan un sitio Web). Por ejemplo, si un sitio Web está utilizando la técnica del cloaking, cuando un visitante regular llega al sitio, ese visitante verá una página. Pero cuando un rastreador llega al sitio, ve un sitio mucho más relevante, y mejor optimizado.
Los buscadores desaprueban el cloaking, y si nos pillan utilizando técnicas cloaking, nuestro sitio será penalizado e incluso eliminado de los listados completamente.
Hay otra razón por la que la gente utiliza el cloaldng en sus sitios Web. En lugar de intentar engañar a los buscadores, algunos propietarios de sitios Web utilizan el cloaking para proteger el código fuente de sus sitios Web. Ya que es posible para cualquiera seleccionar Ver código fuente o Código fuente de la página de la barra de herramientas de nuestros buscadores, en ocasiones resulta frustrante para las organizaciones que quieren mantener su código fuente de propiedad exclusiva.
En lugar de sacarlo a la luz para que todo el mundo lo vea, estas compañías utilizan el encubrimiento de páginas, aunque ésta no es una forma aconsejable para proteger nuestro código. A los rastreadores de buscadores no le gustan los sitios encubiertos y nuestro sitio será penalizado si decidimos utilizar esta técnica por alguna razón.
Enlaces ocultos
Los enlaces ocultos se crean utilizando los mismos métodos que se utilizan para crear el texto oculto. La diferencia entre los enlaces ocultos y el texto oculto es que, con los enlaces ocultos, el rastreador puede seguir los enlaces a otros sitios o a otras páginas dentro del mismo sitio Web. Puesto que en la actualidad muchos buscadores analizan con más detalle los enlaces que dirigen a un sitio Web y que salen de un sitio Web, los enlaces ocultos se han vuelto más populares. Nos obstante, no se deberían utilizar bajo ninguna circunstancia porque el resultado final, cuando nuestros enlaces se descubren, es que nuestro sitio será penalizado por el motor de búsqueda. Y todo lo que reduzca la posición de nuestro sitio o tenga la posibilidad de afectar al ranking de forma negativa se debería evitar.
Enviar spam a un buscador por cualquier razón no es una buena idea. Y se nos puede penalizar incluso por enviar spam accidentalmente, por lo que nos tomaremos un tiempo para aprender qué técnicas podrían llevar a un buscador a creer que le estamos enviando spam intencionadamente.