El SEO entre lo caduco y lo extinto - TECNOXPS

Páginas

martes

El SEO entre lo caduco y lo extinto



El SEO hace mucho viene cambiando y desde el 2011 ha tenido varios cambios notables de cuenta de Google con varios algoritmos, al menos lo que se supone se debería hacer para posicionar un sitio web en el motor de búsqueda de Google ha cambiado en los últimos años y si bien aún hay algunas prácticas que aún pueden tener cierto impacto, cada vez la curva va más hacia abajo, entre la caducidad y la obsolescencia.

Contenido Oculto


Ocultar enlaces o texto es algo que ahora Google ni siquiera se preocupa por tomar una acción manual, hace unos años se veía que ello era causal de una acción manual que costaba que el sitio fuera retirado de las SERPS, es decir, desindexado o lo que comúnmente se dice como baneado, pero desde el lanzamiento de Google Penguin realizar esto para que un sitio se posicione podrá tener un efecto efímero pero luego solo resultará en ser una pérdida de tiempo.


De cara al SEO ocular texto o enlaces es como un harakiri, es algo sin sentido sobre lo que el algoritmo termina regulando tarde o temprano y al final se tendrá que esperar a que el mismo según su frecuencia de  rastreo sobre el sitio detecte que dicho texto u enlaces ocultos se haya retirado.

Si necesitas tener una idea básica de lo que el algoritmo identifica en este tipo de prácticas es algo como esto:

  • De lo más común es utilizar el texto del mismo color del fondo o colocar el tamaño del mismo a un punto donde no es visible, como por ejemplo cuando se coloca un texto en posiciones fuera la visual del usuario.
  • Colocar texto detrás de imágenes.
  • Utilizar CSS para crear hipervínculos del tamaño de un pixel o enlazar un solo carácter como un punto o un guión.

Ciertamente el texto oculto no es aquel que se despliega entre, por ejemplo, un <div>
</div> al momento de dar un click en un sitio web, esto naturalmente es tenido en cuenta por Google entre la programación que tienen en su algoritmo al igual que sucede con aquel material o contenido no relevante que ante una versión adaptativa (responsiva) debe dejarse de mostrar de cara a la versión móvil, pero ciertamente siempre hay que tener una medida de lo lógico en este tipo de implementaciones de cara a los usuarios.

Palabras más palabras menos, el ocultar texto de cara al motor de búsqueda de Google ya pasa de la obsolescencia a lo extinto tal y como lo es el utilizar la metakeywords que ni para el SEO en Bing o Yahoo sirven.




Contenido copiado

Utilizar el contenido previamente publicado en otros sitios se te puede convertir en un ancla que lleva un par de yunques añadidos tarde o temprano.

Desde que Google Panda fue puesto en línea, cantidad de sitios comenzaron a ver como su impacto en las SERPs a base de contenido de terceros se fue perdiendo inevitablemente con el paso del tiempo; básicamente contenido copiado es cualquier contenido que se utilice en el propio que haya sido previamente publicado en otro sitio web y naturalmente Google lo va a identificar.

Normalmente una prueba básica para tener una idea de que sitio es el que Google identificó como el primero sitio que lo publicó, es colocar el fragmento de texto entre comillas en el buscador, pero naturalmente no debemos ceñirnos estrictamente a esta línea, puesto que siempre hay que contemplar varios aspectos como por ejemplo, que el sitio creador del contenido original esté expulsado momentáneamente de las SERPs de Google por alguna acción manual o simplemente haya sido desindexado, esto claro está viéndolo en tercera persona, pero básicamente si uno mismo no escribe el contenido y se va a extraer de otro, esto ya pasa a ser identificado por el motor de búsqueda como contenido no propietario y eventualmente terminará restándole relevancia al sitio en una u otra forma.

Claro que muchas veces se tiende a pensar que Google no hace nada al respecto de esto, es allí por lo cual mencionaba que "terminará restándole", dado que no se debe pensar en la vía de monofactor, es decir, que un detalle puntual es suficiente para que Google deba mandar al Googlerno de las SERPs a un sitio web, no debemos perder de vista que existen más de 200 factores y por lo mismo se pueden ver muchos casos donde un sitio de mayor trayectoria al utilizar el contenido de otro puede posicionar por encima del sitio creador del contenido original y que aún el algoritmo mismo tiene una frecuencia de rastreo, que va actualizando los diferentes factores en el paso del tiempo en las constantes evaluaciones que se van realizando, por ende también van actualizando el perfil del sitio, mismo que es el que irá generando una valoración que será reflejada en la clasificación del sitio en cada búsqueda particular donde el mismo compita según el resultado que el algoritmo vaya entregando de cada evaluación, pero esto sin contar claro que los valores pueden cambiar por las modificaciones que Google realiza de sus algoritmos.


Un sitio de dropshipping, el mejor ejemplo del juego de la escalera sobre como sube y luego baja

Solo para tener una idea clara de lo anteriormente explicado, solo es ver lo que sucede con los sitios tipo DropShipping, básicamente este tipo de sitios se adquieren para vender determinados productos, ya traen prácticamente todo montado en productos y solo es entrar a modificar algunos aspectos acordes a una marca y otros detalles, pero dichos sitios traen todas sus imágenes y sobre todo el contenido de sus publicaciones ya establecido, luego, sucede que cuando el sitio se coloca online el mismo Google comienza a clasificarlo y se puede llegar a ver como el sitio incluso comienza a crecer en su posicionamiento, en el rango de búsquedas en las que es considerado como relevante y claro, mientras más productos se le van agregando parece que el sitio va mejorando en su posicionamiento y de hecho así es durante unos meses, a veces pueden ser unos 3, a veces un poco más pero al cabo de un tiempo sucede que el sitio comienza en una caída  vertiginosa y no hay forma de pararlo y esto sucede porque luego de que Google ha ido perfilando el sitio, luego de los primeros meses donde el sitio comenzó a ser perfilado en su forma más básica, con el pasar del tiempo y en la medida que Google ha comenzado a profundizar en su perfilamiento este detecta que realmente es un sitio irrelevante y por ello le concede una clasificación no tan positiva como se tenía antes como se puede ver en este ejemplo, igualmente en este o en este otro caso entre muchos otros que he visto.


Otro caso donde constantemente se puede ver este tipo de efectos es en los sitios que tienen que ver con la parte legal, donde se tiende a utilizar mucho contenido de la propia ley y noticias publicadas y ello hace que se tengan cantidad de publicaciones de baja calidad entre contenido propietario y contenido que no lo es y naturalmente este texto de ley que ya ha sido previamente publicado en otros sitios o en el sitio oficial termina siendo identificado como contenido no original, por lo que en dichos casos solo hay que colocar dicho texto en formato citación (<blockquote>texto<blockquote>) y naturalmente generar contenido propietario que supere ampliamente el contenido que ha sido incorporado en la publicación.



Si bien esto sigue siendo algo más que común, muchos sitios que vivían de este tipo de "prácticas SEO", los bien conocidos como sitios scraper, se han visto afectados por los avances de Google y naturalmente el utilizar el contenido de otros para usufructuarlo ha dejado de ser lo que era dado que prácticamente este tipo de sitios predominaban en las SERPs por la gran cantidad de contenido que tenían y naturalmente, a que el motor de búsqueda era deficiente para identificar el sitio creador de contenido original y consideraba aquel en que lo rastreaba e indexaba primero como el sitio propietario del mismo, algo que al parecer ya ha cambiado en gran medida desde que Google estableció el marcado de autor utilizando a Google+ como punto de referencia de identificación del autor original creador del contenido pero que luego en el 2015 ha dejado de utilizarlo ya que sus algoritmos de detección de sitios scraper y de identificación del creador del contenido original han mejorado.





Duplicar contenido


Muchas veces se confunde el contenido copiado con el contenido duplicado y se piensa que cuando otro a copiado el propio es que Google verá dicho contenido replicado en el otro sitio como que uno mismo ha duplicado el contenido y por ende se piensa que Google te va a penalizar por contenido duplicado, lo que no es tal, pero realmente no tiene sentido que Google identifique dicho contenido como si se hubiera duplicado por propia cuenta puesto que naturalmente este no ha sido el caso.

Para tener una mejor base los siguientes artículos del centro de ayuda pueden ser de gran ayuda



Si se revisan ambos artículos referenciados se podrán ver algunos ejemplos donde se describe qué considera realmente el contenido duplicado intencional, algo que se llevaba a cabo muchas veces en el sitio propio creando publicaciones estandarizadas que se replican una y otra vez como en el caso de múltiples productos con el mismo contenido o bien, creando versiones imprimibles en PDF de los artículos y permitiendo su indexación, buscando con esto, por ejemplo, copar resultados de búsqueda tal y como cuando se utilizan una red de sitios propios donde se replica el contenido del sitio focal para que si alguno de estos se posiciona el usuario sea dirigido al sitio de interés, donde básicamente estos sitios creados con dicho fin y donde se duplica el contenido total o parcialmente terminan convirtiéndose en sitios tipo afiliados o bien, en lo que se conoce como páginas puertas.


Un ejemplo de duplicación de contenido entre sitios propios es por ejemplo cuando se tiene una tienda online con contenido totalmente propietario y luego se crea un subdominio y otro sitio en un dominio diferente (un segundo sitio) para ofrecer allí un segmento de productos del sitio principal (primer sitio) buscando con esto que el segundo sitio al estar focalizado (lo que se dice como sitio optimizado que apunta hacia el "moneysite" como se da en otros casos) tenga un mejor impacto en las SERPs donde compita, pero en segundo sitio web solo se ofrecerá contenido ya existente en el primero, por lo que el mismo al final termina siendo identificado como un sitio sin valor agregado y si bien normalmente y como el menor de los efectos podría simplemente ser un sitio irrelevante y no ser competitivo, bien podría darse el caso que termine afectando ambos sitios, naturalmente esto es un enorme depende y este es, depende de lo que se haya realizado en el segundo sitio.


El duplicar contenido como práctica SEO a la fecha es algo que aún está vigente y muchos siguen realizando ello como parte de una u otra supuesta estrategia de posicionamiento, lo que al final termina en una combinación entre duplicación de contenido y esquemas de enlaces, aunque muchas veces para esto se crean sitios de menor relevancia sobreoptimizados pero inevitablemente se terminan identificando la red cuando se hace una revisión.

Esto se podría decir que es algo caduco puesto que dichos sitios donde se ha duplicado el contenido terminan siendo controlados por el algoritmo (Google Panda) y cuando se mezclan otros aspectos podrían encontrarse con la otra parte de la moneda, es decir, con Google Penguin.





Páginas puertas


El crear páginas puerta es un técnica SEO que se utilizaba para tratar de copar resultados de búsqueda, naturalmente aprovechando la deficiencia que tenía el propio buscador de cara a la forma en que realizaba la clasificación en sus resultados de búsqueda.


Básicamente son sitios donde existe una o pocas URLs sobreoptimizadas en unas cuantas palabras claves y naturalmente con enlaces hacia el sitio de interés para redirigir al usuario, incluso también con redirecciones basadas en tiempo tipo "meta refresh" o redirecciones 302.

Dado que naturalmente el algoritmo era deficiente para identificar este tipo de sitios de forma eficaz, era una técnica muy aprovechada para copar resultados dado que a dichas páginas les colocaban una base de redes de enlaces para mejorar su Pagerank y a su vez que estas sirvieran para mejorar la clasificación del sitio principal (el money site) y de esa forma se copaban resultados para búsquedas determinadas donde naturalmente las páginas puerta contaban con enlaces de impacto que apuntan al principal.

Al día de hoy esto ya es algo que está entre la caducidad y la extinción, no solo porque a la fecha un algoritmo como Google Penguin puede detectar este tipo de sitios de una mejor forma, un algoritmo como Google Panda es mucho más eficiente para detectar este tipo de sobreoptimizaciones pero no hay que perder de vista que este tipo de sitios dedicados que se podría pensar no es un sitio de afiliados pueden convertirse en sitios con gran cantidad de páginas puerta, aún cuando cuenten con contenido original y donde se pensaría que todo está bien pero realmente al revisarlos se puede ver que no lo están y naturalmente incluso Google puede tomar una acción manual sobre el mismo.

Es de tener en cuenta que no necesariamente quiere decir que una acción manual se tome porque el algoritmo no es capaz de actuar sobre el sitio, sino que en algunos casos el equipo de Google determina que el sitio tiene una gran cantidad de infracciones sobre las directrices y termina estableciendo la misma y las páginas puerta actualmente pueden rayar muy fácilmente en esta línea.

Como técnica SEO es muy probable que dentro de poco tiempo esto sea más como el texto oculto, una autoflagelación pero al día de hoy no estaría muy lejos de serlo, el algoritmo de Panda ya ha sido incorporado en el principal y si bien probablemente Penguin aún pueda estar un poco lejos de integrarse al mismo dado lo sensible del tema de los enlaces de cara a la clasificación, cuando este lo sea en una etapa más madura del mismo y su frecuencia de rastreo esté ligada a la del algoritmo principal, es cuando este tipo de prácticas SEO verán el final de sus tiempos aunque no hay que desconocer que quienes se dedican a este tipo de practicas siguen utilizándolas y de allí el punto de las teorías sobre la mejor cifra de cada año en razón de "la densidad de las palabras claves en las que debe contener la publicación" y al 2015 se puede ver como hablan del 2.5% o el 2.2% y cuantas teorías surgen de los experimentos SEO.

No digo que está mal hacerlos y escribir sobre ello, al final ello es SEO, es decir, es tratar de "obtener un pedacito" de la fórmula del buscador, pero para mí ello realmente es una pérdida de tiempo de cara hacia dónde va el motor de búsqueda en su evolución desde hace unos 4 años atrás.


¿Te fijas en la densidad de palabras claves?


¿ ¡ La verdad está ahí afuera ! ?.... Expediente # 582d46696c657320636f6d6d656e74733a

  1. Gracias por el artículo, está muy bien explicado y me aclaro muchas dudas sobre lo que no debo hacer, un saludo.

    ResponderEliminar
    Respuestas
    1. Hola

      Muchas gracias a ti y me alegra que así sea, lo más importante es leerse las directrices para webmasters de Google, que por cierto debo agregar ello al artículo :-)

      Saludos

      Eliminar
  2. Respuestas
    1. Hola James Revelo

      Me alegro que te haya parecido útil y muchas gracias por pasarte a comentar.


      Saludos

      Eliminar

Nota: sólo los miembros de este blog pueden publicar comentarios.