Consejos técnicos de SEO On-Page

August 17, 2015

Antes de comenzar como webmaster con la optimización SEO de tu página web, debemos tener una idea clara de cómo funcionan los motores de búsqueda y qué es lo que más valoran.
Si quieres que un buen contenido vaya seguido de buenos rankings, este debe ser “SEO- friendly”, para que los rastreadores del motor de búsqueda puedan interpretarlo y procesarlo como es debido. Principalmente es importante conocer los factores técnicos para garantizar que el contenido más valioso obtenga un buen posicionamiento.

Para conseguir tráfico orgánico a través del buscador, la página web y sus respectivas subpáginas deben estar indexadas en el motor de búsqueda. Este proceso es muy importante, y es a menudo descuidado por los websmaster, ya que no son conscientes de que incluso los rastreadores del motor de búsqueda pueden tener sus limitaciones técnicas. Por está razón, se debe facilitar toda la información posible al crawler o rastreador.

Limitaciones en la frecuencia de rastreo e indexación

Como webmaster, hay muchas razones para estar informado del estado actual de rastreo y la indexación del contenido. Una de las más importantes es que cada página web o tienda online tiene un límite de rastreos e indexación disponible. Algunos websmaster toman medidas técnicas para que los crawlers o rastreadores del motor de búsqueda solo localicen y procesen los documentos que deben estar indexados en el motor de búsqueda.

Problemas de rastreo: Doble trabajo y accesibilidad complicada

Toda presencia en internet tiene una frecuencia de rastreo asignada por parte del motor de búsqueda, que define cuanto esfuerzo y volumen de indexación se debe utilizar para esta. Por esta razón, la eficiencia juega un papel importante a la hora de aprovechar al máximo el potencial del contenido y las posibilidades de estar presente en internet. Los rastreadores del motor de búsqueda tienen la intención de procesar los cambio de contenido con el menor esfuerzo y energía posible. Si el rastreador tiene dificultad para encontrar el contenido, este solo encontrará y procesará un número reducido de documentos, ya que debe invertir demasiada energía en el proceso de búsqueda. A causa de esto, los webmaster deben tener en cuenta una serie de problemas a evitar en el proceso de rastreo o crawling.

Tiempo de carga demasiado lento

Un tiempo de carga lento puede ocasionar interrupciones en el proceso de rastreo, ya que el rastredor del motor de búsqueda no quiere sobrecargar al servidor de la web. Este proceso no suele recuperarse posteriormente, por ello ha de evitarse estas interrupciones y cancelaciones del rastreo o crawling.

Deficiencias en la arquitectura web

Cuanto más accesible sea el contenido a través la página principal, más fácil le resultará al rastreador o crawler encontrarlo. Puesto que el rastreador encuentra el nuevo contenido a través de enlaces, los enlaces internos deberían utilizarse para mejorar la accesibilidad de los documentos.

Contenido de difícil lectura

Algunos contenidos son de difícil lectura o incluso imposibles de leer para los motores de búsqueda. A estos pertenecen, por ejemplo, los contenidos basados en Ajax. También se debería prescindir de los enlaces en javascript, para garantizar que el crawler pueda seguir el enlace. Aunque las últimas pruebas revelan, que el crawler de Google puede seguir muy bien los enlaces de Javascript y leer el contenido Java, se debe facilitar la tarea al rastreador en la medida de lo posible y evitar este tipo de procesos.

Mal uso de la frecuencia de indexación: Contenido duplicado

“Duplicate content” hace referencia a documentos idénticos con URLs diferentes que hacen un mal uso de la frecuencia de indexación, ya que este contenido se procesa y se indexa en la mayoría de los casos, por partida doble. Si el webmaster no toma las medidas necesarias para que el contenido duplicado no se indexe, tendrá como consecuencia variaciones en el ranking y un mal gasto de rastreos y frecuencia de indexación.Seguido de esto, puede ser que algunos contenidos relevantes no se indexen, ya que la indexación ya ha sido utilizada por el contenido duplicado. Por esta razón, deberían evitarse los siguientes errores:

Https und http

La mayoría de las tienda online utilizan certificados SSL para la retransmisión de datos cifrados. Si el contenido de las tiendas online se encuentra tanto en http como en https, se trata de contenido duplicado. En este caso, la versión http debería redirigirse a la versión https con el código 301 y crear un nuevo mapa del sitio en la Webmaster tool, para que estos cambios se puedan aplicar de manera rápida y eficiente.

URLs en mayúsculas y minúsculas

Muchos webmasters no saben que existen diferencias entre escribir una URL en mayúscula o minúscula. Las diferentes maneras de escribir URLs pueden generar contenido duplicado, por ello el webmaster debe inclinarse por las letras minúsculas.

Barra al final de la URL

Si el contenido se indexa tanto con y sin barra al final de la URL, también se puede entender como contenido duplicado. En este caso, la versión sin barra al final debería redirigirse a la versión con barra final mediante el código 301.

URLs con www y sin www

Si su propia página web o tienda online puede ser localizada tanto con www como sin www, en este caso también habrá varias versiones del mismo contenido rastredas e indexadas por el motor de búsqueda. Para solucionar esos errores técnicos de SEO , la versión sin www debería redirigirse a la versión www con el código de reenvío 301.

Contenido casi duplicado en las descripciones de los productos

Este tipo de contenido duplicado se puede encontrar con frecuencia en las tiendas online. Las descripciones de los productos se suelen crear y estructurar de una forma muy similar y se diferencian por muy pocos criterios. En el peor de los casos estas se pueden interpretar como idénticas. Los motores de búsqueda le dan un gran valor al contenido único, por está razón las descripciones de los productos también deben ser únicas.

Etíquetas y categorización de páginas

Aunque las supuestas Tag- Clouds o generadores de etiquetas puedan resultar prácticas desde el punto de vista de la usabilidad, estas no resultan tan útiles desde el punto de vista SEO. En la mayoría de los casos, las etiquetas generan una lista de contenido, similar a la de las páginas por categorías. Por esta razón, el webmaster debe comprobar si las páginas de etiquetas proporcionan resultados idénticos. Si este el caso, las páginas de étiquetas no debería estar indexadas.

Parámetros de las URLs y los ID de sesión

La mayoría de los parametros de las URLs y de los ID de sesión proporcionan contenido que ya existe bajo otra URL indexada. Si esta URL se indexa se interpretará como contenido duplicado. Por está razón, las URLs de parametros y los ID de sesión no deberían indexarse en la mayoría de los casos.

Modificaciones en la estructura del enlace

En el contexto de optimización SEO Onpage se pueden ver con frecuencia las modificaciones en la estructura del enlace. Por lo general, las URLs se optimizan de forma que contengan las palabras claves más relevantes. Si las URLs antiguas no se han redirigido mediante el código de reenvío 301 , se puede interpretar como un contenido idéntico en diferentes versiones, tanto para el lector como para el motor de búsqueda.

Ofertas adicionales que generan contenido duplicado

En algunos casos, el lector tiene la opción de imprimir contenido de la web o descargárselo en un documento pdf. Tanto la versión imprimible como el documento pdf pueden generar contenido duplicado.

Así se evita el contenido duplicado:

Desde una perspectiva técnica hay varias formas de decirle a los rastreadores que no deben incluir un documento en la indexación del motor de búsqueda.

  • La información meta: noindex
  • Reenvíos con ayuda de archivos htaccess en el servidor web
  • Utilización de Canonical- Tags (etiquetas canónicas)
  • Robots.txt para la exclusión de archivos( Por ejemplo, archivos pdf, que no deben incluirse en la indexación del motor de búsqueda).

Facilitar el rastreo a través de sitemaps

El sitemap ofrece la posibilidad de comunicarle al motor de búsqueda las URLs que tienen preferencia para el webmaster y que deben ser tratadas con prioridad.Para que el rastreador del motor de búsqueda pueda localizar estas URL desde el inicio del rastreo, los sitemaps se deben incluir en el robots.txt e la página web.
Hay varios tipos de Sitemaps:

  • Contenido
  • Noticias
  • Mobile
  • Videos
  • Imágenes

Los Sitemaps pueden probarse y clasificarse en estos tipos con la ayuda de Google web master tool en el apartado. “Crawling” > “Sitemaps”.
Es recomendable usar esta función, ya que el webmaster puede obtener en este apartado información valiosa sobre el estado actual del rastreo y la indexación del contenido. De este modo, errores y otros problemas de rastreo pueden localizarse y evitarse de forma específica. Los sitemaps son de especial utilidad en los siguientes casos:

  • La página web es muy nueva y el motor de búsqueda todavía no reconoce el contenido
  • Se han realizado grandes cambios ( por ejemplo: en la estructura de la URL)
  • La pagina web tiene demasiadas subpáginas

Distinción semántica del contenido

Otra forma de proporcionar información adicional a los motores de búsqueda sobre los diferente contenidos, es la utilización de datos estructurados mediante esquema.org. Con ayuda del markup, los rastreadores del motor de búsqueda pueden clasificar el contenido de forma temática y así ser capaces de reconocer el contexto.
Las posibilidades de distinción son muy diversas, por lo que pueden cubrir todas las areas y contenidos. Las distinciones más frecuentes incluyen:

  • Valoraciones
  • Lugares ( Sobre todo los más relevantes para el SEO local)
  • Empresas
  • Productos
  • Breadcrumbs
  • Música
  • Eventos
  • Personas
  • Recetas

Las tiendas online se benefician con frecuencia de la distinción de microdatos “Evaluaciones“ , ya que que estas en muchos casos están consideradas como Snippets de gran valor en el motor de búsqueda. Las evaluaciones u opiniones con estrellas son mucho más llamativas y pueden aumentar drasticamente la tasa de clilck- through. En el futuro, cada vez será más importante, ofrecer al motor de búsqueda un contenido estructurado, ya que las consultas se responderán basandose en la intención.

Autor Kevin Jackowski

Compartir este artículo