>

preparación de la página web para el mejor posicionamiento natural

Los SEO tienden a usar muchas herramientas para la preparación de la página web para el mejor posicionamiento natural. Algunos de los más útiles son proporcionados por los propios motores de búsqueda. Los motores de búsqueda quieren que los webmasters creen sitios y contenido de manera accesible, por lo que ofrecen una variedad de herramientas para el análisis y control, atributos y funciones que nos ayudan a mejorar el posicionamiento de nuestra página web, así comoconocimiento de muchísimo valor que nos hará la vida del experto en posicionamiento natural mucho más fácil.

A continuación explicamos los elementos comunes de cada uno de los principales motores de búsqueda.

1. Sitemaps: mapa del sitio

Piense en un mapa del sitio como una lista de archivos que dan pistas a los motores de búsqueda sobre cómo pueden rastrear tu sitio web. Sitemaps ayuda a los motores de búsqueda a encontrar y clasificar el contenido de tu página web ya que pueden no haberlo encontrado por sí mismos. Los sitemaps pueden encontrase en muy variados  formatos y pueden destacar muchos tipos diferentes de contenido, incluidos video, imágenes, noticias y dispositivos móviles.

Puedes leer todos los detalles en Sitemaps.org . Además, puedes construir tus propios mapas de sitio en XML-Sitemaps.com. Los sitemaps pueden ser de alguna de estos tres tipos:

XML Lenguaje de marcado extensible (formato recomendado)

  • Este es el formato más aceptado para los sitemaps. Es extremadamente fácil de analizar para los motores de búsqueda y puede ser producido por una gran cantidad de generadores de mapas de sitio. Además, permite el control más detallado de los parámetros de la página.
  • Tamaño de archivo relativamente grande. Como XML requiere una etiqueta abierta y una etiqueta de cierre alrededor de cada elemento, los tamaños de los archivos pueden ser muy grandes.

RSS Really Simple Syndication o Rich Site Summary

  • Facil de mantener. Los mapas de sitio RSS se pueden codificar fácilmente para actualizarse automáticamente cuando se agrega contenido nuevo.
  • Más difícil de administrar. Aunque RSS es un dialecto de XML, en realidad es mucho más difícil de administrar debido a sus propiedades de actualización.

TXT Archivo de texto

  • Extremadamente facil. El formato de mapa de sitio de texto es una URL por línea de hasta 50,000 líneas.
  • No proporciona la capacidad de agregar metadatos a las páginas.

2. Robots.txt: da instrucciones a los rastreadores web

El archivo robots.txt, un producto del Robots Exclusion Protocol , es un archivo almacenado en el directorio raíz de un sitio web (por ejemplo, www.google.com/robots.txt). El archivo robots.txt da instrucciones a los rastreadores web que visitan tu página web.

Al usar robots.txt, los webmasters pueden indicar a los motores de búsqueda qué áreas de un sitio les gustaría impedir que los bots rastrearan, así como también indicar las ubicaciones de los archivos del mapa del sitio y los parámetros de demora de rastreo. Puedes leer más detalles sobre esto en la página del Centro de Conocimientos de robots.txt .

Los siguientes comandos están disponibles:

Rechazar

Impide que los robots compatibles accedan a páginas o carpetas específicas.

Mapa del sitio

Indica la ubicación del mapa del sitio web o de los mapas de sitio.

Retardo de rastreo

Indica la velocidad (en segundos) a la que un robot puede rastrear un servidor.

3. Meta Robots

La etiqueta de meta robots crea instrucciones a nivel de página para los robots de los motores de búsqueda.

La etiqueta meta robots debe incluirse en la sección principal del documento HTML.

4. Rel = “Nofollow”

¿Recuerdas cómo los enlaces actúan como votos ? El atributo rel = nofollow le permite vincular a un recurso, mientras elimina su “voto” para fines del motor de búsqueda. Literalmente, “nofollow” le dice a los motores de búsqueda que no sigan el enlace, aunque algunos motores todavía los siguen para descubrir páginas nuevas. Estos enlaces sin duda tienen menos valor, pero son útiles en diversas situaciones en las que se vincula a una fuente que no es de confianza.

5. Rel = “canónico”

A menudo, dos o más copias del mismo contenido aparecen en tu sitio web bajo diferentes URL. Por ejemplo, las siguientes URL pueden referirse a una sola página de inicio:

  • http://www.example.com/
  • http://www.example.com/default.asp
  • http://example.com/
  • http://example.com/default.asp
  • http://Example.com/Default.asp

Para los motores de búsqueda, estos aparecen como cinco páginas separadas. Debido a que el contenido es idéntico en cada página, esto puede provocar que los motores de búsqueda devalúen el contenido y su posible posicionamiento.

La etiqueta canónica soluciona este problema al indicarle a los robots de búsqueda qué página es la única y autorizada versión que debe contar en los resultados web.

1 Comentario
  1. […] futuro, podremos prepararla mejor, saber cuál es el momento clave para aplicarla y cuáles son las herramientas para maximizar los beneficios de la […]

Contesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

contacta con nosotros

Hey! cuéntanos tus sueños ... podemos convertirlos en realidad!

Enviando

©Walterman Consultoría Estratégica, Marketing y Comunicación

Inicia Sesión con tu Usuario y Contraseña

¿Olvidó sus datos?