Cada actividad que se produce en tu web queda registrada y lo mejor de todo es que, con la interpretación profesional adecuada, esos datos pueden derivar en importantes conclusiones para la mejora del SEO de ese proyecto.

El análisis de logs cumple esta máxima, ya que nos ofrecen información sobre el compartimiento de los bots que entran a visitar un sitio web.

Como profesionales SEO, ya te adelantamos que su estudio es de los pasos más decisivos porque ese examen permite conocer el estado del rastreo y la indexación de una web, y tomar medidas para optimizar su crawl budget.

Aunque el estudio de ficheros log se asocia a proyectos con un vasto número de URL, lo cierto es que recomendamos su apuesta para todo tipo de proyectos.

¿El motivo? Las increíbles conclusiones que puedes extraer para ese gran propósito: mejorar nuestro SEO. Un desafío que siempre emociona asumir.

Antes de pasar al análisis, ¿qué es un log?

Para entrar en materia, el primer paso nos obliga a aclarar qué son los logs (file logs).

Bajo este nombre encontramos un fichero de texto en el que quedan reflejadas todas las peticiones de un site al servidor de forma cronológica.

ficheros-logs

Gracias al estudio de logs, comprobaremos que queda registrada la actividad de diversos tipos de bots claves para el análisis SEO como Googlebot, Bingbot, Semrushbot, entre otros.

Además, la seguridad de la información ofrecida por los ficheros de registro de logs es total porque sus datos proceden directamente del servidor, sin existir pérdida de información.

¿Qué datos almacena un archivo log y cuáles te interesan?

Llegó el turno de descubrir qué esconde una línea de un archivo log:

84.121.161.x – – [30/Dec/2021:00:01:42 +0100]

“GET/wp-content/uploads/2013/11/curso-google-adwords-gratis.jpg HTTP/1.1” 200 31783 mipagina.com

“https://mipagina.com/marketing-online/como-montar-tu-tienda-online.html”

“Mozilla/5.0; (Windows NT 6.1;WOW64) AppleWebKit/537.36 (KHTML. like Gecko) Chrome/31.0.1650.63 Safari/537.36” “-”

Como puedes ver, brinda diversos datos pero, de todos ellos, toma nota de la información clave en el análisis de logs para SEO:

  • IP del cliente que ha realizado la solicitud: 84.121.161.x
  • Fecha y hora: 30/Dec/2021:00:01:42
  • Tipo de petición: GET (en este caso) o POST
  • URL rastreada: https://mipagina.com/marketing-online/como-montar-tu-tienda-online.html
  • Protocolo seguido: HTTP/1.1
  • Código de respuesta http: 200
  • User-agent: Mozilla/5.0

¿Desde dónde puedes acceder a los ficheros logs?

Una vez que tenemos claro qué son los logs y qué información encierran esas líneas de texto, necesitas conocer cómo puedes obtener esos ficheros para su posterior análisis.

Entre las vías más sencillas para descargar los archivos de logs destacamos la conexión al servidor usando aplicaciones FTP como Filezilla.

Cuando accedas, dispondrás de una carpeta de logs que almacena todos los ficheros, habitualmente uno por día.

También puedes descargar estos ficheros accediendo al panel del hosting donde esté alojado ese sitio web.

descargar-ficheros-logs

En este caso, ten presente un aspecto importante: los archivos de logs no se guardan por tiempo indefinido, depende de cada compañía de hosting.

Por este motivo, cerciórate de la disponibilidad de esa información para que cuentes con tiempo suficiente para el acceso, gestión y análisis de logs.

¿Qué conclusiones valiosas aporta el análisis de logs para la mejora de una estrategia SEO profesional?

En términos generales, el análisis de logs en SEO destaca como una herramienta de enorme relevancia por la información que es capaz de ofrecernos.

Gracias a su estudio, conocerás qué URL de tus web con las que Googlebot más rastrea o si está invirtiendo presupuesto de rastreo en visitar páginas que no te interesan, sin olvidar qué códigos de respuesta reciben las páginas que analiza.

Es decir, un sinfín de datos para controlar con exactitud qué hacen los buscadores cuando entran en tu sitio web.

No obstante, a continuación detallamos qué información aporta el estudio de logs en la optimización de un proyecto web para los motores de búsqueda.

Análisis del crawl budget

El crawl budget o presupuesto de rastreo es el número de páginas que un bot rastreo en un tiempo concreto, el cual variará en función del tamaño de la web, la facilidad de rastreo y la frecuencia con la que se actualiza el site con nuevo contenido.

Como sabrás, las arañas no crawlean una web al completo cada vez que la visitan, sino que acceden al contenido que les interesa, destinando un tiempo determinado.

¿Qué sucede entonces? Necesitamos que el crawl budget se centre en el análisis de aquellas páginas que son clave para el proyecto y no se pierda en otras que no nos interesan.

En los sitios webs grandes con multitud de URL podemos encontrarnos con estos problemas de presupuesto de rastreo.

En este punto, el estudio de logs tendrá un papel clave para determinar si el archivo robots.txt y las etiquetas meta-robots cuentan con la optimización adecuada; o los bots están accediendo a zonas de la web en las que no deseamos que inviertan su tiempo.

Frecuencia y tiempo de rastreo

Entre los 4 fundamentos del SEO, el rastreo cumple una función primordial porque, si Googlebot no logra crawlear una página, no se indexará, no aparecerá en su índice de cobertura y, por ende, adiós visitas y conversiones.

Con el análisis de logs del servidor orientado a SEO, detectarás qué zonas de tu web pasan inadvertidas para los bots con una misión: desarrollar acciones dentro de tu estrategia – por ejemplo, una mejora del enlazado interno y en la arquitectura interna – para favorecer su rastreo.

De hecho, su información te permitirá dar con páginas huérfanas, aquellas que se siguen rastreando, pero no son interesantes para tu proyecto y carecen de enlaces internos que apunten a ellas.

Además, conociendo el número de peticiones diarias realizadas por un bot al servidor, detectarás la frecuencia de rastreo de la página web.

estudio logs para SEO

Este dato extrae interesantes conclusiones porque, si el bot visita una URL con más frecuencia, queda patente la relevancia de esa página.

De hecho, si dentro de tu estrategia SEO implementas optimizaciones posteriores sobre esa URL, el análisis de logs te permitirá detectar si la frecuencia de rastreo es la óptima y comprobar si ha indexado los ajustes hechos.

Respuestas con errores 40X y 50X

Como ya tratamos en el blog, herramientas como Screaming Frog ayudan a detectar posibles errores de código de estado HTTP cuando los motores de búsqueda tratan de acceder a contenidos de nuestra web.

Sin embargo, para ir más allá en la detección de estas importantes incidencias, lo recomendable en analizar los archivos log del servidor con calma.

Ese estudio permitirá averiguar qué URLs están devolviendo errores 40X en páginas que ya no están disponibles, afectando negativamente al posicionamiento SEO del proyecto.

¿Qué debes hacer en este caso? Corrige el enlace que está generando ese error, para optimizar el presupuesto de rastreo, además de efectuar una redirección 301 a la URL correcta.

Otro hallazgo relevante que requiere de resolución será la identificación de errores 50X cuando el bot quiere acceder al servidor y no puede, lo que supone una barrera total para el rastreo y la posible eliminación de esas URL del índice.

Hallazgo de redirecciones y páginas con contenido duplicado

Al estudiar los ficheros log del servidor podrás identificar aquellas URL que generan redirecciones, acción que debes incorporar en tu lista de tareas SEO para optimizar al máximo el crawl budget.

Optimizar crawl budget

Del mismo modo, la observación de estos archivos permite descubrir páginas rastreadas con contenido idéntico, pero con la única distinción de incorporar un parámetro o filtro en su URL.

Una vez detectadas gracias al análisis de logs, el siguiente paso será valorar si queremos que el buscador dedique tiempo a rastrear esa página o no.

Principales aplicaciones prácticas del análisis de logs para tus optimizaciones SEO

Entre los casos más habituales en los que los profesionales SEO aplicamos el estudio de logs del servidor destacamos los siguientes:

Sitios web con numerosas URL

Ante una web con un gran número de páginas, el estudio de los logs ayuda a tener un mayor control de aspectos SEO que, de otro modo, sería complicado verificar.

Como ya hemos visto, de esas líneas podemos extraer datos sobre posibles incidencias en el rastreo de la web motivadas por errores en códigos de respuesta HTTP o redirecciones, que estén afectando al presupuesto de rastreo.

Detección de problemas de indexación

Una forma sencilla de saber si los buscadores están accediendo a las URL de nuestro proyecto pasa por estudiar los logs del servidor.

Así conocerás si el bot está visitando las páginas que realmente te interesan de tu sitio web.

Migraciones y cambios de arquitectura web

Una modificación en la arquitectura interna de un sitio web requiere de una revisión detallada y continua para solventar posibles problemas que poco a poco dañen el posicionamiento SEO del proyecto.

De igual modo, tras un proceso de migración web con una reescritura de URL, te recomendamos que también inviertas tiempos en analizar los logs.

De este modo, detectarás errores 40X y 50X y verificarás que todas las páginas apuntan a la URL correcta.

Análisis de relevancia

La monitorización de los logs sirve para identificar qué URL del proyecto reciben más peticiones o eventos, lo que se traduce en que esas páginas cuentan con más interés por parte de los bots.


Te interesa:

Cómo hacer una migración SEO con éxito


Screaming Frog Log Analyser, una de las herramientas SEO más potentes para analizar logs

En el mercado cuentas con diversidad de herramientas SEO para el análisis de logs. Toma nota de las principales:

Aunque todas ellas ofrecen información valiosa para mejorar la estrategia de posicionamiento web de cualquier proyecto, desde Webpositer te recomendamos que te inicies en el estudio de logs con Screaming Frog Log Analyser.

Gracias a esta funcionalidad de una de las herramientas SEO por excelencia, Screaming Frog Log Analyser permite en su versión gratuita crear un proyecto y subir un máximo de 1000 eventos de logs.

¿Qué información aporta Screaming Frog Log Analyser para el estudio de logs para SEO?

  • Verifica de forma automática los bots que han visitado la web
  • Detecta enlaces rotos, redirecciones y errores
  • Identifica las URL y secciones de la web más y menos rastreadas
  • Muestra la frecuencia de rastreo de los bots
  • Busca URL huérfanas y no rastreadas
  • Combina y compara datos de rastreo

Para iniciar un análisis de logs con esta herramienta, recuerda primero descargar esos archivos y crea un proyecto en Screaming Frog Log Analyser.

Cuando los datos estén subidos, la herramienta te dará un resumen gráfico de los datos:

Códigos de estado HTTP

códigos de estado SEO

Bots que han visitado las páginas

analisis-logs-eventos-bots

Visión general de información sobre URL con mayor frecuencia de rastreo, códigos de respuesta, user-agent, etc.

vision general log analyser

Por el momento, paramos aquí toda la información sobre cómo analizar logs para SEO.

Habrás comprobado la informació valiosa que se puede extraer de este estudio para optimizar el SEO de un proyecto.

De la importancia de situar el estudio y gestión de los logs entre las tareas de mejora SEO de un sitio web.

Porque, como dice John Mueller, Webmaster Trends Analyst en Google, «los archivos de registro del servidor están subestimados cuando encierran muy buena información tras ellos».