Los webmasters empezaron a optimizar sitios Web para buscadores a mediados de los años 90. Al principio, lo único que tenían que hacer era enviar una página o una URL a varios buscadores, que luego enviaban un robot o “searchbot” para visitar dicha página para extraer enlaces hacia otras páginas y leer la información que contenía a fin de indexarla.Durante el proceso, el robot del buscador descarga una página y la archiva en el propio servidor de dicho buscador, donde otro programa, conocido como indexador, extrae datos varios de la página, como las palabras que contiene y dónde se ubican, así como todos los enlaces, para luego guardarlos en un programador a fin de volver a comprobarlos más adelante.Las primeras versiones de los algoritmos de los buscadores dependían únicamente de los datos que aportaban los webmaster, a través de las palabras claves de las etiquetas meta y archivos index. Las etiquetas meta proporcionaban una guía sobre los contenidos de cada página. Pero se descubrió que el uso de los datos meta para indexar páginas era poco fiable porque las palabras claves que los webmasters introducían en las etiquetas meta no correspondían del todo con las palabras claves de los contenidos de texto de los sitios Web.Todo cambió en 1998 cuando Page y Brin fundaron Google. A los internautas les gustaba el diseño sencillo de Google, los factores adicionales como el PageRank, y sus herramientas de análisis de hiperenlaces y de contenidos. Esto permitió a Google evitar el tipo de manipulación que se ve en los buscadores que dependen únicamente de las meta etiquetas para confeccionar sus rankings.Desde 2007, los algoritmos de los buscadores para evaluar el ranking tienen en cuenta una amplia gama de criterios desconocidos. Google afirma que utiliza más de 200 criterios distintos.

1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (Ninguna valoración todavía)
Cargando…