Los webmasters empezaron a optimizar sitios Web para buscadores a mediados de los a√Īos 90. Al principio, lo √ļnico que ten√≠an que hacer era enviar una p√°gina o una URL a varios buscadores, que luego enviaban un robot o ‚Äúsearchbot‚ÄĚ para visitar dicha p√°gina para extraer enlaces hacia otras p√°ginas y leer la informaci√≥n que conten√≠a a fin de indexarla.Durante el proceso, el robot del buscador descarga una p√°gina y la archiva en el propio servidor de dicho buscador, donde otro programa, conocido como indexador, extrae datos varios de la p√°gina, como las palabras que contiene y d√≥nde se ubican, as√≠ como todos los enlaces, para luego guardarlos en un programador a fin de volver a comprobarlos m√°s adelante.Las primeras versiones de los algoritmos de los buscadores depend√≠an √ļnicamente de los datos que aportaban los webmaster, a trav√©s de las palabras claves de las etiquetas meta y archivos index. Las etiquetas meta proporcionaban una gu√≠a sobre los contenidos de cada p√°gina. Pero se descubri√≥ que el uso de los datos meta para indexar p√°ginas era poco fiable porque las palabras claves que los webmasters introduc√≠an en las etiquetas meta no correspond√≠an del todo con las palabras claves de los contenidos de texto de los sitios Web.Todo cambi√≥ en 1998 cuando Page y Brin fundaron Google. A los internautas les gustaba el dise√Īo sencillo de Google, los factores adicionales como el PageRank, y sus herramientas de an√°lisis de hiperenlaces y de contenidos. Esto permiti√≥ a Google evitar el tipo de manipulaci√≥n que se ve en los buscadores que dependen √ļnicamente de las meta etiquetas para confeccionar sus rankings.Desde 2007, los algoritmos de los buscadores para evaluar el ranking tienen en cuenta una amplia gama de criterios desconocidos. Google afirma que utiliza m√°s de 200 criterios distintos.

1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (Ninguna valoración todavía)
Cargando…