Web superficial y Web profunda
Norman Rene Trujillo nos dice en su blog que solo conocemos el 5% de lo que hay en la Web,
ello debido a que la Web Superficial que se
vislumbra de la Red de Internet, es información de sitios que se indexan y se
pueden recuperar, cerca de su totalidad, en los buscadores convencionales, dado
que dicha información no está en bases de datos, lo principal, de libre acceso, por lo que no se ocupa de un
registro para solicitarla.
Todo lo contrario con la Web Profunda o DEEP wEB: la información disponible
en la Red de Internet que no se puede recobrada con los buscadores convencionales.
Está en bases de datos, y solo permiten ver las páginas de entrada casi en un 90%, por tanto NO son visibles a
los mismos.
En el blog
de Colombia Digital, hacen mención de una investigación de Brian Wai Fung
en el MIT sobre algoritmos para web profunda, y encuentra que: “de acuerdo con
una investigación conducida por la Universidad de Berkeley en California, en
2003 la web (superficial) contenía aproximadamente 167 terabytes de
información. En contraste, la Internet profunda se estima que contiene 91.000
terabytes de información, lo que corresponde a 500 veces más el tamaño de la
web superficial. Esto significa que el tradicional sistema de búsqueda basado
en enlaces no está rastreando el contenido del 99% de la web”.
Para hacer búsquedas profundas en
la Web, Luis
Castro, experto de informática, en su sitio, nos propone usar Meta
buscadores, que se han ido desarrollando para este tipo de búsqueda, aunque no
logren en su totalidad dicho fin. Ejemplo de ellos son:
“Scirus, que se usa para hacer búsquedas específicamente para
información científica.
Infomine, que se usa para buscar material escolar, de todos tipos.
FreeLunch, que se usa para buscar datos económicos.
CompletePlanet, que abarca diversos temas.
Search Engine Guide, que te puede ayudar a encontrar un buscador
adecuado al tema que estés investigando”
No hay comentarios:
Publicar un comentario