Penumbras en la Red

Luís Ángel Fernández Hermana - @luisangelfh
20 febrero, 2018
Editorial: 177
Fecha de publicación original: 20 julio, 1999

Ninguno ve lo que tú sabes, mas todos pueden ver lo que tú haces

Los usos y costumbres de la sociedad conectada están cambiando a gran velocidad. Casi al mismo ritmo que crece nuestra dificultad para comprender lo que está pasando en Internet y movernos dentro de la Red con algún propósito propio. Éstas son algunas de las conclusiones de un estudio realizado por ingenieros del Instituto de Investigación NEC de Princeton, EEUU, el segundo de este estilo que publican en los últimos dos años. Steve Lawrence y C. Lee Giles, los autores, centraron su atención en los grandes directorios para saber «cuánta web» había en ellos y qué obteníamos nosotros de nuestras búsquedas. Los resultados son bastante decepcionantes. Ningún buscador indexa más del 16% de las páginas de la WWW. Y no son pocas: hay alrededor de 800 millones. Pero, a medida que esta cifra aumenta, la cobertura desciende: el año pasado el mejor buscador contenía un tercio de la web. Ahora resulta que, contra más portales son, a menos lugares nos llevan. Porque este trabajo, titulado «Accesibilidad a la información de la web», ha tomado como referencia a los 16 principales buscadores de Internet, desde Northern Light y Alta Vista, a Yahoo y Excite, pasando por HotBot, Infoseek, Lycos, Google y Snap.

El primer informe de Lawrence y Lee se publicó en la revista científica estadounidense Science el 3/4/98. El segundo, en la revista científica británica Nature el 8/7/99. Entre estas dos fechas, la web ha engordado en 300 millones de páginas distribuidas en casi 3 millones de servidores (no de sitios, como erróneamente han informado algunos medios). En diciembre de 1997, estos investigadores calcularon que la web almacenaba 320 millones de páginas indexables (lo cual excluye a las que exigen una contraseña, rellenar un formulario para acceder a ellas o las que usan ciertos códigos para no aparecer en los directorios), de un total estimado de 500 millones. Ahora, las páginas indexables han llegado a los 800 millones. Sin embargo, los seis buscadores más populares –Alta Vista, Excite, HotBot, Infoseek, Lycos y Northern Light– apenas cubren en conjunto un 60% de la web.

Los autores del informe consideran que la web crece demasiado deprisa y a estos directorios no les da tiempo a incorporar el aluvión. Y entonces se ven obligados a tomar decisiones drásticas y, desde su punto de vista, «lógicas». Privilegian, en primer lugar, los sitios que reciben más tráfico y, de éstos, en segundo lugar, los instalados en EEUU. El resto del ciberespacio es una suave penumbra. Lo contradictorio de esta situación resalta más a medida que se recorta el perfil de actividad que predomina en Internet. El uso social de la Red aumenta también sin cesar. Los ciudadanos utilizan los directorios para localizar áreas de interés y, cuando se tercia, tomar decisiones sobre la adquisición de ciertos bienes, la planificación de las vacaciones, el mejor tratamiento médico e incluso la inclinación de su voto. Hasta los científicos bucean la web para delimitar el contenido y el área de sus investigaciones.

Sin embargo, los buscadores apenas ofrecen un 16% de todas las posibilidades y oportunidades que ofrece la Red. Lawrence asegura que es poco probable que Internet siga esta escalada por delante de las máquinas que tratan de censarla. La mayor potencia de los motores de búsqueda, junto con los agentes automáticos guiados por inteligencia artificial y otros sistemas de este tipo, acercará cada vez más el contenido real al indexado. Pero, para el 2001, que es la frontera actual de los profetas digitales, se espera que la población de Internet crezca y se multiplique hasta los 700 millones de almas. A un mínimo discreto de dos páginas por cabeza (no porque necesariamente las hagan ellos mismos, sino porque su mera presencia estimulará la capacidad productiva de la Red, como viene sucediendo hasta ahora), habría que sumar a las existentes otros 1.400 millones de páginas. Los tecnólogos tienen trabajo para rato.

La dificultad para indexar todo, o una proporción significativa, potencia los «prejuicios» de los buscadores. En primer lugar, se concentran en los enlaces para encontrar páginas nuevas. En segundo lugar, dependen de las páginas registradas por los usuarios. Esto crea un pernicioso entorno darwiniano dirigido no por la mutación y la supervivencia del más fuerte, sino por el tráfico y la generación de enlaces cruzados. A esto hay que añadirle el uso extensivo de criterios de «popularidad» para clasificar páginas relevantes. Esto aumenta la visibilidad de estas páginas y, aparentemente, condena al limbo las de muchas otras (millones) que, independientemente de la calidad de su contenido, no cumplen con los parámetros fijados por los directorios.

Los problemas que plantearán estos «prejuicios de búsqueda» son previsibles. Actualmente, un 83% de los servidores contienen información de carácter comercial, como las páginas de las empresas, de las administraciones, etc. ¿Cómo sabremos que existen? ¿cómo llegaremos a ellas? Muy por detrás, pero no menos interesante, viene el contenido científico y educativo (6% de los servidores), mucho del cual sólo se encuentra en la web, ni siquiera está disponible en bases de datos tradicionales. Después vienen las páginas sobre salud, personales, redes ciudadanas o de índole comunitario y las pornográficas (que no llegan al 1.8% del total). Si prevalece la clasificación basada en la popularidad, el resultado es que la accesibilidad a la información de la web se puede convertir en un buen eslogan, pero muy alejado de la verdad. «Esto puede retrasar e incluso impedir la visibilidad masiva de información nueva de gran calidad», concluyen los investigadores.

Sin embargo, como decía el Corsario Negro minutos antes de que el barco se le fuera a pique rodeado por la flota enemiga: «No todo está perdido». El estudio de NEC se refiere a lo que indexan 16 buscadores, los más conocidos. Ahora falta una investigación sobre cómo los internautas se procuran información, que quizá no se corresponda con la oferta de estos buscadores. Un paseo superficial por la web permite comprobar que más y más sistemas incluyen sus propios buscadores, como sucede, por ejemplo, con el de en.red.ando. Estos motores indexan información propia, contenidos que, por los motivos apuntados más arriba, entre otros, no suelen aparecer cuando se utilizan los buscadores más famosos. Y, sin embargo, el Corsario Negro, que diga el internauta, llega hasta ellos. Yo creo que es este lado de la Red el que hay que perfeccionar y enriquecer. Los motores de búsquedas especializados, capaces de ofrecer respuestas ricas en información sobre el material que indexan y no meros listados de direcciones, posiblemente vinculados entre ellos por áreas de interés, ofrecen una salida viable y racional al maremágnum actual. A fin de cuentas, uno no tiene que llegar a toda la información que atesora Internet, sino, fundamentalmente, a la que le interesa o –y esto siempre es un poco más complicado– a la que descubre que le interesa sin saberlo previamente. Aquí hay toda un área de investigación sobre la que hemos escuchado todavía muy poco.

Desde estas páginas hemos insistido muchas veces en que cuando se habla de Internet, hay que explicar con la mayor precisión posible de qué Internet se habla. Si la del relumbrón mediático y el pelotazo bursátil, o la de los millones de páginas donde se cuecen relaciones de todo tipo que, a lo mejor, jamás llegan a disfrutar de los mimos de un buscador de referencia. La cuestión, como siempre, es quién pierde. Lo cierto es que la creciente tendencia de explicar Internet a través de términos de moda, como portales, megaportales o portalitos, «webs distribuidoras de tráfico», «webs de paso» o de «destino», «webs amplificadoras de impactos», etc., etc., etc., oscurece la dinámica de la Red y la complejidad de este mundo construído por la acción de millones de internautas y no por un puñado de compañías ancladas en las arenas movedizas de la bolsa.

print