Ombres a la xarxa

Luís Ángel Fernández Hermana - @luisangelfh
20 febrer, 2018
Editorial: 177
Fecha de publicación original: 20 julio, 1999

El que saps no ho veu ningú, però veuen el que fas

Els costums de la societat connectada estan canviant molt ràpidament. Quasi al mateix ritme que creix la nostra dificultat per comprendre el que està passant a Internet i moure’ns dins la Xarxa amb algun propòsit propi. Aquestes són algunes de les conclusions d’un estudi dut a terme per enginyers de l’Institut de Recerca NEC de Princeton, Estats Units, el segon d’aquesta mena que han publicat en els dos darrers anys. Steve Lawrence y C. Lee Giles, que en són els autors, varen centrar la seva atenció en els grans directoris per saber “quanta web” contenien i què en trauríem nosaltres en fer-hi una cerca. Els resultats són força decebedors. Cap cercador no indexa més del 16% de les planes de la WWW, i no n’hi ha pas poques: n’hi ha al voltant de 800 milions. Però a mesura que aquesta xifra augmenta, la cobertura decreix: l’any passat el millor cercador contenia un terç de la web. Ara resulta que hi ha més portals, però ens duen a menys llocs. Perquè aquest treball, intitulat “Accessibilitat a la informació de la web”, ha pres com a referència els 16 principals cercadors d’Internet, des de Northern Light i Alta Vista, fins a Yahoo i Excite, passant por HotBot, Infoseek, Lycos, Google i Snap.

El primer informe de Lawrence i Lee va ser publicat a la revista dels Estats Units Science el 3/4/98. El segon, a la revista científica britànica Nature el 8/7/99. Entre aquestes dues dates, la web s’ha engreixat 300 milions de planes distribuïdes a quasi 3 milions de servidors (no de llocs, com erròniament han informat alguns mitjans). El desembre de 1997 aquests investigadors van calcular que la web emmagatzemava 320 milions de planes indexables (xifra que exclou les que exigeixen una contrasenya, omplir un formulari per accedir-hi o les que fan servir certs codis per no aparèixer en els directoris) d’un total estimat de 500 milions. Ara les planes indexables han arribat als 800 milions. Malgrat això, els cercadors més populars –Alta Vista, Excite, HotBot, Infoseek, Lycos y Northern Light– cobreixen tots plegats un 60% de la web.

Els autors consideren que la web creix massa de pressa i que aquests directoris no tenen temps d’incorporar l’allau de noves dades. Aleshores es veuen obligats a prendre decisions dràstiques i, des del seu punt de vista, “lògiques”. En primer lloc, donen preferència als llocs que reben més trànsit i, d’entre aquests, en segon lloc als que són instal.lats als Estats Units. La resta del ciberespai és mig en la foscor. La contradicció d’aquesta situació destaca més a mesura que es retalla el perfil d’activitat que predomina a Internet. L’ús social de la Xarxa també augmenta sens parar. Els ciutadans fan servir els directoris per localitzar àrees d’interès i, quan s’escau, prendre decisions sobre l’adquisició de certs béns, la planificació de les vacances, el millor tractament mèdic o fins i tot cap a on inclinaran el seu vot. Fins i tot els científics es capbussen en la web per delimitar el contingut i l’àrea de les seves recerques.

Però els cercadors amb prou feines ofereixen el 16% de totes les possibilitats i oportunitats que la Xarxa ofereix. Lawrence assegura que és poc probable que Internet continuï aquesta escalada per davant de les màquines que la volen censar. Més potència en els motors de cerca, juntament amb agents automàtics guiats per intel.ligència artificial i altres sistemes d’aquesta mena acostaran cada cop més el contingut real a l’indexat. Però de cara al 2001, que és la frontera actual dels profetes digitals, s’espera que la població d’Internet augmenti i es multipliqui fins als 700 milions d’usuaris. Amb un mínim discret de dues planes per cap (no perquè necessàriament les facin ells mateixos, sinó perquè només per la seva presència s’estimularà la capacitat productiva de la Xarxa, com ha estat passant fins ara), caldria sumar a les que ja existeixen ara 1.400 milions més de planes. Els tecnòlegs tenen feina per estona.

La dificultat per indexar-ho tot, o una proporció significativa, potencia els “prejudicis” dels cercadors. En primer lloc, es concentren en els enllaços per trobar planes noves. En segon lloc, depenen de les planes registrades pels usuaris. Això crea un entorn darwinià perniciós dirigit no per la mutació i la supervivència del més fort, sinó pel trànsit i la generació d’enllaços creuats. A això cal afegir-hi l’ús extensiu de criteris de “popularitat” per classificar planes rellevants, que n’augmenta la visibilitat i, aparentment, condemna als llimbs moltes altres planes (milions) que, independentment de la qualitat del que contenen, no compleixen els paràmetres que els directoris tenen fixats.

Els problemes que plantejaran aquests “prejudicis de recerca” són previsibles. Actualment un 83% dels servidors contenen informació de caràcter comercial, com les planes de les empreses, de les administracions, etc. Com sabrem que existeixen? Com hi arribarem? Molt més enrere, però no per això és menys interessant, hi ha el contingut científic i educatiu (6% dels servidors), molt del qual només es troba a la web, ni tan sols és disponible en bases de dades tradicionals. Després venen les planes sobre salut, personals, xarxes ciutadanes o de caràcter comunitari i les pornogràfiques (que no arriben a l’1’8 del total). Si preval la classificació basada en la popularitat, el resultat és que l’accessibilitat a la informació de la xarxa es pot convertir en un bon eslògan, però molt allunyat de la veritat. “Això pot retardar o fins i tot impedir la visibilitat massiva d’informació nova de gran qualitat”, conclouen els autors.

Però, com deia el Corsari Negre poc abans que el seu vaixell se n’anés en orris envoltat per la flota enemiga, “encara no s’ha perdut tot”. L’estudi de NEC fa referència al que indexen 16 cercadors, els més coneguts. Ara cal una investigació sobre com els internautes es procuren informació que potser no es correspon amb l’oferta d’aquests cercadors. Un passeig superficial per la web permet comprovar que més i més sistemes inclouen els seus propis cercadors, com passa, per exemple, amb el d’en.red.ando. Aquests motors indexen informació pròpia, continguts que, pels motius que ja hem comentat, entre d’altres, no acostumen a aparèixer quan es fan servir els cercadors més famosos. I, malgrat tot, el Corsari Negre, vull dir l’internauta, hi arriba. Jo penso que és aquesta banda de la Xarxa la que cal perfeccionar i enriquir. Els motors de cerques especialitzats, capaços d’oferir respostes riques en informació sobre el material que indexen i no simples llistats d’adreces, possiblement vinculats entre ells per àrees d’interès, ofereixen una sortida viable i racional al maremàgnum actual. Al cap i a la fi, no hi ha cap motiu pel qual calgui arribar a tota la informació que s’acumula a Internet, sinó bàsicament a la que ens interessa o –i això sempre és una mica més complicat– a la que cadascú descobreix que li interessa sense saber-ho prèviament. Aquí hi ha tota una àrea de recerca sobre la qual se n’ha dit ben poca cosa fins ara.

Des d’aquestes planes hem insistit molt sovint en que quan es parla d’Internet cal explicar amb el màxim de precisió de quina Internet es parla. Si la del lluïment mediàtic i el cop d’efecte borsari, o la dels milions de planes en les quals s’hi estableixen relacions de tota mena que, potser, mai no arriben a gaudir de les atencions d’un cercador de referència. La qüestió, com sempre, és qui perd. El cert és que la tendència en augment d’explicar Internet mitjançant termes que estan de moda, com portals, megaportals o portalets, webs distribuïdores de trànsit, webs de pas o de destí, webs amplificadores d’impactes, etc., etc., etc., enfosqueix la dinàmica de la Xarxa i la complexitat d’aquest món construït per l’acció de milions d’internautes, i no per un grapat de companyies ancorades en les sorres movedisses de la borsa.

Traducció: Eulàlia de Bobes.

print