Màquines socials i Internet: hi va haver algun problema pel camí

 

[Versión castellana] [English version]


David Casacuberta

Departament de Filosofia
Universitat Autònoma de Barcelona

 
 

 

En el seu famós assaig A Declaration of the Independence of Cyberspace, John Perry Barlow (1996) imaginava una utopia virtual en què els esdeveniments i els problemes del món real es tornaven irrellevants, inclosos els governs. Deixant-se endur per la nostàlgia, alguns es pregunten què va passar amb aquesta república d'Internet en la qual ningú sabia qui eres en la vida real i tenies una identitat nova al ciberespai. Personalment, això no em preocupa. La bogeria pel món virtual que es va apoderar d'intel·lectuals i activistes a la fi del segle xx es basava, finalment, en una mala comprensió de quina és la funció de les tecnologies digitals, que al cap i a la fi és facilitar la cooperació per incidir en el món real, i no per crear fantasies alternatives escapistes.

M'interessa molt més l'ideal que plantejava Tim Berners-Lee en el llibre Weaving the Web, i la seva idea de màquines socials. Per a Berners-Lee, les màquines socials són "processos en què les persones porten a terme el treball creatiu i les màquines s'ocupen de l'administració [...]. L'escenari està preparat per a un creixement evolutiu de nous motors socials. La capacitat de crear noves formes de procés social existiria en el món en general, i el desenvolupament seria ràpid" (Berners-Lee; Fischetti, 1999, p. 172-175). En el seu text, Tim Berners-Lee imaginava aquestes màquines socials com a sistemes per millorar la transmissió d'informació, facilitar processos administratius, millorar la capacitat creativa de les persones, etc. En la línia del que anys després Tim O'Reilly (2005) va batejar com a Web 2.0.

Les màquines socials han arribat, certament. Xarxes socials digitals com Facebook o Twitter s'adapten bé a la descripció que es proposa en el llibre Weaving the Web. El mateix podríem dir del cercador de Google, que administra el treball diari que fem tots els usuaris en posar enllaços a pàgines que considerem rellevants. Malauradament, les màquines socials de què disposem ara estan molt lluny de l'ideal de Tim Berners-Lee. És un programari que ens ha portat la bombolla dels filtres amb la qual només rebem la informació que s'adapta als nostres gustos, de manera que acabem tenint una imatge molt esbiaixada del que pensen els nostres conciutadans i del que els preocupa. Faciliten enormement la distribució de falsedats i informacions parcials, alhora que erosionen cada vegada més drets humans bàsics com la llibertat d'expressió o la privacitat i substitueixen el somni d'humans que cooperen per una multitud de trols que només busquen brega.

Què va passar pel camí? Per què aquest somni d'hiperconnectivitat s'ha transformat en un malson? La majoria dels crítics del web actual coincideixen a indicar que la responsable principal n'és l'economia de l'atenció. Si el servei és gratuït, el producte som nosaltres. Així, les xarxes socials digitals han de crear mecanismes d'addicció perquè no abandonem el lloc i continuem veient anuncis, els productors de contingut aposten cada vegada més per material superficial però que cridi l'atenció perquè el cliquem i apareixen miríades de compradors interessats a aconseguir cada vegada més dades personals sobre nosaltres.

Encara que l'economia basada en l'oferta de serveis gratuïts a canvi d'anuncis personalitzats és, clarament, la principal responsable d'aquest declivi, no n'és l'única, i m'agradaria apuntar un altre factor clau: el pas de la intel·ligència artificial simbòlica a l'aprenentatge automàtic o machine learning.

En un text posterior (Hendler; Berners-Lee, 2009) es descriuen els mecanismes que farien possible una nova generació de màquines socials. Aquest aspecte de la discussió em sembla especialment rellevant: "Estendre la infraestructura web actual per proporcionar mecanismes que facin explícites les propietats socials de l'intercanvi d'informació i que garanteixin que els usos d'aquesta informació s'ajusten a les expectatives rellevants de la política social dels usuaris" (Hendler; Berners-Lee, 2009, p. 2).

La proposta de màquina social de Berners-Lee estava associada al que en aquells anys es coneixia com a web semàntic, o web 3.0. Un web profusament etiquetat en XML per facilitar la localització i la classificació d'informació. Així, aquests processos es basen en informació accessible lliurement, cedida directament pel creador, i en algoritmes basats en programari desenvolupat per humans i de codi obert. És a dir, informació cedida de manera voluntària i explícita, processada per algoritmes oberts i transparents.

Aquesta manera de presentar i processar la informació és vital per desenvolupar mecanismes contextuals a l'hora de facilitar o no l'accés a la informació. En quin moment i quins agents poden tenir accés a dades sanitàries meves? Quan es pot dir que un usuari d'una xarxa social digital està traspassant la ratlla i els seus apunts (posts) són inadequats? Les nostres màquines socials actuals disposen de mecanismes abundants per fer això, però ho aconsegueixen processant informació que molts usuaris no eren conscients que estaven cedint i es processa mitjançant algoritmes de caixa negra en què resulta molt complex —o directament impossible— establir com està processant la informació l'algoritme.

Com podem posar-hi remei, a aquesta situació? El primer pas és insistir que la situació té remei. Quan John Perry Barlow publicava el seu manifest, parlava d'una naturalesa d'Internet que la feia inaccessible a controls governamentals o empresarials. Moltes de les crítiques que es fan actualment a la manera com interaccionem amb el web consideren que és impossible subvertir la infraestructura actual i l'única alternativa que veuen a les vergonyoses màquines socials que tenim actualment és abandonar completament l'esfera digital i tornar al paper i al bolígraf.

Però, com molt bé va argumentar Lawrence Lessig (1999) en el llibre Code and Other Laws of Cyberspace, Internet o el WWW no tenen naturalesa. Són codi, i els codis es poden modificar. En el llibre, Lessig compara els protocols de comunicació d'Internet amb una constitució. Em sembla que és una perspectiva molt rellevant. Una constitució és una cosa que els ciutadans ens donem a nosaltres mateixos i que és modificable quan l'entorn polític, cultural i social canvia de manera rellevant.

És el moment de canviar la nostra constitució digital i d'oferir-nos les màquines socials que realment ens mereixem. Un primer pas clau és exigir transparència en els processos algorítmics. Que les empreses que trafiquen amb les nostres dades duguin a terme auditories serioses, conduïdes per agents imparcials, i que assegurin la integritat de les dades recopilades, la seva veracitat i, especialment, que aquestes dades es processen de manera ètica, equitativa i respectant drets bàsics.

Per a això, cal repensar la nostra relació amb els algoritmes. L'auge actual de l'aprenentatge automàtic basat en xarxes neuronals no és el resultat de cap gran intuïció sobre com funciona la ment. Bàsicament, els investigadors han descobert que els algoritmes d'aprenentatge automàtic basats a trobar regularitats estadístiques es poden aplicar a molts més camps dels que originalment es pensava, però això no vol dir que tinguem avenços teòrics significatius per tenir de veritat objectes artificials genuïnament intel·ligents. Que aquests algoritmes funcionin no és excusa per utilitzar-los si la seva manca de transparència impedeix establir el tipus de decisions que prenen i si són realment justes. Necessitem altres lògiques en el desenvolupament del programari, a més de l'eficiència.

En paral·lel, hem de canviar la nostra actitud amb relació a quines dades han de ser públiques i per què. Des de l'acadèmia i la premsa hem de fer un esforç important per comunicar la nova realitat big data al públic. És inconsistent que molts usuaris encara avui dia continuïn utilitzant Twitter com si fos un canal privat amb el qual parlen amb els amics, quan en realitat és un espai públic en què les nostres opinions són visibles per a qualsevol amb un ordinador i una connexió a Internet. També resulta peculiar que part de la ciutadania posi el crit al cel quan descobreix que les seves dades mèdiques s'utilitzaran en estudis científics poblacionals (amb la informació personal anonimitzada convenientment perquè no es puguin identificar les persones), però després no tingui cap problema a l'hora de donar dades personals íntimes a empreses com Google o Facebook a canvi d'un correu electrònic gratuït o la suposada diversió de llegir el que els teus amics posen en aquesta xarxa social digital.

 

Bibliografia

Barlow, John Perry (1996). A Declaration of the Independence of Cyberspace.
<https://www.eff.org/cyberspace-independence>. [Consulta: 10/09/2018].

Berners-Lee, Tim; Fischetti, Mark (1999). Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web. New York: Harper Collins.

Hendler, Jim; Berners-Lee, Tim (2009). "From the Semantic Web to social machines: A research challenge for AI on the World Wide Web". Artificial intelligence, vol. 174, no. 2 (February 2010), p. 156-161.

Lessig, Lawrence (1999). Code and Other Laws of Cyberspace. New York: Basic Books.

O'Reilly, Tim (2005). What is Web 2.0. <http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-.... [Consulta: 10/09/2018].

Citació recomanada

Casacuberta, David (2018). "Màquines socials i Internet : hi va haver algun problema pel camí". BiD: textos universitaris de biblioteconomia i documentació, núm. 41 (desembre) . <http://bid.ub.edu/41/casacuberta.htm>. [Consulta: 16-11-2018].