[Versió catalana] [English version]
David Casacuberta
Departamento de Filosofía
Universitat Autònoma de Barcelona
En su celebrado ensayo A Declaration of the Independence of Cyberspace, John Perry Barlow (1996) imaginaba una utopía virtual en la que los acontecimientos y problemas del mundo real se volvían irrelevantes, incluidos los gobiernos. Envueltos en la nostalgia, algunos se preguntan qué pasó con esa república de Internet en la que nadie sabía quién eras en la vida real y tenías una nueva identidad en el ciberespacio. Personalmente, no es algo que me preocupe. La locura por lo virtual que se apoderó de intelectuales y activistas a finales del siglo xx se basaba finalmente en una mala comprensión de cuál es la función de las tecnologías digitales, que finalmente es facilitar la cooperación para incidir en el mundo real, y no para crear fantasías alternativas escapistas.
Me interesa mucho más el ideal que planteaba Tim Berners-Lee en su libro Weaving the Web, y su idea de máquinas sociales. Para Berners-Lee las máquinas sociales son "procesos en los que las personas llevan a cabo el trabajo creativo y las máquinas se ocupan de la administración […]. El escenario está preparado para un crecimiento evolutivo de nuevos motores sociales. La capacidad de crear nuevas formas de proceso social se daría en el mundo en general, y el desarrollo sería rápido" (Berners-Lee; Fischetti, 1999, p. 172–175). En su texto, Tim Berners-Lee imaginaba estas máquinas sociales como sistemas para mejorar la transmisión de información, facilitar procesos administrativos, mejorar la capacidad creativa de las personas, etc. En la línea de lo que años después Tim O'Reilly (2005) bautizó como Web 2.0.
Las máquinas sociales han llegado ciertamente. Redes sociales digitales como Facebook o Twitter se adaptan bien a la descripción que se propone en Weaving the Web. Lo mismo podríamos decir del buscador de Google, que administra el trabajo diario que hacemos todos los usuarios al poner enlaces a páginas que consideramos relevantes. Desgraciadamente, las máquinas sociales con las que contamos ahora están muy lejos del ideal de Tim Berners-Lee. Es un software que nos ha traído la burbuja de los filtros con la que solo recibimos aquella información que se adapta a nuestros gustos, por lo que acabamos teniendo una imagen muy sesgada de lo que piensa y preocupa a nuestros conciudadanos. Facilitan enormemente la distribución de falsedades e informaciones parciales, al tiempo erosionan cada vez más derechos humanos básicos como la libertad de expresión o la privacidad y sustituyen el sueño de humanos que cooperan por una multitud de troles que buscan una pelea tras otra.
¿Qué pasó por el camino? ¿Por qué ese sueño de hiperconectividad se ha transformado en una pesadilla? La mayoría de los críticos de la web actual coinciden en indicar que la responsable principal es la economía de la atención. Si el servicio es gratis, el producto somos nosotros. Así, las redes sociales digitales han de crear mecanismos de adicción para que no abandonemos el sitio y sigamos viendo anuncios, los productores de contenido apuestan cada vez más por material superficial pero llamativo que nos invite a clicar, y aparecen miríadas de compradores interesados en conseguir cada vez más datos personales sobre nosotros.
Aunque claramente la economía basada en ofrecer servicios gratis a cambio de anuncios personalizados es la principal responsable de este declive, no es la única, y me gustaría apuntar otro factor clave: el paso de la inteligencia artificial simbólica al aprendizaje automático o machine learning.
En un texto posterior (Hendler; Berners-Lee, 2009) se describen los mecanismos que posibilitarían una nueva generación de máquinas sociales. Este aspecto de la discusión me parece especialmente relevante: "Extender la infraestructura web actual para proporcionar mecanismos que hagan explícitas las propiedades sociales del intercambio de información y que garanticen que los usos de esta información se ajustan a las expectativas relevantes de la política social de los usuarios" (Hendler; Berners-Lee, 2009, p. 2).
La propuesta de máquina social de Berners-Lee estaba asociada a lo que en aquellos años se conocía como web semántica, o web 3.0. Una web profusamente etiquetada en XML para facilitar la localización y clasificación de información. Así estos procesos se basan en información libremente accesible, cedida directamente por el creador, y algoritmos basados en software desarrollado por humanos y de código abierto. Es decir, información cedida de manera voluntaria y explícita, procesada por algoritmos abiertos y transparentes.
Esta forma de presentar y procesar la información es vital para desarrollar mecanismos contextuales a la hora de facilitar o no el acceso a la información. ¿En qué momento y qué agentes pueden tener acceso a datos sanitarios sobre mí? ¿Cuándo un usuario de una red social digital está traspasando la raya y sus posts son inadecuados? Nuestras máquinas sociales actuales disponen de abundantes mecanismos para hacer eso, pero lo consiguen procesando información que muchos usuarios no eran conscientes de que estaban cediendo y se procesa mediante algoritmos de caja negra en los que resulta muy complejo —o directamente imposible— establecer cómo está procesando la información el algoritmo.
¿Cómo podemos remediar esta situación? El primer paso es insistir en que la situación es remediable. Cuando John Perry Barlow publicaba su manifiesto, hablaba de una naturaleza de Internet que la hacía inaccesible a controles gubernamentales o empresariales. Muchas de las críticas que se lanzan actualmente a la manera en que interaccionamos con la web ven imposible subvertir la infraestructura actual y la única alternativa que ven a las bochornosas máquinas sociales que tenemos en la actualidad es abandonar completamente la esfera digital y volver al papel y el bolígrafo.
Pero, como muy bien argumentó Lawrence Lessig (1999) en su libro Code and Other Laws of Cyberspace, Internet o la WWW no tienen naturaleza. Son código, y los códigos se pueden modificar. En su libro, Lessig compara los protocolos de comunicación de Internet con una constitución. Encuentro que es una perspectiva muy relevante. Una constitución es algo que los ciudadanos nos damos a nosotros mismos y que es modificable cuando el entorno político, cultural y social cambia de manera relevante.
Es el momento de cambiar nuestra constitución digital y darnos las máquinas sociales que realmente nos merecemos. Un primer paso clave es exigir transparencia en los procesos algorítmicos. Que las empresas que trafican con nuestros datos lleven a cabo auditorías serias, conducidas por agentes imparciales y que aseguren la integridad de los datos recopilados, su veracidad y, especialmente, que esos datos se procesan de manera ética, equitativa y respetando derechos básicos.
Para ello, es necesario repensar nuestra relación con los algoritmos. El auge actual del aprendizaje automático basado en redes neuronales no es resultado de ninguna gran intuición sobre cómo funciona la mente. Básicamente los investigadores han descubierto que los algoritmos de aprendizaje automático basados en encontrar regularidades estadísticas se pueden aplicar a muchos más campos de los que originalmente se pensaba, pero ello no significa que tengamos avances teóricos significativos para realmente tener objetos artificiales genuinamente inteligentes. Que esos algoritmos funcionen no es excusa para utilizarlos si su falta de transparencia impide establecer el tipo de decisiones que toman y si son realmente justas. Necesitamos otras lógicas en el desarrollo del software, además de la eficiencia.
En paralelo, hemos de cambiar nuestra actitud con relación a qué datos han de ser públicos y por qué. Desde la academia y la prensa tenemos que hacer un esfuerzo importante para comunicar la nueva realidad big data al público. Es inconsistente que muchos usuarios aún hoy en día sigan utilizando Twitter como si fuera un canal privado con el que hablan con sus amigos, cuando en realidad es un espacio público en el que nuestras opiniones son visibles para cualquiera con un ordenador y una conexión a Internet. También resulta peculiar cómo parte de la ciudadanía pone el grito en el cielo cuando descubre que sus datos médicos se van a usar en estudios científicos poblacionales (con la información personal convenientemente anonimizada para que no se pueda identificar a las personas) pero después no tiene ningún problema en entregar datos personales íntimos a empresas como Google o Facebook a cambio de un correo electrónico gratis o la supuesta diversión de leer lo que tus amigos ponen en esa red social digital.
Bibliografía
Barlow, John Perry (1996). A Declaration of the Independence of Cyberspace.
<https://www.eff.org/cyberspace-independence>. [Consulta: 10/09/2018].
Berners-Lee, Tim; Fischetti, Mark (1999). Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web. New York: Harper Collins.
Hendler, Jim; Berners-Lee, Tim (2009). "From the Semantic Web to social machines: A research challenge for AI on the World Wide Web". Artificial intelligence, vol. 174, no. 2 (February 2010), p. 156-161.
Lessig, Lawrence (1999). Code and Other Laws of Cyberspace. New York: Basic Books.
O'Reilly, Tim (2005). What is Web 2.0. <http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html>. [Consulta: 10/09/2018].