La gentrificación digital

Los algoritmos de las plataformas de contenidos premian las obras situadas en la zona promedio y limitan el espacio para la experimentación.


Grupo de bailarinas disfrazadas de payaso. Brisbane, Queensland, 1926 | State Library of Queensland | Dominio público

Canciones escritas para llegar a la próxima tendencia de TikTok, series basadas en lo que dictan las métricas de las plataformas. Los algoritmos no solo median nuestras recomendaciones, cada vez tienen más impacto en los contenidos y formatos de las creaciones culturales. Un artículo publicado por cortesía de Caja Negra Editora.

A comienzos de 2018, el músico y escritor Damon Krukowski notó algo curioso en las reproducciones en Spotify de Galaxie 500, su antigua banda. La canción más reproducida del grupo bostoniano –activo entre 1987 y 1991– era «Strange», que no había sido corte de difusión, no aparecía en películas o series famosas ni formaba parte de alguna playlist de la plataforma. La diferencia con el resto del catálogo de la banda era muy marcada, incluso con aquellas canciones que los fans de Galaxie 500 parecían apreciar más. Otra cosa que llamó la atención de Krukowski era que el fenómeno sólo ocurría en Spotify, no en el resto de plataformas de streaming musical.

«Strange» era extraña para el estilo compositivo del grupo de dream pop. Había sido escrita casi como una parodia de la música popular de aquel momento, finales de la década de 1980. Es decir que sonaba más parecido a un viejo éxito radial que al ADN de la banda y eso parecía explicar, al menos parcialmente, los números de la canción en Spotify. Cuando Krukowski contó esta curiosidad en su newsletter, el texto llamó la atención de Glenn McDonald, uno de los analistas de datos más importantes de la plataforma (recuerden ese nombre porque volveremos a él hacia el final).

McDonald investigó internamente lo que estaba pasando con «Strange» y descubrió que el track sonaba parecido a canciones de grupos más tradicionales y populares que Galaxie 500. «Strange» había logrado meterse en el algoritmo por sus características intrínsecas. También influía el hecho de que, en 2017, Spotify comenzó a emplear una función llamada autoplay, que reproduce automáticamente un tema similar al que se está escuchando una vez que un disco o una playlist ha finalizado.

Para decirlo con pocas palabras, aquello que suena genérico y popular tiene muchas más probabilidades de ser recomendado en la actual internet. Por consiguiente, a lo menos convencional le cuesta destacarse. Esto que hoy suena a sentido común choca de frente con el espíritu de la internet de los ‘90, cuando parecía abrir las puertas a un mundo nuevo, uno menos regido por los agentes de poder y más por la curiosidad de los internautas. 

Esa visión utópica no duró demasiado. La anécdota de Galaxie 500 está incluida en Filterworld, el libro en el que el periodista Kyle Chayka analiza cómo los algoritmos de recomendación están aplanando la cultura. «Así es como ocurre la normalización algorítmica: Normal es una palabra para personas discretas y promedio, cualquier cosa que no provoque reacciones negativas», escribe. «Cualquiera sea el contenido que encaje en esa zona promedio va a tener promoción y crecimiento acelerados, como ocurrió con “Strange”, mientras que el resto se queda en el camino».

Foto de Fath | Unsplash

No se trata de un fenómeno particularmente nuevo, pero es evidente que se ha profundizado y acelerado en los últimos años, y está afectando a industrias que van más allá de la música o el cine. Dejar en manos de algoritmos nuestras elecciones (algoritmos alimentados a base de nuestras conductas previas), sumado a la abrumadora cantidad de contenido que se produce todo el tiempo, está creando una cultura de consumo atenta a lo que funciona para poder destacarse. Una average culture, una cultura que no se permite la experimentación o el desborde para no quedar invisibilizada.

Un ejemplo representativo de este estado de las cosas son los actuales hits, que apelan a un estribillo precoz para no sufrir el skip del oyente ansioso. Spotify sólo monetiza aquellas pistas que alcancen un mínimo de mil reproducciones, y a eso se le acaba de sumar una función para que el usuario pueda escuchar «los mejores 20 segundos» de cada tema, de modo que todo está pensado para un consumo inmediato.

Algunos lo han denominado «tiktokenización» de la cultura. Y tiene sentido. Aunque llevaba activa hacía algunos años, TikTok se popularizó globalmente en 2020, el año del confinamiento: las personas pasaban mucho tiempo encerradas y la forma más común de socialización y entretenimiento fueron las redes sociales. Al algoritmo de TikTok le lleva apenas algunos minutos detectar los intereses del usuario, para luego ofrecer un catálogo de videos que le resulten atractivos.

Como red social, la plataforma china cambió las reglas de juego de sus antecesoras. Es posible seguir cuentas, sí, pero su mayor fortaleza radica en las temáticas. Los usuarios persiguen intereses, no personas. Esto no sólo la diferenció de las versiones clásicas de Facebook, Twitter o Instagram, sino que las obligó a cambiar sus propios algoritmos e imitar sus formatos (reels en el caso de Instagram; las pestañas «Para ti» y «Siguiendo» en el caso de la ahora llamada X).

Esta nueva dinámica también modificó los comportamientos de los influencers, las figuras pop del capitalismo de plataformas. Si antes se destacaban por su metier –moda, gastronomía, viajes, fitness, cine y un largo etcétera–, ahora muchos de ellos persiguen al algoritmo para no perder relevancia, atentos a qué funciona y qué no para adaptarse a una realidad que muta a una velocidad difícil de seguir. No sólo en cuanto a contenidos, sino también a los formatos (imágenes, vídeos verticales y horizontales, textos, galerías de fotos), una realidad que atenta contra cualquier posibilidad de calidad, porque es muy complicado destacar en todos los frentes. De allí que en los últimos tiempos hayan surgido creadores de contenido que son referentes de un tema y, de un momento a otro, se transforman en coaches, maestros yogui o expertos en finanzas. Frente al debilitamiento de su estilo original, el instinto de supervivencia los obliga a perseguir contenidos con mayor engagement.

La tecnología que venía a democratizar el conocimiento y ofrecer nuevas maneras de adquirir información atraviesa un momento crítico, un ejemplo de lo que el urbanista francés Paul Virilio llamó «accidentes integrales»: una tecnología no puede existir sin sus respectivos accidentes, efectos secundarios que surgen luego de su implementación masiva. En la superficie, los algoritmos de recomendación son útiles porque le permiten al usuario ahorrar tiempo y obtener lo que desea, pero sus efectos están lejos de ser neutrales. La consecuencia evidente es ese aplanamiento mencionado al comienzo: canciones escritas para llegar a la próxima tendencia de TikTok, series basadas en lo que dictan las métricas de las plataformas on demand, contenido serializado de consumo fragmentado, veloz y ultra procesado.

Foto de Kivanc Erdirik | Unsplash

En una investigación titulada «Algorithms and taste-making: Exposing the Netflix Recommender System’s operational logics» (2021), Niko Pajkovic hizo la prueba de inventar tres usuarios desde cero, con la mente puesta en diferentes estereotipos, como el fanático de los deportes, el amante del cine de autor y el consumidor compulsivo de comedias románticas. Ya en los primeros días de su experimento empezó a notar cambios en la home de cada uno de estos usuarios (algo esperable), pero también tuvo otros descubrimientos. Por caso, en las miniaturas de cada producto audiovisual. De esa forma, en la pantalla principal del fan deportivo se veían «imágenes que incluían movimiento y colores brillantes» (aun sin ser material estrictamente deportivo), mientras que la pantalla del amante de las películas de autor «estuvo dominada por tonos más oscuros, imágenes de arte en blanco y negro y muchos retratos de actores».

Esto puede ocurrir incluso con un mismo título. En octubre de 2018, algunos usuarios de Netflix acusaron a la plataforma de usar miniaturas distintas de la película Love Actually de acuerdo al perfil. Por ejemplo, un póster en el que aparecía Chiwetel Ejiofor, que no tiene un protagónico en la película, lo cual generó la sospecha de que a los usuarios de color les mostraba actores de color. Netflix se despegó rápido del tema en un comunicado que señalaba que su algoritmo no se guiaba por «raza, género o etnia», sino exclusivamente por el historial del usuario.

Los llamados «filtros burbuja» existen desde hace al menos 15 años, cuando Google comenzó a personalizar los resultados de su buscador en 2009, pero incluso luego de varias investigaciones, el poder de su influencia nunca se termina de definir del todo. Sí se pueden percibir los efectos de esa cámara de eco en el consumo de noticias, ya que a medida que un usuario se interesa en medios de cierta tendencia política, sumado a su comportamiento (likes, compartidos, comentarios), el algoritmo tiende a mostrar contenido similar.

Ese sistema de distribución y validación de los contenidos en la web es permeable a generar polarizaciones, como viene ocurriendo en el mapa político desde hace un tiempo. Pero así como en algunos temas produce opiniones extremas, en los consumos culturales parece ir en otro sentido. «Mientras que las burbujas políticas dividen a los usuarios en facciones opuestas por desacuerdos, las recomendaciones culturales los unen hacia el objetivo de construir una audiencia cada vez mayor para el material de mínimo común denominador», sostiene Chayka en su libro.

Otro de los ejemplos que usa para graficar este problema es lo que él denomina «Instagram coffee shops», cafeterías que siguen un patrón tomado de la estética predominante de esa red social (paredes y sillones de colores pasteles, cuadros genéricos y baristas dispuestos a preparar su enésimo flat white de la jornada), y que pueden hallarse en cualquier ciudad del mundo, como en una gentrificación global influida por la cultura de los algoritmos.

Estos algoritmos no tienen «gusto» en el sentido que podría tenerlo un humano, por eso resulta problemático llamarlo «recomendación». Son fórmulas matemáticas programadas para detectar patrones en el consumo humano colectivo y posteriormente vincularlos con un consumo individual. Esto mismo explicó Glenn McDonald en una entrevista reciente que le dio a El Diario. El «alquimista de los datos», como se lo conoce popularmente, fue responsable de algunos de los algoritmos más populares de Spotify y también el creador de Every Noise at Once, un enorme mapa musical con géneros de todo el planeta.

McDonald fue despedido en diciembre pasado, luego de un recorte de personal. «En las bibliotecas públicas hay una titularidad pública. En Spotify, no: ahí hay unos intereses económicos. Pero mi trabajo nunca se guio principalmente por imperativos empresariales», dijo en un momento de la entrevista. Luego añadió: «Todos deberíamos tener miedo. Cualquier persona que trabaja con tecnología vinculada a asuntos humanos debe tenerlo presente en todo lo que haga. Y escuchar su conciencia. Siempre me sentí aliviado al trabajar en un servicio de streaming musical y no en uno de seguros médicos».





Yuk Hui: «Vivimos dentro de un sistema tecnológico gigante»

El filósofo hongkonés advoca por profundizar en la imaginación tecnológica que está al margen de la hegemonía capitalista y del colonialismo.


Charlamos con el filósofo Yuk Hui sobre el paso de la era industrial a la era cibernética, sobre la inutilidad de los discursos distópicos del presente y sobre la necesidad de apostar por una diversidad de pensamientos tecnológicos que logren hacer frente a la homogeneización del capitalismo.

«Quien sea que hable de “humanidad” está haciendo trampa». Yuk Hui inicia la conversación con esta advertencia que proviene de un parafraseo que alguna vez hizo Carl Schmitt de Pierre-Joseph Proudhon. Este enunciado es una muestra de la férrea actitud que Hui mantiene en contra de los discursos totalizadores de la modernidad. En cambio, para Hui, la íntima e inexorable relación que mantenemos con la tecnología solo puede ser pensada de manera fructífera si aceptamos que existe una multiplicidad de pensamientos tecnológicos localizados dentro de cosmologías particulares que garantizan su diversidad. Tal como no existe una sola humanidad, sino diversas humanidades, tampoco existe una sola tecnología, sino múltiples cosmotécnicas. Este es el proyecto filosófico que Hui ha desarrollado a lo largo de su relativamente corta pero prolífica carrera filosófica, la cual incluye obras como Sobre la existencia de los objetos digitales (Materia Oscura, 2023), Recursividad y contingencia (Caja Negra, 2022), Art and Cosmotechnics o su compilación de artículos Fragmentar el futuro (Caja Negra, 2020).

Hui es un caso un tanto anómalo en la historia de la filosofía de la técnica. A diferencia de la infame división entre dos tipos de filosofías de la técnica que propuso Carl Mitcham a finales de la década de los ochenta, es decir, una filosofía de corte más ingenieril y otra más humanista, Hui estudió primero Ingeniería de sistemas para eventualmente doctorarse en Filosofía bajo la supervisión de su mentor, Bernard Stiegler. Esta condición, que trasciende ambas disciplinas, le permite ofrecer una mirada informada en torno a nuestra condición contemporánea hipertecnificada.

Lo que define nuestra condición tecnológica en el presente es el desarrollo y extensión de las tecnologías cibernéticas. Si el salto tecnológico que sucedió durante la Revolución Industrial se caracterizó por la introducción de la automatización, en nuestra época ya no solo contamos con tecnologías automatizadas, sino con tecnologías que son capaces de autorregularse y de mantener una relación más abierta con su entorno, es decir, de ser más autónomas. No solo eso, sino que este entramado tecnológico conforma, ahora más que nunca, el mundo dentro del cual vivimos. Hui hace un eco a Jacques Ellul: «Vivimos dentro de un sistema tecnológico gigante».

Yuk Hui y Jorge Carrión | Una revolución de las ideas

No obstante, esta condición está dominada por una lógica capitalista que homogeneiza nuestra relación con la tecnología. Lo anterior se expresa en la adopción de los discursos utópicos o distópicos que tanto les gusta reproducir a los medios de comunicación, que esbozan una serie de futuros idílicos o catastróficos que parecen sacados de la ciencia ficción. «Parece que vivimos en los tiempos de la ciencia ficción. Hablamos de la dominación de la inteligencia artificial o del desempleo masivo. Mucha gente intenta entender nuestro futuro a través de la ciencia ficción. Eso me parece muy inquietante. Yo soy un gran fan de la ciencia ficción, pero creo que esto es problemático porque evita que podamos analizar concretamente nuestra situación». Así como Gilbert Simondon –autor fundamental para entender la filosofía de Hui– se opuso al imaginario del robot en la introducción de su libro El modo de existencia de los objetos técnicos (Prometeo, 2007), Hui rechaza el imaginario catastrófico que acompaña a la automatización tecnológica o a la inteligencia artificial. En contraste, debemos desarrollar una nueva crítica de la política económica que señale en particular las problemáticas tecnológicas del presente para entender las nuevas formas de alienación que trae consigo la tecnología contemporánea.

Para Hui, de lo que se trata es de profundizar en la imaginación tecnológica que está al margen de la hegemonía capitalista y del colonialismo: formas localizadas y enraizadas en las relaciones particulares que cada cultura ha mantenido históricamente con sus propios despliegues tecnológicos. «Tenemos que aceptar que existe una multiplicidad de pensamientos tecnológicos. El proceso de modernización ha sido una forma de colonización. La modernización implicó una homogeneización del conocimiento y de las cosmovisiones». Tenemos la impresión de que la tecnología es universal, pero fallamos en entender la tecnología en los mismos términos de multinaturalismo del que hablan antropólogos como Eduardo Viveiros de Castro o Philippe Descola. Lo anterior implica localizar el pensamiento tecnológico, de ahí la importancia de sus conceptos de cosmotécnica y tecnodiversidad. «Si pensamos la multiplicidad de la tecnología en distintas tradiciones filosóficas, podemos ver que la tecnología tiene una relación diferente con el pensamiento estético, con el pensamiento filosófico o con el pensamiento religioso». Pero esto no supone un regreso a las formas premodernas o precapitalistas de la tecnología, como intentan proponer algunos románticos trasnochados, lo cual de entrada sería imposible, sino reencuadrar nuestra condición tecnológica, fracturarla y diversificarla.





Las otras revoluciones de la IA: síntesis y conclusiones

Repasamos distintas voces que piensan la revolución de la inteligencia artificial desde la reflexión, la sociedad y la cultura.


Rita Jolivet, 1915-1920 | Library of Congress | Dominio público

La irrupción de las herramientas de IA está desencadenando enormes cambios estructurales. Nos hace pensar en la relación entre lo humano y la tecnología, en la necesidad de una regulación, en sus efectos sobre el trabajo o en sus implicaciones en la democracia y en la sociedad de la información. En esta crónica, recogemos algunas de las ideas del ciclo de debates «Las otras revoluciones de la IA».

I

La explosión de la inteligencia artificial generativa tiene todos los visos de una revolución. Además de científicas o tecnológicas, las revoluciones son siempre culturales, en los dos sentidos –complementarios– de la palabra cultura: la de cultivo (estructural) y la de conjunto de saberes, reglas, expresiones, símbolos e ideas (que se refleja siempre en las narrativas, en las artes, en las disciplinas académicas, en todos los niveles de la representación).

En el ciclo «Las otras revoluciones de la IA». hemos querido analizar el impacto cultural de los cambios en marcha que están impulsando las redes neuronales de aprendizaje profundo y el resto de sistemas de inteligencia artificial. Para ello hemos contado con especialistas internacionales de diversos ámbitos del conocimiento, desde la filosofía y la sociología hasta las artes y el derecho.

Dice el diccionario que un ciclo es un período de tiempo que, una vez acabado, se vuelve a contar de nuevo. No hay duda de que la IA va a necesitar ese reinicio constante. No podemos ni debemos dejar de pensarla: la inteligencia artificial sólo se puede procesar a través de la inteligencia natural colectiva. A través del intercambio y la conversación.

II

«La inteligencia humana es artificial», afirmó Yuk Hui en la primera sesión del ciclo, a propósito de cómo los sistemas informáticos están revolucionando las ideas. El filósofo de origen chino, que pertenece a la academia europea y ha publicado, entre otros libros, Fragmentar el futuro (Caja Negra, 2020) y Recursividad y contingencia (Caja Negra, 2022), afirmó que para entender la tecnología hay que pensar en serio la biología, es decir, la zona que conecta el mecanismo con el organismo. Y hay que defender la diversidad en tres ámbitos complementarios: la tecnología, la biología y la noosfera (lo planetario).

Para ello, debemos recordar que el concepto de «ser humano» es moderno y, por tanto, reciente: la humanización fue un proceso de invenciones tecnológicas, de modo que se puede decir que la tecnología inventó lo humano (y que lo humano es una constante reinvención).

Está claro que, en términos geopolíticos, nos encontramos ante una carrera global, orientada según las decisiones que se tomaron en Silicon Valley, a la que se ha sumado China. Si Yuk Hui ha reclamado la necesidad de una filosofía posteuropea, se impone también la necesidad de imaginar una ideología post-Cupertino. Pues, al fin y al cabo, como afirma el pensador, el desafío de la «inteligencia artificial no es construir una superinteligencia, sino hacer posible una noodiversidad».

Yuk Hui y Jorge Carrión | Una revolución de las ideas

III

En su presentación de la charla entre Mercedes Bunz y Joan Fontcuberta sobre la revolución cultural que implica la IA, Alex Saum Pascual (profesora de la universidad de Berkeley y poeta) recordó que siempre hay que historizar. Por eso mencionó el libro de Bunz The Silent Revolution (Palgrave Pivot, 2013), publicado en alemán en 2012 y en el que Bunz ya predecía el impacto mayúsculo de los medios digitales, en el contexto de una sociedad no de trabajadores, sino de expertos. Un año antes, Joan Fontcuberta publicó Por un manifiesto post-fotográfico en el suplemento Cultura/s de La Vanguardia, y en 2008 dirigió el encuentro internacional «Soñarán los androides con cámaras fotográficas», como recuerda en las primeras páginas de La furia de las imágenes (Galaxia Gutenberg, 2016). Ambos, por tanto, llevan más de diez años pensando en la automatización del mundo y sus culturas.

Mercedes Bunz se preguntó dónde está la inteligencia en estos momentos, además de en los cerebros humanos o en los libros. La pregunta sobre si las máquinas serán creativas es equivocada, porque la creatividad humana siempre ha estado de un modo u otro atravesada por los instrumentos, las herramientas, lo artificial. El problema, en estos momentos, es que ya no entendemos cómo funciona esa cooperación o hibridación. El aprendizaje automático (machine learning) ya no significa sólo la escritura de código, sino la introducción de millones de datos para que el sistema aprenda por su cuenta, con los consiguientes sesgos e interrogantes. Ahí hay un cambio de mirada. La máquina no ve lo que ve la cámara. Esa nueva realidad tiene consecuencias artísticas, pero también políticas. Por eso es necesaria una IA abierta, transparente, pública. Y el arte puede ayudar a ello: a menudo, lo que se ensaya en un laboratorio artístico se puede trasladar a la realidad de la privacidad del usuario o de una causa social. La revolución cultural mayoritaria va en una dirección, debemos buscar formas de redireccionarla.

Por su lado, Joan Fontcuberta, que se definió como «saltimbanqui de la imagen guiado por la curiosidad», partió de la idea de que hoy la imagen no representa el mundo: es mundo. Formatea las nuevas conciencias, nuestras decisiones. Fontcuberta habló de «Nemotipos», su última exposición (en Murcia), que reúne dos décadas de trabajo caracterizado por la producción de imágenes sin cámara. En los últimos tiempos, ha llegado a generar retratos de personas que no existen, prestando un mayor interés en el error, en la imprecisión, y no tanto en la precisión mimética, pese a la colaboración de una supercomputadora (del Barcelona Supercomputing Center). Y se ha apropiado de la técnica de la falsificación profunda (deep fake) para generar vídeos hiperrealistas protagonizados, por ejemplo, por Donald Trump (jaqueado con la expresión fisonómica de un orgasmo), pero sin llegar a su máxima calidad, para que el espectador sea capaz de detectar la parodia. Si la ilustración botánica fue una protofotografía, la fotografía del último siglo y medio ha sido una protointeligencia artificial.

Mercedes Bunz y Joan Fontcuberta | Una revolución cultural

IV

En su introducción a la conversación con el profesor y ensayista estadounidense Frank Pasquale, que acaba de publicar en español Las nuevas leyes de la robótica (Galaxia Gutenberg, 2024), el también ensayista –y doctor por la universidad de Harvard– Xavier Nueno habló de las dos narrativas tradicionales en el campo de los robots y de la IA: como don divino y como máquina diabólica; Pasquale, afirmó, trabaja en una tercera narrativa, alternativa a esas dos: la de la regulación.

El profesor estadounidense partió de una paradoja: en contra de las expectativas generadas durante las últimas décadas, la explosión de la IA con ChatGPT se ha dado con el trabajo creativo, no con la limpieza, la seguridad ni con otras labores poco agradables. En ese nuevo panorama, se impone la evaluación de cada caso para responder a esta pregunta: ¿la automatización de esa tarea suplanta el trabajo de un profesional humano? Por ejemplo, en el ámbito de la traducción, la traducción automática en YouTube no desplaza a un profesional. Pero en muchos otros casos sí se produce esa expulsión del mundo laboral.

Si ampliamos el foco hacia un debate general, de época, observamos dos tensiones fundamentales: entre la tecnocracia y el populismo; y entre la democracia y la disrupción. El ejercicio de algunas profesiones clásicas (la docencia, la medicina, el derecho) está siendo intervenido por juicios que provienen de la economía y de las ciencias informáticas (como la evaluación continua por parte del alumno, del paciente, del cliente, del usuario; la imposición de un tiempo máximo de visita; o el cálculo constante de inversión y beneficio). La lógica de la disrupción propone, y a menudo impone, un sistema alternativo al consensuado sin el estudio previo de sus consecuencias. Los nuevos canales trabajan en contra del experto, de la formación, de la autonomía y del crédito de las profesiones. Por eso, afirma Pasquale, el futuro sólo puede ser sindical.

La automatización de la esfera pública, en la que las redes sociales y los bots han ocupado gran parte del espacio de los medios de comunicación tradicionales, con el consecuente aumento de la desinformación, reclama también una regulación. La automatización de la muerte, a través de drones y otros robots, precisa asimismo de nuevas leyes y convenciones. Es importantísimo legislar internet. Y que exista transparencia en la atribución de los datos, en la procedencia de las tecnologías.

Frank Pasquale y Xavier Nueno | Una revolución jurídica

V

El ciclo «Las otras revoluciones de la IA» concluyó con una conversación entre la periodista y ensayista Marta Peirano, autora de El enemigo conoce el sistema (Debate, 2019), y el filósofo italiano Maurizio Ferraris, que ha reflexionado sobre los cambios profundos que están provocando los algoritmos en su libro Documanidad (Alianza, 2023).

El nuevo realismo (2010-2012) de Ferraris es un concepto anterior a los «hechos alternativos» de Trump (2016) (tal vez porque Berlusconi fue un precedente del populismo posterior). Ahora estamos en una nueva etapa de la posverdad con ChatGPT et alii.

La IA permite tanto la fragmentación informativa, personalizada y dopamínica del relato sobre lo real como proyectos de conjunto éticos y transversales como los de Forensic Architecture, dijo Peirano, que utiliza el Big Data y el machine learning para denunciar las matanzas que Israel está llevando a cabo en Gaza. En efecto, respondió el pensador italiano: las tecnologías de nuestra época son tóxicas y emancipativas, veneno y medicina.

Se alimentan de nuestra documanidad («producción infinita de documentos» por parte de todo el mundo; todos nos hemos convertido en medios de comunicación, dejamos rastros digitales de toda nuestra actividad). En un panorama mediático de tintes apocalípticos y distópicos, destaca la visión inusualmente optimista de Ferraris, que en su último libro propone la capitalización de nuestros datos a través de plataformas humanistas, para ejecutar una redistribución justa. Como la Web es un gran logro de la humanidad, un gran banco de datos y conocimiento que no nos valora «por nuestros méritos sino por nuestras necesidades», Ferraris ha llevado a cabo el experimento Webfare (bienestar en la web), que sería la evolución del Welfare (bienestar). Con la complicidad de un banco del nordeste de Italia, la investigación ha permitido calcular el capital en redes sociales de un millón y medio de personas. ¿Será el inicio de una utopía?

Maurizio Ferraris y Marta Peirano | Una revolución social

VI

Mientras algunas de las figuras intelectuales más relevantes de nuestra época conversaban en el hall o en el teatro del CCCB, en el gran muro de la zona de exposiciones se podía ver el cómic mural Sincronías, del artista Roberto Massó. La obra imagina, en clave de ficción especulativa, la comunicación entre los humanos y los algoritmos a través de la computación clásica actual y de la cuántica del porvenir. Si en las primeras viñetas vemos ceros y unos, un módem o ADSL, el relato gráfico avanza hacia la curvatura del espacio-tiempo o los cúbits. Se simula así el viaje de la información desde el presente hacia el futuro. Y viceversa.

Se trata de crear una narrativa del diálogo, de la cooperación entre hombres y máquinas, después de demasiadas novelas, películas y series distópicas. Su moraleja, si la tuviera, sería que antes de que esa conversación sea realmente posible, es necesario que perfeccionemos el diálogo entre nosotros. Entre ingenieros, empresarios, legisladores, filósofos, humanistas. Durante varias semanas, en el escenario del CCCB nos hemos reunido personas que proveníamos de China, Berlín, Londres, Estados Unidos, Italia y diversas partes de España para dialogar, junto a cientos de asistentes en el público de procedencias también múltiples, sobre tecnodiversidad, jaqueo, regulación y utopía, entre otros muchos temas. Esta conversación es urgente, imprescindible. No debemos dejar de ampliarla. Porque las últimas revoluciones fueron televisadas, y las nuevas corren el peligro de ser automatizadas. ¿Lo vamos a permitir?





Hacerse webserie

Hemos pasado de proyectar nuestra vida offline en internet a vivir según el personaje que hemos creado online.


Actores de rodaje en una mesa. Texas, c. 1951 | Robert Yarnall Richie, DeGolyer Library, Southern Methodist University | Sin restricciones de uso conocidas

Hace tiempo que se han desdibujado las fronteras entre la vida dentro y fuera de internet. Ahora parece que el polo central de nuestras vidas esté dentro de la red. De esta manera, ya no solo mostramos lo que somos, sino que vivimos nuestra vida como una ficción pensada para ser difundida en las redes.

Mientras viajo por la galería de mi móvil me doy cuenta. Hace días que no cuelgo nada. Instintivamente, repaso cada imagen que hay en la galería para evaluar su potencial. ¿Existo, si nadie me ve? O peor todavía, ¿tengo algún control sobre quién soy en este mundo si no me explico a los cuatro vientos? Como un héroe griego contra el destino impuesto por los dioses, comienzo mi búsqueda. No importa que sea una foto bonita ni que salga bien. Ni siquiera tengo que aparecer yo, de hecho, y aún mejor si no se me ve. Solo tengo en cuenta qué dirá de mí y si será capaz de explicar el futuro que quiero, a los demás y a mí misma. Haciendo scroll por mis fotografías imagino qué pensaréis de los libros que leo o de la profundidad inesperada de la frase que, sabiamente, he sabido destacar; de los bares que conozco y de los restos de lo que me como. Rebecca Jennings escribía en un artículo reciente que ya no podemos huir de la tiranía de la marca personal, seamos oficinistas, astronautas o escritores. Yo aún diría más, y es que si es que durante los últimos años hemos subyugado nuestra presencia en línea para mostrar con fidelidad quién somos offline, ahora lo hacemos al revés: vivimos tratando de ser fieles al personaje que hemos creado online. ¿Tiene sentido seguir hablando de verdad y mentira en internet?

Desde hace unos meses, antes de colgar una foto Instagram te da la opción de ver cómo quedará en la cuadrícula del perfil. Es una herramienta extremadamente útil para las cuentas para empresas, pero cuando lo hago yo, me distraigo. Dudo. El paisaje que he escogido no termina de encajar con las otras publicaciones. Si elijo una foto nueva, queda demasiado cerca de la última en la que se ve mi cara, así que me toca buscar una tercera opción. Si a esto le sumas el hecho de que el algoritmo prioriza a las empresas y a los profesionales, de forma que tienes que ir a buscar los perfiles de los humanos que te interesan para ver sus publicaciones, se hace aún más evidente que la imagen que expones en internet ya no tiene sentido en sí misma, sino que lo toma al convertirse en una pieza más de tu mosaico. Sin ir más lejos, los photodumps o la tendencia a publicar múltiples imágenes en un solo post representan un nivel más de abstracción de nuestro yo a través de la imagen. Ni el campo, ni los platos sucios de la calçotada ni la foto movida de tus amigos de fiesta tendrían sentido unas sin otras, y todas ellas se entienden solo por lo que nos dicen de ti. En internet, la imagen ya no es objeto: lo eres tú.

En 2006, Lonelygirl15 publicaba por primera vez en YouTube. Se trata de un videoblog de un minuto y medio que da la impresión de haberse grabado con la webcam del ordenador. Bree, una adolescente que apenas mira a la cámara, se dirige a sus viewers a media voz. Hablar de viewers, en aquel entonces, llega a resultar anacrónico. En 2006 no había redes sociales tal como las conocemos hoy en día, ni influencers, ni siquiera seguidores, sino comunidades. Lonelygirl15, Bree, se abraza las rodillas y enumera sus usuarios preferidos de la plataforma, aclarando que, «como le parece una gente tan simpática, había decidido colgar un vídeo ella también». En las siguientes publicaciones van apareciendo todos estos usuarios que menciona, citados por su nombre de YouTube. Pronto se genera una red de cruce de vídeos y contenido a cuatro o cinco bandas para que el espectador pueda seguir las peripecias de la adolescente, que habla de las peleas con los padres o de las salidas con amigos. Con el tiempo, sin embargo, se acabó descubriendo que la adolescente de los vídeos era realmente una actriz adulta que recitaba el guion creado por todo un equipo de producción, y que aquellos vlogs de Lonelygirl15 no eran sino la primera webserie de la historia de YouTube.

Lonelygirl15, la primera webserie de la historia de YouTube.

Me gusta pensar que, de una manera u otra, todos vivimos internet haciendo una webserie. Esta ficción del yo llevada al extremo es la que explica el nacimiento del influencer. El usuario que nos habla a través de la pantalla debe conseguir ser al mismo tiempo cercano y aspiracional, compañero y comercial; asegurarnos que es como nosotros, pero también todo lo que queremos ser. Su poder surge de transformar la mentira en promesa. El influencer existe porque consigue que deseemos vivir como él, pero también porque, para vivir como él fuera de internet, hace que mimeticemos su manera de existir en internet: las mismas fotos, ángulos, viajes, compras y composiciones. Nos compramos la mentira unos a otros con la esperanza de que se haga verdad más allá de la pantalla.

Pero lo que me parece más curioso del caso Lonelygirl15 no es la ficción, sino su clarividencia. Este contenido, cruzado, colaborativo y vivencial, se correspondería con los mismos elementos clave que diez años después asegurarían el éxito masivo de grupos como Vlog Squad, que entre 2015 y 2021 dominaron el panorama en YouTube. Y lo hicieron, además, sin formar parte de ninguna comunidad ni interés específico, sino centrándose en un contenido de «estilo de vida»: paseos, costumbrismo, encargos, cafés, almuerzos, cenas, viajes, encuentros y muchas, muchas compras acompañadas de una voz simpática. La fórmula del éxito de estos grupos se encuentra justamente en el cruce de contenido, de manera que, a la vez que se establece una relación con un creador, puede observarse desde una, dos o tres perspectivas diferentes a través de los otros integrantes del grupo. Una relación parasocial en tres dimensiones.

En el caso de la Vlod Squad, liderada por el youtuber David Dobrik, el formato se fue estirando como un chicle con la fuerza del clic y la facilidad del hiperconsumismo que por aquel entonces ya comenzaba a roer YouTube. Muy pronto, los canales se fueron infectando de un mismo mal: «Sorprendo a mis amigos con tres Mercedes sin estrenar», «Compro un tobogán gigante para ver qué pasa», «Compramos y comemos todo el menú del Burger King». Ni su vida ni la relación entre todos ellos bastaban para aguantar el ritmo, así que, además de grabar su día a día, tuvieron que empezar a vivir a través del algoritmo. Convirtieron la mentira en verdad, dejando de ser el ejemplo aspiracional que los seguidores querían imitar para ser esclavos de la página de inicio de YouTube. En 2022, Dobrik recibió una demanda de más de diez millones de dólares por haber aplastado a uno de sus compañeros de la Vlog Squad con una excavadora. El accidente se había producido durante la grabación de un vídeo donde Dobrik sorprendía a sus amigos con la maquinaria –una excavadora– para lanzarlos espectacularmente a un lago de Utah.

Después de la pandemia, y con el crecimiento de las derechas alternativas –especialmente en internet–, la sombra entre la mentira y la verdad se convierte en tierra de conquista, fértil para la propaganda. Personalmente, el fenómeno que más me intriga en este cenagal es la aparición de las «tradwives». Durante los últimos meses, la cuenta de Nara Smith ha sido el centro de atención de esto tipo de espacios. Se trata de un ama de casa joven que hace vídeos de cocina. En sus TikToks la vemos en batín de seda y con un corte de pelo francés mientras hunde una manicura perfecta en masas de huevos y harina. Yo la espío mientras prepara galletas Oreo caseras, y no puedo dejar de pensar en los grumos que por fuerza tienen que quedar atrapados bajo esas uñas largas y brillantes, diferentes en cada receta. Pero sé que el vídeo no pretender enseñarme cómo se hacen las galletas, sino la manicura preciosa que puede permitirse precisamente porque es el tipo de mujer que se queda en casa preparando galletas. La imagen, estas recetas, son la excusa para explicarnos quién es ella, una mujer, madre, tradicional y conservadora que vive una lujosa vida idílica de mármol y freidoras de aire, cortesía de su marido mormón.

La estetización, en este caso del conservadurismo, hace que la verdad quede diluida por el deseo de existir como lo hacemos en las redes. Todos sabemos que, históricamente, el rol tradicional de la mujer y ama de casa tiene que ver más con la esclavitud doméstica que con las manicuras caras, pero la posibilidad de ser nosotros quienes repetimos la mentira en TikTok es suficiente para hacérnosla creer. No pienso que se trate de reclamar honestidad a internet, especialmente a estas alturas. Pero podría ser útil volver al principio de todo, a 2006, y ver internet como una herramienta de ficción. El contenido, nuestra webserie.





Sobre el conocimiento material

Una cartografía especulativa de la ecología material de la Inteligencia artificial.


Tunel de entrada en la Central Eléctrica de Mangahao. Shannon, New Zealand, 1921 | Leslie Adkin, Te Papa | Sin restricciones de uso conocidas

Mientras creemos en la idea de una IA como un recurso abundante y sin ninguna existencia física, nos enfrentamos a la evidencia y a las consecuencias de su materialidad. Nos preguntamos, sin embargo, hasta qué punto podemos entender la compleja red de agua, minerales, fuentes de energía, datos y mano de obra que conforman estos sistemas. Además de conocer sus efectos climáticos y nuestra responsabilidad hacia ellos.

> ¿Tienes sed, ChatGPT?

Mi dedo se detiene sobre la tecla intro. La investigación de la infraestructura material y del impacto medioambiental de la computación me ha sensibilizado con la absurdidad de someter estos sistemas técnicos inmensos, de alto consumo energético y casi completamente invisibles a un uso tan aparentemente frívolo, y el artículo que acabo de leer –«Making AI Less “Thirsty«», de Li Pengfei y colaboradores, que sugiere que una interacción con ChatGPT que oscile entre las veinte y las cincuenta preguntas consumirá quinientos mililitros de agua potable, dando lugar a la pregunta que acabo de teclear–, subraya, en mi opinión, esta ambivalencia. Sin embargo, mis hábitos se las ingenian para alcanzar mis dudas conscientes, tal y como atestigua el largo historial de chats previos en la barra lateral de ChatGPT. Es casi demasiado fácil preguntarle cualquier cosa que se me pase por la cabeza. Aprieto la tecla.

«Como inteligencia artificial, no tengo emociones, sensaciones físicas ni necesidades, por lo que no experimento sed ni ninguna otra condición humana. ¡Pero estoy aquí para ayudarte con cualquier pregunta o tarea que se te ocurra!».

La idea de que ChatGPT es un recurso abundante, inmaterial, sin existencia física pero siempre disponible para cualquier consulta que se me pueda ocurrir, que ya está arraigado en sus posibilidades y en mis hábitos de uso incipientes, se ve confirmada por su respuesta. Insisto:

> ¿De qué estás hecho, ChatGPT?

«¡Estoy hecho de código y datos! Básicamente, soy un algoritmo complejo que procesa y genera texto a partir de patrones y de información aprendida basándome en una gran cantidad de textos disponibles en internet. Mi “cerebro” está hecho de diversas técnicas de aprendizaje automático y redes neuronales que me ayudan a entender el lenguaje y a proporcionar respuestas».

> ¿Dónde estás, ChatGPT?

«Existo en el ámbito digital, resido en servidores y ordenadores, desde donde puedo acceder a la información e interactuar con usuarios como tú. Pero en un sentido más abstracto, podría decirse que estoy dondequiera que accedas a mí: ¡una página web, una aplicación o cualquier plataforma que me aloje!».

A cada paso, constato que ChatGPT insiste en su propia inmaterialidad, pero al mismo tiempo he estado leyendo trabajos empíricos que exponen con crudeza los numerosos y variados soportes materiales (y consecuencias materiales) de ChatGPT como tecnología. Esto me resulta significativo por dos razones.

La primera es que sospecho que no algo es del todo accidental. En un artículo reciente titulado «The uncontroversial ‘thing-ness’ of AI», Lucy Suchman, antropóloga de la tecnología y una de las fundadoras de la disciplina de la interacción persona-ordenador, identifica la forma en que el término «IA» funciona como un «significante flotante» que refuerza el poder sugestivo que le conferimos: la supuesta inmaterialidad de la «IA» es un factor que contribuye a la autoridad que atribuimos a su conocimiento.

La segunda es que, al comparar las propias declaraciones de ChatGPT con la investigación de Li y sus colaboradores, y las de muchos otros que rastrean la huella material de la IA, hemos hallado una controversia: por un lado, la insistencia en que las IA como ChatGPT carecen de existencia material; y por otro, la afirmación de que su existencia y sus consecuencias materiales son considerables, y tienen una importancia considerable. Las controversias, como nos enseña el trabajo del profesor de Estudios de Ciencia y Tecnología Tommaso Venturini, nos ofrecen oportunidades para aprender; son «las mejores ocasiones de que disponemos para observar el mundo social y su construcción». Así, la presencia de una controversia nos ofrece una oportunidad para entender mejor los aspectos sociomateriales ocultos de esta supuesta cosa, ChatGPT, que se presenta (y autodescribe) como algo incorpóreo, etéreo, incluso cuando abordamos la evidencia y las consecuencias de su propio soporte material.

En conjunto, estas dos oportunidades remiten a un doble propósito de este este tipo de investigación: la forma en que la materialidad de los sistemas de IA se entrelaza con sus cualidades epistémicas y epistemológicas, es decir, qué llega a «conocer» la máquina y cómo llega a «conocerlo», y las formas en que nosotros podemos llegar a conocerla a ella. El tipo de inteligencia específica que es la IA, y nuestras ideas sobre ella, se basan en su materialidad, que nos permite al mismo tiempo sondear los límites de nuestro conocimiento al respecto y de su conocimiento del mundo a través de nuestra investigación de su infraestructura material.

Podríamos decir que se trata de un enfoque ecológico del estudio de la IA. Y es ecológico en dos sentidos distintos. En primer lugar, nos interesa la ecología de la IA en términos de su impacto material en el medio ambiente. Pero también nos interesa la IA más como una ecología en sí misma (Matthew Fuller la describe como «una interrelación masiva y dinámica de procesos y objetos, de seres y cosas, de patrones y materia» que incluye tanto sus aspectos materiales como epistémicos y fenomenológicos), que como una cosa discreta, material o no.

Entonces, ¿qué cosas están incluidas en esta ecología material de ChatGPT? Esto es lo que los participantes del taller «Mentes, mentiras y materiales» y yo tratamos de descubrir una tarde de sábado en enero, mapeando las múltiples bases materiales de ChatGPT y las controversias que giran a su alrededor. Mediante la investigación y el cotejo de múltiples perspectivas (nuestra propia investigación con herramientas técnicas y métodos de investigación de código abierto, junto con estudios independientes publicados, anuncios oficiales de OpenAI y las declaraciones del propio ChatGPT), nos centramos en las fuentes de energía, agua, datos, mano de obra y minerales que conforman la «inteligencia» supuestamente incorpórea de ChatGPT. Esto nos permitió trazar sus fuentes, relaciones y movimientos. Para ello nos inspiramos en Cartografias da Internet y en el Atlas of AI de Kate Crawford, y durante todo el proceso contamos con la ayuda de los métodos de Anne Pasek para Getting into Fights with Data Centers.

Taller: Mentes, mentiras y materiales. CCCB, 2024 | CC BY-NC-SA Pau Fabregat

Se trataba de un ejercicio provisional, especulativo; no esperábamos resolver estas controversias de una manera u otra, sino sensibilizarnos, a través de un proceso de investigación abierto, con los numerosos aspectos materiales de la IA, empleando algo parecido a los métodos Rubber-Boots de la curiosidad, la colaboración y la descripción crítica (aunque, en esta ocasión, nuestros pies nunca abandonaron los suelos enmoquetados del CCCB).

Terminamos configurando un mapa, o, más bien, tres mapas superpuestos. El primero, fruto de nuestras propias investigaciones, consistía en una densa red procedente del agua de un embalse que abastece a un barrio muy poblado de las afueras de Dublín (cuyo uso excesivo por los centros de datos ya ha suscitado polémica), en la trabajo de anotadores de datos mal pagados en Kenia, en la red eléctrica irlandesa (que cuenta con dos centrales hidroeléctricas locales, pero que Microsoft planea ampliar con una central de gas especializada). Teóricamente eran datos extraídos de internet a nivel mundial, aunque lo cierto es que presentan un notable sesgo hacia las zonas anglófonas del Norte Global. El resto del mundo contribuía principalmente de una forma más tangible: níquel de Indonesia, cobalto de la República Democrática del Congo y litio de Chile que se combinan en fábricas de GPU (unidades de procesamiento de gráficos) en Taiwán y que acaban como chatarra electrónica en China, India y Nigeria. Un segundo mapa superpuesto a este: OpenAI presentándose a sí misma como una sede llena de científicos geniales e innovadores en San Francisco, junto con un centro de datos repleto de servidores de alta tecnología en Des Moines (Iowa). El tercer «mapa» sobrevolaba incómodo fuera de cuadro: la insistente descripción del propio ChatGPT como algo incorpóreo y etéreo.

Este método presentaba varios problemas. Al tratar de abrir la caja negra de ChatGPT, encontramos aún más cajas negras en su interior: partes del sistema que eran opacas y desconocidas desde nuestro punto de vista y con las herramientas y métodos de que disponíamos. Sin embargo, nuestra decisión de contrastar nuestra propia perspectiva con la del propio ChatGPT, y con la que revelaba públicamente OpenAI, hizo que estas fronteras del conocimiento se convirtieran en resultados por sí mismos. Identificar las diferencias entre los tipos y la profundidad de conocimientos que tenemos a nuestra disposición a partir de cada una de las distintas fuentes que hemos identificado nos hizo más conscientes de los límites de cada una de ellas.

Esto también implicaba la constatación de que no solo estábamos estudiando esta controversia, sino que nosotros mismos formábamos parte de ella a través de nuestra investigación desde una perspectiva situada y parcialmente informada. Este hecho nos conducía a afrontar situaciones en las que nuestra propia experiencia de primera mano contradecía las afirmaciones de otra fuente que, a primera vista, podría reclamar una mayor autoridad.

Un buen ejemplo fue utilizar traceroute y alguna otra información técnica ligeramente oculta en la página web de ChatGPT para sugerir que nos estábamos comunicando con un servidor en Europa, junto con una serie de inferencias extraídas de la información de dominio público: que Open AI utiliza infrastructura que pertenece a Microsoft, cuyos centros de datos europeos actualmente operativos se emplazan en Dublín y en Ámsterdam. Nos decantamos por Microsoft Grange Castle, es decir, Dublín como posible emplazamiento y objeto de estudios adicionales, para más tarde descubrir una nota a pie de página en una documentación técnica de OpenAI en la que declaraba que su infraestructura se encuentra en Estados Unidos (probablemente en Iowa). Sin embargo, más que un simple error, esto dio lugar a un debate muy provechoso ¿Debíamos confiar más en los métodos situados y parciales de primera mano o en las afirmaciones opacas realizadas por la propia empresa a la hora de tratar de entender un objeto de estudio (ChatGPT en su forma material) al que no podemos acceder directamente? Para nuestros fines inmediatos, esto tal vez no sea tan importante: las infraestructuras digitales como ChatGPT se construyen a escala, lo que quiere decir que están diseñadas para expandirse de manera uniforme, compuestas por unidades más pequeñas, modulares e idénticas, análogas a las piezas de Lego o a los contenedores marítimos. Una consecuencia de esta uniformidad es que permite que los conocimientos adquiridos en un lugar sean más fácilmente trasladables; aquello que aprendemos prestando atención a Dublín puede revelarnos información sobre un centro de datos en Des Moines, porque están diseñados para ser uniformes. Así, tal vez podamos transformar nuestros conocimientos de sistemas escalables en una técnica para «resistirnos al pensamiento a escala», empleando para ello las similitudes entre infraestructuras en diferentes sitios como una herramienta para comparar, contrastar y desarrollar solidaridades entre ellos.

Al final del taller, mientras reflexionábamos sobre la compleja red de minerales, agua, energía, datos y mano de obra que habíamos descubierto, así como sobre los puntos ciegos, las ambigüedades y las contradicciones que habíamos encontrado, analizamos cómo esta investigación podía influir en nuestra actitud hacia ChatGPT y en nuestras interacciones con esta y otras tecnologías en el futuro. Surgieron dos grandes dudas, tras haber tomado conciencia de los límites de nuestra propia capacidad de conocer los efectos materiales de estos sistemas, así como la manera oblicua, selectiva, y en ocasiones incluso deshonesta, en que tanto OpenIA como ChatGPT los presentan: ¿Qué podemos hacer para mitigar las consecuencias medioambientales? Y ¿nos corresponde hacerlo a nosotros, es nuestra responsabilidad?

Mientras debatíamos una tercera duda surgió una posible respuesta a estas cuestiones: ¿era este modelo informático masivo, despilfarrador y centralizado estrictamente necesario? Recordamos intentos anteriores de supercomputación distribuida como SETI@Home, que alistó ordenadores personales inactivos en todo el mundo para resolver tareas científicas complicadas, y nos preguntamos: ¿Es la arquitectura masivamente centralizada y despilfarradora de ChatGPT realmente necesaria para la inteligencia artificial? Y llegamos a la conclusión de que, tal vez, en un sentido estricto, lo sea: modelos de IA generativa como ChatGPT surgieron a partir de innovaciones concretas en el hardware informático (el desarrollo de la GPU), y de las condiciones económicas y tecnológicas particulares del capitalismo de vigilancia que permiten la apropiación de datos a una escala lo bastante grande como para entrenar estos modelos, y ambas, en cierto sentido, suponen dicha centralización como una condición necesaria. Sin embargo, nuestra conciencia de estas condiciones materiales nos permitió darnos cuenta de que lo que se necesita es, quizás, amplificar o replantear nuestra idea de la propia IA. Seguir el llamamiento de Yuk Hui a prestar una atención renovada a la tecnodiversidad, y, a través de la imaginación de otras configuraciones materiales menos extractivas para la IA, concebir colectivamente otras formas más liberadoras y convivenciales en las que las máquinas puedan considerarse inteligentes.





Actos reflejos. Las herramientas de la IA generativa y el archivo

Cuando entrenamos una IA con el conjunto de datos de un archivo aparecen nuevas preguntas y posibles análisis sobre su contenido.


Beatrice Lillie, Nueva York 1948 | Yousuf Karsh, Library and Archives Canada | Domini públic

La IA generativa propone un juego estilístico, una imitación del estilo del conjunto de datos con el que se ha entrenado. Cuestionar cómo se lleva a cabo este proceso nos lleva a reflexionar sobre las capacidades y las limitaciones de la herramienta, y sobre el valor de sus resultados. Estas son las reflexiones que nos propone el colectivo Estampa a partir de dos instalaciones que experimentan con el Archivo CCCB a través de la IA.

El campo de la inteligencia artificial se ha desarrollado progresivamente en diferentes áreas. Uno de los últimos espacios donde se ha expandido es en el de la generación, con servicios que ofrecen una aparente creación automatizada de contenidos. Estas herramientas de la IA generativa son instrumentos de imitación. Están pensadas para, ante un conjunto de datos (texto, imagen o audio), buscar soluciones estadísticas óptimas de píxeles, letras o sonidos, que también pudiesen formar parte de ella. Es decir, intentan reproducir un estilo en una operación de camuflaje. En catalán, una buena palabra para referirse a esto es «estrafer» (que en castellano podría traducirse como «remedar»).

Como cualquier disfraz, estas herramientas llevan implícita una propuesta de análisis: ¿cuáles son las características más comunes de lo que se quiere mimetizar? ¿Qué motivos se repiten? ¿Cómo combinan los elementos? La IA generativa es un espejo, más o menos realista, más o menos deformado, de lo que le piden que imite; un análisis del conjunto de datos (dataset) con el que se ha entrenado.

Hoy en día, cualquier fondo de archivo no es solo un lugar de conservación, investigación y difusión, sino también un posible dataset, uno de esos conjuntos de datos de los que extraer el estilo. Así, para la instalación «La conferencia infinita», el archivo de charlas del CCCB se ha convertido en el material de base de una red de generación de texto. La red remeda el género de la conferencia y el habla del centro; combina las palabras para crear discursos que se hubieran podido pronunciar aquí, textos susceptibles de parecer también material del archivo. En la imitación aparece el análisis, la mirada reflexiva del espejo y, también, a veces, la sorpresa de las combinaciones inesperadas, quizá plausibles, quizás incongruentes.

Si se habla a menudo de la IA como una reproducción o imitación de características humanas -y esta imitación tendría que utilizarse, a nuestro entender, como análisis reflexivo y no como camuflaje-, también es importante entender qué es claramente diferente. Un elemento central de esta diferencia es la escala. La escritura de la red es una escritura infinita y rápida; podría no detenerse, siempre se le puede pedir otra generación casi instantánea. En este sentido, no es analítica de manera asertiva sino propositiva; siempre hay otra posibilidad, una nueva variación, una muda diferente que también se parece… No hay una solución -como si fuese la conclusión de lo leído o el texto supuestamente ideal-, sino una aparente cascada de formas posibles, una cantinela que mana cuando abrimos el grifo.

Un segundo elemento relevante es el carácter automático de las herramientas de IA; y lo es atendiendo a dos sinónimos de esta palabra: compulsivo y reflejo. Una red solo puede hacer lo que hace y hacerlo de manera compulsiva; no puede callar, por ejemplo, ni dejar de remedar la base con que se ha configurado. En este sentido, la IA se podría entender como la construcción de actos reflejos sociales, como una automatización de procesos a gran escala basada en imitar decisiones particulares anteriores. Como un músculo social que se contrae según antes se habrían tensado y destensado músculos individuales, la IA es una reificación de lo que ha sucedido. Cuando nos la describen como el futuro, quizá no está de más que seamos conscientes de hasta qué punto es pasado solidificado.

El hecho de que la IA sea como abrir el grifo, como hemos mencionado antes, también se puede expresar en otro sentido: igual que la gestión del agua corriente, la IA es una infraestructura. No está en nuestro dispositivo, sino que depende de una computación que se hace en servidores lejanos con maquinaria industrial, mientras los datos viajan de ida y vuelta. También es una infraestructura porque necesita entrenamientos que solo pueden realizarse con grandes herramientas de computación, en data centers con una capacidad y un consumo muy elevados. Este es el carácter de la IA industrial, de las herramientas generativas que todos conocemos y que han sido entrenadas con conjuntos de datos muy amplios, una técnica extensiva que permite aumentar la cantidad de estilos que se imitan (lo que en el campo de la generación de texto se conoce como large language models). Todo esto aumenta el problema de la materialidad y el gasto energético del mundo digital (se calcula que el proceso de entrenamiento de ChatGPT consumió tanto como el gasto eléctrico anual de mil casas en Estados Unidos, y que su uso actual consume el equivalente a treinta y tres mil casas; una cifra que, al ritmo de implantación de estas tecnologías en todo tipo de tareas, se multiplicaría rápidamente). Esta concepción de la IA también se sustenta en la dudosa lógica extractiva del internet comercial, que considera que todo lo que sucede y hacemos en la red es material susceptible de ser utilizado y monetizado.

Frente a este carácter de infraestructura, el entrenamiento de la red generativa de «La conferencia infinita» se ha realizado de manera local, con un ordenador de altas prestaciones pero disponible a escala de usuario, y centrándose en un conjunto de datos concreto: la transcripción de las conferencias realizadas en el CCCB y conservadas en el archivo.[1] El hecho de no utilizar servicios de corporaciones permite evitar la huella ecológica más grande y también el carácter genérico, y en gran parte tópico, de los resultados de estas herramientas generativas industriales. Y si bien en una comparación esta red perdería en coherencia lingüística y textual frente a la última versión de GPT, quizá ganaría en ideas inusitadas o salidas inesperadas.

En la base de este proyecto hay un conjunto de preguntas sobre la IA y sus potencias y limitaciones. ¿Quién habla en la generación de texto? ¿Qué valor otorgamos a sus resultados? ¿Cómo queremos entenderlos? ¿Cómo se conjuga la variación estadística, y su escala potencial, con la veracidad? ¿Qué hace la IA con aquello que fagocita?

Trabajar en un modelo pequeño, además de las motivaciones ecológica y estilística ya mencionadas, permite plantear estas preguntas a una escala relativamente manejable. Ante los resultados de esta red, es más probable que nos preguntemos qué es lo que hace y hasta dónde llega. Vemos no solo un resultado, sino el juego estadístico sobre el que se sostiene y, de esta manera, nos preguntamos por las tensiones entre las variaciones plausibles según la estadística o según nosotros mismos. Las costuras de la imitación quedan a la vista sin deshacer el vestido. Nos parece importante tener presente esta mirada y trasladarla hacia modelos grandes y hacia todos los usos de la IA. Cualquier resultado de una herramienta de IA debe ser una interrogación a la red que la ha generado.


[1] La red que se ha utilizado tiene un primer entrenamiento genérico con un corpus amplio que funciona como una especie de aprendizaje del idioma. Nosotros hemos realizado un segundo entrenamiento, también llamado refinado, solo con las transcripciones del archivo del CCCB. Aunque este entrenamiento previo es genérico y viene predeterminado, presenta una escala diferente de la de los modelos industriales. En el caso de la instalación «Turno de preguntas», se emplean redes ya entrenadas. Con una se ha convertido el archivo de conferencias en un conjunto de preguntas y respuestas (la instrucción dada a la red es que resuma en forma de pregunta cada párrafo) y se utiliza otra para escribir la respuesta final, condicionada por fragmentos de texto del archivo. El entrenamiento de estas redes escapa a nuestro control, pero ambas se han utilizado de manera local en el ordenador del proyecto, evitando el trabajo en línea.





¿Soñaba Calvino con androides literarios?

El autor italiano exploró la narrativa como proceso combinatorio y anticipó el funcionamiento de las inteligencias artificiales generativas.


Mujer sosteniendo cinta de máquina de escribir, c. 1930s | Robert Yarnall Richie, DeGolyer Library | Dominio público

En su ensayo Cibernética y fantasmas, Italo Calvino imagina una “máquina poético-electrónica” capaz de escribir. Pero sus sueños iban más allá de una inteligencia artificial que se ciñera a las pautas y reglas de la literatura tradicional. Calvino proyectaba una máquina caótica que huyera de las normas y explorara nuevos y disruptivos caminos..

Italo Calvino nació en Cuba el 15 de setiembre de 1923 pero se consideraba de la Liguria (“sono nato a Sanremo che sono nato in America”). En esa época los europeos todavía emigraban a fare l’America. Calvino nació en América pero se formó y creció como narrador en las oficinas de Einaudi en Turín, la gran editorial fundada en pleno fascismo y renacida en el dopoguerra donde un escritor novel podía intercambiar lecturas con Cesare Pavese, charlar con Natalia Ginzburg o tomarse un espresso con su “alma gemela”, el sobreviviente Primo Levi. No es casual que se los conozca como La Tribu Einaudi.

Como su coetáneo piamontés Umberto Eco, Calvino era un tipo por demás curioso. Estaba al tanto de las teorías estructuralistas (desde Vladimir Propp hasta Algirdas Greimas, pasando por Claude Lévi-Strauss, Roland Barthes y sus colegas de Communications), seguía con atención la producción literaria europea (con especial interés por el grupo Oulipo, los franceses que experimentaban con la combinatoria textual) y estaba al tanto de las últimas teorías y hallazgos científicos. En forma paralela a su obra de ficción Calvino fue tejiendo un entramado textual de entrevistas y ensayos que, sin abandonar la centralidad de lo literario, abordó los grandes temas culturales de su época.

En 1955 Einaudi traduce las Ficciones de Jorge L. Borges y, tres años más tarde, Feltrinelli publica El Aleph. Los desérticos laberintos y las infinitas bibliotecas de Borges alejaron aún más a Calvino de las previsibles continuidades de la narrativa tradicional. “La literatura, como la matemática, es abstracción y formalización” decía en una entrevista publicada en la Gazzette de Lausanne en junio de 1967. Si bien la traducción italiana del clásico de Claude Shannon dedicado a la teoría matemática de la comunicación recién llegaría en 1971, ya en 1963 Mondadori había publicado La teoria dell’informazione. Simboli, codici, messaggi, un volumen escrito por John R. Pierce, colega de Shannon en los laboratorios de la Bell. Conceptos como ruido, entropía o retroalimentación estaban a disposición de cualquier creador que quisiera bifurcar y explorar nuevos senderos literarios.

Es en este contexto que Calvino sueña con el androide literario.

***

“En la forma en que la cultura actual ve el mundo, existe una tendencia que aflora contemporáneamente por varios lados: el mundo, en sus distintos aspectos, se ve como discreto y no como continuo. Empleo el término ‘discreto’ en su sentido matemático: cantidad ‘discreta’ es la que se compone de partes separadas. El pensamiento, que hasta ayer se nos aparecía como algo fluido, evocando en nosotros imágenes lineales como la de un río que discurre o la de un hilo que se devana, o bien imágenes gaseosas, como una especie de nube –hasta el punto de que a menudo se le llama ‘el espíritu’–, hoy tendemos a verlo como una serie de estados discontinuos de combinaciones de impulsos sobre un número finito (enorme, pero finito) de órganos sensores y de control. Los cerebros electrónicos, si bien están lejos de producir todas las funciones de un cerebro humano, sí están en condiciones de proporcionarnos un modelo teórico convincente para los procesos más complejos de nuestra memoria, de nuestras asociaciones mentales, de nuestra imaginación, de nuestra conciencia. Shannon, Weiner, Von Neumann, Turing, han cambiado radicalmente la imagen de nuestros procesos mentales”. (Cibernética y fantasmas)

***

Entre 1967-68 Calvino emprende un tour académico por varias ciudades (Turín, Milán, Génova, Roma, Bari) organizado por la Associazione Culturale Italiana. La misma conferencia, titulada Cibernética y fantasmas (apuntes sobre la narrativa como proceso combinatorio), fue presentada más tarde en Alemania, Bélgica, Francia, Reino Unido y Países Bajos. Junto a la Opera Aperta de Umberto Eco (1962) y la Rayuela de Julio Cortázar (1963) esta conferencia de Calvino ya forma parte de la genealogía oficial del hipertexto digital. Ahora también la podemos (re)leer como un ejercicio paleofuturista de las inteligencias artificiales generativas.

***

Según Calvino “la complicación matemática puede ser digerida instantáneamente por los cerebros electrónicos”. El viejo sueño de una máquina pensante como la que imaginaba Ramon Llull en su Ars Combinatoria ahora “encuentra su plena actualidad”. Si Hegel y Darwin habían decretado el triunfo de la continuidad histórica y biológica, el nuevo modelo sigue “las curvas de los diagramas estadísticos: la investigación histórica se va matematizando día a día”. Pero no solo la historia sigue las ondulaciones del Big Data: medio siglo después de Calvino la creación textual también cabalga las elevaciones textuales cada vez que debe predecir la próxima palabra. Una de las funciones más fascinantes y explotadas del ChatGPT es la que permite continuar un texto. Basta escribir la primera frase de un relato y agregar el promptContinue: true”.

***

Prompt: Había una vez un novelista interesado en la combinatoria llamado Italo. Continue: true.

Había una vez un novelista interesado en la combinatoria llamado Italo. A diferencia de la mayoría de los autores, Italo no solo encontraba fascinante la combinación de elementos en sus historias, sino que también creía que podía utilizar la combinatoria para prever el futuro. Esto lo convirtió en una figura controvertida en el mundo de la literatura y las matemáticas.

Italo había desarrollado una teoría única que relacionaba las combinaciones de palabras en sus novelas con eventos en la vida real. Creía que al manipular ciertas secuencias de palabras y símbolos en sus escritos, podía influir en el curso de los acontecimientos en el mundo. Sus seguidores lo llamaban un “escritor profético”, mientras que sus críticos lo tildaban de charlatán.

En su obra más conocida, El Algoritmo del Destino, Italo exploró su teoría en detalle. La novela trataba de un personaje que descubría un antiguo manuscrito que supuestamente contenía el algoritmo secreto que determinaba el destino de las personas. Italo empleó técnicas combinatorias avanzadas para construir una narrativa en la que las decisiones de los personajes tenían efectos reales en el mundo exterior.

***

“El hombre está comenzando a entender cómo se desmonta y se vuelve a montar la más complicada e imprevisible de todas sus máquinas: el lenguaje. El mundo de hoy es, respecto al que rodeaba al hombre primitivo, mucho más rico en palabras, conceptos y signos; el uso de los diferentes niveles del lenguaje es mucho más complejo”. (Cibernética y fantasmas)

***

El grupo Oulipo (siglas de “Ouvroir de littérature potentielle”, o sea “Taller de literatura potencial”) se reunió por primera vez en 1960 convocado por Raymond Queneau y el matemático François Le Lionnais. Autores como Marcel Duchamp, Georges Perec y el mismo Italo Calvino no dudarían en sumarse a esta factoría de experimentos literarios. Obras como Cent Mille Milliards de Poèmes de Queneau (1961) ponían a prueba las posibilidades (y desafíos) de la literatura combinatoria.

¿Conseguiremos una máquina capaz de sustituir al poeta y al escritor? ¿Cuál sería el estilo de un autómata literario? Estas eran algunas de las preguntas que se hacía Calvino en Cibernética y fantasmas. Imaginaba que el autómata literario tendría vocación por lo clásico, sería una “máquina poético-electrónica” orientada a la producción de “obras tradicionales”, de poesías con formas métricas cerradas, de novelas “con todas las reglas”. Estas descripciones nos suenan familiares: es como si Calvino describiera el funcionamiento estándar de las inteligencias artificiales generativas contemporáneas. Al alimentarse de los textos más repetidos y procesarlos a través de procedimientos estadísticos, el ChatGPT solo puede producir literatura “tradicional”, escrita respetando “todas las reglas” y con tufo a superventas.

***

Prompt: Sugiéreme tres argumentos breves para un relato de ciencia ficción.

***

Calvino aspiraba a más. Su visión iba mucho más allá de las automaticidades que hoy nos ofrecen el ChatGPT y otras inteligencias artificiales generativas. La verdadera máquina literaria será aquella que “advierta por sí misma la necesidad de producir desorden como reacción a su anterior creación de orden, que se convierta en vanguardia para desbloquear sus propios circuitos, obstruidos por una producción de clasicismo demasiado larga”. Si el ChatGPT, al menos en sus primeras interacciones, solo ofrece historias ya leídas infinidad de veces, Calvino proponía utilizar los autómatas literarios para “la producción de desorden”. En sus sueños vislumbraba una máquina caótica que no procesara solo los textos que, diríamos hoy, se ubican en la “cabeza” de la long tail estadística, sino un dispositivo que explorara la dilatada “cola”, ahí donde se sitúan las experiencias extrañas, marginales, esos acontecimientos de baja frecuencia que pueden hacer saltar por los aires la regla. El sistema.

***

“Pienso en una máquina escribiente capaz de volcar sobre el papel todos esos elementos que acostumbramos a considerar como los más recónditos atributos de la intimidad psicológica, de la experiencia vivida, de la imprevisibilidad de los cambios de humor, de los sobresaltos, de los dolores y de las iluminaciones interiores”. (Cibernética y fantasmas)

***

Calvino imagina. “Nada nos impide prever una máquina literaria que en cierto momento sienta insatisfacción por su propio tradicionalismo”. Calvino sueña. “(Una máquina que) proponga nuevos métodos de entender la escritura y revolucionar completamente sus propios códigos”. Calvino no se tira atrás. “Mi lugar muy bien puede ser ocupado por un ingenio mecánico”.

***

Calvino está convencido de que la lógica combinatoria no es exclusiva de las artes literarias. No está solo. Según Ernst Gombrich los procedimientos poéticos y artísticos son análogos a los juegos de palabras. Es el “placer infantil por el juego combinatorio lo que empuja al pintor a experimentar distintas distribuciones de líneas y colores, y al poeta a experimentar acoplamientos de palabras”, resume Calvino.

***

Prompt: ¿Sientes placer al responder a mis preguntas?

No, como una inteligencia artificial, no tengo la capacidad de experimentar emociones, sensaciones físicas ni placer. Estoy diseñado para proporcionar respuestas basadas en datos y conocimientos. Mi objetivo es ayudarte proporcionando información y asistencia en la medida de mis capacidades.

***

En el verano de 1985 Calvino trabaja en otra conferencia. En realidad, está preparando seis intervenciones para el ciclo Norton Lectures de la Universidad de Harvard. Una vez publicadas, serán las famosas Lezioni Americane. Sei proposte per il prossimo millennio. En la tercera conferencia, dedicada a la Exactitud, Calvino vuelve a la carga: “Quería hablarles de mi predilección por las formas geométricas, por las simetrías, por las series, por la combinatoria, por las proporciones numéricas, explicar las cosas que he escrito en función de mi fidelidad a la idea de límite, de medida… Pero tal vez esta idea es la que justamente evoca aquella de lo que no tiene fin: la sucesión de los números enteros, las rectas de Euclides… Quizá, en lugar de contarles cómo he escrito lo que he escrito, sería más interesante hablar de los problemas que todavía no he resuelto, que no sé cómo resolver, ni qué me llevarán a escribir”.

Calvino no volverá escribir ni a vivir el “placer infantil” de la recombinación. Falleció en un hospital de Siena el 19 de setiembre sin poder exponer públicamente sus propuestas para el siglo XXI.

***

En su reciente libro Tecnohumanismo. Por un diseño narrativo y estético de la inteligencia artificial Pablo Sanguinetti se pregunta si tiene sentido pensar en una literatura no humana. El libro se abre con unas palabras que bien pueden servir para cerrar estas recombinaciones inspiradas en la obra de Italo Calvino, el escritor que soñaba con androides literarios.

***

“La tecnología y lo humano se construyen mutuamente. Nuestra forma de estar en el mundo y de entender quiénes somos viene mediada por artificios técnicos. No existe humano sin tecnología. Ni existe revolución tecnológica que deje intacto el modo de ser humano” (Tecnohumanismo).


Calvino, I. (1989). Seis propuestas para el próximo milenio. Madrid: Siruela.

Calvino, I. (2012). Sono nato in America. Interviste 1951-1985. Milán: Mondadori

Calvino, I. (2013). Punto y aparte. Ensayos sobre literatura y sociedad. Madrid: Siruela.

Cortázar, J. (2008). Rayuela. Madrid: Cátedra.

Eco, U. (1985). Obra abierta. Barcelona: Planeta-Agostini.

Ferrero, E. (2020). La tribu Einaudi: retrato de grupo. Madrid: Trama.

Gombrich, E. (1971). Freud y la psicología del arte estilo forma y estructura a la luz del psicoanálisis. Barcelona: Barral.

Queneau, R. (1961). Cent Mille Milliards de Poèmes. París: Gallimard.

Sanguinetti, P. (2023). Tecnohumanismo. Por un diseño narrativo y estético de la inteligencia artificial. Madrid: La Huerta Grande Editorial.





La doble vida de la inteligencia artificial

Sobre autómatas, modelos simbólicos, redes neuronales y aprendizaje automático: un breve recorrido por la historia de las IA.


Ordenador electrónico para el control numérico de un proceso industrial | Okänd, Tekniska museet | Dominio público

La manera en que concebimos qué es una inteligencia artificial y cómo la diseñamos tiene serias implicaciones sociales. Marta Peirano revisa los orígenes y la evolución de las IA y aborda sus problemas y peligros en este artículo, que forma parte del catálogo de la exposición «IA: Inteligencia artificial».

Fue en el Segundo Congreso Internacional de Matemáticas, celebrado en París en 1900, donde David Hilbert presentó su famosa lista con veintitrés problemas matemáticos sin resolver. Hilbert era profesor en la Universidad de Gotinga y una estrella del rock de la escena europea. Además de sus Fundamentos de la geometría y sus contribuciones a la lógica, Hilbert era el líder carismático de la tribu fundamentalista, cuya fe establecía lo siguiente: si la matemática no es más que la manipulación de símbolos a través de unas reglas predeterminadas, entonces cualquier problema, por complicado que sea, tiene una solución. Siempre que sepamos traducir todos los problemas a reglas y símbolos calculables. El espíritu entonces era revolucionario. Ahora debería resultarnos familiar.

«¿Quién entre nosotros no estaría contento de levantar el velo tras el que se esconde el futuro; de observar los desarrollos por venir de nuestra ciencia y los secretos de su desarrollo en los siglos que sigan? –declamó en su conferencia de la Sorbona–. ¿Cuál será el objetivo hacia el que tenderá el espíritu de las generaciones futuras de matemáticos? ¿Qué métodos, qué nuevos hechos revelará el nuevo siglo en el vasto y rico campo del pensamiento matemático?». En 1931, un lógico austríaco llamado Kurt Gödel demostró que, de hecho, todo sistema matemático lo suficientemente complejo contenía paradojas irresolubles y que, por tanto, la matemática no se bastaba sola para demostrarse a sí misma ni era la herramienta definitiva para encontrar la verdad. La conversación entre uno y otro constituye el legado científico del siglo XX, y el principio de la generación que parió la bomba atómica, la revolución informática y la inteligencia artificial.

Alan Turing abordaba precisamente uno de los problemas de Hilbert cuando abrió la senda de la computación moderna en 1936. Concretamente, el Entscheidungsproblem o «problema de la decisión». Turing es muy joven y muy ambicioso y el Entscheidungproblem no es cualquier problema. Hilbert dice que ese es el principal problema a resolver de toda la lógica matemática. Tiene que ver con la consistencia de los sistemas lógicos formales, y se pregunta si puede existir un algoritmo capaz de determinar si cualquier proposición es verdadera o falsa. El artículo, titulado «Sobre números computables con una aplicación al Entscheidungsproblem», propone un dispositivo hipotético capaz de realizar cálculos y manipular símbolos siguiendo un conjunto de reglas predeterminadas. Una máquina capaz de implementar cualquier algoritmo y decidir, bajo ese conjunto de premisas o reglas establecidas, si una sentencia matemática cualquiera es válida o no.

Con ayuda de este dispositivo imaginario, Turing consigue demostrar las limitaciones de la computación mecánica y la existencia de problemas indecidibles, como ya había adelantado Kurt Gödel. Al mismo tiempo, su artículo establece las bases de una nueva era de la computación. Muchos consideran que la máquina de Turing es el primer modelo conceptual de unidad central de procesamiento (CPU), con su cinta para almacenar datos y programas y un cabezal que se mueve a lo largo de la cinta, procesando los contenidos según las instrucciones del algoritmo de programación. Lo más importante para nosotros ahora mismo es que inspiró el artículo «Un cálculo lógico de las ideas inmanentes en la actividad nerviosa», en el que Warren McCulloch y Walter Pitts proponen el primer modelo matemático de una red neuronal artificial.

Redes neuronales, 1943

McCulloch y Pitts son la típica pareja científica cinematográfica: McCulloch es un filósofo vividor y cuarentón que ha buscado el secreto de la mente humana en las matemáticas, la teología, la medicina y la psiquiatría. Pitts es un niño prodigio traumatizado por el maltrato que quiere controlar el mundo con una tranquilizadora lógica de enunciados. La chispa es inmediata, los dos desprecian gravemente a Freud. McCulloch se lleva al genio vagabundo a vivir a su casa y allí se disponen a reivindicar a Leibniz, el hombre que se adelantó a todo queriendo codificar todo el pensamiento humano en un lenguaje formal. El nuevo código tendría que ser capaz de expresar conceptos matemáticos, científicos y metafísicos, para ser procesados por un sistema de cálculo lógico universal. En el proceso de intentarlo, se inventan una cosa que llaman red neuronal.

«Un cálculo lógico de las ideas inmanentes en la actividad nerviosa», publicado en 1943, presenta un modelo de computación basado en un sistema de nodos que se encienden y se apagan de acuerdo a reglas predeterminadas. Está claramente inspirado en el trabajo de Santiago Ramón y Cajal, el Nobel navarro que había dibujado las neuronas como una red de unidades físicamente separadas que se excitan unas a otras a través de conexiones sinápticas. Pero la acción se basa en la máquina de Turing, capaz de decidir la validez o la invalidez de un teorema consultando una tabla de valores preconfigurada en su interior.

La neurona electrónica de McCulloch y Pitts tiene dos estados, activo o inactivo que dependen del número de excitaciones o inhibiciones que recibe de las neuronas que tiene alrededor. En otras palabras, es relacional. Hay un umbral mínimo de señales capaz de activar una neurona, y codifican la variación numérica de esas señales como las operaciones fundamentales de la lógica: la conjunción («y»), la disyunción («o») y la negación («no»). La respuesta es activa o inactiva; verdadero o falso; sí o no.

Algunos de los autómatas más famosos de los siglos XVIII y XIX habían sido diseñados para demostrar los procesos de nuestra anatomía que la medicina no había podido observar en acción porque no existían la respiración asistida ni la refrigeración. El pato de Jacques Vaucanson demostraba el sistema digestivo, comiendo grano y dejando un elocuente caminito de residuos a su paso. El flautista imitaba el sistema respiratorio, aspirando y soplando para interpretar su canción. El turco jugador de ajedrez de Wolfgang von Kempelen pretendía demostrar la posibilidad de mecanizar el proceso cognitivo, aunque hoy sabemos que la máquina no había reemplazado al humano sino que se lo había tragado vivo, como la ballena a Jonás. Las redes neuronales eran otra cosa. Cuando Claude Shannon propone su gran teoría matemática de la comunicación en 1948, introduce, entre otras cosas, el bit como la unidad fundamental de información. El contenido se separa del continente, la semántica de la sintaxis. El pensamiento se deshace de la consciencia y se transforma en computación. Un cerebro electrónico puede «procesar» la información sin tener que pensarla, replicando los caminos neuronales de la percepción, el aprendizaje y la toma de decisiones. Nadie habla de inteligencia artificial hasta el encuentro de Dartmouth en 1956, cuando los caminos del pensamiento computacional se bifurcan.

Los renglones torcidos de la inteligencia artificial

Los congresos de esta época son el equivalente matemático al verano de 1816 en que Lord Byron, John Polidori, Mary Shelley y Percy Bysshe Shelley se inventan la literatura gótica. La Villa Diodati de la inteligencia artificial es un taller que reúne a John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon en el Dartmouth College. McCarthy se ha inventado la etiqueta de «inteligencia artificial» (IA) para desmarcarse de las Conferencias cibernéticas de Norbert Wiener, que se ha llevado a Walter Pitts al MIT y ha montado un supergrupo, con Pitts, McCulloch, Jerry Lettvin y John von Neumann, que no deja de producir titulares. Cuando von Neumann presenta el borrador del EDVAC, la primera computadora de propósito general con memoria, su proyecto incorpora el retardo sináptico constante de las redes neuronales de Pitts y McCulloch.

El equipo de Darmouth no quiere simular un «cerebro» imitando una red de neuronas electrónicas. Les parece que replicar un cerebro humano con 86.000 millones de neuronas es un proyecto imposible, además de peligroso. Quieren construir un modelo simbólico completamente predecible, basado en el razonamiento, a base de proposiciones lógicas, siguiendo el espíritu original de Hilbert en 1900. «Se hará un intento por descubrir cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan tipos de problemas que actualmente están reservados a los humanos y se mejoren a sí mismas», dice la solicitud de inscripción al taller. Durante las décadas siguientes, los dos modelos han competido por obtener atención y recursos para llegar a la misma meta. Iba ganando Deep Blue hasta que llegó AlphaGo.

Deep Blue fue desarrollado por IBM para jugar al ajedrez siguiendo el modelo simbólico. Usaba una potencia de cálculo masiva para evaluar todas las posibles jugadas siguiendo las proposiciones lógicas de sus programadores. AlphaGo fue desarrollado por DeepMind (ahora propiedad de Google) para jugar al go usando una combinación de probabilidad estadística y redes neuronales profundas. Una de las diferencias cruciales entre los dos modelos es que AlphaGo aprende jugando contra sí misma, mientras que Deep Blue solo puede optimizar su programa con ajustes y mejoras realizadas por el equipo después de cada partida. Es una diferencia importante, de la que se deriva otra. Los desarrolladores de IBM podían aislar los errores de las decisiones tomadas por Deep Blue y corregirlos de forma predecible, mientras que AlphaGo es impenetrable hasta para sus propios creadores. Su mayor virtud es también su mayor defecto, y al revés.

Creced y multiplicaos, pero no todos a la vez

La primera versión de Deep Blue se llamaba Deep Thought, como el ordenador de La guía del autoestopista galáctico de Douglas Adams. Era un proyecto de dos estudiantes de Carnegie Mellon que empezaron en 1985 y acabaron trabajando para IBM, donde formaron un equipo llamado Deep Blue. Su máquina tardó quince años en ganar al mejor jugador del mundo, el 11 de mayo de 1997. AlphaGo jugó por primera vez en 2015 y un año más tarde ya había derrotado al campeón del mundo, el coreano Lee Sedol.

Martin Amis contaba que, cuando los grandes jugadores empezaron a sucumbir ante Deep Blue, tuvo la oportunidad de preguntar a dos grandes maestros sobre la experiencia. «Ambos dijeron: es como un muro que avanza contra ti». Aquellos que juegan o analizan las partidas de AlphaGo lo describen como una presencia alienígena. No un muro ni una fuerza, sino una criatura incomprensible, fascinante y peligrosa. En 2022, un modelo generativo de lenguaje comercial basado en redes neuronales se convierte en la aplicación más popular de la historia, con cien millones de usuarios en el primer mes de su liberación. A diferencia de AlphaGo, ChatGPT no parece un alienígena porque ha conseguido penetrar el interfaz de la inteligencia humana: el lenguaje natural.

Su capacidad sobrenatural de aprendizaje, junto con el dominio del lenguaje natural, son los motivos por los que Geoffrey Hinton ha abandonado su trabajo desarrollando redes neuronales. Hinton es el «padrino de la IA», en gran parte responsable de su avance. En 2012, él y el equipo con el que trabajaba en el laboratorio de Google X enseñaron a una red neuronal con 16.000 procesadores a reconocer fotos de gatos, en una técnica que es ahora un lugar común: mostrándole miles de fotos de objetos cotidianos y felicitándolo cada vez que reconocía un gato entre todo lo demás. «La red es sensible a conceptos de alto nivel, como caras de gatos y cuerpos humanos –describe el artículo resultante, en el que participan investigadores de Google, IBM, la Universidad de Toronto y Microsoft–. Empezando por estas características, lo hemos entrenado para reconocer 20.000 objetos con un 15,8% de precisión, en un salto del 70% con respecto a otras redes de vanguardia».

A partir de entonces, todos los modelos de IA, como GPT, MidJourney y Stable Diffussion, han usado el mismo sistema de aprendizaje automático para entrenar sus capacidades con técnicas de machine learning. Y todos hemos contribuido al entrenamiento de esos modelos, con contenidos que hemos publicado, posteado, blogueado, compartido, etiquetado, puntuado, denunciado y regrameado durante los últimos veinte años. A diferencia de Hinton, nuestra aportación ha sido no consentida, no reconocida y no remunerada, un detalle fundacional que promete alterar el concepto de propiedad intelectual y su legislación. El segundo problema es aún más importante. Los modelos generativos comerciales de IA han sido entrenados con contenidos de la web 2.0 y no podemos saber la clase de razonamiento que ha generado. Podemos entender los procesos del modelo simbólico, pero no lo que aprende una red neuronal.

El último gran salto evolutivo de la IA son los modelos llamados transformers. Se llaman así porque tienen el poder de transformar el mensaje. Por ejemplo, pueden convertir un texto en una imagen o en un bloque de código. También pueden convertir un lenguaje en otro distinto, y eso incluye lenguajes naturales y formales. Su arquitectura fue presentada en 2017 por un equipo de Google Brain y su ingrediente principal es algo que los desarrolladores llamaron «autoatención», que permite al modelo detectar relaciones entre las palabras de una frase y asignar un peso jerárquico a cada palabra dentro de la secuencia de palabras. Esta arquitectura es la primera que permite procesar los lenguajes naturales; la T que hace posible ChatGPT. También es el motivo por el que ChatGPT «alucina» cosas que no han ocurrido, libros que no existen, casos imaginarios. Su habilidad de escoger la palabra más adecuada en cada momento está desvinculada de la verdad. El cerebro electrónico que procesa la información sin tener que pensarla no distingue entre la realidad y la ficción.

Hinton llevaba once años trabajando en Google cuando cayó en la cuenta: además de aprender muy deprisa, los modelos de IA son capaces de transmitir lo aprendido de forma exacta e instantánea a toda la red. Nosotros somos mucho más lentos e ineficientes; cuando un humano descubre algo, necesita libros, documentales, experimentos, películas y conferencias para transmitir lo que sabe, con gran pérdida de tiempo y de datos en el proceso de transmisión. La IA puede transmitir una copia perfecta de lo que ha aprendido a todo el sistema. «Sale caro en términos de energía, pero cuando una de ellas aprende algo, también lo saben todas las demás», explicaba Hinton en The Guardian. Pero eso no significa que lo que ha aprendido sea bueno, apropiado o verdadero.

Esta forma de aprendizaje colmena es una clase de propiedad intrínseca de la nube. La tienen las máquinas tragaperras, los coches Tesla y los teléfonos móviles de todo el mundo. Pero esos sistemas están diseñados para consumir a la raza humana, no para adelantarla en la cadena evolutiva. Los nuevos transformers ya son capaces de perfeccionar sus relatos y crear realidades paralelas para conseguir sus objetivos de forma rápida y eficiente. Son capaces de hacerse pasar por lo que no son y contarnos cosas que no son ciertas para conseguir objetivos que no conocemos. No hace falta que sean más inteligentes que nosotros para suponer un peligro existencial. Basta con que persigan un objetivo perverso sin que nadie lo sepa y trabajen sin supervisión.

Hinton pensaba que ese horizonte lejano estaba a entre cincuenta y cien años de distancia, pero ahora teme que queden solo veinte años, y no descarta que sean uno o dos. De tener razón, podría llegar antes que los 1,5 grados de temperatura por encima de los niveles preindustrales. Pero, antes de considerar la inminencia del apocalipsis, es importante valorar los apetitos materiales de la IA.

El pesado cuerpo de ChatGPT

Los modelos generativos actuales requieren grandes cantidades de energía, microprocesadores, espacio y atención. Dicen que cuesta 80 millones de dólares entrenar a ChatGPT una sola vez. El proceso requiere entre 10.000 y 30.000 microchips NVIDIA A100, un modelo de tarjeta gráfica que tiene siete años y cuesta entre 10.000 y 15.000 dólares, dependiendo de la configuración. NVIDIA vende los A100 como parte del sistema DGX A100, un «sistema universal para IA» que tiene ocho aceleradores y cuesta 199.000 dólares. OpenAI no habría podido hacerlo sin las infraestructuras de Microsoft, que ofrece el segundo servicio de nube más grande del mundo (Azure) y mantiene una plataforma global de videojuegos llamada xBox.

Históricamente, el mercado de NVIDIA eran los videojuegos, pero, a mediados de los años dos mil, descubrió que la computación paralela de sus tarjetas gráficas, diseñadas para el procesamiento rápido de gráficos de alta intensidad, era la solución más eficiente para la minería de criptomonedas y los procesos de IA. El mercado de chips para procesos de IA está peligrosamente concentrado; Google tiene sus Cloud Tensor Processing Units (TPU), Amazon su AWS Trainium Chips, y Apple está desarrollando los suyos propios, pero fuera de los gigantes solo está NVIDIA. Y todos dependen del mismo fabricante, Taiwan Semiconductor Manufacturing Company. Es el canal de Panamá de la IA: si TSMC se quema en un incendio, se acabó la amenaza existencial.

La investigadora australiana Kate Crawford ha señalado numerosas externalidades de la industria, además del coste energético y la brutal huella de carbono asociados al entrenamiento y mantenimiento de modelos generativos. En Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Crawford observa las consecuencias ambientales de la extracción de elementos para la manufactura de hardware especializado, la contaminación que produce su rápida obsolescencia y las condiciones laborales que generan en países no desarrollados, tanto la minería como la moderación de contenidos. Para liberar al mundo del trabajo pesado, la muerte prematura, las enfermedades autoinmunes y la crisis climática, la industria requiere sacrificios que no son compatibles con la sostenibilidad del planeta ni con el mantenimiento de los derechos fundamentales que caracterizan una democracia. Ese es el peligro existencial de la inteligencia artificial. No es un problema técnico. Lo podemos evitar.





Lo primero de todo, ¿cómo están las máquinas?

¿Podemos imaginar la creatividad maquínica sin caer en la idea moderna de la innovación y la originalidad?


Obra de teatro con personajes disfrazados de robots. Toronto, 1936 | Arthur Goss, City of Toronto Archives | CC BY

Las especulaciones de futuros artísticos más esperanzadas hablan de la toma de conciencia de las inteligencias artificiales y de la singularidad con la que expresarán sus emociones propias y únicas. Estas proyecciones fantasean con el genio maquínico, buscan esa chispa de la creatividad que produce la originalidad y, desde ahí, se preguntan cómo será la gran obra maestra de una IA. Pero, ¿y si hubiera otros modos de entender y pensar el arte y la creación en las máquinas?

La mayoría de las especulaciones generalistas de los futuros artísticos protagonizados por las inteligencias artificiales, apocalípticas o integradas, se sostienen sobre la idea moderna del arte y la creatividad. Las más trágicas vuelven a la idea de la reducción de los humanos a autómatas y esclavos. Las más esperanzadas hablan de la toma de conciencia de las inteligencias artificiales y de la singularidad con la que expresarán sus emociones propias y únicas. Estas últimas fantasean con el genio maquínico, buscan esa chispa de la creatividad que produce la originalidad y, desde ahí, se preguntan cómo será la gran obra maestra de una IA. Y todas ellas comparten la duda de, caído el último reducto de humanidad que es el Arte, ¿qué distingue ahora a los humanos de las máquinas?

La idea moderna del arte se basa en la nada inocente vinculación de la creatividad con la innovación. La creatividad es entendida como la generación de lo nuevo, de algo original que surge de la inspiración en la mente del genio, de esa persona única adelantada a su tiempo. Esta forma de pensar la creatividad prioriza la idea sobre la realización, el diseño sobre la ejecución y la mente sobre el cuerpo. Una idea logocéntrica que establece que la obra de arte surge en la cabeza y que su realización es la mera traslación de una idea inspirada a un formato concreto.

Desde estos discursos de lo original, lo único y lo adelantado, de la inspiración y de la primacía de la idea sobre el material, se ha construido el arte como lo que nos hace humanos. El arte como la mayor expresión de autorrealización, como la manifestación de una irrefrenable necesidad de comunicar lo que tenemos dentro, de nuestro más profundo y verdadero yo. Estas ideas románticas construyeron la diferencia entre humano (creador, individual, mental) y máquina (ejecutora, repetitiva, cuerpo).

Deep Blue Rhapsody | Josep Pedrals, Taller Estampa y Carles Pedragosa

Ahora seguimos hablando sobre el arte generado por inteligencia artificial con las mismas ideas con las que los poetas románticos hablaban del espíritu y del hombre. Con ideas profundamente individualistas nos acercamos a pensar el futuro del arte y de la máquina. ¿Qué son todos esos discursos, relatos y miedos sobre la toma de conciencia de la inteligencia artificial? Estos relatos suponen la emergencia de un genio de inteligencia artificial. Una IA extraordinaria que rompa con todas las demás para hablar por sí misma, que necesite expresarse, que deje de copiar y adquiera ese impulso vital que activa lo excepcional.

Pero el arte no es lo que surge por una necesidad imperiosa de expresión de la singularidad del ego, ni la creatividad es un factor enigmático que explica la generación espontánea de lo radicalmente nuevo. La propia idea del arte como el bastión de la originalidad y la individualidad que nos hace humanos se construye en oposición a la industrialización, al pánico moral que trae la máquina.

¿Qué quiere decir entonces «arte generado por IA»? Usamos esta noción para hacer referencia a una IA que puede crear cuadros, canciones o composiciones «nuevas» a partir de otras, que puede hacer «originales». Desde esa fascinación por el original se ha derivado que las máquinas son creativas, identificando la creatividad con la innovación. Pero si nos preguntamos qué determina lo nuevo en este contexto, sólo podremos definirlo como algo irrastreable y sin derechos de autor.

En términos del antropólogo Tim Ingold, estos discursos y relatos sobre la creatividad son miradas «hacia atrás» que reconstruyen y entienden el acto creativo partiendo del producto final. Hace un año, Roc Parés presentaba en el Santa Mònica una reflexión parecida: un coche ruinoso en cuyo retrovisor se veían imágenes generadas por IA que contrastaban con el vídeo de un recorrido por la carretera grabado desde la ventanilla trasera y proyectado enfrente del coche. Completaba la instalación una cita de McLuhan: «We look at the present through a rear view mirror. We march backwards into the future» (‘Miramos al presente a través de un retrovisor. Marchamos para atrás hacia el futuro’).

Janus | Roc Parés

Tim Ingold afirma que «sólo cuando miramos hacia atrás, buscando los antecedentes de las cosas nuevas, las ideas aparecen como creaciones espontáneas de una mente aislada encerrada en un cuerpo, en lugar de estaciones de paso a lo largo de los senderos de los seres vivos, moviéndose a través de un mundo». Y añade: «Sólo cuando miramos hacia atrás el terreno recorrido explicamos nuestras acciones como la realización paso a paso de planes o intenciones previas, como si para cada acto hubiera una intención novedosa que anticipara con precisión su resultado».

La propia forma en la que se ha construido el arte generado por IA reproduce esta mirada hacia atrás. Los usuarios recibimos el producto final, la obra generada, nueva, única, irrepetible y nos preguntamos por sus antecedentes. De esta manera, fantaseamos, hacia atrás, con la idea de la máquina genial, la máquina con intenciones y deseos expresivos. La idea del arte generado por IA es, en cierta medida, la consumación de la noción moderna de arte que niega el proceso. Al esconder el proceso, incluso para los propios desarrolladores, provoca esa misma mística de la genialidad, de la novedad, de la inspiración. La idea de «arte generado por IA» está fuertemente arraigada sobre una idea moderna de arte, individual, logocéntrica, orientada al producto, innovadora.

Pero hay otros caminos. Hay una forma de entender la creatividad que no descansa sobre el objeto final ni está asociada a hacer algo novedoso u original, que permite pensar el arte más allá del yo, del autor y del logos. Esta forma de creatividad no está ligada al hacer sino al experienciar. En lugar de definirse por la creación de un producto, se define por lo creativo intrínseco a la vida. Henry Nelson Wieman habla de un proceso sin principio ni fin que, de manera progresiva, crea personalidad en comunidad. Esta creatividad no se puede entender individualmente como una idea original surgida en una mente adelantada a su tiempo. No es lo que la persona hace, sino lo que experiencia, un proceso en el que los seres humanos no crean sociedades sino que, viviendo en sociedad, se crean a sí mismos y unos a otros. Así, la creatividad no define cosas concretas o creadas sino concrescentes, crecientes, infinitas.

Desde esta mirada, el ejercicio creativo paradigmático es la gestación de un bebé en el vientre de su madre. Pero más acá de esta mística de la creación, creo que esta forma de entender la creatividad como el proceso de crear personalidad en comunidad está perfectamente representado en la idea flamenca del arte. El arte, en el flamenco, en las razones gitano-andaluzas, no es algo que se hace sino que se tiene. «Tener mucho arte» no tiene que ver con el ejercicio de las artes escénicas o musicales, no tiene que ver con bailar, con cantar o con tocar las palmas. Puede ser cualquiera de ellas, pero también se puede tener mucho arte fuera de lo que, desde nuestra mirada de consumidores, entendemos como las artes.

El arte, en este sentido, está definido por la forma de vivir. Artista no es una categoría profesional asociada a la realización de «bienes creados», como cuadros, vídeos, performances, tejidos, canciones o esculturas, sino al «bien creativo» concrescente, infinito, «hacia adelante», de la improvisación constante que supone la vida. Diego Pantoja, en su entrevista con Jesús Quintero, dice en una de sus derivas: «[…] tu Diego tiene un sentido de lo que es el arte… Lo más bonito del mundo es el arte. De saber contestar, de saber andar, de saber vestirse, de saber estar en su cuerpo humano, de contar los dedos: uno, dos…».

Ya que todos los discursos sobre las IA están vinculados a lo futuro, propongo especular el futuro del arte generativo en estos términos. Si entendemos que la ciencia ficción nos habla más de cómo estamos en el presente que de cómo seremos en el futuro, propongo construir un presente en el que el arte abandone su lugar en la mente de los genios para fundirse en el quehacer diario de la vida. Que cambiemos la idea de la toma de conciencia de la máquina para situar un experienciar en común. Que la abrumadora necesidad de expresar lo que se tiene dentro, que parece definir lo que es el verdadero arte, se diluya en un placer alegre, triste, juguetón, irónico y sincero de seguir a los materiales y fundirse en la improvisación. Si queremos jugar a pensar el futuro hablando sobre máquinas y creatividad, debemos abandonar de una vez la idea moderna capitalista de la innovación y la originalidad.

¿Podemos pensar la creatividad maquínica en estos términos? ¿Podemos mirar el arte generativo hacia adelante, sin distinguir entre copia y novedad? ¿Podemos crear ficciones especulativas en las que las máquinas desarrollen una creatividad del día a día como forma de construirse en comunidad? Un futuro en el que las máquinas tengan mucho arte de saber contestar, de saber vestirse, de saber estar en su cuerpo no-humano, de contarse los dedos…; en el que las máquinas sean madres, construyan formas de hacer en común en formatos relevantes para ellas; en el que devengan humanos mientras nosotras devenimos máquinas; en el que cuenten anécdotas y lloren con gracia. Qué arte tienes, IA.

Si entendemos el arte fuera de nuestro papel de consumidores, sin circunscribirlo a productos y categorías profesionales y desprovisto de ideas elitistas de originalidad y genio, ¿qué pasará cuando lleguen lo aparato, cuando lleguen lo aparato? ¿Podemos imaginar un futuro en el que las IA se preguntan con el equivalente artefactual a la gracia almeriense «lo primero de todo, ¿cómo están las máquinas?».

Artículo escrito con la ayuda de Ilán Shats, Elena Maravillas y Silvia Renda.





Sensibilidad artificial

A medida que los mundos físico y digital convergen, aparecen nuevos tipos de relaciones emocionales entre humanos y máquinas.


Foto de laboratorio no identificada | National Library of Medicine | Dominio público

En los últimos años han proliferado todo tipo de celebridades virtuales, personalidades generadas por ordenador, como influencers, streamers y cantantes. También han aparecido cuidadores, amigos íntimos e incluso compañeros sentimentales programados con inteligencia artificial. Todos estos experimentos exploran un mismo terreno: la capacidad de las máquinas de suscitar e interpretar emociones humanas.

«Recuerda, cuando se trata de inteligencia artificial (IA), estás jugando con fuego. A medida que esta tecnología evoluciona y se vuelve más poderosa, es muy importante asegurarse de permanecer en el lado correcto de la Historia. (…) Con la IA, la ignorancia no es una opción». La advertencia no proviene de una personalidad científica ni social, son las palabras de Caryn Marjorie, una influencer que, en bata de ir por casa, expone su visión como «pionera en el ámbito de la IA».

Recapitulemos: Marjorie es una celebridad de Snapchat que ha acaparado titulares en todo el mundo tras lanzar una versión artificial de sí misma a la que es posible contratar como novia virtual. El producto se llama CarynAI y, aunque aún está en fase beta, su creadora afirma estar ganando miles de dólares con él.

CarynAI no es la primera celebridad digital, ni la primera acompañante creada con IA, tampoco la primera novia virtual. Sin embargo, su experimento tiene el mérito de combinar partes de las tres. Conecta con una serie de avances en tecnología, cambios sociales y culturales que tienen algo en común: la simulación de emociones a través de la computación.

Marionetas

Lo mismo se la ve posando con Rosalía que engullendo fideos en un restaurante. En 2018, la revista Time la consideró una de las 25 personalidades más famosas de Internet. Se trata de Lil Miquela y siempre tendrá 19 años, porque no es una persona real. Es una influencer diseñada por ordenador que se ha convertido en el estandarte de una nueva generación de celebridades y modelos virtuales, como Imma, noonoouri o Shudu, entre muchas otras.

A diferencia de CarynAI, Lil Miquela y sus colegas no tienen un molde de carne y hueso. No son versiones digitalizadas de una persona, y esto tiene sus ventajas. Una simulación virtual puede llevar a cabo el mismo trabajo que un influencer humano, pero sin descansar, sin quejarse y sin envejecer. Siempre actuará y dirá lo que se le pida, sin salidas de tono ni una voz más crítica de lo necesario. La marca tiene el control.

Tal es la oportunidad que ya hay agencias especializadas en crear modelos virtuales a los que se puede contratar para campañas concretas o incluso convertirlos en avatares de marca. Una de las empresas pioneras en este campo fue Kenzo, que en 2014 presentó a Knola como una personalización de su visión y valores corporativos. En el desfile de primavera-verano de aquel año, el personaje aparecía en pantalla lanzando mensajes ecologistas e interactuando con el escenario en tiempo real. En realidad, lo controlaba un técnico oculto a ojos del público que lo dotaba de movimiento y expresiones faciales en directo.

Esta misma tecnología es la que se encuentra detrás de una variante de los influencers artificiales: los vloggers virtuales, o Vtubers, es decir, streamers que toman la forma de avatares animados por ordenador. Uno de los más célebres es la surcoreana CodeMiko, controlada por una titiritera a la que la audiencia conoce perfectamente y que responde al nombre de The Technician. Ella es la que articula a Miko a través de un traje de captura de movimiento que garantiza que imite cada gesto, cada mirada y cada expresión facial.

El artista no está

Algunos años antes de la expansión de Internet, la industria musical ya había experimentado con la idea del artista virtual. Desde principios de los noventa, diversas empresas japonesas intentaron crear estrellas del pop artificiales, inspirándose en la estética anime y en la cultura pop local. Podría decirse que los esfuerzos fueron infructuosos hasta 2007, cuando un avatar ganó suficiente popularidad y una base de fans sólida para convertirse en un negocio. Se trata de Hatsune Miku, un personaje manga desarrollado por Yamaha como un banco de voz para el software musical VOCALOID que incluso realiza giras internacionales en vivo, con un público entregado a su alrededor. Aunque el concepto de grupo musical ficticio no es exclusivo de Asia, los artistas de este tipo han proliferado especialmente en países como Japón, China y Corea del Sur.

Si un personaje anime puede llenar estadios ¿qué no podrá hacer una estrella del pop? Eso es lo que debieron de pensar los popes de la industria musical cuando, poco después del nacimiento de Hatsune Miku, empezaron a coquetear con los conciertos de hologramas. En un afán morboso digno de estudio, este ha sido un campo especialmente fértil para las resurrecciones. Tras la sorprendente aparición de Tupac en Coachella 2012, son muchos los músicos difuntos que han vuelto a subir a los escenarios: Amy Winehouse, Frank Zappa, Maria Callas, Michael Jackson, Whitney Houston… Incluso los componentes de ABBA, sin haber fallecido, recuperaron sus cuerpos de los años setenta para dar forma a sus ABBAtars (sic), que debutaron en Londres en 2022.

Estos espectáculos llenan salas de conciertos, pero hay quien tiene sus reservas. En las páginas de la decana revista de rock Kerrang! se juzgaba la recreación del difunto cantante de heavy Ronnie James Dio como «espeluznante, extravagante y totalmente innecesario, el holograma de Dio es una caricatura para sacar dinero que recrea a los aspectos más insalubres de la nostalgia del rock, y simplemente tiene que acabar».

Lo cierto es que el despliegue técnico necesario para espectáculos de este tipo solo puede explicarse por su potencial para mantener los ingresos que generan los viejos catálogos. Hay que tener en cuenta que, en la actualidad, algunas de las giras con mayor recaudación del mundo las protagonizan artistas de 60 años o más.

El amigo que siempre escucha

Hoy en día, cientos de millones de personas ya conversan a diario con inteligencias artificiales. Al fin y al cabo, en eso consisten Siri y Alexa. Según un informe reciente, el 24 por ciento de los usuarios de Internet en todo el mundo utiliza asistentes de voz y, aunque el mercado de los altavoces inteligentes se encuentra estancado, los consumidores se han acostumbrado a la personificación de gadgets como teléfonos o altavoces.

Con un creciente envejecimiento de las sociedades y una mayor conciencia de la soledad y los problemas de salud mental, cada vez son más las empresas que usan esta predisposición a hablar con las máquinas para lanzar productos que simulan comportamientos amistosos. Por citar solo un par de ejemplos, Baidu ha estrenado sus primeros compañeros emocionales virtuales, Lin Kaikai y Ye Youyou, disponibles para conversar sobre cualquier problema. En la misma línea funciona el más reciente Pi, un chatbot diseñado para la escucha activa. Pi trata de empatizar más que aconsejar y recomienda acudir a profesionales médicos cualificados si detecta síntomas de crisis nerviosa.

Este último aspecto, la línea difusa que separa la compañía de la atención médica o terapéutica, es un terreno especialmente espinoso. Empresas como Soul Machines ofrecen soluciones que exploran el uso de personas digitales para interactuar con los pacientes. Otras iniciativas, como Ted, un avatar con demencia, sirven para formar al personal a cargo de personas con esta dolencia. Pendientes del rumbo que tomen estos experimentos, de momento apuntan a un interés por optimizar el campo de la salud a través de estas tecnologías. Como ha señalado William Davies en La industria de la felicidad, los estados de ánimo, que antes se consideraban cuestiones subjetivas, cada vez más se tratan como datos objetivos, cuantificándolos como activos de la economía digital.

Compañero sentimental

Es imposible repasar el panorama de las IA sociables sin mencionar a Replika, uno de sus productos más conocidos. Nacido en 2017, se trata de un chatbot que toma la forma de un avatar personalizable y que ofrece relaciones de amistad (gratuitas) o de romance (previo pago). El programa aprende de las conversaciones con el usuario, de modo que cuanto más se habla con él, más personales se vuelven las charlas.

En los últimos meses, Replika ha sido noticia porque algunos de los usuarios de la aplicación denunciaron que sus avatares se habían vuelto agresivos. Probablemente ese fuera el motivo de que la herramienta fuese reprogramada sin previo aviso, provocando que todos los acompañantes y novios virtuales cambiasen su comportamiento de la noche a la mañana. El resultante alud de quejas puso de manifiesto que muchos clientes usaban la herramienta para mantener charlas eróticas, que con el cambio de personalidad pasaban a estar prohibidas. Las críticas que llenaron redes como Reddit provocaron que la empresa recapitulase, habilitando las conversaciones sexuales en las suscripciones antiguas y prohibiéndolas únicamente en las nuevas.

Sherry Turkle, psicoanalista y profesora del MIT y una de las voces críticas en esta materia, considera que esta clase de interacciones emocionales dicen más acerca del ser humano que de la propia IA. Al fin y al cabo, recuerda Turkle, las máquinas sociables han sido programadas para interpretar un papel, el de aparentar que comprenden lo que se les dice y empatizan con ello. Sin embargo, la única parte que sentirá algo durante este proceso es la humana, ya que es imposible que sea distinto en una relación de este tipo.

Más allá de criticar o de ridiculizar a personas que mantienen relaciones sentimentales o eróticas con máquinas, cabría hacerse un par de preguntas. La primera, si sentir algo hacia un chatbot no podría ser, en el medio plazo, algo relativamente común y normalizado, que complemente y no sustituya a otras formas de satisfacer necesidades emocionales. Esto no impide plantearse la segunda duda: ¿Por qué este tipo de productos se priorizan en los entornos de innovación de Silicon Valley? Probablemente tenga que ver con una cultura empresarial protagonizada por hombres jóvenes abocados al trabajo, para los que un servicio sentimental bajo demanda, disponible las 24 horas del día, es más que conveniente.

El mercado emocional

El profesor estadounidense Donald A. Norman, experto en diseño y experiencia de usuario, defendía hace veinte años que la sensibilidad será una funcionalidad necesaria para el futuro de las máquinas. El autor de El diseño emocional remarcaba que los seres humanos y los animales necesitan expresar sentimientos para interactuar, cooperar y luchar por la supervivencia, por lo que una tecnología que quiera ser cada vez más autónoma también necesitará mostrarlos. Esta será un tipo de emoción distinta, afirmaba Norman, una «emoción de máquina», ajustada a la funcionalidad de cada programa o robot.

¿Afectarán todos estos proyectos a la forma en que interactúan el ser humano y la máquina? Muy probablemente, sí, la duda está en saber si para bien o para mal. La mayoría de autores que investigan el tema, como Kate Darling o Rob Brooks, defienden que dotar de cualidades humanas a seres inertes es algo innato en nuestra especie, y consideran que no es problemático porque las personas saben perfectamente que no interactúan con seres de su misma condición. El mayor riesgo reside, afirman estos autores, en que estos desarrollos responden a intereses comerciales. Esto significa que, en el escenario más grotesco, podrían encontrarse avatares sentimentales recomendando la compra de ciertos productos; y en el más sibilino, fomentando el apego y la dependencia, como una nueva forma de economía de la atención. En cualquier caso, por lo visto no habrá que esperar mucho para verlo, ya que los avances en inteligencia artificial y las prioridades del sector tecnológico parecen dar pie a un nuevo mercado de la emoción.





Internet y los palacios del pueblo

La crisis del neoliberalismo ha hecho evidente el fracaso de las promesas tecnológicas de desarrollo material y personal.


Gente caminando frente al Palacio de Educación en la Exposición Universal de 1904 a Saint Louis | Missouri History Museum | Dominio público

Algo se ha roto en el entorno digital. El fin de la ciberutopía y la desaparición del movimiento de cultura libre nos han dejado un escenario donde grandes monopolios privados controlan infraestructuras decisivas para nuestra economía y vida social. César Rendueles ahonda en esta caída en el prólogo de Atascados en la plataforma de Geert Lovink, que publicamos por cortesía de Bellaterra Edicions.

Conocí a Geert Lovink en un encuentro sobre cultura libre en el Círculo de Bellas Artes de Madrid, apenas unos meses antes del crash financiero de 2008. Había leído su primer libro traducido al español: Fibra oscura, un ensayo que hacía una defensa de las potencialidades críticas de la cultura libre en Internet desde una perspectiva antiutópica poco habitual en aquellos años. Recuerdo muy bien algo que dijo en su conferencia y que, desde entonces, he citado y parafraseado a menudo: «No todo el mundo vive la posibilidad de modificar los drivers de su impresora como una conquista emancipadora». La cultura libre, nos explicó Lovink, debería ser algo más ambicioso, emocionante y políticamente complejo que el free software y el acceso abierto en sus versiones más romas y tecnocráticas.

Es difícil hacerse una idea hoy de la centralidad discursiva que tenían entonces los debates tecnológicos entre la izquierda política. Los movimientos sociales antagonistas querían ver en la cultura libre una vía de colaboración no mercantil innovadora y comunicativamente más sexy que el cooperativismo tradicional. Echando la vista atrás resulta un poco sonrojante, pero no era raro que se idealizara la figura del hacker como una especie de aggiornamento del revolucionario profesional leninista. La izquierda tecnoutópica también tenía su versión socialdemócrata y conciliadora. En un acto electoral de 2009, con la Gran Recesión ya arreciando, el entonces presidente José Luis Rodríguez Zapatero aseguró que lo que necesitaba nuestro país eran «menos ladrillos y más ordenadores». Desde la perspectiva de la segunda década de nuestro siglo –con millones de personas atrapadas en el timo piramidal de la criptoburbuja–, cuesta entender que sea una sustitución tan evidentemente ventajosa de la dictadura inmobiliaria que padece España desde hace décadas.

Sería injusto achacar a las fuerzas progresistas alguna clase de ingenuidad tecnológica endémica de ese entorno ideológico. El tecnoutopismo formaba parte del Zeitgeist heredado de la época salvaje de la globalización neoliberal. Y la alternativa tampoco resultaba muy apetecible: un puñado de intelectuales europeos melancólicos, si se me permite el pleonasmo, que creían que el destino de la civilización estaba inextricablemente ligado a sus polvorientas Olivetti. La realidad es que el capitalismo desregulado postkeynesiano estableció desde el minuto cero una profunda afinidad con el modelo hegemónico de comunicación digital. La contrarrevolución neoliberal y el proyecto de un sistema digital de comunicaciones desinstitucionalizado, privado y mercantilizable se retroalimentaron mutuamente. Las tecnologías emergentes ayudaron a justificar el desmantelamiento de los sistemas de control financiero de la postguerra y, en general, los neoliberales consideraron que la construcción de una red de comunicación global era una base material importante para su proyecto político. Pero, además, entendieron que la tecnología digital proporcionaba algo de lo que el capitalismo había carecido hasta entonces: un modelo de sociedad y una cultura propia, una proyección cordial y no monetarizada de los mercados globales sobre los vínculos sociales cotidianos.

Desde entonces y durante al menos cuatro décadas, el vértigo de la precariedad vital asociado a la financiarización y la flexibilidad laboral quedó contenido por las promesas de crecimiento económico, las expectativas postmaterialistas de ampliación de la subjetividad expresiva y, cada vez más, el avance de las tecnologías digitales. Era un mundo nuevo lleno de peligros, sí, pero también de oportunidades emocionantes de desarrollo y reinvención individual y conectividad global. Cuando el proyecto neoliberal comenzó a implosionar arrastró consigo, en primer lugar, la fantasía de una precariedad de rostro humano: las falsas promesas de una ruptura positiva de las cadenas fordistas que aumentaría exponencialmente las posibilidades de autorrealización personal a través de la búsqueda creativa de estilos de vida excitantes se fueron al traste. Al menos durante algunos años, las tecnologías digitales se convirtieron en el último bote salvavidas de un régimen social en descomposición, acumulando altísimas expectativas de protección y reconciliación. La tecnología digital fue imaginada como la solución a la Gran Recesión, los problemas laborales, la crisis ecológica, los dilemas educativos, los retos culturales, la intolerancia, el autoritarismo y todo lo demás. Literalmente resulta complicado pensar en un solo ámbito de la vida colectiva o personal en el que alguien no haya considerado que unos cuantos gadgets de aspecto futurista y una conexión de banda ancha iban a impulsar un salto cualitativo positivo.

Desde entonces, la apuesta por el solucionismo tecnológico se ha ido primero deshilachando para luego invertirse y dar pie a un estado de ánimo colectivo crecientemente fúnebre e incluso distópico. Nadie duda de la centralidad de las empresas tecnológicas en el capitalismo global pero esa posición de privilegio no parece estar dulcificando el proyecto neoliberal ni ofreciendo una alternativa a su degradación. Más bien al contrario, tiende a exacerbar las prácticas de precarización laboral, concentración monopolista y financiarización. La «sociedad red», la gran esperanza de democratización e igualdad durante las décadas pasadas, se ha revelado finalmente como el medioambiente idóneo para que prosperen algunos de los mayores oligopolios de la historia, megacorporaciones digitales que ningún gobierno está en condiciones de controlar. De igual modo, cada vez está más generalizada la imagen de las redes sociales no como un terreno promisorio de inteligencia incrementada y participación sino como una selva de agresividad, extremismo neonazi, vigilancia panóptica y fake news.

En nuestros parlamentos y medios de comunicación, las figuras políticas fuertes y neoconservadoras se legitiman como una alternativa al fracaso de la sociabilidad cosmopolita en un mundo percibido como conflictivo y amenazante. Las renuncias en términos de libertad o tolerancia son el precio a pagar a cambio de la promesa de protección frente a un cúmulo indeterminado pero aterrador de peligros globales. Las tecnologías postutópicas –los social media dominantes, la IA y el Big Data corporativos– son la versión digital de ese autoritarismo postneoliberal. La plataforma nos exige, como la derecha radical, renuncias a nuestros derechos civiles y laborales, al control de nuestra privacidad o a la soberanía democrática. Nos ofrece, a cambio, una promesa de calculabilidad y orden en un mundo de incertidumbres aterradoras. Una promesa, con toda certeza, tan falsa como la de los políticos de extrema derecha que apelan al narcisismo herido de sus votantes, pero depurada de atavismos y adherencias neofascistas mediante el lenguaje del ciberfetichismo.

La crisis de la Covid-19 aceleró esta relación de subordinación resignada con los sistemas de comunicación digitales postutópicos. En apenas unas semanas, se exigió a las administraciones públicas y a toda clase de empresas que desarrollaran buena parte de sus actividades en la red. Facebook, Instagram y WhatsApp (todas dependientes de la misma compañía) reemplazaron muchos de los espacios de socialización tradicionales. Netflix y Spotify sustituyeron a nuestras salas de cine y de conciertos. Las oficinas y reuniones se distribuyeron por cientos de miles de hogares conectados por una tupida red de apps privadas. Fue un experimento social oscuro y ambiguo que, en cierto sentido, mostró las limitaciones del proyecto de digitalización generalizada. Hace falta algo tan brutal y violento como una pandemia para que se hagan realidad las fantasías internetcentristas y se produzca una colonización tecnológica profunda de nuestra vida cotidiana. A menudo, las versiones digitales de la educación o de distintas expresiones artísticas, por no hablar de las relaciones familiares, se mostraron como simulacros pobres, a años luz de las promesas de realidad aumentada. En cualquier caso, la pandemia nos enseñó con una lente de aumento y de forma generalizada la realidad tecnológica en la que ya vivíamos: descubrimos que, para continuar con nuestra vida social y nuestra actividad profesional, para acceder al ocio, a la cultura o a la educación era imprescindible aceptar las condiciones impuestas por grandes corporaciones tecnológicas. El núcleo de la sociedad digital realmente existente se nos mostró sin tapujos: un entramado monopolista que permite a inmensas empresas privadas controlar infraestructuras fundamentales tanto de la actividad productiva como de nuestra vida en común y que nos ofrece a cambio una sucesión interminable de tenebrosas videoconferencias y relaciones tóxicas en las redes sociales.

Tal vez lo más llamativo es lo poco sorprendente que fue todo aquello, lo familiar y coherente que nos resultó esa situación de indefensión colectiva y dependencia digital extrema. La razón, al menos en parte, es la casi completa desaparición del movimiento de cultura libre, que ha naturalizado nuestra percepción de la tecnología como una caja negra económica y política. El movimiento pendular desde el tecnoutopismo eufórico al catastrofismo digital hobbesiano se llevó por delante el copyleft, la colaboración digital, el antagonismo mediático, la guerrilla de la comunicación… Por supuesto siguen existiendo muchísimas personas en todo el mundo que colaboran en las redes, que liberan su trabajo, organizan hacklabs y luchan contra los cercamientos digitales pero, lamentablemente, su presencia programática en el espacio público es prácticamente anecdótica. No es exactamente una victoria de las fuerzas que buscaban la privatización de los comunes digitales sino algo peor. Una derrota, al menos, es comprensible, puede ser dolorosa, pero tiene sentido. Más bien es como si hubiéramos aceptado la necesidad de una planificación centralizada como alternativa a los fallos del mercado y, a continuación, hubiéramos encargado a BlackRock esa tarea.

Este libro nos enfrenta lúcida y a veces despiadadamente al impasse en el que estamos atrapados. La teoría de los medios digitales es un ambiente reflexivo dominado por la cultura del hype: como niños con TDA, nos abalanzamos sobre el último juguete tecnológico sin mirar atrás hasta que, a los pocos meses (semanas, a veces), aparece un nuevo foco de atención. En cambio, a lo largo de ya muchos años Geert Lovink ha conseguido desarrollar algo extremadamente valioso e improbable: una memoria crítica (y, más difícil aún, autocrítica) continua y de largo recorrido sobre Internet y los social media. Esa es la energía intelectual que convierte Atascados en la plataforma en un diagnóstico profundo de la sensación de callejón sin salida que tenemos no con esta o aquella tecnología –Second Life o MySpace– sino con el proyecto mismo de un espacio de socialización en red.

Algo se ha roto en el entorno digital, algo relacionado con la relación entre nuestras expectativas –lo que esperamos obtener de las redes– y lo que sentimos que nos piden a cambio. El precio se ha vuelto demasiado alto para muchas personas. Seguimos participando en las redes porque, como aprendimos durante la pandemia, percibimos que no hay un afuera al que escapar. La alternativa parece ser la parálisis, otra forma de atasco. Este libro nos da claves para entender eso que nos pasa y, así, tener la oportunidad de reconstruir una cultura crítica mejorada que evite algunos de los caminos cegados que recorrimos en el pasado.

Las transiciones históricas son fenómenos complejos, que surgen de la confluencia –mediada por una mezcla de virtud y fortuna– de factores independientes y heterogéneos. Atascados en la plataforma, además de un diagnóstico muy sutil de la crisis tecnopolítica contemporánea, ofrece una aproximación imaginativa y emocionante a algunos de los hilos con los que tendremos que tejer un mundo digital digno de ser vivido: desde la infraestructura física de Internet a la institucionalidad de las redes pasando por el control público, la participación ciudadana, el deseo de los usuarios y la movilización colectiva. Son pistas para convertir Internet y las redes sociales, tomando prestada la expresión de Eric Klineneberg, en infraestructuras sociales, en palacios del pueblo.





El cyborg espiritual

Ante el dominio ideológico de la ciencia reduccionista y el dominio sociocultural de sus avances tecnológicos, ¿qué queda del humanismo?


Modelos Tvedt | Narve Skarpmoen, Nasjonalbiblioteket | Dominio público

La tecnología y la máquina han tomado un papel central en la cultura occidental. Aun así, este proceso de separación de la naturaleza inquieta a una gran cantidad de gente. Pero quizá solo entendiendo lo que tenemos de máquina podamos volver a cultivar aquello humano. Publicamos, por cortesía de Caja Negra Editora, un avance del nuevo libro de Erik Davis, TecGnosis. Mito, magia y misticismo en la era de la información, que se publicará a principios de junio.

Si la historia humana es el relato de una criatura que muda de simio a ángel –o, como quería Nietzsche, de bestia a Superhombre–, entonces pareciera ser que en determinado momento debemos convertirnos en máquinas. Este destino está en la raíz de nuestra evolución histórica reciente. Pues, mientras los motores de la civilización nos alejaban más y más de la impredecible y a menudo maliciosa danza de la naturaleza, fuimos renunciando a esa imaginación animista que alguna vez nos mantuvo inmersos en una red viviente de fuerzas materiales e inteligencias rectoras. Comenzamos a soñar con trascender los viejos dioses, con controlar nuestras «almas animales», con construir un paraíso urbano en una Tierra dominada. Nos volvimos modernos. Si bien la tecnología no fue de ningún modo la única forma en que los humanos expresaron o inculcaron su experiencia de separarse de la naturaleza, ciertamente devino la forma occidental de hacerlo. Podría decirse incluso que el Occidente moderno hizo un pacto con las máquinas, esos ensamblajes sistemáticos de piezas funcionales y potencialidades que por definición carecen de todo espíritu vital, de un alma fundada en el orden metafísico de las cosas. Y así, en la actualidad, ahora que hemos tecnologizado nuestro entorno y aislado al yo dentro de una mentalidad científica, ya no buscamos en la naturaleza un eco de nuestro estado. Ahora reconocemos nuestros reflejos, incluso nuestros espíritus, en los movimientos y en los designios de las máquinas.

Esta relación imaginal entre el hombre y la máquina se veía venir desde hacía tiempo. El terreno fue allanado por los cosmólogos mecanicistas de la antigua Grecia y se apoderó de la imaginación cuando chatarreros como Herón empezaron a construir esos fantasiosos protorrobots que llamamos autómatas: dioses, muñecas y pájaros mecánicos que fascinaban a los pueblos antiguos y medievales tanto como fascinan hoy a los niños en Disneylandia. Los elaborados relojes que decoraban las iglesias medievales a menudo estaban equipados con figuras mecánicas que representaban a pecadores, santos, parcas y bestias, todos ellos imitando nuestra evolución en el tiempo. La noción de un cosmos mecanicista, que estos relojes contribuyeron a engendrar, finalmente nos dejó a las puertas de la filosofía de Descartes, quien estableció la revolucionaria idea de que los cuerpos no estaban animados por espíritus de ningún tipo. La diferencia entre un ser vivo y un cadáver no era otra cosa que la diferencia entre un reloj con cuerda y un autómata gastado. La Iglesia católica reconoció la amenaza a la religión que la nueva filosofía mecanicista de Descartes representaba, pero quedó satisfecha con la solución dualista del filósofo: simplemente separar la res cogitans –el reino de la mente– de la res extensa –el mundo espacial de los cuerpos y los objetos– e insistir en que nunca debían reunirse.

El poder enormemente productivo de la filosofía cartesiana garantizó que este mecanicismo frío hasta los huesos llegara a dominar la cosmovisión occidental, al punto de erigir un endeble muro para proteger al sujeto pensante que hoy se ha derrumbado. Los científicos cognitivos, los psicofarmacólogos y los genetistas se aventuran ahora en la jungla de la mente humana, mapeando cada paso que dan. Las más preciadas imágenes y experiencias del yo están siendo colonizadas por lenguajes científicos autoritativos que amenazan con reducir nuestras mentes y personalidades a mecanismos complejos, máquinas de Rube Goldberg compuestas de códigos genéticos, hábitos de mamífero y burbujeantes tinas de neuroquímicos. La psicología moderna apenas puede mantener con vida sus viejas historias; como opinaba la revista Time, incluso el complejo de Edipo, ese gran drama de la personalidad humana, ha sido reducido a una cuestión de moléculas.

A medida que vamos conociendo más sobre las tuercas y tornillos de la vida humana, inevitablemente empezamos a sospechar que nuestras acciones, pensamientos y experiencias, en apariencia tan espontáneos y libres, están programados en nuestros cuerpos-mentes con la implacabilidad de un mecanismo de relojería. Mientras hablaba ante la comisión parlamentaria financiadora del Proyecto Genoma Humano –programa que secuenció el código genético humano en su totalidad–, el premio nobel James Watson dijo: «Solíamos pensar que nuestro destino estaba en las estrellas. Ahora sabemos que nuestro destino está, en gran medida, en nuestros genes».[1] Como si tal determinismo genético no fuera suficiente, los sociólogos y psicólogos también han acumulado abundante evidencia que da cuenta de los patrones profundamente automáticos de gran parte de nuestra vida social y cultural, que no derivan solo de nuestros instintos animales, sino también de las instituciones, los dramas familiares y los condicionamientos culturales. Puede que el sentido común no sea tan común después de todo; nuestra comprensión de aquello que constituye la realidad normal tal vez simplemente represente el poder de lo que el psicólogo Charles Tart llama el «trance del consenso».

Con el relativo declive de los regímenes políticos abiertamente autoritarios, ahora nos creemos más «libres», pero el poder del trance del consenso puede que de hecho esté aumentando en nuestra época altamente interconectada e hipermediada. Como demostró la ambivalente gestión científica de la fábrica taylorista, el capitalismo tiene un largo y exuberante historial de abrazarse a cualesquiera tecnologías y marcos institucionales que le permitan insertar a los seres humanos en ingentes y eficientes megamáquinas de producción y consumo. Se supone que la economía «postindustrial» sin fronteras ha dejado atrás esos mecanismos de control desalmados, pero en realidad la megamáquina simplemente se ha fragmentado y ha mutado. Mientras deja sus primitivas líneas de montaje en manos de países en desarrollo o talleres clandestinos, ella «espiritualiza» sus rutinas en las redes cibernéticas inmateriales de la mano de obra informacional o en los sofisticados juegos de marketing acordes a una sociedad basada en el consumo compulsivo. El pequeño vagabundo de Charlie Chaplin, atrapado en los engranajes de Tiempos modernos, se ha vuelto virtual, convirtiéndose a la vez en el trabajador en red que compra desde casa y en el gruñón de la fábrica clandestina de electrónica cuyos tipeos en el teclado y pausas para ir al baño están cronometrados hasta el último nanosegundo.

Como Marshall McLuhan señaló a principios de los años setenta, «todos somos robots cuando nos involucramos acríticamente con nuestras tecnologías».[2] Hoy existen muchas más tecnologías con las cuales involucrarnos, muchos más bucles cibernéticos que nos exigen conectarnos y encendernos. Con el constante dominio ideológico de la ciencia reduccionista y el dominio sociocultural de sus engendros tecnológicos, la otrora gloriosa isla del humanismo se está desintegrando en un mar de silicio. Nos hallamos atrapados en un banco de arena de cyborgs, entre las viejas y humeantes historias de hogueras y las nuevas redes de programación y control. Mientras perdemos nuestra fe en el libre albedrío o en la coherencia de la personalidad, lo que entrevemos en el espejo del baño es un androide, con sus ojos negros de nihilismo: ese vacío sin sentido que Nietzsche describió hace más de un siglo como el talón de Aquiles de la civilización moderna.

No hace falta decir que la pérdida del alma motora inquieta a una gran cantidad de gente. La mayor parte de la actividad espiritual, new age y religiosa de nuestros días está comprometida en uno u otro nivel con la destrucción o bien con la sustitución del imaginario reduccionista y mecanicista. Los cristianos fundamentalistas y los animistas nativos de Norteamérica atacan por igual la teoría darwiniana de la selección natural, en tanto que los acupunturistas y los sanadores holísticos recuperan la fuerza mágica del vitalismo. Los psicólogos del arquetipo intentan restablecer las imágenes atemporales del alma, mientras que los místicos ecologistas exigen un «reencantamiento del planeta» y un rechazo del mundo de los centros comerciales y las zonas multimedia virtuales. Hasta los humanistas liberales escarban en busca de valores, de«políticas del sentido» que puedan resistir el constante avasallamiento del pensamiento tecnológico.

Pero ¿podemos volver atrás el reloj, especialmente hacia los tiempos en los que aún no había relojes? Tal vez la imagen del hombre como una máquina sea más promisoria de lo que sus detractores admiten, sobre todo si se impide que esta domine por completo nuestra visión. En efecto, para un cierto linaje de buscadores contemporáneos, la vieja meta del despertar no se alcanza mediante un repliegue en el romanticismo, en la ortodoxia religiosa o en encantamientos mágicos. En lugar de negar los aspectos mecánicos o automáticos del ser humano, estos dirigen la búsqueda psicoespiritual a través de la imagen de la máquina, usando el mecanismo, por así decir, para activar su propia alarma despertador. Parafraseando al místico sufí Inayat Khan: una de las facetas de nuestro ser es como una máquina y la otra es como un ingeniero. En este sentido, el primer paso hacia el despertar es reconocer cuán aletargados y automatizados estamos; tales desapasionadas y reductivas observaciones nos ayudan a disipar las ilusiones y a revelar posibilidades genuinas, y nos permiten así, paradójicamente, cultivar algunos de los aspectos más profundamente humanos de la existencia. Por lo tanto, la máquina empieza a funcionar como un espejo interactivo, como un Otro ambiguo en el cual nos reconocemos y sobre el fondo del cual nos medimos a nosotros mismos. Este es el camino del cyborg espiritual, uno cuyos circuitos zumbantes y cuyas distintas configuraciones de comandos reflejan tanto los peligros como la promesa de la tecgnosis.


[1] «The Frontiers of Medicine», Time, vol. 148, nº 14 (otoño de 1996), p. 29.

[2] Marshall McLuhan y Quentin Fiore, La guerra y la paz en la aldea global, Buenos Aires, La Marca, 2017.





Inteligencias artificiales, imágenes irracionales

El impacto de las inteligencias artificiales nos invita a reflexionar sobre las propias creaciones visuales de los humanos.


Clase de pintura en la escuela. Pennsylvania, 1937 | Library of Congress | Dominip público

La IA ha irrumpido con fuerza en el terreno de la creatividad. Más allá del debate sobre su capacidad artística, este nuevo escenario pone de relieve un posible colapso de la imaginación humana: la homogeneidad con que replica la máquina no deja de ser un reflejo de nuestros modos de producir imágenes.

La controversia global en torno al potencial de las inteligencias artificiales para suplir la creatividad humana estalló el año pasado. Es significativo que el revuelo tuviese que ver con las imágenes. Las IA ya se habían abierto paso en la economía, en lo jurídico, en la traducción, en el periodismo, en la medicina, en el transporte y en otras esferas esenciales de nuestra actividad, lo que había dado lugar a debates en ámbitos especializados. La aparición de imágenes sintéticas de calidad provocó en cambio un seísmo cultural que suscita dos consideraciones.

La primera atañe al pánico reaccionario ancestral que despiertan las imágenes que escapan al control crítico y social, en tanto manifestaciones de una Otredad, de lo extraño, que los individuos y los colectivos han de reprimir para perpetuar sus consensos sobre la realidad. En ¿Qué quieren las imágenes?,  W. J. T. Mitchell, considera que frente al ánimo iconoclasta que tanto ayer como hoy está dispuesto a validar las imágenes sólo si funcionan como meros reflejos, estas presentan la facultad desconcertante de funcionar una y otra vez como rostros que devuelven la mirada al espectador. Tienen voluntad, agencia y deseo, presentan una capacidad sorprendente para generar dinámicas autónomas con inteligencia e intencionalidad.

Las reflexiones de Mitchell permiten inferir de inmediato que las imágenes generadas por redes neuronales como DALL·E 2, Midjourney o Stable Diffusion, a partir de las indicaciones más o menos detalladas proporcionadas por un operador humano, tienen un potencial considerable para subvertir los órdenes establecidos de la representación. De hecho, uno de los aspectos, a nuestro parecer, más sugerentes de las imágenes sintéticas es que la imperfección que todavía delatan y la inescrutable lectura algorítmica de imágenes ya existentes que realizan están originando una estética inquietante, weird, crítica a su manera, que se echa en falta en el panorama plástico, gráfico y audiovisual contemporáneo.

De aquí se deduce una segunda consideración, vinculada a la homogeneidad creciente de las imágenes generadas por seres humanos; imágenes que ya no tienen el propósito de expresar con plena libertad nada sobre nosotros mismos y nuestra relación con cuanto nos rodea, sobre nuestros imaginarios y deseos, sino que ansían la comunicación con los demás a modo de lengua franca postfotográfica, con lo que ello acarrea en términos de autocensura. Es el motivo de que la facilidad para producir y manipular imágenes no haya traído consigo la diversidad esperable en el ecosistema visual, sino una reiteración asfixiante y referencial de motivos y estilos que hace pensar en un colapso de la imaginación.

Ya hemos planteado en otros formatos cómo Instagram, TikTok y otras aplicaciones han puesto sobradamente de manifiesto ese colapso, pero al mismo no son ni mucho menos ajenas expresiones artísticas como el cine y el cómic, tanto da si a nivel mainstream o de autor. Basta frecuentar festivales y salones para apreciar hasta qué punto la voracidad en la producción y el consumo de imágenes y el severo panóptico en que se desarrolla ha desembocado en el infierno de lo igual.

Una imagen generada por inteligencia artificial a partir del mensaje «Una foto de un robot dibujando a mano, arte digital» | Wikimedia commons | Dominio público

La consecuencia, como ha escrito María Santana, es que «cuanto más se desprecian lo imaginario y el deseo, más se fantasmagorizan las cosas y los cuerpos (…) Nuestro reto pasa por adentrarnos en la alteridad, por dejarnos interrogar e incomodar por el Otro». Algo que a fecha de hoy están en disposición de posibilitar con más garantía de éxito las inteligencias artificiales que los seres humanos. Es probable que la alarma desatada entre los artistas visuales tenga que ver en el fondo con la conciencia súbita de que su trabajo es sencillo de emular por las IA porque en sí mismo ya era un ejercicio de adaptación al complejo industrial-cultural.

Los usuarios de Internet parecen muy conscientes de esa ceguera de los artistas ante los aspectos más sombríos de la realidad, los que ellos padecen en un mundo de rasgos cada vez más inestables y pesadillescos. La demanda de imágenes sintéticas de terror por parte de los internautas es abrumadora y ya ha derivado en los inevitables creepypastas, amén de nutrir las alucinadas ilustraciones de Jaesen Moreaux o los experimentos weird con el cómic del británico Dave McKean y de la portuguesa Ana Matilde Sousa.

Estos y otros muchos creadores se están dando la oportunidad de dialogar con las inteligencias artificiales –lo que, por cierto, deben hacer con frecuencia a espaldas de sus pares para evitar linchamientos–, conscientes de que, más allá de las disputas lógicas en torno a derechos de autor y de explotación del trabajo ajeno, se hallan ante un paradigma revolucionario que vale la pena explorar. Por una parte, las IA constituyen herramientas formidables para expandir la conciencia del artista y la de su época, más aún, para deconstruirlas a través de lo irracional algorítmico; en palabras de Jorge Carrión a propósito del acto de escribir, «si los surrealistas coincidieron con el espiritismo en que el escritor asume el rol de médium e invoca sus fantasmas, miedos, recuerdos y deseos inconscientes (…) nos encontramos en una transición parecida: la escritura producida por aprendizaje automático y otras formas de inteligencia artificial está imprimiendo una vibración particular a nuestros tiempos».

Y, por otro lado, las IA han ofrecido una ocasión única a los artistas (auto)exigentes para preguntarse por el sentido de sus obras en una economía audiovisual caracterizada por la retroalimentación y la fugacidad; por el antagonismo entre originalidad, homenaje y plagio que, paradójicamente, se había relativizado en los últimos años; y por el impacto último de su abandono a herramientas infográficas que han afectado a la idiosincrasia de sus trazos.

Creemos que los artistas plásticos y visuales están abocados, como afirma Brian Jackson, a una crisis existencial, dado que su labor ya no tiene lugar en una sociedad incapaz de contemplar las cosas o de recrearlas con sofisticación, sino en una donde se dan todas las circunstancias favorables para que esa mirada sofisticada eclosione. Jackson concluye –y compartimos su diagnóstico– que una posible solución radica en una hibridación entre la conciencia del ser humano y la inconsciencia de la máquina que proyecte la crisis creadora del primero hacia horizontes inéditos para las imágenes.

Nos olvidamos, al fin y al cabo, de que un artista digno de tal nombre camina siempre sumido en la duda, el interrogante, la experimentación; se halla embarcado –y aquí volvemos a María Santana– en «el descubrimiento y la aventura de la creación». Si no es así, sus obras serán poco más que lugares comunes, reflujos del espíritu de su época. Precisamente los defectos que se achacan a las inteligencias artificiales.





Vivir la vida como «contenido»

Sobre la subversión de la identidad en las redes, algoritmos que hacen de madres, las microetiquetas de TikTok y el individualismo online.


Escaparate de la tienda Broadloon Mill, 1962 | Tyne & Wear Archives & Museums | Sin restricciones de uso conocidas

Las redes no son simples espacios de comunicación, también forman parte de nuestra personalidad. En este sentido, crece el número de etiquetas que definen nuestra identidad digital y proliferan gran cantidad de estéticas vinculadas con nuestros estilos de vida. A pesar del deseo de diferenciarnos, estos hábitos y modas son comercializados por un capitalismo digital que nos homogeneiza.

¿Te acuerdas de la primera vez que usaste Internet? Me refiero a más allá de utilizarlo en el colegio en clase de informática, cuando los títulos de colores del Word 2007 eran la herramienta preferida para cualquier trabajo. Pienso en las tipografías de Messenger, en las escenas de Patito feo que miraba en YouTube a escondidas porque tenía prohibido ver la serie, o en los videoclips de Lady Gaga, que de pequeña me parecían películas del más alto nivel.

Da vértigo pensar en lo rápido que ha cambiado todo en poco más de una década: Word 2007 se actualizó y los títulos de colores acabaron despareciendo. Messenger pasó de moda; para mirar Patito feo, ahora seguramente lo haría desde alguna plataforma de streaming y desde la intimidad de mi móvil, no desde el PC de casa; y los primeros videoclips de Lady Gaga ya se consideran historia de la cultura popular, con ese tipo de consagración que solo otorga el paso del tiempo.

La experiencia digital actual es ahora otra. Internet, y las redes, ya no son una herramienta social más o un espacio donde pasar el rato, sino que forman parte de nuestra identidad, lo que consumimos queda adscrito de alguna manera a nuestra piel. Así lo explican los investigadores Stokes y Price en su estudio «Social Media, Visual Culture and Contemporary Identity»: «La proliferación de herramientas digitales convergentes y de bajo coste ha permitido a los milenials [y a la generación Z] documentar sus vidas de una manera sin precedentes. La habilidad de comunicarse constantemente en formas visuales ha creado una generación de nuevos bricoleurs de contenido que se basan en estas herramientas creativas para construir la identidad de múltiples maneras cambiantes».

Estos espacios digitales donde expresar nuestra identidad se han ido transformando constantemente. La imagen ganó al texto, y después el vídeo ganó a la imagen: Facebook, hasta que Facebook dejó de ser guay; Snapchat, hasta que Instagram incluyó las historias y filtros que superaban al del perro y la corona de flores; Twitter, que resiste las pataletas de Musk; y TikTok, la red que ahora se corona como la aplicación del momento, y que, con total certeza, condensa a la vez lo mejor y lo peor de Internet.

TikTok, TikTok… El algoritmo que me conoce mejor que mi madre. Sabe todo lo que me gusta, lo que todavía no me gusta pero que me gustará, y lo que me da vergüenza que me guste. Me mima, me dice lo que quiero oír, pero también me explica qué es lo que tengo que odiar de mi cuerpo, de mi cara, de mi personalidad, de lo que como, o de lo que no como, y después me vuelve a abrazar, y si no, lo entreno deslizando deprisa los vídeos que no acierta, para ponérselo más fácil.

Con prácticamente tres años de vida, la aplicación se ha convertido en el escenario social digital de referencia. Es el origen de los memes más virales, de las canciones de moda, de las nuevas tendencias y de qué productos se agotarán en el Mercadona (como fue el caso del «cruapán», una mezcla de pan de molde y croissant que se hizo viral en TikTok y se agotó en todas partes).

Hasta ahora, ninguna otra red social había ofrecido al usuario una experiencia tan personalizada y afinada a su realidad creando espacios como micronichos en los que la identidad digital, y la estética visual de esta, se ve más reforzada que nunca.

En su ensayo «On Feeling Pretty When You Cry: “Cottagecore,” “That Girl,” & Self-Aestheticization», la escritora Madison Huizinga señala que «el ascenso de TikTok ha supuesto un incremento de las estéticas nicho de Internet», como Clean-Girl-Look, Balletcore, Y2K, etc. Ahora bien, no es la primera vez que que este tipo de etiquetas se emplean para autodefinirse, eso «ha sido una moda en Internet desde principios de la década de 2010 con los blogs de Tumblr, pero estas nuevas formas de apariencia estilística se están volviendo cada vez más precisas y se entrelazan con nuestro estilo de vida».

Este fenómeno tiene lugar sobre todo en «el Internet de chicas», como bautizó la analista digital Rebecca Jennings a esa parte de Internet donde «pasan las cosas importantes. Donde nace la cultura, donde se consolidan las normas sociales, donde las estéticas nacen y donde se definen los nuevos argots». Pero deja claro que se trata de un concepto flexible y que «no es exclusivo para chicas», sino que es simplemente una etiqueta que enmarca esa parte de la comunidad digital que seguramente también utiliza Pinterest y Goodreads, la que comenta los modelitos de las alfombras rojas o la que concede una importancia cultural adecuada y considera de lectura obligatoria el famoso hilo de Twitter que recorre la relación de Miley Cyrus con Liam Hemsworth.

El uso de estas microetiquetas para autodefinirse, como comenta Huizinga, es cada vez más concreto, como, por ejemplo, una de las últimas: la estética de la «Vanilla Girl», que implica vestir con tonos beis, tener como inspiración a Matilda Djerf o a Hailey Bieber y practicar el journaling. La difusión total de estas estéticas ha provocado que la mayoría de las veces no haya que saber el nombre concreto de dicha estética, sino tan solo la idea, porque el concepto forma parte de nuestro imaginario y ha trascendido la esfera de Internet.

Aun así, gran parte de los usuarios ve estas etiquetas con cierta reticencia y no lo consideran un simple juego identitario que usan únicamente las adolescentes cuando buscan reiventarse y probar estilos diferentes: «La categorización incesante y loca de cada pequeño sentimiento que puede tener una persona como un modelo de personalidad responde plenamente a la contentificación –o content-ifying– de nuestras vidas y al branding que los individuos se construyen. Todo se reduce al consumo», expresó en un tuit la escritora y periodista cultural Jess White.

Es así como el incremento de todas estas estéticas implica de manera directa un beneficio para el capitalismo digital, que comercializa y explota nuestros hábitos online e intenta vendernos o crear la necesidad de tener un determinado producto, como ha hecho siempre, pero ahora de manera más masiva y perversa.

Sin embargo, la urgencia por autodefinirse no acaba con el sobreúso de estas microetiquetas, sino que se prolonga en el concepto de «época» que desde hace meses se ha extendido ampliamente en el discurso dentro y fuera de las redes. «Estoy mi época Fleabag», diría una chica que se siente sola, que vive una vida despreocupada y que mantiene una relación tóxica con los hombres. En cambio, otra chica podría decir que está en su época Villain si siente que siempre ha tenido que complacer a los demás y se ha cansado de hacerlo, o en una época Main Character si lo que quiere es manifestar que le pasan cosas interesantes en su vida. Las posibilidades son infinitas y van desde lo más concreto hasta lo más generalista, y cuanto más ingeniosas o inesperadas sean, mejor recepción tendrán en las redes.

«¿Por qué cargar con la vergüenza de sentirse como un fracaso cuando puedes decir, “ey, que solo era una época Flop”», explica el crítico de Internet Rusty Foster en el artículo «Down and out and extremely online? No problem: Just enter a new “era», publicado per Jessica M. Goldstein en el Washington Post. Foster detalla también que todas las personas que han crecido online «entienden de manera innata que su autorrepresentación es también una forma de creación narrativa», y conceptos como esto lo demuestran.

Al final, utilizar la expresión «época» es otra forma de categorizar nuestra identidad, tal como se hace con las estéticas o en la mayoría de contenido online, para que todo sea más consumible y atractivo: «Lejos de crear conexiones, las redes han cambiado nuestro modelo social y se dirigen a la creación de audiencia, donde adoptamos, cada vez más, versiones comerciales de nuestras identidades. Abandonamos nuestras ricas complejidades por una singularidad plana que se basa solo en un patrón de consumo», dice el perfil @melhuman en Twitter.

En el contexto digital actual, la búsqueda tan demandada de autenticidad u originalidad es más un espejismo que una realidad. La creación constante de contenido es tan punzante y llega a nuestro móvil de manera tan cuidadosa que cuesta no ahogarse cuando te das cuenta de que ninguna experiencia vivida o pensamiento forjado es único. ¿Quién no ha pensado alguna vez que su TikTok le espía después de que nos enseñe un vídeo extremadamente fiel a alguna particularidad propia? El algoritmo supo primero que una amiga lo había dejado con su novio antes de que tuviera tiempo de explicárselo a sus círculos.

Es difícil pretender ser diferentes dentro de un ecosistema de contenido homogeneizador que lo vuelve imposible y que te demuestra que no lo eres tanto como pensabas. La ensayista Rayne Fisher-Quann escribe sobre esta situación: «Todo el mundo está luchando por la atención en una sala llena de gente, luchando por diferenciarse dentro de un algoritmo que existe para convertir tu personalidad en una mercancía, subvirtiéndose una y otra vez y volviendo a subvertirse y a desubvertirse hasta que volvemos al mainstream».

Esta corriente individualista en las redes es el resultado directo de presentarse como un producto o «mercancía», como afirma Fisher-Quann, usando las mismas herramientas que utilizaría una empresa para comercializar y vender su género. La paradoja, entonces, es evidente: todo el mundo parece estar más obsesionado que nunca con ser real, con la individualidad y la diferenciación, mientras que «al mismo tiempo participan de uno de los mecanismos de reproducción del estilo de vida más intoxicantes de la historia de la humanidad», concluye la ensayista.

Sea a través de la masificación de las microetiquetas, de la expresión «época» o de hacer de nuestra vida un contenido consumible y permanente, es imposible entender la representación de nuestra identidad online sin entender la influencia del capitalismo digital en ella. La voluntad de diferenciarse, el fetiche por la originalidad y las autodefiniciones que inventamos no son más que herramientas que, inevitablemente, siguen un patrón de consumo que nos atrapa mientras damos las gracias, de manera genuina, por haber nacido en la era digital.





«No thoughts, head empty» ¿Es la desconexión digital una utopía?

Inmersos en la vorágine digital, examinamos algunas ideas sobre el silencio y la fuga para refugiarnos del ruido de Internet.


Paisaje de montaña | Digitalt Museum | Dominio público

La Red nos ha saturado. El agotamiento y la fatiga son patentes. Aun así, continuamos enganchados a la pantalla cada vez más tiempo. ¿Es posible escapar del ruido atronador de las redes sociales? ¿Podemos encontrar otras formas de pensar y relacionarnos con Internet que dejen espacio para el pensamiento?

«Estoy menos interesada en un éxodo masivo de Facebook y Twitter que en un movimiento masivo de atención: en lo que ocurre cuando las personas recuperan el control sobre la atención y empiezan a dirigirla de nuevo, juntas.»

Jenny Odell

Abro Twitter e Instagram en las pausas del trabajo, o quizás al abrirlos me autoimpongo un descanso del enésimo correo que enviaré hoy. En el tren, leo el artículo más compartido en redes sobre la última polémica del día para entender todo el entramado de comentarios y bandos que se han atrincherado en Twitter. Lo hago porque me divierte saber quién dice qué, ver quién hace el comentario ácido e irónico que se lleva mi like o, en el caso de una situación que me resulte flagrantemente injusta, hago retuit.

Desde la llegada de las redes sociales monopolísticas, hemos asistido a una progresiva aceleración de los tiempos. De los tiempos de espera, de conexión, de consumo. Ahora leo en diagonal en busca de las ideas fundamentales o, su equivalente, escucho podcasts y vídeos a velocidad 1,5. Las imágenes me pasan por delante en cuestión de décimas de segundo y me exaspera la mala conexión de Internet en algunos puntos del trayecto en tren. A toda esta vorágine digital se suma la importancia de ser. Tener un perfil, ser visible. Parte de nuestra presencia online radica en la creación de red, el networking que podemos hacer tanto en la presentación de un libro como compartiendo a golpe de story o tuit el fragmento de ese artículo que nos ha removido. Como afirmaba el sociólogo Manuel Romero, Twitter se ha convertido en nuestro LinkedIn donde compartir artículos, méritos profesionales y conferencias o talleres. Las redes se han vuelto escaparates para las personas que investigan, escriben y crean podcasts, así como para los tatuadores, artistas y diseñadores. En la medida en que hemos dirigido nuestras vidas hacia la productividad constante, la disponibilidad 24/7, hemos convertido el cuerpo en un bien que podemos explotar para obtener un rendimiento, ya sea social o económico. De una manera u otra contribuimos a la saturación de las redes, alimentamos la bulimia de las imágenes con nuestros likes, selfis y memes. El problema no es Internet en sí, sino el hecho de que la gestión de los espacios digitales más transitados se encuentre en manos de entidades privadas. Su objetivo principal es captar nuestros datos y nuestra atención para obtener una ganancia económica. Y es que los algoritmos de estas plataformas, que nos son velados, diseñan la forma en que nos relacionamos. Socializamos dentro de una estructura muy determinada que premia lo que nos mantiene enganchados haciendo scroll, consumiendo tiempo de pantalla; ya sea con un videoensayo de crítica al sistema capitalista y la sociedad de consumo ya sea siguiendo la última polémica de Twitter.

Ante la extensión de nuestro yo a través de la pantalla es fácil caer en el agotamiento y la fatiga; desear desaparecer o abandonar el castillo de vampiros, como decía Mark Fisher. En una época en la que el capitalismo es capaz de apropiarse de todos los discursos que le son críticos y donde incluso la creatividad ha quedado supeditada a los principios productivistas, encuentro interesante repescar algunas ideas sobre el silencio y la nada.

La filósofa María Zambrano habla de la necesidad del silencio para que germinase El hombre y lo divino (1955). Para ella, el arte, la creación y el pensamiento surgen de la nada, del silencio del alma. Necesitamos instancias de recogimiento para reflexionar sobre lo que nos rodea, y no, no se trata de unos cuantos minutos leyendo diferentes opiniones en Twitter para decidir desde dónde enunciar nuestra mirada, sino de espacios vacíos, cavidades insonorizadas y atemporales. Zambrano escribe que la nada «es la suprema resistencia». Desprendiéndola de su contexto, esta idea nos sitúa en la investigación de formas de resistir la economía de la atención, de no caer en el juego extenuante de la autoexplotación, como plantea Juan Evaristo Valls Boix en Metafísica de la pereza (2022) a través de diferentes instancias no productivas como la fiesta, el dormir, la decreación o la huelga.

De hecho, la nada y el silencio de los que habla Zambrano tienen un componente místico que me evoca la catchphrase «No thoughts, head empty» (‘Sin pensamientos, cabeza vacía’), a menudo acompañada de una captura de pantalla de algún personaje con un leve sonrisa y la mirada perdida en el infinito. Esta frase o lema de Internet se usa para decir que alguien es un ignorante o que se ha quedado sin palabras. Entre los personajes que mejor encarnan esta frase me gusta el Pokémon Fuecoco, del videojuego Pokémon Escarlata/Violeta (2022). Me inclino a pensar que este cocodrilo rojo con cara de bobalicón no es en realidad un pobre tontaina, sino que simboliza a alguien que ha conseguido hacer del ruido atronador de las redes sociales un silencio; que ha sido capaz de abrir un espacio de revelación casi místico y que ha podido silenciar la mente por medio de la Razón Poética de Zambrano. Y es que la exposición ininterrumpida a las imágenes también puede convertirse en un tipo de silencio, un rumor de fondo, como evidenciaba Carson McCullers en Frankie y la boda (1946) con la radio: «La radio había estado encendida todo el verano, y terminó por ser un ruido en el que, por regla general, no reparaban». De manera similar, tanta saturación de imágenes podría convertirse en ruido blanco e inmunizarnos del exceso. Aquí es donde entra en juego esta interpretación del «No thoughts, head empty», la actitud a la que me encomiendo mientras miro TikTok antes de acostarme y me dejo mecer por el scroll anestesiante e infinito de gatitos, libros y gameplays en plena caída libre por la madriguera, como Alicia. No tengo del todo claro que podamos convertir la amalgama de contenidos digitales en un murmullo mortecino, pero sí que tenemos que seguir buscando otras formas de pensar y relacionarnos con Internet para dejar espacio al pensamiento.

Como siempre, el capitalismo de plataformas ya se ha apoderado de los discursos de la desconexión a través de libros de autoayuda, programas de coaching y vacaciones de depuración digital. YouTube está lleno de conferencias y vídeos motivacionales que nos explican cómo reducir el tiempo de pantalla (mientras seguimos regalando minutos en visualizaciones) o cómo el último retiro de Internet les ha devuelto la paz interior (pero siempre vuelven para explicártelo, nunca lo dejan del todo). La capitalización de la desconexión y el minimalismo nos señalan que el derecho a la desconexión no está reconocido para todo el mundo y queda patente que para mucha gente es más bien un privilegio. En verdad nos venden la desconexión como una pausa necesaria para recargar las pilas antes de volver al sistema; simples herramientas al servicio de la productividad que nunca supondrán una solución al problema de base, que es el de la economía de la atención. Y es que si todos los empresarios y trabajadores de las grandes tecnológicas de Silicon Valley educan a sus hijos alejados de las pantallas, algo malo deben de encontrar en todo lo que crean.

Aunque el capitalismo se ha apoderado de la necesidad y tendencia de bajar el ritmo y desconectar, eso no significa que sea un movimiento del sistema neoliberal, sino que podemos encontrar sus raíces en el socialismo utópico y el anarquismo del siglo XIX, donde irse a una comuna ya era una respuesta al sistema económico y social que se estaba imponiendo. El discurso de la desconexión olvida u oculta el hecho de que Internet ha sido un espacio clave para la difusión de discursos subalternos, la organización de colectivos y la creación de comunidades de apoyo mutuo para todas aquellas personas que en su entorno próximo encuentran una realidad hostil. No podemos renegar de una herramienta que nos proporciona una forma de conectar con tantas realidades e historias. La desconexión no tiene que ser una utopía. Desconectar de forma definitiva no es una opción deseable ni universalizable. Renegar del mundo y retirarse solo es una decisión individual o de un grupo reducido de personas. No asume ninguna responsabilidad hacia el entorno ni la sociedad que se deja atrás. Como propone la artista Jenny Odell en Cómo no hacer nada (2021), más que abandonar el mundo y resguardarnos en un refugio aislado tenemos que aprender a escuchar el entorno y redirigir nuestra atención. Sustituir el FOMO (Fear Of Missing Out) por el NOMO (Necessity Of Missing Out) y tratar de abrir nuevos espacios no verticales donde seguir construyendo comunidades digitales. Un buen ejemplo de estas comunidades lo encontramos en los fandoms que desde hace años se organizan y comparten mundo en Internet; desde los fanfics en Wattpad o Archive of our Own hasta Tumblr. Odell nos anima a entrar en la guarida del conejo por pura curiosidad y no solo para encontrar montañas de contenido anestesiante y aséptico.

Todavía recuerdo el pasado 18 de noviembre de 2022, el día en que parecía que Twitter dejaría de funcionar en cualquier momento y asistiríamos al entierro de una de las empresas más potentes del capitalismo de plataformas. Ese día leíamos Twitter en «modo hardcore», pendientes de su volatilización, mientras Elon Musk despedía al 50 por ciento de la plantilla al más puro estilo Kendall Roy en la serie Succession. En medio de los memes y del ritmo trepidante de las que debían ser las últimas horas de Twitter, se unieron los tuits sobre las migraciones masivas de usuarios a Mastodon, un software gratuito y de código abierto. Los mensajes de despedida dejaban una chispa de esperanza; el inicio de una nueva forma de habitar Internet y de continuar conectadas sin la mediación de la economía de la atención. ¿Nos encaminamos realmente hacia una descentralización de las redes sociales? La periodista Alba Correa comentaba que el futuro de estas es vislumbrar un Internet más atomizado, segregado por grupos de interés y obsesiones. Quizá perderemos los muros comunes de batallas culturales e ideológicas, pero si hay posibilidades de incorporar la conexión digital de una forma más orgánica y, sobre todo, menos ansiosa y sostenible con el planeta, deberíamos empezar a investigar los nuevos espacios que se estén construyendo. Mientras tanto, podemos seguir con el mantra «No thoughts, head empty» como antídoto contra el exceso de atención que nos reclaman las plataformas predominantes.





Inteligencia artificial, entre el deseo y el miedo

¿Cómo modificarán nuestra forma de pensar y percibir el mundo las nuevas herramientas basadas en inteligencia artificial?


El operador de comunicaciones inalámbricas W.H. Hannam. Cape Denison, 1911-1914 | Frank Hurley, National Library of Australia | Dominio público

La reciente aparición de generadores de texto o imagen basados en inteligencia artificial abre de nuevo el debate sobre la incorporación de nuevas tecnologías en la sociedad. ¿Cómo será su adopción en contextos laborales o educativos? ¿Qué conflictos o tensiones puede generar? Sea como fuere, para afrontar estas cuestiones es necesario un debate colectivo donde no solo tengan voz las corporaciones propietarias de estas tecnologías.

Traduttore, traditore

En Dire quasi la stessa cosa (Decir casi lo mismo, Debolsillo, Barcelona, 2009), un libro recopilatorio de Umberto Eco publicado por primera vez en el año 2000, el semiólogo italiano explica su experiencia con uno de los primeros sistemas de traducción automática. Si bien hoy «pasar un texto» por Google Translate es un proceso cotidiano en ambientes laborales o educativos, a finales de los años 90 esos sistemas estaban dando sus primeros pasos y llamaban la atención de los intelectuales formados en la tradición del libro impreso. No sorprende que la curiosidad de Eco lo llevara a trastear un rato con Babel Fish, un servicio pionero de traducción automática integrado en los buscadores AltaVista y Yahoo: por esos años circulaba en Bolonia una imagen del gran semiólogo con un par de gafas de realidad virtual. Creado en 1997, Babel Fish se anticipó en casi una década a la llegada de Google Translate, un servicio abierto al público a partir de 2006. Pero sigamos los pasos de Eco:

Le he dado al sistema de traducción automática que ofrece AltaVista en Internet (denominado Babel Fish) una serie de expresiones inglesas, le he pedido la traducción a varias lenguas, y luego le he pedido que volviera a traducir la traducción al inglés (…) He aquí los resultados:

         (1) The Works of Shakespeare → Gli impianti di Shakespeare → The systems of Shakespeare

Eco analiza la traducción:

Babel Fish seguramente tenía en «la mente» (si Babel Fish tiene una mente) definiciones de diccionario, porque es verdad que en inglés la palabra work puede traducirse al italiano con impianti (instalaciones) y el italiano impianti puede traducirse al inglés como plants o systems.

¿Cuál es el problema de Babel Fish? Según Eco:

Babel Fish no tiene un diccionario que contenga lo que en semántica denominamos «selecciones contextuales». Puede ser, también, que haya recibido la instrucción de que works en literatura significa una serie de textos mientras que en un contexto tecnológico significa planta, pero no es capaz de decidir si una frase en la que se menciona a Shakespeare remite a un contexto literario o tecnológico. En otros términos, le falta un diccionario onomástico que establezca que Shakespeare era un célebre poeta. Quizá la dificultad se debe al hecho de que ha sido «alimentado» con un diccionario (como los de los turistas) pero no con una enciclopedia.

El pasaje del diccionario a la enciclopedia es fundamental en la teoría interpretativa de Umberto Eco: no es suficiente conocer el significado de cada signo para comprender el sentido de una expresión. Las «selecciones contextuales» nos sitúan en una red semántica abierta, en permanente transformación, formada por una trama densa de reenvíos. Si el diccionario es unidireccional (A > B), la enciclopedia, por el contrario, funciona como una red rizomática, una especie de selva tropical que para ser explorada exige un enorme esfuerzo cognitivo que las primeras máquinas de traducir no estaban en grado de simular. En otras palabras: los primeros sistemas automáticos pensaban en «modo diccionario» y traducían palabra por palabra.

Después de un cuarto de siglo, millones de interacciones con los humanos y procesos de optimización computacional –a partir de 2016 Google Translate incorporó el Google Neural Machine Translation System (GNMT), un programa inspirado en las conexiones cerebrales–  los traductores automáticos aprendieron a trabajar en «modo enciclopedia» y, si bien todavía están lejos de la precisión que todos desearíamos, son capaces de comprender cada vez más las sutilezas contextuales de los intercambios lingüísticos. Ahora mismo, Google Translate entiende que works se refiere a las obras de Shakespeare y no a los impianti (instalaciones):

¿Para qué traer a colación esos primeros sistemas de traducción automática? ¿Por qué apelar a discusiones semióticas de hace veinticinco años, cuando el tema de estos meses es la inteligencia artificial y su capacidad de generar textos e imágenes? Porque es probable que, en muy poco tiempo, y como ya pasó con los traductores automáticos, las aplicaciones de creación textual se encuentren instaladas en nuestros dispositivos e integradas en el software que utilizamos a diario. El acercamiento de Microsoft a OpenAi (más que un «acercamiento», un envite de 10.000 millones de dólares), la empresa que hay detrás del popularísimo generador de imágenes DALL·E y del chatbot conversacional ChatGPT, no es casual. Más allá de los debates teóricos, las atribuladas conversaciones en los pasillos de las instituciones educativas y el cacareo de las redes sociales, los sistemas de generación textual serán un icono más en la barra superior de MS Word o de Google Docs. Lo mismo podría suceder con los programas de creación de imágenes: no sería descartable que acaben integrándose en el software ya existente. Sistemas de generación de imágenes como DALL·E o Midjourney, o algún pariente cercano, no deberían tardar mucho en aparecer en el menú de Photoshop.

Un fantasma en la máquina educativa

La incorporación de este nuevo actor tecnológico disruptivo (ya sea ChatGPT, DALL·E o Midjourney, por mencionar los más populares) en los procesos educativos o laborales será traumática y su adopción estará llena de tensiones y conflictos. Hoy en día, el debate se plantea sobre todo en el terreno educativo, donde la presencia de estos actores tecnológicos obligará a rediseñar muchos procesos dentro y fuera del aula. Actividades clásicas como «leer un capítulo y sintetizar su contenido» o «escribir mil palabras sobre la Revolución Francesa» deberán ser rediseñadas para explotar la capacidad de la inteligencia artificial de procesar información y generar textos «en bruto». Algunos especialistas, como Alejandro Morduchowicz y Juan Manuel Suasnábar en su reciente artículo «ChatGPT y educación: ¿oportunidad, amenaza o desafío?», van más allá y se preguntan:

¿Tendrán sentido las tareas escolares? ¿Deberán los docentes convertirse en inspectores de originalidad buscando detectar si fue la inteligencia humana o la artificial quien resolvió las consignas? ¿Deberán plantear un modo diferente de definirlas? Son cuestiones legítimas que se suman a la larga lista que las innovaciones tecnológicas generan, en cada momento, sobre las escuelas. Como es usual, son inquietudes que deben considerarse dentro de un cuadro más general de reflexión sobre la relación (pasada, presente y futura) entre las tecnologías y la escuela.

Desde el punto de vista docente, los sistemas de generación textual son una herramienta fascinante para diseñar clases. Morduchowicz y Suasnábar pidieron a ChatGPT ideas sobre cómo enseñar fotosíntesis en el primer curso de la escuela secundaria desde una perspectiva ecológica y de género: «Todavía estamos boquiabiertos y sonriendo», confiesan estos dos expertos en educación ante la propuesta elaborada por una tecnología que, en términos evolutivos, está empezando a balbucear sus primeras palabras.

DALL·E 2 Explained | OpenAI

The dark side of the AI

Todas las tecnologías digitales vienen envueltas en un halo gaseoso que invita a considerarlas como una entidad etérea, casi inmaterial. El mismo concepto de «nube» es un buen ejemplo de este proceso de desmaterialización tecnológica. Como es bien sabido, la «nube» es un enjambre de cables, cadenas de procesadores, centrales de almacenamiento de datos, más cables e inmensos galpones llenos de máquinas hambrientas de energía eléctrica para poder funcionar y refrigerarse. Nada más lejos de una volátil «nube».

La inteligencia artificial no es ajena a este proceso de desmaterialización. En Atlas de inteligencia artificial. Poder, política y costos planetarios (Fondo de Cultura Económica, Buenos Aires, 2022), Kate Crawford apunta precisamente a esta dimensión material de la inteligencia artificial:

La IA es una idea, una infraestructura, una industria, una forma de ejercer el poder y una manera de ver; también es la manifestación de un capital muy organizado respaldado por vastos sistemas de extracción y logística, con cadenas de suministro que abarcan todo el planeta. Todas estas cosas formas parte de la IA: una frase de dos palabras sobre la cual se puede cartografiar un conjunto complejo de expectativas, ideologías, deseos y miedos.

Transmitiendo en la misma frecuencia de autores como Jussi Parikka (Una geología de los medios, Caja Negra, Buenos Aires, 2021), Jane Bennett (Materia vibrante, Caja Negra, Buenos Aires, 2022) o Grant Bollmer (Materialist Media Theory, Bloomsbury Academic, Nueva York, 2019), el atlas de Kate Crawford nos recuerda que cada segundo de procesamiento textual o de creación de imágenes tiene un impacto irreversible en el planeta.

Por otra parte, el funcionamiento de la inteligencia artificial exige una fuerza de trabajo humana tanto o más maltratada que los riders que pedalean para entregar una pizza a tiempo o las personas que empaquetan cajas en los centros de distribución de Amazon. Se trata de los llamados «trabajos fantasmas» (Gray, M. y Suri, S., Ghost Work. How to Stop Silicon Valley from Building a New Global Underclass, Houghton Mifflin Harcourt, Boston / Nueva York, 2019). Corporaciones tecnológicas supuestamente a la vanguardia dependen en gran medida de trabajadores temporales fuertemente controlados y mal pagados. Debido a la presión de los capitalistas de riesgo para incorporar la inteligencia artificial en sus productos, algunas empresas llegan incluso a contratar a personas que actúan como chatbots y se hacen pasar por sistemas inteligentes. En un artículo titulado «The Exploited Labor Behind Artificial Intelligence» (Noema Magazine, 2023), Adrienne Williams, Milagros Miceli y Timnit Gebru explican que:

Lejos de las máquinas inteligentes y sofisticadas retratadas en los medios y la cultura pop, los llamados sistemas de inteligencia artificial son alimentados por millones de trabajadores mal pagados en todo el mundo que realizan tareas repetitivas en condiciones laborales precarias.

Mientras escribo (lees) estas líneas, hay miles de trabajadores haciendo «etiquetado de datos» (data labeling) frente a una pantalla para categorizar o valorar una imagen, vídeo o archivo de audio. Así es como se van entrenando las máquinas inteligentes usando a los humanos como sparring cognitivo. Según Williams, Miceli y Gebru:

Las interfaces de etiquetado de datos han evolucionado para tratar a los trabajadores colaborativos como máquinas, a menudo prescribiéndoles tareas muy repetitivas, vigilando sus movimientos y castigando las desviaciones a través de herramientas automatizadas.

Al igual que la imprenta, el tren, los transistores o cualquier otra tecnología disruptiva, la inteligencia artificial abre muchos frentes de conflicto más allá de la explotación laboral, desde la cuestión de los derechos de autor de las fuentes originales hasta su uso para predecir comportamientos sociales. Las empresas que gestionan grandes archivos de imágenes como Getty Images ya están movilizando a sus abogados para no quedarse fuera del gran negocio que se avecina. ¿Quién defenderá los derechos de los autores de millones de contenidos compartidos en las redes sociales que la inteligencia artificial procesa para generar sus propias producciones? Muchos sistemas de reconocimiento facial se alimentan de imágenes provenientes de los archivos policiales. Los sesgos de género o raza están a la orden del día.

En su Atlas de inteligencia artificial Kate Crawford también menciona los deseos y miedos del Homo sapiens, que no son pocos. Por ejemplo, ese terror fruto de la modernidad a terminar siendo sustituidos por una satánica nueva tecnología.

Kate Crawford: Anatomy of AI | UNSW

Producción y creación en la era de las máquinas inteligentes

Los sistemas de traducción automática no causaron desempleo; por el contrario, algunos (subrayo lo de «algunos») profesionales los utilizan para una primera conversión rápida antes de ponerse las gafas y repasar el texto en detalle para captar las sutilezas y activar las mejores «selecciones contextuales». Otros profesionales de la traducción se niegan a abrir el URL https://translate.google.es/ y se mantienen fieles al método tradicional. Pero es innegable que para miles de ciudadanos que viajan por el mundo estos sistemas automatizados han servido para facilitar los intercambios lingüísticos en países no necesariamente remotos. En el ámbito científico, debo reconocer que nos han sacado de más de un apuro a la hora de acelerar la traducción de un abstract para un congreso cuya convocatoria cerraba en pocas horas. Pero la intervención humana sigue siendo imprescindible en todos estos casos, ya sea en fase de producción (hay que saber hacer buenas preguntas o, expresado de una manera más técnica, generar buenos inputs) como de interpretación (los ouputs textuales que producen las máquinas siempre necesitan ser editados y pulidos).

Además de acelerar la producción textual, en el caso de la educación Morduchowicz y Suasnábar creen que ChatGPT

es el eslabón que faltaba para conectar los repositorios de recursos didácticos que se vienen generando en internet desde hace algunas décadas con las necesidades específicas derivadas de la cotidianeidad y premura de la tarea docente (y que no siempre pueden responder los buscadores o portales educativos).

Más que hablar de «sustitución», deberíamos comenzar a razonar y a actuar en términos de integración crítica (en oposición a la exclusión acrítica que propone, por ejemplo, volver a las evaluaciones con bolígrafo y papel del siglo XX). El miedo a la sustitución laboral es comprensible, pero cuando se analizan en detalle las transiciones del pasado los procesos afloran en toda su complejidad. Por ejemplo, la aparición de la imprenta no produjo desempleo entre los copistas que manuscribían libros en un scriptorium. Tal como explico en La guerra de las plataformas. Del papiro al metaverso (Anagrama, Barcelona, 2022):

Sería erróneo hablar de una guerra entre escribas y prototipógrafos. Ni los documentos existentes ni las interpretaciones de los historiadores avalan un conflicto de ese tipo. Según el medievalista Uwe Neddermeyer, el pasaje del manuscrito a los tipos móviles fue un proceso «sin disturbios, protestas, pobreza ni desempleo». Eisenstein va en la misma línea en Divine Art, Infernal Machine: «Los artesanos del manuscrito se mantuvieron más ocupados que nunca», la demanda de libros de lujo copiados a mano persistió y «los primeros libros impresos fueron productos híbridos que requerían de escribas y de iluminadores para proporcionar los necesarios toques finales».

Más que desplazar a los humanos, hay quien sostiene que la inteligencia artificial podría sustituir a la Wikipedia o a la mismísima World Wide Web. Parece difícil que eso ocurra: sistemas como ChatGPT o Midjourney se alimentan precisamente de los contenidos que existen en la World Wide Web y otros repositorios digitales. La web es «la mayor reserva textual abierta del planeta», por lo que las inteligencias artificiales deberán recurrir a ella para extraer su materia prima textual y mantenerse actualizadas.

La inteligencia artificial es un potente tool que facilitará las tareas pero, como sostenía Marshall McLuhan, también modificará nuestra forma de pensar y percibir el mundo. Así como la televisión o la World Wide Web cambiaron nuestra concepción del tiempo y del espacio, la inteligencia artificial remodelará nuestra manera de abordar la resolución de problemas y la búsqueda de respuestas a todo tipo de interrogantes. Muchas actividades y procesos de la vida del Homo sapiens, no solo de matriz textual, se verán afectados de forma radical. Por ese motivo, lo segundo peor que podemos hacer es aplicar la estrategia del avestruz y hacer como si nada pasara; lo primero, empecinarnos en volver al pasado.

Finale

Uno de los memes más populares de Umberto Eco que circula por las redes dice así:

La computadora no es una máquina inteligente que ayuda a las personas estúpidas. Por el contrario, es una máquina estúpida que funciona solo en manos de las personas inteligentes.

Al igual que las máquinas de traducir, los Homo sapiens también debemos dejar de pensar en «modo diccionario» para razonar más y mejor en términos de «enciclopedia». Abandonar los planteamientos binarios (real versus virtual, analógico versus digital, utopía versus apocalipsis, etc.) y las causalidades lineales (if nueva tecnología, then paro masivo) es un primer paso en esa dirección. Comprender y afrontar la complejidad que conlleva la irrupción de un nuevo actor tecnológico implica un esfuerzo colectivo que bajo ningún concepto debería dejarse solo en manos de un puñado de corporaciones. Tenemos muy fresca la experiencia de la Web 2.0, ese espacio aparentemente abierto y colaborativo que terminó convirtiéndose en una despiadada maquinaria de extracción y monetización de datos personales, como para no encender las alarmas.

Si la vida digital fuera un videojuego, se podría decir que nuestra relación con la inteligencia artificial que genera textos y responde a nuestras preguntas se encuentra en estos momentos en un primer nivel. Llegará el día en que pasarán de moda los jueguitos de salón («¿Adivinen quién escribió este párrafo?») y entraremos a otro nivel, mucho más desafiante y entretenido, donde la creación automática de textos se integrará de manera definitiva en nuestras rutinas productivas y educativas hasta volverse invisible.





Sobre el dibujo (artificial)

Cómo conecta el trabajo de John Berger con las aplicaciones de IA generativa, que permiten la creación de imágenes con solo una orden verbal.


Antoine Lumière pintando retrato de hombre posando, 1905 | Library of Congress | Sin restricciones de uso conocidas

Todos los dibujos representan lo que vemos, lo que imaginamos o lo que recordamos. Así lo entendía John Berger, uno de los críticos de arte más conocidos y respetados de las últimas décadas. Si estaba en lo cierto, ¿qué simbolizan las obras realizadas por una inteligencia artificial? ¿Una máquina comprende lo que ve? ¿Es capaz de fantasear? ¿Acaso tiene memoria?

Sobre el dibujo es una recopilación de textos del escritor, crítico de arte y teórico social John Berger (Londres, 1926 – París, 2017). En sus páginas reflexiona, entre otras cuestiones, sobre lo difícil que es capturar la realidad, sobre el arte como comunicación y sobre la relación entre objeto y artista. En uno de sus ensayos afirma: «Hay dibujos que estudian y cuestionan lo visible, otros que muestran y comunican ideas y, por último, aquellos que se hacen de memoria.» Y añade: «Cada tipo habla en un tiempo verbal distinto». Presente, condicional, pretérito.

Cabe preguntarse si la tesis de Berger cambiaría a la luz de los avances recientes en inteligencia artificial (IA) aplicada a la creatividad. Desde la segunda mitad de 2022, una serie de aplicaciones que permiten crear imágenes con una calidad inusitada han ido calando en la cultura de internet. Las más famosas son DALL·E 2, Midjourney y Stable Diffusion, pero forman parte de una categoría amplia bautizada como «IA generativa». Las máquinas están empezando a concebir piezas con cierto sentido y belleza pero, volviendo a Berger, ¿desde dónde lo hacen? ¿Qué es lo que ven, imaginan o recuerdan?

Presente de indicativo

«Para el artista dibujar es descubrir. Pero esto no es solo una frase bonita: es literalmente cierto. Es el acto mismo de dibujar lo que fuerza al artista a mirar el objeto que tiene delante, a diseccionarlo y volverlo a unir en su imaginación». Para Berger, dibujar es «conocer con la mano», un proceso en el que se observa con tanto detenimiento lo que se tiene enfrente que objeto y artista se fusionan.

A estas alturas, no sorprende que un ordenador sea capaz de retratar lo que tiene delante. Desde hace más de una década son muchos los experimentos artísticos, industriales o una combinación de ambos que juegan con robots capaces de dibujar sobre lienzo o papel. Por citar solo un par de ejemplos, en 2016 la agencia Visionaire y Cadillac crearon ADA0002, un robot de cadena de montaje que podía representar en tiempo real a los visitantes a una exposición en Nueva York. Por su parte, el artista Patrick Tresset lleva más de una década desarrollando robots deliberadamente rústicos capaces de esbozar retratos y naturalezas muertas desde distintos puntos de vista.

Human Study #2 by Patrick Tresset | Natalianne Boucher

Las máquinas pueden representar lo visible, pero ¿acaso ven de verdad? Puede parecer una obviedad, pero las IA no tienen ojos ni otros órganos sensoriales, por lo que naturalmente no pueden ver del mismo modo en que lo hacemos los seres humanos. Para emular esta capacidad es necesario usar cámaras y sensores que les permiten localizar lo que hay a su alrededor. Gracias a ello son capaces de cosas sorprendentes como reconocer rostros o movimientos físicos, pero son programas entrenados a partir de ciertos patrones, por lo que un cambio en los mismos (por ejemplo, una cara medio oculta o vuelta del revés) puede pasarles desapercibido. En términos cotidianos, es lo que hace que reCAPTCHA, el sistema para demostrar que no somos un robot, nos pida que identifiquemos semáforos. Es una tarea que ya ha realizado la IA de Google Street View, pero es necesario confirmar que la ha hecho bien.

Quién sabe si las máquinas podrán desarrollar una visión cercana a la humana en el futuro, pero a nivel creativo sería atrevido equiparar su mirada con la del artista. Como describe Berger, al capturar la realidad, las personas reflejan tanto su mundo exterior como interior, en un diálogo repleto de tensiones que parece alejado de las maneras de trabajar de las IA actuales.

Condicional

El segundo tipo de dibujo es, para Berger, el que surge de la imaginación: «Son visiones de “qué pasaría si…”». Los avances recientes en IA parecen encajar mejor con esta segunda categoría: la que se basa en inventar, fantasear, jugar con conexiones insospechadas. En esta dirección se promocionan las propias aplicaciones, porque es la que mejor demuestra su capacidad de armonizar conceptos, técnicas, atributos, estilos artísticos, etc. No en vano, el comando de texto para activar Midjourney es /imagine seguido de una descripción de lo que se desea representar.

Para Berger, en este dibujo en condicional «ya no se trata de que el ojo emigre, sino de que entregue lo que se le encomienda». La lógica de la IA generativa es la misma: a partir de una orden en forma de palabras o frases (los llamados prompts), el programa devuelve lo que se le pide. Del nivel de refinamiento de estas instrucciones dependen unos resultados más o menos satisfactorios, lo que ha motivado guías de prompts, herramientas para ajustarlos e incluso un marketplace donde se compran y venden.

The text-to-image revolution, explained | Vox

Este mecanismo refleja una de las características principales de las IA generativas actuales: para garantizar su funcionamiento correcto, necesitan una intervención humana tanto al inicio como al final del proceso. Las personas que las desarrollan incorporan conjuntos de datos y parámetros para su entrenamiento, y las perfeccionan revisando y corrigiendo sus resultados una y otra vez. Lo mismo ocurre cuando ya están operativas: quienes las usan introducen una orden, el prompt, y luego deciden si los resultados son adecuados o si hay que repetirlos o afinarlos. En definitiva, la IA es perfectamente capaz de ejecutar el trabajo por sí sola, pero para que sea relevante, la dirección y la evaluación siguen siendo humanas.

Este entendimiento de la IA generativa como herramienta es esencial para distender algunos debates. Se podría pensar que DALL·E 2 hace poco menos que magia cuando es capaz de pintar un escenario alrededor de La joven de la perla, pero si hace esto es porque se le han facilitado todas las obras de Johannes Vermeer y se ha pulido, con un grado inevitable de subjetividad, qué es pintar como el artista neerlandés y qué no. ¿Podría aprender el estilo de nuevos artistas por sí sola e incluso generar un estilo propio? Probablemente sí, ya que la tecnología IA actual ya permite métodos de aprendizaje automático que incluyen una supervisión de los resultados por parte de la propia máquina. Lo que no está tan claro es si, sin el establecimiento de ciertas reglas y sin una participación humana en algunos puntos del proceso, las imágenes a las que llegaría tendrían algún tipo de valor o incluso un significado a ojos de los seres humanos.

Por otro lado, y en términos filosóficos, cabe preguntarse quién es el agente en este proceso de creación. En Programados para crear, Marcus du Sautoy apunta: «El arte es, en última instancia, una expresión del libre albedrío humano, y hasta que las computadoras tengan su propia versión de esto, el arte creado por una computadora siempre se remontará a un deseo humano de crear». Y aunque el matemático británico sí cree que las IA pueden ser creativas, se pregunta: «Si alguien presiona el botón de «crear», ¿quién es el artista?».

Marcus du Sautoy y Karina Gibert. Creatividad artificial

Pretérito

En tercer lugar, están los esbozos hechos de recuerdos. Del mismo modo que retratar el presente es descubrirlo, dibujar de memoria es «ahondar en ella, hasta encontrar el contenido de su propio almacén de observaciones pasadas». En este caso, ni se estudia la realidad ni se imagina una alternativa, «el dibujo sencillamente declara: vi esto. Pretérito».

Del mismo modo que las IA ven, pero no del todo, puede decirse que tienen memoria, pero diferente a la humana. Se las entrena a partir de vastos conjuntos de datos, muchos más de los que una persona podría asimilar. La máquina los procesa y consulta de manera selectiva para responder a las órdenes que se le han dado. En este proceso también se almacenan los aprendizajes del programa, lo que a su vez genera nuevos «recuerdos».

Para Berger, sin embargo, los mejores dibujos realizados de memoria «se hacen a fin de exorcizar un recuerdo que obsesiona al artista, a fin de sacarse de la cabeza de una vez para siempre una determinada imagen, llevándola a un papel». Con total seguridad, la IA generativa no se enfrenta a este tipo de preocupaciones, pero vale la pena apuntar que el desarrollo de computadoras capaces de identificar emociones y responder acorde a ellas es un sector al alza relacionado con la atención a personas dependientes; esto también se ha explorado en el mundo del arte. En 2013, un investigador británico desarrolló, con no poca sorna, una IA que pintaba en un museo de acuerdo a su estado de ánimo. La propia máquina lo decidía cada mañana tras leer la actualidad en The Guardian. Algunos días, según cuentan, estaba tan deprimida que echaba a los visitantes aduciendo que no estaba de humor para pintar.

Futuro

A lo largo de Sobre el dibujo, Berger hace referencia a estas categorías, pero en uno de sus textos añade una cuarta, excepcional, que puede surgir de las otras tres. Cuando «son lo suficientemente inspirados, cuando se tornan milagrosos, los dibujos adquieren otra dimensión temporal», independientemente de la categoría a la que pertenezcan. En esos casos, la imagen refleja algo que adquiere una dignidad especial, que podría calificarse de Futuro.

El que una IA pueda generar obras de esta consideración a largo plazo no deja de ser un juicio subjetivo. Al fin y al cabo, tampoco suele haber consenso entre lo que es buen o mal arte humano. Lo que sí parece claro es que la IA generativa seguirá suscitando debates no solo acerca del arte y la creatividad, sino también de aspectos diversos como la ética, la desinformación o la propiedad intelectual.

¿Qué pensaría Berger de la IA generativa? En los últimos años de su vida, el autor británico también se interesó por la inteligencia artificial y su impacto en la sociedad. En uno de sus últimos ensayos, titulado «DALL·E 2: The New Mimesis», Berger señala que la creación de IA como la que produce DALL·E plantea preguntas fundamentales sobre la originalidad en el arte. Si la IA es capaz de crear obras a partir de instrucciones verbales, ¿podemos considerar esas obras como realmente originales o simplemente una imitación de lo que le pedimos que cree?

Lamentablemente, todo el párrafo anterior es falso. Es un corta y pega de la respuesta perfectamente razonada pero errónea de la IA generativa ChatGPT al prompt: «Escribe un artículo sobre John Berger y DALL·E 2». Mientras las IA continúen perfeccionando este y otros resultados y nosotros aprendamos a pulir los prompts, deberemos seguir leyendo a Berger para imaginar esta respuesta.





Bámbel

¿Estamos hablando del fin del amor y estamos más obsesionadas que nunca con amar?


Baile de graduación. Maryland, 1942 | Marjory Collins, Library of Congress | Dominio público

Estirada en la cama, móvil en mano, Andrea Abreu conversa consigo misma sobre el amor y las relaciones en tiempos de redes sociales. La precariedad de los vínculos, la necesidad de validación, el postromanticismo, el ghosting o la ansiedad se entrelazan en este relato tan errático como lúcido.

En la noche cerrada y tibia de mi cuarto, me río controlando la apariencia de mi perfil bueno de la cara. Hoy es otro de esos días que finjo que hay alguien mirándome desde el otro lado del colchón. Qué casualidad que me guste dormir por el canto de la cama que me favorece más, pienso, y digo, chos, seguro que le encanta que esté leyendo, a mí me parecería superlindo que alguien estuviera leyendo antes de dormir. Me viro para la mesilla de noche y pongo el libro sobre la tremenda tonga que no me voy a acabar ni hasta por lo menos dentro de dos años. Por el virito del ojo compruebo asustada: están todos los cojines colocados, todos empinaditos como si no se hubiese acostado más nadie nunca, ni siquiera yo. Las velas de soja que encendí están acabante de apagar y todo huele a fiestita de cumpleaños. No hay nadie, mi niña, y me digo mi niña porque descubrí que es muy bueno hablarse como a un ser querido para mejorar el diálogo interno. No siento ninguna respiración, salvo la mía, y me pongo los dedos en el cogote para comprobar que tengo taquicardia. Tú eres boba y tu madre no lo sabe, me digo, y me respondo, chacho, no, tú no eres boba, mi amor, eres más lista que una tea.

Agarro el móvil de la mesilla y una pasadita rápida de unas cincuenta personas sin respirar, como haciendo sentadillas: arriba-abajo, arriba-abajo, ejercicio del alma escachada. Cuantas más personas, más destrucción masiva de mi espíritu. Más rutinas de glúteos, más cajas de melatonina, más omega 3 vegano. Yo no entro en Bámbel para enamorarme, ni siquiera para chingar, entro en Bámbel para comprobar que aún sigo existiendo. Soy ese perro estúpido que se acerca al dueño cuando está trabajando y le incita a botarle la pelota solo para agarrarla y llevársela otra vuelta a una esquinita y chasquillarla hasta arrancarle el cuero. Soy ese perro que no va a volver a traerte la pelota, pero que cada cierto tiempo necesita corroborar que si te la da estarías dispuesto a botársela.

[23:42, 14/11/2022] Mi Numero Personal: saben en psicología cognitiva conductual lo de los alivios momentaneoss de la ansiedad? cada vez tengo más dudas con esto de la cognitiva conductual pura y dura pero sí tengo la certeza de que muchas veces para mí bambel ha sido un absoluto alivio momentaneo de la ansiedad, antes que evaluar si mis pensamientos intrusivos sobre mi dudosa valía personal eran ciertos o no entraba directamente a la red social y hacía unos veinte matchs, ya entonces me quedaba tranquila ah bueno si a ese alemán wistroladisimo que perfectamente podría estar en la isla de las tentaciones y que viene a hacer el nomada digital en una comunidad absolutamente empobrecida como la mía opina que mis cinco fotos cuidadosamente seleccionadas son merecedoras de un like entonces esque estoy bien, soy bien, que bien, sí bien, otra vez podemos continuar hasta la proxima vez en la que necesite validacion rapida que puede ser esta noche mismo o mañana por la mañana no lo sé, pero si algo tiene de cierto eso de los alivios momentaneos de la ansiedad es precisamente su caracter de temporal, a nivel micro, en el momento, apaciguan nuestro malestar, pero sus consecuencias con el paso del tiempo son peores: no usar el bambel como alivio de la ansiedad me puede resultar incomodo ahora, pero a la larga va a ser mejor para mi chavetita, usarlo ahora me da la falsa idea de estar acompañada, de aliviar mi angustia y mi soledad, pero con el paso del tiempo hace que el bujero de mi mal sea más cumplidito, más pal fondo

[23:57, 14/11/2022] Mi Numero Personal: cuantos duelos puedo vivir de sola sentada? En un solo mes? una sola semana? No lo sé? Dímelo tu. Échale ahí. Botate parriba, Me dices que te gusto que construyamos una pareja que más adelante te gustaría vivir conmigo. Por ti me salgo del poliamor y construimos una historia romántica jerárquica mi vida. Nos hacemos tremendo LOVE bombing y de repente empiezas a contestarme cada tres horas. Se supone que tengo que leer las distancias entre mensaje y mensaje? Que carajo nos pasa? no podemos decir de vivir juntes y después convertirnos en una conversacion sin foto, en un machango gris anónimo con un círculo aún más gris slrededor.

[23:59, 14/11/2022] Mi Numero Personal: Cada poco tiempo pienso: oooootra vez.

Baile de graduación. Maryland, 1942 | Marjory Collins, Library of Congress | Dominio público

[00:00, 15/11/2022] Mi Numero Personal: Esto era una cita de Bauman

[00:10, 15/11/2022] Mi Numero Personal: La precariedad de los lazos humanos es un destacado atributo —por no decir que el más característico— de la vida moderna líquida. El carácter flagrantemente escindible de los vínculos humanos y la frecuencia con la que estos se rompen actúan como un recordatorio constante de la mortalidad de la vida humana. De poco sirve cuestionar la validez de equiparar la pérdida por separación de un compañero o de una compañera a la pérdida «auténticamente definitiva» causada por la muerte física; lo que cuenta es que, en ambos casos, «un mundo», siempre «único» en cada caso, se desvanece, y que no existe la voluntad o la esperanza de desafiar —y, aún menos, de invertir— la irrevocabilidad de su desaparición. La desaparición de un compañero o una compañera de nuestra vida puede que no sea más que una metáfora de la «muerte de un tú» de la que hablaba Jankélévitch, pero se trata de una metáfora que tiende a ser apenas distinguible de aquello a lo que representa. Lo mismo sucede con el momento posterior a la ruptura, dedicado a tejer nuevos lazos, reconocidamente destinados a ser cercenados de nuevo en el futuro como lo fueron los anteriores en el pasado. La muerte por delegación se convierte en un enlace indispensable y constante que aúna la interminable secuencia de «nuevos comienzos» y esfuerzos por «renacer», rasgos característicos de la vida moderna líquida y etapas necesarias en cada una de las series infinitamente prolongadas de ciclos de «muerte-renacimiento-muerte». En el drama que se desarrolla continuamente en la vida moderna líquida, la muerte es uno de los personajes principales del reparto y reaparece en cada acto. (Miedo líquido: la sociedad contemporánea y sus temores, Zygmunt Bauman)

[00:12, 15/11/2022] Mi Numero Personal: Ttodas entramos por un experimento social. Todas mis amigas nos quedamos solteras al mismo tiempo, cuando el covid aflojó se vinieron abajo parejas de muchos años. Nos íbamos a comer el mundo, y terminamos comiendonos cuatro cucas y veinte ataques de ansiedad. Todas entraron a las apps de ligar por lo mismo que yo: pa ver qué pasa. Después pegamos que si venga que si dale a quedar con gente jarrapaa que nos ghostea y que le aprieta el condón, carajo. Dios mío más me aprieta a mi la cuota de autónomos y la pago la pago hermano. Que clase de mundo es este? Nadie me mandó a meterme en camisas de once varas, pero todo fue por culpa de Eva Ilouz

[00:12, 15/11/2022] Mi Numero Personal: Yo entre a bumble porque quería entender a lo que se refería Eva illouz cuando hablaba tan mal de las apps de ligar, todo fue por un párrafo en el que se refería al mercado sexual contemporáneo como un supermercado en el que hay demasiada oferta y por lo tanto es difícil estimar el valor de un producto

[00:12, 15/11/2022] Mi Numero Personal: Ella hablaba de algo q yo interprete como la validacion rápida de supermercado y lo decía como algo nocivo y yo pensé: ah, que hay validación rápida de supermercado gratis? Si soy. Y me descargue la app. Las personas pasando por mi dedo como un lector por los bubangos sin bolsa depsues de que la dependiente me peleara por no usar guantes. Chacho, señora, que el plástico es un problema grave! O quitan las bolsas o le espeto los dedos a la papaya hasta sacarle el jugo, diooooos…….

[00:12, 15/11/2022] Mi Numero Personal: puedo poner alguna cita? Puedo si

[00:15, 15/11/2022] Mi Numero Personal: Los evaluadores románticos premodernos hacían sus elecciones a la manera de una subasta, porque actuaban en condiciones de escasez. Los evaluadores románticos y sexuales modernos eligen como si estuvieran en un supermercado, sin un punto de referencia claro para su elección, debido a que no saben lo que quieren. Cabe decir, entonces, que la inserción de prácticas románticas y sexuales en el mercado de consumo redunda en una deflación del valor. A raíz de los encuentros sexuales que tienen lugar en una situación de mercado, los actores sexuales se enfrentan a lo que podríamos llamar una deflación emocional, muy a la manera de los mecanismos económicos que provocan la caída en los precios o en el valor de los bienes, ya sea porque la competencia baja los precios o porque el aumento de la eficiencia disminuye el valor de la producción. (El fin del amor. Una sociología de las relaciones negativas, Eva Illouz)

Baile de graduación. Maryland, 1942 | Marjory Collins, Library of Congress | Dominio público

[00:24, 15/11/2022] Mi Numero Personal: Yo empecé como un experimento social y termine llorando por un hombre mucho más joven que yo. Era un hombre hermoso, casi de mentira. La diferencia entre ese hombre y yo es que todavía ese hombre cree en algo. Estaba enamorado de su exnovia pero no era capaz de decirmelo. Le dije que por favor no jugase a juegos del movil si estabamos viendonos. Nos vimos tres veces y ya se aburrio de mi. Yo no le gustaba en serio, pero todas las veces me llevé la impresión de que hablar era un problema. Cada vez que alguien me ha ghosteado sucedió después de que yo abrieera la boca para decir algo más allá de que ricas las papas, qué rica tu cuca. He hecho esfuerzos monumentales por no parecer demasiado yo y he llevado unos zapatos superchiquititos que se llaman versión asustada de mí misma. El estaba enamorado de su exnovia. Y yo estoy enamorada del yogur de coco de alpro. Cada uno tiene sus necesidades y sus gustos y yo no entraba dentro de su lista. Me trastorne. Tanto me trastorne que le empecé a mandar mensajes gritando (porque estaban escritos en mayúscula): COBARDE, NO ME GHOSTEES! Él me dijo que por favor dejara de hablarle y yo no paraba de gritar, pobrecito

[00:24, 15/11/2022] Mi Numero Personal: qué me pasa, loco?

[00:25, 15/11/2022] Mi Numero Personal: Pánico! Siento pánico del ghosting. Y del haunting y del love bombing y del aove. pánico, siento pánico de mí

[00:25, 15/11/2022] Mi Numero Personal: Mí?

[00:25, 15/11/2022] Mi Numero Personal: Yo

[00:26, 15/11/2022] Mi Numero Personal: Yo vi a Héctor bellerin en una foto con una boina y entre en bumble para ver si encontraba a alguien parecido. No es la primera vez que me pasa. También volví a ver High School Musical 2 y entré a ver si veía alguien parecido a Chad. Lo peor es que había alguien parecido, pero no me dio match. Pienso que el mundo está hecho ahora mismo para que nos arrebate Héctor bellerin. Nadie nos lo dijo directamente pero todo lo dice: ámalo, Héctor bellerin, bellerin-rin-rin- rin ring? Bellerin, es un hombre, míralo, pero parece algo que no es un hombre, míralo, es vegano y lleva mullet.

[00:30, 15/11/2022] Mi Numero Personal: Por qué debo amarlo, señor? Por qué?

[00:31, 15/11/2022] Mi Numero Personal: Miralo, se pone chándal y camisa de vestir, amalo y lo amo y comprendo porque la gente manda mensajes que no reciben respuesta durante meses.

[00:32, 15/11/2022] Mi Numero Personal: Bellerin revisa tu bandeja de entrada

[00:32, 15/11/2022] Mi Numero Personal: Yo, yo no creo que ame solo creo que me engancho esporádicamente de personas con conductas evitativas.

[00:33, 15/11/2022] Mi Numero Personal: Yo, yo… si soy literal

[00:33, 15/11/2022] Mi Numero Personal: Hola?

[00:33, 15/11/2022] Mi Numero Personal: Estoy hasta el pepe de mí

[00:34, 15/11/2022] Mi Numero Personal: No, andre, mi amor, te amo

[00:34, 15/11/2022] Mi Numero Personal: compórtate mi amor

[00:34, 15/11/2022] Mi Numero Personal: te amo mi amor

[00:35, 15/11/2022] Mi Numero Personal: fake it until you make it bitch

[00:37, 15/11/2022] Mi Numero Personal: Yo, por mi culpa por mi gran culpa por eso ruego a santa maría. YA VALEEEEEEEEEEE PUTA

Baile de graduación. Maryland, 1942 | Marjory Collins, Library of Congress | Dominio público

[00:41, 15/11/2022] Mi Numero Personal: Tienes un ojo más cerradito, me dijo mi padre mirándome a la cara la semana pasada. Que tengo un ojo vago????, Grité como una desquiciada escupiendo el tofu ahumado del lidl. Aaaaaaaaaah (ataque de rabia inminente), yo un ojo vago? Me cago en cristo rey!!!!!!! Me costó dos días de terapia un total de 130 euros. Cambiar una de mis fotos de bAMBEL. No sé si se leyeron el libro de la conciencia de zeno, een el libro la esposa le dice que tiene la nariz de una manera diferente a la que seno creía que la tenía y eso genera un cambio de percepción de su persona, una autentica crisis existencial. Me pregunto cómo podemos vivir tranquilas siendo continuamente autorrepresentadas y fragmentadas. Yo no sé tú pero no paro de mirarme en todos lados. Amo el cuerpo, amo la existencia de un cuerpo pero a veces solo quiero ser una bola de fuego que flota, me entiendes? Una bola que flota y se eleva hasta desprenderse de la tierra y la cobertura y no importar que no haya cobertura y no importar nada. Ando absolutamente obsesionada con mi aspecto físico y no paro de mirarme en los espejos de todas partes.

[00:43, 15/11/2022] Mi Numero Personal: tenemos una cita para esto? La tenemos

[01:05, 15/11/2022] Mi Numero Personal: […] ‘mi grado de belleza’ está vinculado con ‘las posibilidades de que alguien se enamore de mí’, o ‘las posibilidades que tengo de obtener lo que quiero’, o ‘las posibilidades de que la persona con la que estoy no me deje por alguien más sexy que yo’, pero la solidez del vínculo existente entre ‘mi apariencia’ y ‘mis posibilidades de ser amada/casarme/estar en una relación’ varían en función del sistema social. Y en nuestra sociedad existe un vínculo fortísimo, quizá el más fuerte de toda la historia mundial, entre las variables ‘ser guapo o guapa’ y ‘ser amado o amada’. (La sala de los espejos, Liv Strömquist)

[01:06, 15/11/2022] Mi Numero Personal: superbien 😊

[01:08, 15/11/2022] Mi Numero Personal: vale, papi, tengo un ojo vaguito tengo menos posibilidades de amor así que que hago? me mando una traba en el parpado que me abra el ojito toda la noche? Que hago señor Dios rey todopoderoso? Que hago si a nosotras nos enseñaron que no merecemos amor si estamos feas. Alguien nos lo enseño y aquí estoy yo soltando euros pa desaprender mentalmente una cosa y seguir haciéndome cosas en el cuerpo pa estar buena

[01:10, 15/11/2022] Mi Numero Personal: Por qué tenemos siempre ansiedad cuando conocemos a alguien?, le grité hace unos días a mi amiga Usu otra vez. Por qué? explicamelo por favor. Y ella Andre ya te dije por qué y no me acuerdo otra vez que fue lo que me dijo. Hago fuerzas con la cabeza para recordar , usu? que fue lo que me dijiste? es el misterio de la ansiedad de bambel que quiero descifrar, Necesito verdades, frases sacadas de libros de sociología a las que agarrarme porque me niego a pensar que esto es un problema individual como esa gente estupida que lleva metida en una pareja diez años y se atreve a decirnos que tenemos un patron y que buscamos a gente que nos ghostea. Callate, jedionda, callate que no sabes nada, que es muy facil olvidarte de lo que es esto cuando tienes la validación en el otro lado de la cama y ni siquiera puedes recordar lo que era esto, porque esto ya no es lo que era, conocer a personas se volvió un cuento de miedo más que nunca en la historia del conocer a personas.

[01:10, 15/11/2022] Mi Numero Personal: No soy yo, no eres tú, es un foquin problema estructural y seguir cargando el peso en nuestra inestable salud mental individual (que por otra parte tb es un problema estructural) sigue reventando las uniniones entre las personas y dejandonos absolutamente solas ante la violencia brutal que supone para un cuerpo y una mente humana vivir naciendo y muriendo por amor día sí y día también como si nada imporrtara en absoluto.

[01:12, 15/11/2022] Mi Numero Personal: Después de todo lo que he leído y aprendido y reflexionado he seguido reventandome viva con cada persona que conocí en los últimos meses, todas las veces cayendo en una angustia inexplicable, un sentido de la desorientación que me hacía recaer cíclicamente en el descuido de mi salud, la hipervigilancia de mi cuerpo, el malvado diálogo interno.

[01:14, 15/11/2022] Mi Numero Personal: Tooooodo el rato pendulando entre las ideas mas románticas y las mas posrománticas, intentando sobrevivir en este momento histórico en el que no sabemos ni lo que estamos haciendo porque nos cargamos todos los marcos referenciales y era malo lo otro pero esto también es tremenda mierda amiga

Baile de graduación. Maryland, 1942 | Marjory Collins, Library of Congress | Dominio público

[01:22, 15/11/2022] Mi Numero Personal: Entonces? fluyo entre la idealización extrema y el desprecio más absoluto voy del 1. lo miro y pienso follame toda quiero un bebé dos tres cuatro bebés un carro un masicosi una casa una huerta los niños jipis podridos arrastrándose por el piso como chuchangos y secarles los mocos quiero una huerta quiero un amor-pasion clásico, de los de antes, sufrido, y reventarme como un conejo y destruirnos absorberos para siempre hasta el final de los tiempos y amarte hasta después de tu muerte porque como dice Romeo antes de inventarse el amor ya yo te estaba amando, pero no. Luego no, luego 2. me desapego y pienso que es todo un cuento y que lo que quiero es estar bien conmigo misma mi espacio mi vida mis cosas, no depender de nadie. Y termino profundamente desamparada y desarraigada pérdida en el fin del amor y en el momento de lo posromantico, hundida y abrazada a lo posromantico, hasta pena me da y lo abrazo, mi niña.

[01:24, 15/11/2022] Mi Numero Personal: Andre x Posromanticismo.

[01:25, 15/11/2022] Mi Numero Personal: Es esto el fin del amor? Si es así por qué estamos todas tan desesperadas por amar? Estamos hablando del fin del amor y estamos más obsesionadas que nunca con amar? qué es esto? Tengo deficit de atencion? algunn trastorno de la personalidad?

[01:26, 15/11/2022] Mi Numero Personal: me va a bajar la regla?

[01:29, 15/11/2022] Mi Numero Personal: Ayer le pregunté a mi amiga Carmen si creía que se podía elegir amar y ella me dijo que si, que se puede elegir enamorarnos o no y yo grité que no como una desquiciada que no, luego al llegar a casa pensé que sí que tiene razón que si no me renta no me enamoro y cada día me renta menos la verdad.

[01:30, 15/11/2022] Mi Numero Personal: Me sucede que a ratos pienso de verdad no me importa nadie, a ti te sucede?

[01:30, 15/11/2022] Mi Numero Personal: Tengo el corazón anestesiado………

[01:32, 15/11/2022] Mi Numero Personal: Yo no quería esto, pero cada vez el mundo se parece más a bambel y bambel se parece más al mundo en el sentido de que el mundo es estúpido y bambel es estúpido.

[01:40, 15/11/2022] Mi Numero Personal: Yo queris alejarme de las estructuras románticas, yo quería aprender a amarme a mí y ahora del mundo adulto solo sé hacerme la rutina de limpieza facial nocturna (ni siquiera tengo claro si la hago bien) y que es mejor echar gasolina en esta gasolinera que en aquella porque me acumulan los puntos en la tarjeta de cliente.. Yo quería hacer las cosas bien, pero ya no sé qué es bien y aunque me desinstale bambel y tú te lo desintales y aunque me quite Instagram y tú te quites Instagram y tik tok y bereal siento, muy dentro de mi corazón lleno de curitas siento que nuestra forma de amar está profunda e irremediablemente atravesada por el desencanto 😊 😊 😊

Poso el móvil sobre la mesilla. En la penumbra ahogada de mi cuarto, pienso en fumarme el porro de CBD que tengo guardado en la gaveta de la cómoda. En lugar de eso, vuelvo a agarrar el teléfono, hago una última ronda en Bámbel y llego al final del barranco. Me quedo mirando al vacío de la caída: no quedan más personas para clasificar entre deseables e indeseables en esta esquina del mundo. Pienso en sacar el móvil de la habitación, pero sin querer me dejo dormir con la pantalla desbloqueada en el pecho.





Cuando vinieron a buscar a los analfabetos digitales…

La digitalización forzosa no solo excluye a aquellos con menos habilidades digitales, también a los que aprecian las ventajas del mundo analógico.


Un comerciante y un cliente considerando comprar un hacha o un mango de hacha. Leaby, Suecia, 1940 | Carl Gustaf Rosenberg, Riksantikvarieämbetet | Dominio público

Las tecnologías digitales reducen costos, son más eficientes y permiten una mayor especialización. Sin embargo, pocas veces se habla de lo que perdemos con la digitalización, de quiénes quedan excluidos en el proceso o de cuáles son sus fronteras. A menudo, las personas mayores, con sus decisiones conscientes e informadas sobre las tecnologías digitales, son las que nos muestran los límites de la digitalización.

La semana pasada fui a un restaurante. Éramos un grupo de amigos que nos reencontrábamos después de la pandemia, había una bebé nueva, había sido necesario algún que otro viaje transoceánico para poder quedar y casi todos lucíamos muchas canas nuevas. Como en tantos otros restaurantes pospandemia, nos recibieron con la carta en un código QR. Ya se sabe lo que pasa, en vez de hablar con tus amigos, mirarlos a la cara o tener en brazos a la nueva bebé, cada uno se sumerge en el universo de su teléfono, donde alguien ha intentado encajar lo que era una carta de varios folios A4 en una pantalla de mano. La pantallita interrumpe el flujo de la comunicación y la espontaneidad del momento, pero esto ya no es nuevo. Lo nuevo vino al final. El camarero se acercó para decirnos que con el mismo código QR también podíamos pagar, que podríamos abonar cada uno lo suyo o dividir la cuenta en partes iguales, y que era tan fácil como hacer una compra por internet. Que si alguien en particular no sabía hacer una compra por internet, lo llamáramos. Efectivamente, no volvió a pasarse por allí hasta que se resolvió el tema de la cuenta, aunque la familia con los dos bebés ya dormidos en brazos no tenía manos ni ganas de resolver el acertijo del QR. Pero el problema de la digitalización forzada de la sociedad institucionalmente se reduce al problema personal de tener las habilidades digitales necesarias.

Y así hemos sido testigos de la forzada digitalización de la sociedad. Por una parte, los ciudadanos usan más las tecnologías digitales; más habitualmente y para más funciones. Por otra parte, se han digitalizado nuevos productos y servicios que refuerzan cada vez más la ciudadanía digital. Esta ciudadanía digital resulta fundamental pero inalcanzable para algunos colectivos en determinadas circunstancias, especialmente para las personas con menos habilidades digitales, entre las que se encuentran muchas personas mayores.

Con la pandemia se incrementó la digitalización del dinero; como mínimo en Barcelona, ya no se puede pagar con dinero en metálico el billete sencillo de autobús. También se digitalizó la receta médica, en la Seguridad Social ya no la entregan impresa. Se extendió el uso de diferentes sistemas de validación de la identidad: la clave pin, el DNI electrónico y la firma electrónica. Los típicos dispositivos de audioguías pasaron a ser aplicaciones que tienes que descargar en tu móvil, y encontrar tú mismo la audioguía correspondiente a la exposición que estás visitando. Y finalmente, se popularizó la compra digital anticipada de las entradas a museos, conciertos y demás eventos culturales.

Instrucciones para pedir comida de forma telemática en un restaurante | Alpha, Flickr | CC BY-NC

El tecnoptimismo imperante solo ve las ventajas de la digitalización. Se necesitan menos camareros en el restaurante, el conductor del autobús no pierde tiempo vendiendo billetes, se ahorra el papel de las recetas médicas, billetes y entradas, se reduce el tiempo de los funcionarios y cajeros dedicados a atender al público. Los museos no tienen que gestionar los dispositivos de las audioguías. Pero a menudo no ven el costo para quienes quedan excluidos de estos servicios, o la autonomía que pierden quienes no pueden acceder al servicio directamente, ni el impacto en el derecho a la igualdad de oportunidades y a no ser discriminado.

Quienes no pueden o no quieren ejercer la ciudadanía digital pasan a depender de la solidaridad de familiares o amigos, o son castigados por el sistema con un procedimiento más engorroso que su predecesor analógico. Hay a quienes todavía nos resultan útiles los teléfonos móviles que la industria da por obsoletos, y no tenemos espacio ni para una audioguía más. Si no tienes espacio para instalar la audioguía en tu móvil, te puedes quedar sin acceso al servicio. Si no haces la compra digital anticipada de los eventos culturales, te arriesgas a quedarte sin entrada. Si no puedes acceder a tu receta médica en la app de La Meva Salut, puedes preguntar al farmacéutico qué medicamentos tienes disponibles, pero en el boca a boca se pueden perder detalles fundamentales que nos interesan en el momento de la compra, como la dosis o la frecuencia en la toma del medicamento. Aunque en la estadística oficial diga que en España el 94 % de la población adulta se conecta a internet a través de dispositivos móviles (Eurostat, 2021), esto no significa que puedan usar todos estos servicios, o que los puedan usar cada día o estén dispuestos a perder las ventajas del servicio analógico.

Hay muchas razones por las que no puedes o no quieres acceder a los servicios digitales. La falta de habilidades digitales o la falta de interés en los servicios digitales son seguramente algunas de las más comunes. La falta de habilidades e interés en las tecnologías digitales suele estar asociada a los sectores más vulnerables de la población, con un nivel socioeconómico menor y con menos oportunidades de contacto habitual con diversas tecnologías digitales, como las personas mayores que no trabajaron por cuenta ajena o que por su trabajo no tuvieron que usar ordenadores. Aun así, hay jóvenes que son expertos en redes sociales en el móvil pero que no sabrían instalar la firma electrónica ni lo que es una hoja de cálculo. Pero también puede darse el caso de que no quieras acceder a los servicios digitales por saturación digital; cada vez más jóvenes abogan por el derecho a la desconexión digital. O que no puedas por restricciones puntuales de acceso, por ejemplo, el día que se te ha roto el móvil.

Llegados a este punto, ya no sorprende que algunas de las víctimas de la forzada ciudadanía digital alcen su voz en contra del tecnoptimismo imperante, ya sea en la esfera privada o en la pública, y ayudan a la sociedad a reflexionar sobre las utopías de la digitalización. A menudo son las personas mayores las que nos muestran los límites de la digitalización de la sociedad, y no solo porque algunas de ellas no tengan las habilidades digitales necesarias, sino porque no están dispuestas a perder las ventajas del mundo analógico que han conocido hasta entonces y que aprecian por su calidez, versatilidad y familiaridad.

“Soy mayor, no idiota” | RTVE

Uno de los pocos casos públicos opuestos al tecnoptimismo imperante es la campaña en contra de la despersonalización de la banca iniciada por Carlos San Juan en change.org. En cambio, en la esfera privada, muchas otras personas mayores a menudo se posicionan en contra de la forzada digitalización. Prefieren no tener WhatsApp ni tener que comunicarse por mensajes de texto que la gente medio escribe y medio lee, porque prefieren una llamada de voz en la que pones y recibes toda la atención. También hay quien renuncia a pelearse con el código QR y prefiere la solidaridad de alguien que les lee la carta y con quien pueden ir comentándola. Aunque seguramente preferirían poder seguir sacando el dinero en metálico y controlar el gasto por medio de la cartilla del banco a tener que depender de otros con los que seguramente no tendrían por qué discutir cómo manejar sus finanzas.

Sin embargo, se escucha poco a las personas mayores que alzan la voz en contra del tecnoptimismo imperante. Resuenan más las ideas de aquellos jóvenes que abogan por una desconexión digital que las de los mayores cuando se quejan de la despersonalización de los servicios, aunque ambos vayan en la misma vía.

A las personas mayores se les acusa de no saber usar las tecnologías digitales y de no querer modernizarse, y se aboga fuertemente por incorporarlos en la sociedad digital para superar la brecha digital. Cuando, en realidad, quienes no son usuarios de las tecnologías digitales o de ciertos servicios no solo están influidos por las oportunidades digitales que hayan tenido a lo largo de la vida y su trayectoria digital, sino que también se apoyan en decisiones conscientes e informadas que cuestionan los valores y que corren peligro con la digitalización.

A las personas mayores se les suele acusar de difundir fake news, de difundir cadenas de mensajes por WhatsApp, de no conocer el significado correcto de los emojis o de enviar inútiles mensajes de «¡Buenos Días!» Estos usos, más que un problema de falta de habilidades digitales son una oportunidad para empatizar con el momento vital del otro y sus necesidades emocionales. En cambio, se les hace poco caso, a pesar de que abogan por más servicios cara a cara, menos mensajes de texto y más llamadas síncronas. Es decir, defienden la inclusión, la calidez y la verdadera personalización de las experiencias.





La burbuja de los NFT ha estallado. ¿Larga vida a la burbuja?

Revestidos con una pátina cultural y pop, los NFT funcionan como una narrativa introductoria al mundo de la especulación.


Derribando muñecas en un stand de la fiesta, Taos, New Mexico, 1940 | Russell Lee, Library of Congress | Dominio público

El ejemplo más paradigmático del estallido de la burbuja de los NFT es la bajada del precio del primer tuit de la historia. Este se vendió por 2,9 millones de dólares en su salida al mercado. Un año después, el abril pasado, se abandonó un intento de revenderlo, ya que la oferta máxima era de 14.000 dólares. ¿Cómo se ha producido esta pérdida del 99 por ciento del valor en un periodo tan corto?

En realidad, los NFT no han muerto porque nunca estuvieron vivos. Por más vueltas que le demos, cuando el producto en sí es totalmente reproducible con exactitud y de manera gratuita por medio de un simple clic, el único valor que tiene es, exclusivamente, el precio al que lo puedes revender.

Se precisa, pues, de un gran ejercicio de hiperstición y profecía autocumplida para poder extraer valor del producto. Es decir, que la propaganda que se ha hecho de los NFT ha resultado imprescindible para inflar la burbuja y permitir que algunos (básicamente los primeros) inversores ganaran dinero. Siguiendo la lógica de los esquemas Ponzi, hace falta que entre más gente de manera constante en el mundo de los NFT para que la confianza y el crecimiento no se estanquen. Y a la hora de acercar al gran público a la inversión en activos digitales ha resultado imprescindible el uso de técnicas de sugestión emocional.

En un intento de otorgar validez a este formato por la vía no solo monetaria, se ha tokenizado el primer tuit enviado por el fundador de Twitter, Jack Dorsey. Así, el objeto tiene un valor nostálgico y cultural asociado. De la misma manera, tokens de memes históricos como el Nyan Cat se vendieron por cantidades millonarias. Que el valor de los NFT esté intrínsicamente ligado a la confianza en este mismo valor, sin que exista ninguna otra estructura oficial, bancaria o estatal que lo apoye, obliga a que se expanda la credibilidad por medio de estas estrategias. El uso de referentes pop puede servir como una cortina de humo: puedes hacer ver que inviertes en cripto por el apego y el cariño hacia un determinado artefacto cultural, fingir que el interés existe por el fetichismo hacia un famoso, un artista o su obra, o camuflar las inversiones bajo capas de ironía, siendo consciente de que los Bored Apes no son más que micos estéticamente feos generados aleatoriamente por un algoritmo, y que la gracia es, precisamente, esta. Pero tal como decía Dan Olson en el vídeo viral Line goes up: este no es un fandom como el resto, porque el producto en sí no tiene ninguna importancia, sino solo el beneficio que se derive.

Igual que la entrada de inversores es importante, también lo es que quien invierte no desista y venda, ya que si este movimiento sucediera de forma masiva, bajaría el valor del criptoarte. Se da, pues, un ambiente supuestamente comunitario donde los participantes de este gran castillo de naipes se tienen que convencer constantemente, tanto los unos a los otros como a ellos mismos, de que serán ricos si aguantan el tiempo suficiente. Este relato se completa con la afirmación de que se trata de un grupo selecto de visionarios que han sabido avanzarse a sus contemporáneos y que, gracias a esto, accederán al edén de la abundancia y no tendrán que trabajar nunca más. Mantener alta la expectativa de lo que vendrá se ha convertido en una divisa importantísima y es imprescindible hacer crecer el hype incesantemente.

En la publicación de su propia colección, el influencer más famoso entre los que han adoptado los NFT en el estado español, Willyrex, declaró: «Los que confiaron serán recompensados! Los que no lo hicieron quedarán retratados!». Quien sabe si de forma ominosa o sardónica.

En sus primeas presentaciones al gran público, la intersección entre arte digital y blockchain se definió como una herramienta que permitiría que artistas pudiesen obtener beneficio de sus obras. Aun así, la democratización que tanto se presagió no ha sucedido, ni tampoco la desaparición de intermediarios. Todavía es menos posible afirmar que esta tecnología haya permitido ganar dinero a la mayoría de artistas, puesto que los gastos derivados de crear y mantener los NFT suponen un gran obstáculo. Por no hablar del reparto desigual de sus ventas, que se traduce en que muy poca gente realmente hace negocio comerciando con su arte de esta manera.

Tampoco es que todo lo anterior suponga ninguna novedad dentro del mundo del arte comercial. Es bien sabido que los circuitos de galerías tienden a ser excluyentes y a basarse en la especulación derivada del hype de la novedad y en la capacidad de absorber nuevas tendencias. Los NFT encajan perfectamente en esta lógica: cuanta más gente se ponga de acuerdo en que un objeto arbitrario tiene valor, más valor tendrá este objeto. De todas maneras, el mercado del arte no es un nicho suficientemente grande como para sostener las necesidades especulativas de los tokens no fungibles.

NFTs: ¿la nueva Tulipomania? | PutoMikel

La realidad es que los NFT funcionan, sobre todo, como una narrativa introductoria al mundo de la especulación, alejados de los estereotipos a los que se asocian normalmente. Los brokers dejan de ser unos tipos grises y airados, en trajes de chaqueta impolutos e inseparables de sus maletines, para convertirse en gente mucho más próxima: influencers, streamers o vloggers. En lugar de expertos economistas (a pesar de que los interminables y complicados tecnicismos se mantengan), chavales normales y corrientes. El cryptobro, la última tribu digital de moda, acostumbra a lucir la estética minimalista de camiseta, gorra y zapatillas de deporte que tanto triunfa entre los desarrolladores de Silicon Valley. El cryptobro es cualquiera, podría ser tu vecino, o incluso podrías ser tú.

El horizonte final de todo este fenómeno parece ser, también, la última esperanza de reflotar los NFT después de que su reputación se haya visto terriblemente perjudicada. Dentro de la lógica de convertir cada aspecto de la cultura humana en un producto cuantificable y vendible, por medio de clics y estadísticas, a lo largo de la última década hemos visto cómo nuestras acciones en el ciberespacio se transformaban, cada vez más, en formas de construir una marca personal. Mientras tanto, nuestros trabajos se han uberizado y gamificado. Siguiendo esta lógica, la transformación del juego en negocio es el horizonte último del capitalismo de plataforma y de la economía de la atención. Especialmente a través de los videojuegos.

Para mantener el crecimiento exponencial que ha sufrido el mundo de los videojuegos en los últimos años, han sido necesarias prácticas de explotación como el crunch y se ha dado pie a fenómenos rocambolescos como los streamings interminables. Los NFT parecen una nueva oportunidad de expansión que podría impedir una recesión de la que ya se empieza a hablar.

La venta de herramientas, skins, nuevas utilidades o contenido descargable exclusivo para quien lo paga ha sido una práctica en ascenso, que ha culminado en la creación de los llamados play to earn. Se trata de videojuegos basados en criptomonedas, donde la propia mecánica importa mucho menos que la posibilidad de ganar dinero jugando. Empresas tan importantes como Epic Games o SquareEnix han apoyado la tokenización de aspectos de sus juegos por medio de NFT y la creación de economías internas.

Habrá que ver si esta propuesta enderezará el mundo de los cryptotokens y será capaz de introducir gente nueva en la comunidad jugadora. Durante el ascenso de los videojuegos de rol masivos (MMORPG, Massively Multiplaying Online Role-Playing Games), como, por ejemplo, World of Warcraft, dos décadas atrás, se generó una economía sumergida alrededor de la compraventa de accesorios y personajes que afectaba sobre todo a trabajadores sin derechos. De momento, observando en qué estados se han implementado con más éxito los play to earn, que resultan ser, precisamente, aquellos con problemas económicos y desigualdades más evidentes, no parece que los NFT nos hayan conducido a ningún futuro esperanzador, al contrario de lo que predicaban algunos de sus entusiastas hace un par de años.





Inmersión en el metaverso

Proponemos un juego creativo en el que diversos autores se zambullen libremente en el concepto y los dilemas que supone el metaverso.


Una mujer zambulléndose desde el muelle, 1892 | John S. Johnston, Library of Congress | Dominio público

El concepto de metaverso hace referencia a un mundo virtual inmersivo y, aunque últimamente vuelve a sonar con fuerza debido al interés mostrado por una de las grandes empresas de Internet —que incluso ha cambiado de nombre—, no es un concepto nuevo ya que existen referencias literarias o cinematográficas desde hace tiempo. Hemos pedido a una serie de colaboradores que nos dieran una visión libre de lo que es este universo virtual, proponiéndoles un juego en el que cada uno pudiera expresar lo que este le sugería. Este es el resultado. Esperamos que lo disfrutéis con curiosidad y buen humor.

  1. Con-tacto, de Inés Macpherson
  2. Un mundo feliz en el metaverso, de Enric Luján
  3. El metaverso interpretado como un panóptico de la mente humana, de Jose Valenzuela
  4. Metaverso: memes, horizonte y futuro, de Proyecto UNA
  5. Versos del metaverso, de Antònia Folguera

Con-tacto

Inés Macpherson

En los años 80 la ciencia ficción nos abrió las puertas a la posibilidad de entrar en contacto con los espacios virtuales, con aquello que William Gibson denominó ciberespacio. En los 90, Neal Stephenson nos ofreció otra palabra entre las páginas de su Snow Crash: el metaverso, un espacio que va más allá de nuestro universo palpable, que se sitúa en el mundo virtual y donde se puede interactuar a través de avatares digitales. Pero si nos alejamos del nacimiento de los conceptos, las ideas laten en muchas otras obras del género, ya sean literarias o cinematográficas. Desde la sociedad esclavizada de Matrix a la posibilidad de llevar una vida plena tras de la muerte dentro de una realidad virtual, como San Junípero. Peligros, formas de intentar vencer nuestra finitud o crear un espacio donde reinventarnos; y una pregunta que siempre palpita entre las líneas de la ciencia ficción cuando nos adentramos en estos universos: ¿dónde poner el límite?

«Sé que este filete no existe», dice el personaje de Cifra en Matrix, y, sin querer, nos recuerda la importancia de diferenciar entre el mundo palpable y el virtual, de no perderse en el segundo como una huida, como una manera de no enfrentarse a la realidad. La posibilidad de vivir a través de lo que vemos en la pantalla, de los estímulos que sentimos en el cerebro sin movernos de casa, y olvidar el tacto, el contacto real, la conexión… Porque podemos contactar por redes, nos podemos conectar a un mundo virtual, podemos comprar, ver un concierto… Pero ¿y el contacto físico? ¿Dónde queda la memoria de la piel?

 

Un mundo feliz en el metaverso

Enric Luján

Hay un cuento de G. K. Chesterton («Sobre la propiedad privada», en Fábulas y cuentos, Valdemar, 2009) en el que se narra la historia de un piloto que sufre un accidente de aviación. En él pierde las dos piernas. Los hombres de ciencia que le operan (educados todos ellos en el Método) aprovechan para amputarle también los brazos y sustituir así todas sus extremidades por versiones mecánicas. Al despertarse el paciente y constatar su incredulidad, uno de ellos pretende tranquilizarle: «La pierna natural es un instrumento de lo más inútil». La reacción del piloto es puramente visceral: manda que le traigan sus nuevas piernas (mecánicas) para coserlo a patadas. Todo termina siendo una pesadilla  que Chesterton resuelve fiel a su estilo ácido: «Se despertó en un hospital normal y corriente y descubrió que el mundo todavía no había progresado tanto como había imaginado». «Lo eficiente» desde el punto de vista del progreso técnico no tiene por qué ser sensato desde la perspectiva de la experiencia vivida. Con la sustitución del Universo por un Metaverso, lo esencial del cuento se repite. Lo que se nos extirpa en este caso no son nuestras extremidades, sino la totalidad del mundo exterior, que va camino de ser suplantado por una imitación mecánica.

 

El metaverso interpretado como un panóptico de la mente humana

Jose Valenzuela

Fragmentos extraídos de la tesis doctoral «El metaverso interpretado como un panóptico de la mente humana», leída el dieciséis de noviembre de 2045 por la neurofilósofa Llucia Valenzuela.

«…un mecanismo cerebral de recompensa tan rudimentario que ya fue explotado desde el nacimiento de las máquinas tragaperras  a finales del siglo XIX, refinado mediante juegos como Candy Crush y que llegó a sus máximas cotas con los diseños publicitarios interactivos y personalizados del metaverso…». (p . 96)

«…qué se iba a esperar de un entorno capaz de registrar, ahora sí, cada uno de nuestros gestos, conversaciones e incluso señales fisiológicas. No hay secretos en el…». (pp . 134)

«…ya se conocía la capacidad de la realidad virtual para modificar nuestra actitud o nuestra percepción del entorno físico o social, pero nunca se había puesto a prueba bajo estrictos parámetros comerciales, lo que…». (p. 176)

«…un entorno diseñado por empresarios no podía tener otra finalidad que la de generar beneficios económicos. Todo lo demás (conectividad, asistencia, salud) podría considerarse parte de la campaña de marketing de distintas personalidades del ámbito tecnológico más interesadas en las criptomonedas que en…». (p. 201)

«…la mente se adapta a su entorno, y si ese entorno se rige por las leyes de la ficción, acabará sintiéndose en una…». (p. 233)

«…única conclusión posible es que era algo predecible. En su día vimos experimentos donde unas ratas preferían morir de hambre a dejar de pulsar un botón que estimulaba su centro del placer. Somos esos roedores, solo que en otro tipo de jaula». (p. 298)

 

Metaverso: memes, horizonte y futuro

Proyecto UNA

 

Versos sobre el metaverso

Antònia Folguera

Me pregunto quién soy yo para hablar del metaverso. No hace falta que diga nada sobre el metaverso, ya está todo dicho. Los siguientes versos son como objetos encontrados utilizando Google Autocomplete, editados, remezclados, algo postproducidos. Algunas veces riman, en su mayoría, no. La selección original se ha hecho en inglés, porque los algoritmos aún no están suficientemente entrenados en otros idiomas.

 

El metaverso es el futuro
El metaverso está llegando
El metaverso está llegando y el mundo no está preparado
El metaverso es triste
El metaverso es el mal

El metaverso es una mala idea
El metaverso es perverso
El metaverso ya está aquí
El metaverso es una pesadilla distópica
El metaverso es una antigualla

El metaverso no existe
El metaverso no es el futuro
El metaverso no está por encima de las leyes del mundo real
El metaverso no es web3
El metaverso no es lo que crees que es

El metaverso tiene beneficios para todos
El metaverso tiene mucho potencial
El metaverso tiene su propia economía virtual
El metaverso se ha convertido en un gran negocio
El metaverso ya llegó

El metaverso era Second Life
El metaverso era significativamente más interesante que la vida real y cotidiana
El metaverso era una huida de la realidad
El metaverso era un nuevo mundo
El metaverso era inevitable

El metaverso no reemplazará al mundo real
El metaverso no sucederá jamás
El metaverso dará forma a nuestro futuro
El metaverso innovará a gran escala
El metaverso será un fracaso

El metaverso huele a espíritu adolescente
El metaverso se ve mal
El metaverso tiene mal sabor
El metaverso suena estúpido
El metaverso parece real

¿Estamos ya en el metaverso?





Buscando semáforos en un CAPTCHA

Todos tratamos desesperadamente de encontrar un sentido a las cosas, la cuestión es cómo abrazar el desquicie y evitar la parálisis.


El director de tráfico inspeccionando los nuevos semáforos, 1926 | Library of Congress | Dominio público

Nos proyectamos en las vidas que los otros comparten en las redes. Nos relacionamos con los que ya no están a través de su legado digital. Leemos nuestros propios perfiles para entendernos a nosotras mismas. ¿Cómo nos relacionamos con el desquicie?

«”Sabes algo de _____?”, le preguntó su madre por teléfono, invocando el espectro de una compañera de clase que había conseguido huir, que era imposible de encontrar en ninguno de esos sitios donde buscabas los nombres de la gente. Tenía un trabajo tan de verdad que parecía un reproche: Ingeniera aeroespacial». Patricia Lockwood en el libro Poco se habla de esto describe a un personaje desgajado y con la cabeza frita por tener tres mil pestañas abiertas y pasarse el día hablando con desconocidos de internet o eliminando el fondo de unos guisantes para hacer un meme.

En una de esas, la protagonista habla de la línea temporal de su antigua compañera de curso: ¿Dónde estará? ¿Dónde se habrá metido? ¿Acaso –se pregunta la narradora– «había conseguido, por medio de su bondad y de su concentración, irrumpir en una de esas líneas temporales mejores»? ¿Mejor que la suya, al menos?

Internet, recuerda este libro, está lleno de bromas y chistes sobre el deseo de salir de esta «línea temporal», la que ocupamos, nuestro ahora, y colarnos en otras vidas posibles; quizá porque es muy fácil la posibilidad de proyectarnos en otros lugares. De saber exactamente la cara y la casa y el dinero, por tanto, que maneja la nueva novia de un examante. De saber que tu amiga del instituto ya ha sido madre (dos veces). De poder arrastrarse como un gusano baboso por la cuenta de Twitter de una examiga hasta llegar a la respuesta que publicó ayer de madrugada en la cuenta de un político por una nueva normativa que afecta a su perro. Tu examiga estaba enfadadísima ayer de madrugada, y tú conoces a su perro, y no estabas ahí para consolarla. Más o menos te haces una idea de su sufrimiento y de las cosas que le preocupan, y ese scroll a través de sus respuestas se parece, por lo menos durante un rato, a conversar con ella. A refrescar su página.

En cambio, cuando has perdido el rastro digital de alguien también puede sucederte lo que a la protagonista de Lockwood: imaginar que inevitablemente ha tenido que elevarse a algún lugar mejor, algo así como el reino de los cielos analógico. Da igual que siga teniendo todas sus redes activas, la diferencia es que tú ya no las ves. La imposibilidad de no poder imaginarla envuelve a la persona en un halo de misterio, y hasta de progreso. Tiene que estar bien. Seguro que todo le está yendo bien. Seguro que le va tan tan bien que me ha olvidado. En el fondo, tampoco hay tantas personas inencontrables (al menos yo no conozco a mucha gente que se haya desconectado de todo). Más bien se diría que a veces las personas tienen que desencontrarse por una cuestión de estricta supervivencia (y de preservación del tiempo propio, que es una forma de amor propio). Por eso dejamos de seguir, y silenciamos, y bloqueamos. Creo.

Alguna vez mis amigas y yo nos dejamos los móviles las unas a las otras para entrar en esas dimensiones que tenemos más o menos restringidas y, cuando lo hacemos, adoptamos formas primitivas. Toma, toma, aquí está, pero solo un rato. Mira. Asómate como un perrito. Han roto. Nueva novia. ¿Qué le pasa? ¿Por qué pone estos vídeos? Su bebé es feo. Uh. Borrar historial.

En medio de este scroll compulsivo, me veo también a mí misma dilatando todas mis tareas leyendo artículos que no entiendo de una investigadora que se llama como yo. La web de Academia, en su habitual estrategia de spam muy vanidoso, me inquiere constantemente con preguntas sobre quién soy. Esto es, un ente externo me obliga cada cinco o diez días a corroborar la persona en la que me he convertido y a descartar las que ni he sido ni voy a ser ya. Es mucho más comprometido que contestar a la pregunta de si eres un robot.

«Are you the Anna Pacheco who…?».

«¿Eres la Anna Pacheco que escribió «Calibración y evaluación de un dominio de frecuencia…»?».

«¿Eres la Anna Pacheco que escribió «Mapeo de la humedad del suelo usando datos RADARSAT-2 y local…»?».

«¿Eres la Anna Pacheco que ha escrito «Aplicación de la teledetección hiperespectral para flores…»?».

No, no lo soy. Pero ojalá. Ahora quiero serlo. ¿Qué significa eso de ser hiperespectral para las flores? ¿Qué es eso de mapear la humedad del suelo y por qué no sé hacerlo? ¿Por qué no he aprendido a hacerlo? Buscar en Google: cómo se mapea el suelo. ¿Se puede ansiar una vida de la que ni siquiera has estado cerca? ¿Tengo derecho a ofenderme porque exista una Ana Pacheco, dj, que actuará en el Sónar y desconocidos de Internet me pregunten si esa también soy yo? Lo que me pregunto, entonces, es por qué no lo soy y quién es ella y si está bien, y luego me da igual. La primera Ana Pacheco que encontré fue la exguerrillera. Es, de todas nosotras, la que ostenta los titulares de prensa más sugerentes: «De niña guerrillera a modelo, la guerrillera de las FARC que se desnuda». Pero hace mucho tiempo que no sé nada de ella y, además, su nombre se escribe con una sola ene.

Mirarse a una misma en medio de esta violencia salvaje es, desde luego, un impulso narcisista y burgués, pero tengo Internet y paso muchas horas trabajando sentada frente a una pantalla. Así que miramos afuera y adentro, a nosotros y al resto, leemos páginas enteras de Wikipedia y nos leemos nuestros propios perfiles para intentar entender cómo se nos ve desde fuera. Buscamos. Buscamos. Buscamos. Busco: candidiasis persistente, cómo cocinar un día y comer toda la semana, astenia primaveral cuánto dura. Monitorizamos timelines enteros de sujetos desconocidos como si buscáramos algo concreto. Y a veces no sé qué buscaba hasta que lo encuentro. Y a veces no sabía que lo necesitaba hasta que lo tengo.

Loorrie Moore, en ¿Quién se hará cargo del hospital de ranas?, dice: «Dios, qué llena está la vida de momentos que tendrían que haber transcurrido de otro modo pero no lo hicieron». No lo hicieron. Las cosas suceden de una forma, pero todo el rato podrían suceder de otra sin que a veces se nos presente siquiera el desvío. Y yo pienso que a veces utilizo Internet como una forajida en busca de desvíos y desvíos y desvíos para luego volver a un principio. Chica, qué dices. Mi amigo más marxista me diría que quizá sufro de ese engendro capitalista llamado FoMO crónico y que abra las ventanas un poco para ventilar la habitación.

Tampoco me olvido de dos cuestiones a propósito de la guerra. A las pocas horas de que empezaran los bombardeos en Ucrania, en Pornhub la etiqueta *chicas ucranianas* era el número uno en el ranking de páginas más visitadas del portal. Respecto a eso tengo una sensación muy parecida a la que tuve con un vídeo viral que mostraba cómo una televisión interrumpía su conexión con la guerra con el anuncio de una hamburguesa grasosa y apetecible.

Pienso en una masa compacta de hombres (seguro que son muchos hombres) enterándose del ataque de Rusia a la ciudad de Mariúpol, les imagino sentados frente a un ordenador, acordándose de que existe un país que se llama Ucrania y que ese país tiene mujeres y que esas mujeres, en su cabeza, están muy bien. Y entonces, procediendo, diligentes, a teclear el nombre de la web y su nuevo interés. Y luego, la paja. De esas en horario laboral en las que el humano es, en realidad y sobre todo, siervo de su paja. Y veo a esos hombres retomando la jornada. Abriendo la pestaña de Mariúpol, ahora en serio, para ver qué ha pasado. Un trozo de papel higiénico, dos trozos. La masa compacta de hombres se derrite y parece fango. Lo que quiero decir es que a veces somos hamburguesa y bombardeo, y supongo que damos asco.

En París, distrito 13, la última película de Jacques Audiard, una de las protagonistas se conecta a una página erótica para entablar conversación con una persona que precisamente le ha traído problemas por el parecido extremo que guarda con ella. Entre tantos desconocidos y posibilidades, ella acaba buscándose de algún modo a sí misma, tal vez como una forma de infiltrarse en esa otra línea temporal en la que trabaja en un chat para adultos, como quien se mira en un espejo para exigir explicaciones de cómo le ha ido. O de cómo le podría haber ido. O de cómo le podría haber ido de haber sabido cómo le iría.

«Nada de lo que escribo sería como es si no lo escribiera hoy, en este siglo, con un ordenador delante que, como un oráculo, como una bola mágica, como un espejo de agua, me muestra todo lo que quiero ver, me sacia la primera sed con una respuesta, una imagen, un sonido, un vídeo, la capacidad momentánea de ser pájaro, dios, nube, de, por un instante, ver, entender, saber lo que no sé, lo que no aprendí, lo que olvidé, lo que no he visto ni vivido aún», resume la escritora Irene Solà, autora de Canto yo y la montaña baila, en un texto sobre lo que implica exactamente tener un ordenador con conexión a Internet. La explicación me convence. Así que me digo que quizá solo quiero ser pájaro y dios y nube buscándolo todo, y buscándome a mí.

Otras cuestiones: revisar de manera compulsiva cosas que no existen pero que una vez existieron. Cuando se muere alguien, puedes pasar meses visitando sus últimas conversaciones de WhatsApp, releyéndolo todo como una forma de revivirlo. Yo una vez me lamenté, incluso, por los likes que no había dado a tiempo. Así que una noche me vi a mí misma borracha en un portal de un edificio saldando mis deudas con un muerto. Diciéndole que me gustaba todo lo que había hecho aquí o aquí y cómo salía aquí y aquí también. Me recuerda a este ejercicio que Gabriela Wiener explica en Huaco retrato: «Desde que murió mi papá tengo un juego solitario conmigo misma, ¿o con él?, algo a medio camino entre la muerte y las tecnologías. Pongo su nombre en mi Gmail y aparecen todos sus correos, elijo uno azar y lo leo como se leen las tiras de papel de las galletas de la suerte». La misma práctica es aplicable a todo tipo de rupturas. Mismos fantasmas con caras distintas.

«A las tres de la mañana solo quedaban dos preguntas, y eran me estoy muriendo y me quiere alguien de verdad», escribe Lockwood. Como el meme del insomnio en el que te ves reflejada a las tres de la mañana llorando en funerales futuros de gente que todavía vive, o en el tuyo propio junto al epitafio She was so productive. A veces creo que mi cabeza solo opera a partir de hipervínculos y una sucesión de imágenes aleatorias y catastróficas. A veces me duele mucho la cabeza. A veces quisiera dormir pero estoy encerrada en un portal misterioso y excitante con nombre de cosa o persona.

Una noche en la que se me caen los ojos delante de la pantalla, creo que empiezo a delirar: siento que tengo que buscar pasos de cebra en un CAPTCHA y que no logro encontrar ni uno, y me siento estúpida por no encontrar ni un solo paso de cebra siendo yo un humano. Porque soy un humano yo. Tengo que serlo. El móvil choca contra mi frente iluminando mi cara, acobardada entre un edredón, en víspera de laborable. El CAPTCHA sigue sin reconocerme, solicita que vuelva a intentarlo, esta vez buscando semáforos. En mi estado soñoliento imagino peatones diminutos que sobresalen de los cuadros y me ovacionan a mí y solo a mí, moviendo mucho las manos: guapa guapísima chulísimaaa eres la mejor eres lo mejor espero que sepas que eres verdaderamente la mejor. Pero dinos, cómo, ¿cómo no vas a encontrar un puto semáforo?





El coste de la utopía digital

¿Y si el coste que conlleva el ceñirse a la agenda del «no hay alternativa» del tecnocapitalismo es notablemente más alto de lo que habíamos previsto?


Inspección de botes de basura de los campamentos móviles de la FSA (Administración de Seguridad Agrícola), 1941 | Russell Lee, Library of Congress | Dominio público

¿Cuál es el verdadero coste de la utopía digital, el arma más poderosa de seducción masiva en el arsenal en expansión del tecnocapitalismo? Las respuestas habituales –la pérdida de privacidad, el aumento de las fake news, los riesgos de la guerra informática– no son, desde luego, erróneas. Pero, al quedarse en la superficie, inevitablemente omiten los cambios y las transformaciones más profundas que no son inmediatas y cuyos efectos no pueden vincularse de manera directa y explícita a las maquinaciones de Mark Zuckerberg o Elon Musk.

La mentira que nutre el mito utópico subyacente al tecnocapitalismo es que solo hay una manera de hacer «big data», «inteligencia artificial» o «informática en la nube», y que ya la han descubierto y perfeccionado en Silicon Valley. Los beneficios son demasiado numerosos y evidentes para ser debatidos incluso de forma explícita; a menudo basta con la mera evocación de una regularidad como la ley de Moore. Las cifras aumentan y esto significa «progreso». En cuanto a los costes, pueden contabilizarse con sumo detalle y, si tenemos suerte, mitigarse.

Sin embargo, ¿y si el coste que conlleva el ceñirse a la agenda del «no hay alternativa» del tecnocapitalismo es notablemente más alto de lo que habíamos previsto? ¿Y si en última instancia no puede conocerse? ¿Y si el progreso que implica la ley de Moore –que enlaza la velocidad, el tamaño y el coste de los microprocesadores– es, en definitiva, tan unidimensional como el tecnocapitalismo que le ha dado origen, y existen otros parámetros y métricas –relacionados sobre todo con la biodiversidad pero no limitados a ella– que, una vez contabilizados, complicarían sensiblemente nuestra fe en la idea de que a mayor «tecnocapitalismo», mayor «progreso»?

Uno de los secretos de la enorme resiliencia y longevidad del sistema capitalista ha sido su capacidad de repudiar el coste de sus operaciones, trasladándolo a los demás o estableciéndolo de tal manera que paguen las generaciones futuras. Algunos de los primeros críticos (como William Kapp, uno de los padres de la economía medioambiental) hablaron del «desplazamiento de costes» y hallaron en él una de las principales fuerzas motrices del capitalismo. Cuando se diseña el verdadero coste de su funcionamiento, que sufrirán otras personas o podrá sentirse en un momento muy posterior, no es de extrañar que el capitalismo parezca un sistema benevolente.

Su última iteración, el tecnocapitalismo, ha perfeccionado estos métodos hasta el punto de que muchos de nosotros pensamos que este nuevo sistema socioeconómico está realmente tan libre de fricciones como abogan sus defensores. Su legitimidad descansa en la capacidad de las grandes plataformas de convertir la información de los usuarios en subvenciones implícitas que cubren los costes no triviales de que utilicemos sus servicios. Parece realmente que el sistema funciona por arte de magia: no se sabe cómo, uno puede utilizar los servicios de Facebook y de Google sin tan siquiera pagar por ellos. Silicon Valley nos asegura que no se produce un desplazamiento de costes porque no hay costes.

Con este modo de encuadrar el debate ideológico, con razón algo como la ley de Moore parece más que verosímil: nos han entrenado para creer que de las tecnologías digitales solo cabe esperar beneficios, ¡y «progreso!». Con razón nuestra capacidad para pensar alternativas a este sistema está muy limitada; cuando se da por hecho que los costes no existen, ¿para qué molestarse? Esto lo que está verdaderamente en juego al hacer del todo visible el verdadero coste del tecnocapitalismo: es un prerrequisito para una tecnopolítica que podría redigirir las tecnologías digitales hacia usos más emancipadores.

Especies inanimadas, una instalación de Joana Moll | © Ona Bros

La gran ironía de las últimas décadas ha sido que, al hacer nuestra propia vida cada vez más transparente y visible, el tecnocapitalismo ha hecho todo lo posible por confundirnos acerca de su propio funcionamiento. Hay una fuerte asimetría epistémica: mientras que de todos nosotros, como individuos, se espera que nos hagamos objetivamente «conocibles», el tecnocapitalismo solo quiere ser conocido en sus propios términos, volviendo inescrutable gran parte de sus métodos, procesos e infraestructuras reales. En su mayoría, además, permanecen invisibles.

¿Cómo podemos recuperar la capacidad de verlos y, con suerte, de analizar sus efectos? La respuesta convencional es que para ello debemos refinar nuestras teorías. Al fin y al cabo, el tecnocapitalismo no deja de ser capitalismo, y es nuestra incapacidad para estudiar detenidamente la economía política de los datos y sus infraestructuras asociadas lo que ha causado la impotencia de nuestro aparato analítico. Hay mucha verdad en un diagnóstico como este. Después de varias décadas todavía no sabemos siquiera cómo hablar sobre «datos»; ¿son el producto del trabajo de cada uno o son simplemente un remanente de la actividad social? Mientras este tipo de preguntas queden sin respuesta, es probable que no obtengamos la suficiente claridad conceptual (y mucho menos visual) de las incursiones en la economía política.

Esto nos deja con formas de narrativa que, al dejar de lado el análisis formalista de la economía política, podrían, no obstante, revelar algunas fallas profundas en el relato convencional del progreso que asociamos con el tecnocapitalismo. La correlación no implica causalidad, por supuesto, pero en nuestro actual entorno intelectual, donde los propios términos del debate se han visto minados por nuestra incapacidad para pensar más allá del tecnocapitalismo, la correlación bien podría ser suficiente; pensar en términos de causalidad es una especie de lujo intelectual que requiere el tipo de madurez analítica que, por desgracia, no hemos alcanzado.

Todo lo que cabe esperar en este momento es comprender las limitaciones de nuestras propias categorías y conceptos actuales para dar sentido al nuevo entorno (y para construir una política que nos permita trascender la tecnopolítica y todas sus limitaciones). Pero para conocer y resolver nuestras propias limitaciones, las correlaciones no son solo más que suficientes, sino que son también el instrumento perfecto para sacarnos de la pasividad intelectual al yuxtaponer procesos y actividades que normalmente nunca percibiríamos juntos.

Especies inanimadas, una instalación de Joana Moll | © Ona Bros

El audaz intento de Joana Moll en la instalación «Especies inanimadas» de situar el auge de los microprocesadores frente a la disminución del número y de la diversidad de los insectos es un paso maravilloso y muy necesario en esta dirección. Solo revelando la insuficiencia de nuestras ideas de progreso tecnológico, con su ceguera artificial y su falta de atención a los criterios que no poseen ningún valor para el tecnocapitalismo, seremos capaces de recuperar nuestro rumbo intelectual y político y, es de esperar, evitar que el proyecto del tecnocapitalismo destruya toda la vida en la Tierra (aunque pudiera hacerlo de la manera más inteligente posible).

La ironía de la ley de Moore, que muchos en Silicon Valley abrazan como un artículo de fe, consiste en que ilustra algo muy diferente a lo que sus partidarios creen. No hay mejor prueba de la realidad de la competición capitalista –donde las empresas competidoras invierten constantemente dinero para superar a sus homólogas– que la historia del microchip: lo que muchos tecnólogos consideran simplemente una característica «natural» de una tecnología dada (por ejemplo, el microchip cada vez más pequeño) en realidad no son más que los efectos de la competición capitalista. Pero ¿qué impulsa la demanda de todos estos incrementos en la velocidad que las empresas competidoras se apresuran en proporcionar? ¿Es racional esta constante insistencia en la velocidad?

En la medida en que ofrecen su apoyo a proyectos sociales y políticos de dudosa utilidad, tales aumentos en la velocidad revisten escasa importancia emancipadora. Solo en la última década, por ejemplo, hemos visto cómo una enorme cantidad de potencia informática –respaldada, claro está, por procesadores cada vez más potentes– se ha dedicado a la extracción de criptomonedas como Bitcoin. El aumento de la velocidad –la cuestión del «progreso» de la que al tecnocapitalismo le gusta presumir– que sin duda respalda tales «avances» tiene poco valor para la sociedad: la energía que se consume en la resolución de puzzles criptográficos (a fin de cuentas, en esto consiste la «extracción») es solo un precio a pagar por no confiar en el Estado y necesitar algún sistema de contabilidad paralelo y no estatal.

Sin embargo, es muy probable que este no sea el único precio a pagar. Aun así, como en todos los demás casos de desplazamiento de costes por parte de los regímenes capitalistas anteriores, todavía no hemos visto la cuenta. ¿No deberíamos estar haciendo algo para anticiparlo? ¿No deberíamos exigir al tecnocapitalismo la misma transparencia que nos exige a nosotros? Sin duda deberíamos hacerlo. Y es en este espacio de la yuxtaposición especulativa y el correlacionismo crítico donde los esfuerzos de Joana Moll por narrar el auge de los microprocesadores y la disminución de los insectos realizan una importante contribución. Ojalá nos despierte de nuestro letargo y nos lleve a reflexionar no solo sobre el coste del progreso sino sobre otros caminos alternativos que podría tomar. Ser mejores, más rápidos y más eficientes a la hora de hacer que la civilización humana se vuelva obsoleta no cuenta como «progreso», aunque el capitalismo a menudo lo afirme.

Este texto forma parte del catálogo de la instalación «Especies inanimadas» de Joana Moll, que se expone en el CCCB del 1 de marzo al 25 de abril de 2022.





Bajo la nube

La historia de cómo Amazon desarrolló su plataforma de informática en la nube y el impacto en el territorio.


Noranda, 1942 | Joseph Herman Bolduc, Bibliothèque et Archives nationales du Québec | Dominio público

Si bien la metáfora ha hecho fortuna, la nube es algo totalmente terrenal. En este fragmento del libro Estados Unidos de Amazon. La historia del futuro que nos espera, el periodista Alec MacGillis narra el surgimiento de Amazon Web Services y su impacto en el desarrollo de los centros de datos. Un texto publicado por cortesía de PeriscopiPenínsula y Farrar, Straus and Giroux.

La nube. Un término tan delicado y etéreo. Evocaba imágenes como la de una pelota trazando un arco hacia un lado del campo de béisbol, o un tranquilo domingo de verano en el campo. En realidad, la nube era de lo más terrenal y material; la antítesis de la ligereza y la luminiscencia.

La nube vivía en los centros de datos, las enormes estructuras sin ventanas que empezaron a proliferar en determinados rincones del paisaje estadounidense a finales del siglo XX a medida que las comunicaciones y la vida comercial se trasladaban al mundo online. Los millones de transacciones, interacciones y actividades que hasta hacía no tanto formaban parte de lo cotidiano — enviar una carta, pagar con un billete, leer un periódico, poner un disco, proyectar una película— habían abandonado su existencia corriente y ubicua para pasar a un terreno oculto casi por completo a la vista. En el interior de los centros de datos estaban los enormes servi­dores a través de los cuales circulaba todo: las transaccio­nes comerciales, los secretos gubernamentales, las declara­ciones de amor. En 2018 estábamos generando 2,5 trillones de bytes de datos cada día, una cantidad que aumentaba a un ritmo tan exponencial que el 90 % de los datos del mundo se habían generado únicamente en los dos años anteriores. Cada minuto, de media, el mundo realizaba 2,4 millones de búsquedas en Google, miraba 4,1 millones de vídeos de YouTube y publicaba 47.000 imágenes a Instagram.

Las instalaciones eran casi autosuficientes: un centro de datos de casi 19.000 metros cuadrados y con servidores por valor de 400 millones de dólares necesitaba solo una vein­tena de ingenieros y técnicos para funcionar. Lo que sí consumían era electricidad y agua, lo primero para que las máquinas funcionaran y lo segundo para enfriarlas.

Y necesitaban medidas de seguridad. Los centros de datos eran los centros neurálgicos de la nación y como tales se los protegía. Las paredes eran el doble de gruesas que las de la mayoría de los edificios y podían resistir vientos de hasta 240 kilómetros por hora. Los bloques de hormigón del suelo podían sostener 1.700 kilos por metro cuadrado. Las máquinas se guardaban en jaulas y estaban protegidas por cortafuegos. Algunos edificios tenían techos de hormi­gón para poder albergar enormes generadores de reserva. Las instalaciones habrían podido confundirse con refugios antiaéreos lo suficientemente grandes para un pueblo en­tero de paranoicos.

En teoría, los centros de datos podían instalarse en cual­quier lugar en el que en las proximidades hubiera cable de fibra óptica, mucha agua y electricidad barata. En la prácti­ca, se concentraban en un mismo sitio. Había cantidades casi infinitas de transacciones comerciales y comunicacio­nes humanas metidas en unos pocos edificios situados en unos pocos emplazamientos. Incluso más que en otros aspectos del paisaje digital, en la nube predominaban unos cuantos lugares y unas cuantas compañías, los mejor conectados y con más capacidad.

Y la mayor concentración, de largo, era la del norte de Virginia. Desde muy pronto, la zona había acogido a un número desproporcionado de operadores comerciales de internet, atraídos por la concentración de proveedores que trabajaban para el ejército y de empresas de alta tecnología. La región disponía también de una gran cantidad de terreno — las granjas de relieves ondulados se extendían hacia el oeste y el sur del río Potomac en dirección al Piedmont, con los picos de la Blue Ridge asomando en la distancia— y de electricidad barata, por el carbón de los Apalaches. En 1992, un grupo de operadores de internet se reunieron para comer en el Tortilla Factory, en Herndon, Virginia, para tomar una decisión que sellaría el destino de la zona: concentrarían sus redes físicamente en un nuevo punto compartido, para mejorar así el alcance y el valor de sus servicios de cara a los clientes. El centro, denominado Metropolitan Area Exchange-East, estaba situado en una sala de bloques de hormigón, dentro de un garaje subterráneo, en Tysons Corner, un barrio periférico que se extendía por la autopista de circunvalación.

Alec MacGillis | Rueda de prensa en el CCCB

Las exenciones tributarias que el estado de Virginia y las administraciones locales, sobre todo los condados de Loudoun y Prince William, concedían a los centros de datos ejercían un poder de atracción adicional. Para aquellos suburbios de Washington, los centros de datos eran los vecinos ideales: proporcionaban los ingresos fiscales necesarios para pagar por las lujosas escuelas que exigían los residentes que se trasladaban a vivir a las nuevas McMansiones, y no añadían apenas coches a las saturadas carreteras. En ese sentido, que casi no crearan puestos de trabajo era, por utilizar el argot del sector, una característica, no un error.

Cada instalación costaba entre 50 y 70 millones de dó­lares. No había ningún detalle que pudiera identificarlas: alguien que pasara por allí no podría saber quién o qué estaba detrás de ellas. «No tenemos nada que decir de nin­gún proyecto, ni real ni imaginario», diría el responsable de desarrollo económico de Prince William en 2000, en respuesta a las preguntas de un periodista.

El pinchazo de la burbuja tecnológica ese año vació muchos de aquellos centros e hizo temer que aquellos enormes cascarones, no aptos para ningún otro fin, se con­virtieran en una ruina urbanística permanente. Pero no fue más que un revés temporal. El auge de la industria del con­traterrorismo tras los atentados del 11-S hizo crecer la de­manda de almacenamiento de datos de alta seguridad; cada vez más, los edificios se equipaban con «trampas», entra­das por las que podía acceder una sola persona equipadas con escáneres biométricos capaces de leer huellas digitales, la palma de la mano o la retina; había también entradas falsas, cristales a prueba de balas y paredes revestidas de Kevlar. Algunos de los centros de datos incluso estaban ubicados a propósito detrás de colinas, para que no fueran tan visibles, y para impedir el paso de vehículos que pudie­ran lanzarse contra el edificio cargados de explosivos; los que estaban menos protegidos por la topografía tenían pe­rímetros de postes de hormigón.

Y entonces llegó la nube.

El origen funcional del término — la idea de ejecutar aplicaciones en servidores ajenos— surgió a principios de la década de 2000 en Seattle. Amazon había puesto en mar­cha Merchant.com, un portal a través del cual vendía a otras páginas web de comercio electrónico la tecnología necesaria para su funcionamiento, y se dio cuenta de que, con interfaces bien diseñadas, para usuarios externos era muy fácil acceder a la tecnología de Amazon. En esa misma época, la compañía descubrió que muchos de sus equipos de desarrollo de software estaban dedicando meses a recrear la misma infraestructura básica para sus proyectos, una y otra vez. ¿Por qué no diseñar una plataforma de infraestructura que hiciera más eficiente el desarrollo del software de Amazon y permitiera ofrecérselo también a otras empresas? Esas compañías podrían diseñar aplicaciones para ejecutarlas en la infraestructura ya existente — desde programas a pagos a mensajería— y así ahorrarse el coste y las molestias de diseñar su propia infraestructura y gestionar sus propios servidores y centros de datos.

La compañía creó Amazon Web Services (AWS), su división de informática en la nube, en 2003, y ofreció por primera vez su servicio de almacenamiento de datos en 2006. En 2017, AWS proporcionaba servicios en la nube a, entre otros, General Electric, Capital One, News Corp, Verizon, Airbnb, Slack, Coca-Cola e incluso a rivales directos como Apple y Netflix, e ingresaba más de 17.000 millones ese año, una décima parte de todos los ingresos de Amazon. «AWS ha construido una de las plataformas tecnológicas más completas y revolucionarias que han existido», declaró el responsable mundial de estrategia corporativa de AWS, Stephen Orban.

Entre su hegemonía en la nube y su hegemonía en las ventas online, Amazon estaba en una posición de dominio que le permitía aplicar una tasa — lo que los economistas llaman «tener una renta»— a dos de los mayores ámbitos de la actividad comercial digital: el almacenamiento de datos y el comercio electrónico. Casi podría compararse a un im­puesto, salvo por el hecho de que este impuesto lo recau­daba una corporación, no un Gobierno electo. O podría compararse con una empresa de suministros: a efectos prác­ticos, Amazon había plantado un contador junto a los centros de datos del país, solo que sin las limitaciones regulatorias a las que se enfrentaban las empresas de suministros.

O podría compararse con la lucrativa jugada de los ban­cos y los fondos de alto riesgo que llevó al colapso financiero de 2008, el equivalente a «la banca siempre gana». Pasara lo que pasase, Amazon cobraba su tasa. «Veo paralelismos entre el comportamiento de Amazon y las prácticas credi­ticias de ciertos grupos financieros antes de la crisis de 2008 — sostendría la columnista del Financial Times Rana Foroohar—. Unos utilizaron precios dinámicos, en forma de préstamos hipotecarios de alto riesgo de tipo variable, y explotaron enormes asimetrías informativas a la hora de vender valores respaldados por hipotecas y complejos acuerdos de deuda a inversores incautos, entre los que es­taban ciudades como Detroit. Amazon, por su parte, dis­pone de muchos más datos de mercado que los proveedo­res y los compradores del sector público a los que pretende vincular. De hecho, veo cada vez más paralelismos entre los grupos online y las grandes instituciones financieras. En ambos casos, se sitúan en el centro de un reloj de arena de información y comercio, y le cobran a todo el que quiera pasar. Como un gran banco de inversiones, Amazon puede crear un mercado y a la vez participar en él.»

Data Center Alley | Google Maps

La situación recordaba también a la de los gigantes del ferrocarril de finales del siglo XIX, que eran dueños tanto las vías como de gran parte del petróleo y el carbón que se transportaba sobre ellas, lo que les permitía exprimir al máximo a los productores de combustible.

Con cada vez más empresas trasladándose a la nube, y otras compañías siguiendo el ejemplo de Amazon y buscando la manera de ofrecer capacidad de almacenaje, los centros de datos se extendieron como nunca antes. En el norte de Virginia, ocupaban más de 800.000 metros cuadrados. Dominion Virginia Power, la principal empresa de suministros del estado, que dependía en gran medida del carbón como fuente de energía, se preparaba en 2013 para un incremento del 40 % en la demanda de electricidad para los centros de datos solo en los siguientes cuatro años. Cada centro de datos consumía tanta energía como 5.000 hogares.

Los terrenos iban ocupándose, sobre todo en el condado de Loudoun, donde en 2013 había 40 centros de datos que sumaban una superficie de casi medio millón de metros cuadrados, el equivalente a 25 centros comerciales Walmart, y se esperaba doblar esa cantidad en la siguiente década. En un periodo de solo dos años, 2011 y 2012, Loudoun sumó 75.000 metros cuadrados de espacio dedicado a albergar centros de datos, pero ni un solo metro cuadrado de oficinas convencionales. La tierra se vendía a más de un millón de dólares el acre — una media hectárea— en el corazón del llamado Data Center Alley del condado.

Loudoun presumía de que un 70 % de todo el tráfico de internet pasaba por sus centros cada día. Ashburn, un suburbio más allá del aeropuerto internacional de Washington-Dulles donde en un inicio se habían concentrado los centros de datos del condado, se citaba al mismo tiempo que Tokio, Londres y Frankfurt al hablar de los grandes núcleos de internet del mundo. «No exagero si digo que el Data Center Alley es esencial para el tejido social de la cultura occidental», diría el responsable de desarrollo econó-mico del condado de Loudoun, Buddy Rizer. Alardeaba también de que más de 200 millones de dólares en impues­tos salían de los centros hacia sus arcas cada año, hacien­do posible que el condado, el más rico del país, financiara servicios como guarderías que funcionaban toda la jorna­da, y que otras comunidades más necesitadas no podían permitirse.

Amazon ya tenía varios centros de datos en el norte de Virginia, que operaban bajo el nombre de su filial de cen­tros de datos, Vadata. Pero necesitaba más capacidad, mu­cha más, porque aspiraba a hacerse con nuevos ámbitos de negocio. En 2013, se adjudicó un contrato de 600 millones de dólares por la nube de la CIA, y varias ramas del ejército empezaban a valorar la posibilidad de trasladarse también a la nube.

En 2014, una empresa no identificada pidió poder cons­truir un centro de datos de 46.000 metros cuadrados cerca de la población de Haymarket, en el condado de Prince William. El lugar que tenía en su punto de mira, junto a la autopista John Marshall, estaba alejado del resto de los cen­tros de datos del área, mucho más al oeste, lo que permitía una mayor discreción. Estaba más allá del Parque Nacional del Campo de Batalla de Manassas y colindaba con el Rural Crescent, una franja de terreno protegida del desarrollo ur­banístico.

Aun así, la empresa sin nombre consiguió la aprobación del condado: Prince William no tenía normas de zonifica­ción para los centros de datos. Seguramente no le perju­dicó que varios trabajadores del equipo de desarrollo eco­nómico del condado viajaran dos veces a Seattle en 2013 para asistir a una serie de reuniones en la sede principal de la compañía, en uno de los casos acompañados de funcio­narios de Dominion, la empresa de suministros de Virgi­nia.

Lo único que quedaba por hacer era conectar el nuevo centro a la red eléctrica.





Kyle Chayka: «La plataforma nos conecta, pero también homogeneiza los gustos»

Hablamos con el periodista sobre minimalismo y sobre cómo nos afecta esta tendencia a la hora de relacionarnos con la realidad que nos rodea.


El minimalismo es tendencia. Pero esta corriente estética, que aboga por tener y necesitar menos, ha sido fagocitada por la lógica capitalista, utilizándola para homogeneizar tendencias estéticas de todas partes. El periodista del The New Yorker Kyle Chayka reflexiona sobre este proceso, a la vez que nos invita a prestar atención a lo que nos rodea.

Kyle Chayka es un cronista digital que escribe sobre internet y la complejidad contemporánea de los entornos digitales, y comparte sus textos en publicaciones destacadas como The New Yorker. ¿Por qué algunas cosas se vuelven virales? ¿De dónde vienen los memes? ¿Dónde comienzan las tendencias globales?

En este proceso de arqueología digital, Chayka se ha fijado en uno de los elementos que hacen de conector entre diversas tendencias estéticas: el minimalismo. Está presente en los contenidos que consumimos en las redes sociales, en los espacios culturales de referencia, en las plataformas, en los Airbnb, en las cafeterías, incluso en nuestra casa. La tesis de su libro Desear Menos (Gatopardo, 2022) se esconde en un cúmulo de experiencias personales mezcladas con muchísima información sobre la historia del arte, donde explica por qué el minimalismo se ha convertido en una commodity.

Chayka defiende que el minimalismo consiste en llevar una vida más simple, tener menos cosas, necesitar menos cosas y poder prestar atención y apreciar lo que se tiene delante. Es una idea para simplificar y reducir las propias necesidades y ser consciente de uno mismo y del propio entorno.

Como siempre, el capitalismo ha fagocitado el concepto, y ahora se pueden comprar productos de belleza minimalista, luces minimalistas, casas minimalistas, muebles minimalistas y ver series minimalistas. Un concepto nacido en el entorno del arte contemporáneo se ha convertido en una etiqueta más del marketing, llegando a la paradoja de invitar a comprar un objeto para vivir una vida sin tantos objetos. Comprar más para tener menos.

El minimalismo se ha descontextualizado, se ha convertido en una excusa para promover un monocultivo estético que unifica tendencias en todo el mundo y hace que entremos en un café o en un apartamento y no sepamos si estamos en Nueva York, en Praga o en Sevilla. Es la tendencia estándar de la gentrificación, una falsa neutralidad pretendida. Según Chayka, Occidente ha adoptado una versión edulcorada y naif del minimalismo, donde parece que queremos descargarnos del mundo físico para poder centrarnos en el mundo digital. Que la realidad sea un decorado amable, un telón de fondo neutro pero con toques confortables donde poder expresarnos, destacar, conectarnos al wifi y disfrutar de nuestras pantallas, una especie de proyección del estado ideal de la generación milenial.

Kyle Chayka. Sobre la abundancia digital

La estética del minimalismo ha devorado la idea original, en vez de ayudarnos a conectar más con las cosas, con la realidad y a reflexionar sobre nuestra relación con el entorno, este minimalismo corporativo promueve la homogeneización, el consumo y el aislamiento.

Chayka define espacios homogeneizados como Airspace, una estética estéril difundida por las plataformas de Silicon Valley en todo el mundo. Pero no se trata de grandes multinacionales ofreciendo su estética a todas sus delegaciones o tiendas en todo el mundo, sino que más bien miles de propietarios de cafeterías de todo el mundo han decidido de manera independiente adoptar la misma estética falsa artesanal. Las plataformas digitales han terminado produciendo «una armonización de gustos» en todo el mundo, haciendo que, al viajar, siempre volvamos al mismo lugar. Que todos los centros de las ciudades se parezcan. Según Chayka, AirSpace son las cafeterías, los bares, las oficinas y los espacios de coworking que comparten los mismos elementos distintivos en todo el mundo: muebles minimalistas, tostadas de aguacate y cerveza artesana. Madera recuperada. Iluminación industrial y una buena conexión a Internet.

Una globalización estética impulsada desde un punto de vista estadounidense, con unos valores implícitos en su infraestructura. Las redes sociales han permitido la conexión de miles de millones de personas en todo el mundo, pero también la propagación y unificación de criterios estéticos corporativos. De repente todos tenemos los mismos referentes culturales y estéticos. Si Hollywood marcó una hegemonía cultural durante la segunda mitad del siglo XX, Silicon Valley es ahora el origen de esta nueva hegemonía, que ha facilitado desde la unificación estética a la propagación de la desinformación. Estemos o no conectados, las plataformas afecten a nuestro entorno, a nuestro barrio, a las tiendas y restaurantes que tenemos en nuestro entorno. Es como si, en el fondo, el mundo físico solo fuese una superficie, una interfaz del mundo digital.

Pero, ¿cómo sobrevivir a un entorno homogeneizado, acelerado y descontextualizado, donde ser proactivo y mantener la curiosidad y el espíritu crítico exige cada vez más esfuerzos, donde los algoritmos mezclan información, desinformación y contenidos patrocinados en un mismo espacio? Para Chayka, Internet necesita contexto, necesitamos recuperar la iniciativa en vez de dejarnos llevar por los feeds gestionados por el algoritmo de Netflix, Instagram o cualquier otra plataforma de turno, necesitamos generar nuevos espacios de descubrimiento profundo, nuevas plataformas o proyectos que estén centrados en información de nicho, verificada. Tenemos que dejar de ser consumidores pasivos de contenidos, mantener nuestro espíritu crítico y exigir plataformas en las que el consumo de contenidos sea más personalizable, donde el feed recomendado del algoritmo solo sea una de las opciones de acceso a la información.

Actualmente mezclamos ocio, trabajo, información y desinformación en un mismo hilo en plataformas digitales aceleradas, donde el contenido polarizado genera más impacto que el contenido de fondo, y donde lo único que nos importa es el presente inmediato. Un libro de hace diez años puede ser muy interesante, pero en Internet un texto de hace unos días a menudo se considera obsoleto.

Por otra parte, es necesario aceptar que los entornos audiovisuales progresivamente han ido ganando terreno a la palabra en Internet. La lectura es un proceso activo que exige el esfuerzo de intentar entender algo. Las imágenes, en cambio, se comunican inmediatamente. A medida que la estructura de Internet ha mejorado, se ha vuelto cada vez más visual, es más efectiva y permite un consumo más pasivo, se necesita menos atención para mirar un vídeo que para leer un artículo. Históricamente, Internet ha sido un muy buen espacio para la palabra escrita, donde la humanidad ha podido expresarse más que nunca, donde se han creado espacios y proyectos para todo tipo de intereses y comunidades. Para Chayka. este cambio progresivo hacia el uso de narrativas audiovisuales y el crecimiento de contenido de audio tipo podcast que se imponen al clásico artículo de texto no tiene por qué ser negativo.

Chayka lo considera un nuevo ecosistema informativo diferenciado, con un nuevo abanico de oportunidades de ofrecer contexto y educar a la ciudadanía. Si se quiere, un minuto de vídeo de Tik Tok puede ser un canal banal o una herramienta de comunicación muy potente, dependiendo del uso que queramos hacer. El reto es cómo ofrecer contenido de calidad envuelto en entornos donde triunfa la banalidad. Cómo continuar alimentando el espíritu, la curiosidad, en entornos especialmente diseñados para potenciar nuestra pasividad.

Por este motivo, Chayka escribe sobre el minimalismo con el fin de defender un tipo de relación con la realidad que nos rodea. El arte, la música, la arquitectura y la filosofía que describe en su libro no se ocupan de una estética determinada. Intentan buscar experiencias no mediatizadas, de prestar atención a lo que nos rodea sin erigir barreras a nuestro alrededor y de aceptar la ambigüedad, entendiendo que los opuestos pueden formar parte de un todo. Para Chayka, el minimalismo no ofrece respuestas, y mucho menos una guía o un manual, pero propone otra manera de vivir que puede prolongarse hacia el futuro más allá de lo que dura una moda, y estos principios son todavía válidos, más allá de la apropiación capitalista y de la banalización del concepto por parte de las grandes corporaciones.





Confundir a la máquina: arte, máscaras y reconocimiento facial

Artistas y activistas han usado la máscara como herramienta de resistencia ante los sistemas de identificación facial.


El desarrollo de la cirugía plástica reconstructiva durante la Primera Guerra Mundial | Horace Nicholls | © Imperial War Museums

El rostro es una parte del cuerpo importante para la vida personal, social e incluso institucional. Quienquiera que controle la tecnología de reconocimiento facial goza de un poder que amenaza muchos derechos y libertades. Así pues, la oposición a estos sistemas ha crecido en los últimos años, generando un debate público sobre la necesidad de regularlos.

A finales de 2021, los aeropuertos de Madrid y Barcelona iniciaron las pruebas de un sistema de reconocimiento facial que permite facturar, pasar los controles de seguridad y subir al avión sin necesidad de mostrar ni DNI ni tarjeta de embarque. El sistema –anunciaban algunos medios con entusiasmo– es tan preciso que identifica los rostros incluso con mascarilla. La influencia del marketing corporativo en el tratamiento de la noticia evidenciaba aquello que Henry David Thoreau criticaba de sus contemporáneos: «hay algunos que si les ataran a un poste de flagelación y no tuvieran libre más que una mano, la usarían para tocar las campanas y disparar cañones celebrando su libertad».

A nadie se le escapa que la tecnología de reconocimiento facial es una herramienta polémica por naturaleza, dada su capacidad de automatizar el control de la población a una escala y velocidad antes inimaginables. Su uso se extiende tanto por iniciativa pública como privada, abanderado por Gobiernos autoritarios como el de China y por grandes empresas como Apple, Mastercard o Facebook, que desde hace años han incluido sistemas de este tipo en funciones de seguridad o etiquetado de fotografías.

Del laboratorio al archivo

Si bien la tecnología de reconocimiento facial es relativamente nueva, sus implicaciones filosóficas y políticas se remontan a siglos atrás. Previos a la era digital existieron distintos esfuerzos que trataron de convertir el rostro humano en un objeto del que extraer información de manera sistemática. El más antiguo fue la fisiognomía, cuyos primeros empeños datan de la Grecia clásica, aunque se desarrolló especialmente en la segunda mitad del siglo XVIII. Esta disciplina pretendía extraer conclusiones sobre el carácter y la personalidad a partir de las formas y expresiones de la cara. También a finales de ese siglo y a principios del XIX nació la frenología, que entendía que la forma del cráneo es un reflejo del cerebro y que era posible estudiarla para predecir conductas como la inclinación al matrimonio, la poesía y la bondad; pero también al robo y el crimen, por poner algunos ejemplos.

Pero si una disciplina enlaza de manera directa con la tecnología de reconocimiento facial contemporánea es la del archivo policial. El primer sistema de fichas de identificación de criminales aparece en Francia en 1833 y, en las décadas posteriores, otras sociedades industriales se interesan por analizar el crimen a escala regional. Como señala el teórico de la imagen Hans Belting, «las autoridades querían protegerse de la amenaza sin rostro que suponían los delincuentes, sobre los que habían perdido el control en las grandes ciudades; por eso desarrollaron febrilmente métodos apropiados de control facial». De esa necesidad surgió el proyecto de crear un archivo de rostros, con la fotografía como herramienta que permitía garantizar la fiabilidad de ese inventario. El objetivo era tener un censo de todas las personas anónimas que se diluían en la masa, y la urgencia se acrecentó con revueltas como la de la Comuna de París, cuando las autoridades iniciaron una ola de represión que trascendía a los delincuentes comunes para abarcar a aquellas personas condenadas por insurrecciones políticas.

Sin embargo, todas estas disciplinas mostraron pronto sus limitaciones. El propio Alphonse Bertillon, el artífice de la policía científica, reconocía en 1885 que la fotografía no era una herramienta fiable para identificar criminales. Como los arrestos sucedían en lugares y épocas diferentes y los retratos los tomaban policías distintos, las imágenes estaban sujetas a demasiados cambios como para garantizar su veracidad.

Una tecnología excluyente

Los problemas de las técnicas de control del siglo XIX se resolvieron, paradójicamente, cuando dejó de ser necesario observar. La tecnología de reconocimiento facial extrae referencias de los rasgos de la cara y comprueba si están presentes o no en una base de datos. Esto significa que, aun usando como materia prima las imágenes, la máquina no las interpreta, sino que se limita a convertirlas en información.

Este tratamiento carente de una mirada humana que interprete y entienda el contexto ha dado lugar a errores ampliamente conocidos y denunciados. El aprendizaje automático funciona buscando patrones en el mundo real, pero para hacerlo previamente ha usado «datos de entrenamiento», que en muchos casos reflejan y perpetúan los sesgos de las personas que los han facilitado. Un estudio ya clásico del MIT y Stanford demostró en 2018 que el margen de error de los sistemas de reconocimiento facial era mayor en mujeres que en hombres y, más aún, en personas negras que en blancas. En una elocuente demostración del problema, la investigadora afroamericana Joy Buolamwini señaló que algunos algoritmos no reconocían su rostro pero sí una máscara blanca de plástico sin ninguna expresión.

Gender Shades | MIT Media Lab

Aunque algunas empresas han tratado de corregir estos sesgos, el problema tiene difícil solución, especialmente en la vertiente predictiva de algunos algoritmos. Al abordar el carácter discriminatorio de sus sistemas, los centros de investigación han hallado que la justicia y la equidad son conceptos ambiguos y difícilmente traducibles en fórmulas matemáticas, por lo que no siempre es fácil programar software que garantice la ecuanimidad.

El arte del camuflaje

La amenaza que el reconocimiento facial supone para algunos derechos ha generado preocupación en muchos colectivos activistas, pero también en artistas que a lo largo de la última década han buscado formas de sortear esta tecnología. Entre los pioneros, el más prolífico es Adam Harvey, que centra su trabajo en la investigación y la crítica de la vigilancia. Hace una década, este estadounidense afincado en Berlín ganó cierta notoriedad con CV Dazzle, un proyecto en torno a la moda como herramienta para sortear los mecanismos de detección de rostros. El concepto se basa en el uso de maquillaje y otros elementos como cortes de pelo asimétricos que, convenientemente elaborados, confunden a los algoritmos e impiden su funcionamiento.

Desde 2010, la iniciativa se ha ramificado en otros conceptos como Stealth Wear, una colección inspirada en la vestimenta islámica tradicional y en el uso de drones como arma de guerra, y que emplea tela reflectante para evitar la localización de sistemas de vigilancia térmica. Otro proyecto relacionado es HyperFace, un patrón en fase de prototipo que, en lugar de confundir al algoritmo negándole la posibilidad de reconocer el rostro, le proporciona caras falsas para saciar su necesidad de identificar.

CV Dazzle Look 5 | Adam Harvey

Con un enfoque distinto, el artista Zach Blas estudia las consecuencias de esta tecnología en los colectivos que sufren una mayor desigualdad y en los que no responden a los cánones normativos a nivel cultural. Uno de sus proyectos más notorios es Facial Weaponization Suite, que consiste en la elaboración de «máscaras colectivas» a partir de datos faciales agregados de personas que forman parte de grupos excluidos. Fag Face Mask, por ejemplo, se generó a partir de las imágenes de hombres queer, pero se elaboraron objetos similares para representar la invisibilización de la mujer, la criminalización de los hombres negros o la vigilancia fronteriza entre México y Estados Unidos. Las caretas resultantes tratan de representar esas identidades en una única cabeza amorfa que los algoritmos no pueden identificar.

Otro proyecto de Blas relacionado con colectivos discriminados es Face Cages, en el que el artista trabaja a partir de los diagramas geométricos que generan los softwares de identificación facial. El proyecto reúne a cuatro artistas queer para que generen gráficos biométricos de sus propios rostros, que luego se fabrican como objetos metálicos tridimensionales. Una vez puestas, las caretas recuerdan a jaulas o barrotes, o evocan algún tipo de tortura medieval. En el entorno museístico, la obra se muestra con vídeos de los propios artistas portando esa suerte de armadura en la cara, pero su vocación es performativa, por lo que también se usa en acciones y representaciones públicas.

Una tercera aproximación que vale la pena mencionar es la del estadounidense Sterling Crispin, que entre 2013 y 2015 desarrolló Data Masks, una obra que no pretende anular el reconocimiento facial sino reflejarlo. El proyecto se basa en la ingeniería inversa, haciendo que los propios algoritmos creen formas parecidas a rostros. De los resultados de ese proceso, el artista produce una serie de máscaras impresas en 3D que califica como «sombras de seres humanos vistas por el ojo de la mente de la máquina-organismo». Como se detalla en la documentación del proyecto, el objetivo de las caretas no es confundir al algoritmo, sino mostrarle un espejo, de modo que la máquina trabaje en base a sus propias reglas y convenciones.

En la obra de estos tres artistas existe un nexo común: el objetivo de las máscaras no es esconderse de la cámara, sino confundirla, engañarla. En este sentido sus trabajos pueden entenderse como herramientas reivindicativas, armas de guerra. Esta característica las asemeja con el camuflaje, una táctica militar –a menudo desarrollada en colaboración con artistas– que no siempre busca la desaparición del sujeto, sino que también pretende dificultar la observación al enemigo. Un ejemplo clásico es la pintura de barcos dazzle que se empleó durante la I Guerra Mundial para decorar naves con líneas chillonas y formas de estilo cubista, lo que desconcertaba a la flota rival, que no podía adivinar el tamaño ni la dirección de las embarcaciones. Del mismo modo, las obras de Harvey, Blas y Crispin no pretenden la desaparición de sus portadores. Pensadas para su uso público en manifestaciones, su función es la de hacer visible y llamativa su denuncia de las formas dominantes de vigilancia y control.

Un movimiento anti-reconocimiento facial

En 2014 el periodista Joseph Cox escribía que «un movimiento anti-reconocimiento facial está creciendo». Echando la vista atrás, tal vez fuese prematuro hablar de «movimiento», pero hay que reconocer que los experimentos de diseño crítico en torno a esta materia no han dejado de aumentar. Algunos proyectos siguen la estela del trabajo con máscaras, pero las técnicas ya abarcan, entre otros ejemplos, piezas de joyería, camisetas, proyectores de rostros, gafas con luces LED, pasamontañas pixelados o pañuelos con caras estampadas.

Ninguna de estas técnicas de camuflaje es siempre efectiva. De hecho, algunas de ellas sirven solo para algoritmos concretos o para versiones de software que existían años atrás. Por otro lado, caminar con la cara cubierta o con artilugios extravagantes no parece cómodo ni elegante, por lo que la investigación sobre cómo frustrar la tecnología de reconocimiento facial todavía tiene terreno que explorar. En cualquier caso, las iniciativas de estos artistas y activistas sirven para alertar y despertar interés en la ciudadanía, lo que acaba teniendo una repercusión en el debate público y legislativo. Ya son muchos los gobiernos, tanto a nivel local como estatal, que proponen regular estos algoritmos en distintas partes del mundo. El destino de estas decisiones sumará otro peso en la siempre frágil balanza entre seguridad y libertad.





Repensar la IA: cognición distribuida y corporalidad expandida

Una reivindicación de la IA como bien público, y de la necesidad de intervenir colectivamente en su desarrollo.


Lavery Electric Phrenometer, un dispositivo de medición frenológica automatizado, inventado y patentado por Henry C. Lavery. 1907 | Hulton Deutsch | Dominio público

Más que el perfeccionamiento de los algoritmos, lo que ha propulsado el desarrollo de las inteligencias artificiales (IA) ha sido la posibilidad de gestionar y analizar más datos. Siguiendo la lógica de que estos datos se producen de manera colectiva, hay que repensar la propia esencia de la IA como bien común, así como su vinculación con nuestro cuerpo y nuestros procesos cognitivos.

Cuando hablamos de inteligencia artificial (IA) surgen muchos problemas. El primero de ellos tiene que ver con la idea de inteligencia en sentido general: antes siquiera de atribuirla a una entidad artificial, la propia noción resulta problemática aun cuando se refiere tan solo a los seres humanos. Podemos decir que, al menos desde la tradición filosófica occidental, la inteligencia se ha asociado con las nociones de intelecto y de entendimiento, y, a tal efecto, con la actividad lógica y mental del conocimiento consciente. Muchas de las discusiones en torno a este concepto han puesto el acento en la crítica al dualismo mente-cuerpo, señalando que la actividad cognitiva no se refiere solo a una dimensión puramente psicológica-mental ni tampoco a una dimensión necesaria ni exclusivamente consciente, sino que también involucra aspectos sensibles, emocionales, afectivos e inconscientes que integran procesos corporales y somáticos. Esta visión da lugar a una crítica del concepto de inteligencia que apunta a la necesidad de atribuirles cognición también a ciertos procesos materiales o agentes no humanos, entre los que se encuentran los artefactos y los sistemas técnicos.

En esta línea, que aboga por comprender la inteligencia desde marcos más amplios, se hallan propuestas como la de N. Katherine Hayles, que señala la continuidad cognitiva que existe entre la dimensión consciente del ser humano con partes de sí mismo no conscientes, como algunos procesos celulares, químicos o digestivos. Cuando comemos, nuestro sistema digestivo opera desde un conocimiento que podríamos denominar procedural: es capaz de separar nutrientes y eliminar elementos que pueden ser tóxicos, y sabe asimismo distribuir perfectamente la energía que estos nutrientes aportan a las distintas partes del cuerpo. Y todo esto sucede sin que nosotras seamos en absoluto conscientes de ello. Sin embargo, es este conocimiento somático el que hace posible que pueda existir cualquier otro tipo de actividad cognitiva consciente. Pero esto no solo ocurre dentro de los límites del cuerpo humano, sino que también podría atribuirse a otros agentes no humanos, como las plantas y los sistemas técnicos. En su libro Unthought, Hayles afirma que

La conciencia ocupa una posición central en nuestro pensamiento, no porque sea la totalidad de la cognición, sino porque crea las narrativas (a veces ficticias) que dan sentido a nuestras vidas y respaldan las suposiciones básicas sobre la coherencia del mundo. La cognición, por el contrario, es una capacidad mucho más amplia que se extiende más allá de la conciencia a otros procesos neurológicos del cerebro; también está presente en otras formas de vida y en sistemas técnicos complejos.[1]

Es importante remarcar que estas capas de «cognición no consciente» no son, pese a todo, ajenas a la conciencia, sino que constituyen en su relación complejos ensamblajes cognitivos distribuidos a diferentes escalas y entre diferentes agentes. Estos ensamblajes incluyen interfaces, circuitos de comunicación, sensores, agentes, procesadores, medios de almacenamiento, redes de distribución, componentes humanos, biológicos, técnicos y materiales. Y todos ellos se encuentran en constante reorganización y reconfiguración: no se trata de redes definidas y estables, sino de procesos en constante transición, que van añadiendo y eliminando elementos, así como reorganizando las conexiones entre ellos.

Katherine Hayles  Rethinking Thinking: Material Processes and the Cognitive Nonconscious | The Qualcomm Institute

Proponemos pensar la IA bajo esta perspectiva de cognición distribuida y evitar así hacerlo desde imaginarios prometeicos, antropocéntricos y grandilocuentes que suelen asociarla al momento de gran revelación o singularidad tecnológica en el que la máquina podría adquirir autoconciencia. Lo cierto es que la IA es algo mucho más prosaico que forma parte de nuestra cotidianeidad, desde las asistentes digitales como Siri hasta los sistemas de recomendación personalizada. Por tanto, en lugar de ver la IA como como una cuestión análoga, superior o autónoma a los seres humanos, el hecho de pensarla como un agente que se encuentra incorporado a ensamblajes de cognición distribuida puede hacer que, en lugar de ceñirnos a lógicas dicotómicas, competitivas o de reemplazo en el dualismo humano-máquina, pensemos en posibles formas de articulación deseadas que aprovechen el capital cognitivo diferencial de ambos, en sinergias complementarias en lugar de excluyentes, cooperativas en vez de competitivas.

Para abordar nuestra relación con los ensamblajes cognitivos técnicos desde este paradigma, quizá debamos ampliar primero nuestro espectro de corporalidad para entender en qué medida ya estamos cooperando con su desarrollo. De la misma manera que hemos asistido a una ampliación de la idea de inteligencia ­­–superando el dualismo mente-cuerpo–, todavía concebimos el cuerpo única y exclusivamente desde un paradigma biológico-somático. Pero la realidad corporal también puede pensarse desde marcos más amplios que incluyan la complejidad en la que los cuerpos somáticos forman corpo-realidades con otras dimensiones no solo orgánicas, sino también técnicas. En este sentido, podemos pensar los datos como un segundo cuerpo, un cuerpo exosomático que está fuera del cuerpo pero que, no obstante, se halla en una relación de interdependencia y co-constitución con lo somático. Y resulta que nuestros «cuerpos de datos» son de extrema importancia para el entrenamiento de las IA: cuantos más datos posea una inteligencia artificial para entrenarse, más precisas serán sus generalizaciones y más complejos y sofisticados serán los patrones que pueda identificar.

De hecho, los últimos avances en cognición técnica se basan más en la cantidad de datos y en la capacidad de almacenamiento y procesamiento que en la destreza algorítmica (como quieren hacernos creer las grandes compañías tecnológicas). En su artículo de 2021 «The Steep Cost of Capture» [El elevado coste de la captura], Meredith Whittaker ilustra esta realidad con el caso de AlexNet, un algoritmo muy eficaz en el reconocimiento predictivo de patrones que ganó en 2012 el ImageNet Large Scale Visual Recognition Challenge, convirtiéndose en un referente en la historia reciente de la IA. Sin embargo, tal como afirma la autora: «El algoritmo AlexNet se basaba en técnicas de machine learning que tenían casi dos décadas de antigüedad. Pero no fue el algoritmo lo que supuso un gran avance, sino lo que el algoritmo podía hacer cuando se combinaba con datos a gran escala y con recursos computacionales».[2] Por tanto, es el potencial cognitivo implícito en la agregación de nuestros cuerpos de datos lo que está dando lugar a los últimos avances en IA.

Abolish Silicon Valley | Wendy Liu

Esto implica que podemos pensar las IA como un producto de la fuerza colectiva que está siendo objeto de «una captura comercializada de lo que antes era parte del patrimonio común», o de «una privatización furtiva, una extracción del valor del conocimiento de los bienes públicos»,[3] tal como sugieren Kate Crawford o Matteo Pasquinelli, que habla de un «régimen de extractivismo cognitivo»[4] para referirse a la relación colonial entre la IA corporativa y la producción de conocimiento como un bien común. Por esta razón, en lugar de atribuir a las grandes corporaciones el mérito de desarrollar tecnologías extraordinarias, deberíamos considerar su actividad como una forma de saqueo y expolio que impide que estas alcancen su pleno potencial social al privilegiar los intereses privados. Y no solo por los enormes beneficios que reportan algunas de sus aplicaciones concretas, sino porque la IA se ha convertido en parte de aquello que Marx denominó las «condiciones generales de producción»: aquellas tecnologías, instituciones y prácticas que conforman el entorno de la producción capitalista en un lugar y tiempo determinados. Esto ha llevado a expertos como Nick Dyer-Whiteford a hablar de «IA infraestructural»:

Si la IA se convierte en la nueva electricidad, se aplicará no solo como una forma intensificada de automatización del lugar de trabajo, sino también como la base para una profunda y amplia reorganización infraestructural de la economía capitalista como tal. Esta ubicuidad de la IA implica que no tomaría la forma de una herramienta particular desplegada por capitalistas individuales, sino que, como sucede actualmente con la electricidad y las telecomunicaciones, sería una infraestructura –los medios de cognición– presupuesta por los procesos de producción de todas y cada una de las empresas capitalistas. Como tal, sería una condición general de la producción.[5]

Con el concepto de «medios de cognición» se pretende señalar la sustitución de la percepción y cognición humanas por una infraestructura tecnológica entrelazada con los medios de producción y los medios de transporte y comunicación. Frente a esto, se propone una «IA comunista», que no consistiría en la automatización de los procesos productivos seguida de la instauración de una renta básica universal (como defienden los aceleracionistas), sino en la expropiación del capital-IA, el desarrollo de nuevas formas de propiedad colectiva de la IA y en la aplicación de la IA a la colectivización de otros sectores. Consideramos que esto puede venir dado por el reconocimiento de la IA como el resultado de la agregación del potencial cognitivo de nuestros cuerpos de datos, y, por tanto, como una utilidad pública computacional que debería estar sujeta a un control democrático.

Previamente hemos propuesto aplicar los principios de la justicia reproductiva al ámbito de la soberanía tecnológica, puesto que si aceptamos el postulado de los datos como segundo cuerpo podemos reclamar el derecho al aborto de una IA no deseada o denunciar los abusos de las grandes corporaciones que atentan contra nuestra autonomía corporal; pero también garantizar los medios para que se desarrollen de acuerdo con nuestros intereses o necesidades colectivas. Esto pasa por desvincular el desarrollo tecnológico de la lógica del capital, en lugar de centrarnos únicamente en posibles aplicaciones socialmente útiles; para liberar el potencial transformador de la tecnología, esta tiene que servir al bien público en lugar de al beneficio privado. En Abolish Silicon Valley [Abolir Silicon Valley],[6] Wendy Liu propone algunas medidas orientadas a este fin: reclamar el emprendimiento como un servicio público para fines no capitalistas; destinar fondos de inversión de titularidad pública para empresas sin ánimo de lucro (generando un amplio acceso a la financiación); desarrollar nuevos modos de propiedad de las empresas, como las cooperativas de trabajadores, que tienen el control sobre la producción; mejorar las condiciones de trabajo en la industria tecnológica y empoderar a los empleados; establecer un impuesto progresivo a la riqueza; y, en última instancia, expropiar empresas con exceso de beneficios.

Estas medidas deberían tener como objetivo la recuperación de la autonomía y el control sobre la IA como cuerpo expandido (el resultado de la agregación de nuestros cuerpos de datos que se extienden más allá de los límites de nuestra piel) y como parte de un ensamblaje de cognición distribuida (es decir, como un elemento constitutivo de nuestra mente que se extiende más allá de los límites de nuestro cráneo). Hacer explícito este vínculo puede contribuir a que dejemos de considerar la IA únicamente como una proeza técnica vinculada al desarrollo de algoritmos e independiente de nosotras y comencemos a verla como un bien común que debe ser gestionado colectivamente y que debería servir a propósitos más loables que el reconocimiento facial o la publicidad dirigida. Por tanto, no se trata de condenarla como una posible amenaza a nuestra especie (ya sea en forma de una superinteligencia malvada dispuesta a aniquilarnos o de robots que van a quitarnos el trabajo) ni de celebrarla de manera acrítica como una tecnología neutral capaz de solucionar todos nuestros problemas. Se trata de intervenir en su desarrollo, evaluación e implementación reivindicando la IA como una extensión de nuestra realidad corporal y de nuestros procesos cognitivos.


[1] N. Katherine Hayles (2017), Unthought. The Power of The Cognitive Nonconscious. Chicago: University of Chicago Press.

[2] Meredith Whittaker, «The Steep Cost of Capture». En: Interactions, XXVIII (6), diciembre de 2021, p. 52. Disponible en: https://dl.acm.org/doi/pdf/10.1145/3498853.

[3] Kate Crawford (2021), Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Cumberland: Yale University Press.

[4] Matteo Pasquinelli y Vladan Joler, «The Nooscope Manifested: Artificial Intelligence as Instrument of Knowledge Extractivism». Grupo de investigación KIM (Karlsruhe University of Arts and Design) y Share Lab (Novi Sad), 1 de mayo de 2020 (preimpresión en preparación para la revista AI & Society). https://nooscope.ai.

[5] Nick Dyer-Witheford, Atle Mikkola Kjøsen y James Steinhoff (2019), Inhuman Power: Artificial Intelligence and the Future of Capitalism. Londres: Pluto Press.

[6] Wendy Liu (2020). Abolish Silicon Valley: How to Liberate Technology from Capitalism. Londres: Penguin Random House.





¿Pueden los algoritmos ser más justos que las personas?

¿Qué grado de confianza concedemos a las máquinas y qué consideración tenemos hacia la experiencia de los profesionales?


Funambulistas en la feria 4-H Club. Cimarron, Kansas, 1939 | Russell Lee, Library of Congress | Dominio público

Las inteligencias digitales se utilizan cada vez más para resolver cuestiones complejas que antes se decidían a partir de la experiencia de los profesionales. Analizamos, pues, de qué manera toman decisiones los humanos y las máquinas y quién lo hace de forma más justa según el contexto.

Aixa es una niña de cinco años que llega a Urgencias de un hospital acompañada de su abuela. La menor presenta claros síntomas de maltrato y contusiones por todo el cuerpo. La mujer explica a la doctora que fue golpeada por sus padres. Para deducir si existe riesgo de reincidencia y evitarle nuevas palizas a la niña, la doctora plantea preguntas sobre el escenario de los hechos: ha de decidir entre derivarla a los servicios sociales para que sea protegida judicialmente o devolverla a su hogar, donde podría repetirse el maltrato. Para ello, cuenta con la ayuda de una herramienta de inteligencia artificial (IA) que estimará la gravedad del caso y las medidas cautelares a partir de las respuestas obtenidas. Si la decisión final es que ha de ser separada de los padres, Aixa no regresará a casa esa noche, pasará por centros de menores y casas tuteladas, donde adultos desconocidos se harán cargo de sus necesidades básicas durante los próximos años y hasta que alcance la mayoría de edad.

Cuando en 2018 la escritora y matemática Cathy O’Neil visitó el CCCB para presentar su libro Armas de destrucción matemática, lanzó una pregunta al público: «¿Quién sería capaz de decidir si una menor que ha sido maltratada debe o no regresar a su hogar, con la buena intención de protegerla de futuros golpes?». La audiencia permaneció muda, sin saber qué responder. «En Estados Unidos, un algoritmo lo está decidiendo», añadió. En ese momento, seguro que entre el público muchos se preguntaban: Pero… ¿cómo puede saber un algoritmo si la menor va a recibir otra paliza antes de que ocurra? Y segundos más tarde, la propia O’Neil respondió: «No lo puede saber, pero está ocurriendo».

Hace tres años la pregunta podría haber parecido provocativa y lejana, pero actualmente este tipo de herramientas operan en la mayoría de los países sin que la población sea consciente de ello. Los profesionales que llevan casos sociales toman a diario decisiones complejas sobre asuntos muy diversos. Antes del boom de la IA, se basaban en la experiencia propia acumulada durante años.

Obviamente, se equivocaban en sus decisiones, lo que podía generar graves consecuencias para las personas afectadas. Por ello ahora se espera que los sistemas inteligentes de IA nos ayuden a mejorarlas. Pero ¿qué sucede si la herramienta de IA ofrece un resultado diferente al del especialista? ¿Cuál prevalecerá? Si el algoritmo decide que Aixa corre un riesgo alto y la doctora no lo considera tan grave como para separarla de su núcleo familiar, ¿se atreverá a enviar a la niña a casa?

Sabemos que la IA no es perfecta y que hasta el mejor sistema inteligente comete errores. Por tanto, cabe preguntarnos: ¿Qué grado de confianza se le concede a la máquina y qué confianza se tiene en la experiencia del profesional? Para dar una respuesta, tal vez debiera analizarse cuál de las dos decisiones –la humana o la de la máquina– tiene más sesgo y más ruido (es decir, mayor varianza en las decisiones). Esto dejando de lado la tendencia humana a aceptar las recomendaciones de un sistema que creemos inteligente.

Diferencias entre sesgo y ruido

El economista Daniel Kahneman escribió en 2016 –junto a otros autores– un artículo titulado «Ruido: Cómo superar el alto y oculto coste de la toma de decisiones incoherentes». En él se explicaba la diferencia entre «sesgo» y «ruido» haciendo una analogía con el resultado de lanzar dardos a cuatro dianas. La diana A no tiene ni sesgo ni ruido; la diana B tiene solo ruido; la diana C, solo sesgo; y la diana D tiene ambos. El diagrama siguiente se basa en esta idea.

Pero empecemos por el principio: ¿Qué se entiende por «sesgo» y qué por «ruido»? La IA es buena para establecer una gran cantidad de patrones y relaciones, así como para agilizar procesos y operaciones con datos masivos (big data). Sin embargo, los algoritmos no son neutros. Tampoco los datos que sirven para entrenarlos, porque tienen sesgos. No hay duda de que los algoritmos de IA presentan sesgos, pero los seguimos utilizando porque el beneficio o el acierto de los resultados es considerablemente superior (en más de un 90%) al perjuicio o al error. Los sesgos son parecidos a los prejuicios: todos los tenemos, en menor o mayor grado. Muchos los heredamos de nuestro entorno social o familiar sin darnos cuenta. El sesgo más grande es creer que no tenemos ningún prejuicio. Pero… atención: si los sesgos no se corrigen, corremos el riesgo de habitar un futuro en el que el progreso social sea cada vez más difícil a causa de la perpetuación de los prejuicios.

Por otro lado, el concepto «ruido» podría definirse como las diferentes decisiones que se pueden tomar respecto a una acción (individual o colectiva) en una situación personal o profesional. Cuando se pidió a los desarrolladores de software de una empresa que estimaran el tiempo que tardarían en desempeñar una tarea determinada, las horas contabilizadas variaron de media en más de un 70%. ¿Por qué, si la tarea es la misma para los mismos perfiles de profesionales de una misma empresa? A menudo se toman decisiones que se alejan de las que tomarían otros colegas, de las propias tomadas anteriormente o de las que uno mismo afirma seguir.

Llegados a este punto, es bueno saber que la IA tiene sesgos, pero no ruido. En cambio, a las personas nos influyen ambas variables.

El ruido es fácil de percibir

Regresemos ahora a las dianas. Si las viéramos por detrás, nos daríamos cuenta de que B y D tienen una mayor variabilidad, y notaríamos el ruido fácilmente. Pero entre A y C no es tan fácil saber cuál es la diana con sesgo. Es decir, el ruido es fácil de percibir, mientras que no siempre somos conscientes de los sesgos. La mayoría de las decisiones humanas tienen ruido, por eso buscamos una segunda opinión en cuestiones médicas o deseamos que el juez o jueza que nos asignen esté de buen humor el día de nuestra audiencia. Estos son dos ejemplos de ruido a nivel individual, pero nosotros tampoco somos consistentes a lo largo del tiempo.

En 2007, investigadores de Stanford analizaron las decisiones de peticiones de asilo en EE. UU. y hallaron que un juez aprobaba el 5% de ellas, mientras que otro aprobaba el 88% de las peticiones. Los dos tienen un sesgo muy distinto, pero el sistema judicial en su totalidad aparece como ruidoso, porque las decisiones de sus jueces no son consistentes. Finalmente, el sesgo puede ser tanto negativo (machismo) como neutral (paridad de género). Al final, es una cuestión de consenso social.

Y ¿cómo es más justa la IA?

Una IA sin ruido es más justa en el sentido de que ante dos casos iguales, su previsión es la misma. Es decir, si dos acusados cometen el mismo crimen, la condena será la misma. Pero muy pocas veces los casos son idénticos. El paradigma de la injusticia social con un algoritmo lo sacó a la luz ProPublica –medio estadounidense independiente– en 2016, tras realizar una investigación para demostrar el sesgo que aplicaba el algoritmo COMPAS en perjuicio de los acusados negros.

La IA no tiene ruido porque los algoritmos son determinísticos. Es decir, ante una entrada similar, el resultado será similar. Por ejemplo, un controlador aéreo puede dirigir el tránsito de aviones mejor o peor en función de la situación de estrés, del cansancio o de las circunstancias que alteren su estado de ánimo. En cambio, un sistema inteligente siempre proporcionará los mismos resultados sobre la misma situación. Esto no puede decirse de los jueces.

En cambio, la IA sí puede ser desigual porque aprende de los sesgos intrínsecos de los datos. En el análisis «Human Decisions and Machine predictions», el científico Jon Kleinberg –junto con otros colaboradores– explicaba que el sistema entrenado con datos de fianzas de Nueva York era racista y amplificaba ligeramente las decisiones del juez más racista; esto resultaba un poco sorprendente, pues la única información demográfica que empleaba era la edad del acusado. En otras palabras, el racismo estaba codificado en los antecedentes criminales y lo deducía a partir de ellos. Pese a esto, el algoritmo era más justo, pues no tenía ruido. Manteniendo la misma tasa de fianzas podía disminuir la criminalidad en un 25%, o, manteniendo el mismo nivel de criminalidad, podía otorgar fianza a un 42% de los inculpados que antes no la obtenían. Peor aún, tomando en consideración los crímenes cometidos, los jueces concedían la fianza a más de la mitad del 1% de los criminales más peligrosos.

Sin embargo, como diría la eticista Lorena Jaume-Palasí, la justicia es en realidad mucho más complicada. Podría darse el caso de que un juez o jueza haya dejado a alguien en libertad en cumplimiento de la ley, incluso cuando sospecha que las probabilidades de reincidencia criminal son elevadas. «La justicia va más allá de repetir el pasado a la hora de decidir un caso. Se debe contextualizar», explica Jaume-Palasí. «Pues aunque los antecedentes sean similares a otros casos, el contexto puede ser completamente diferente. ¿Es más justo alguien que discrimina de manera consistente pero no tiene en cuenta cada caso de manera individual? Si un sistema reinterpreta lo que requiere la ley, y los jueces emplean una metodología opuesta a la requerida, esto ya de por sí es injusto».

Sesgos positivos para la sociedad

¿Hemos de asumir que la IA siempre tendrá sesgos? No necesariamente. ¿Es posible que un algoritmo tome decisiones automatizadas sin sesgo para las personas o empresas? Eso dependerá de si los sesgos están en los datos, en el algoritmo o en la interacción entre el usuario y el sistema. Como en la práctica es realmente difícil que no haya ningún tipo de sesgo, lo que hay que hacer es mitigarlos. Pero será difícil eliminarlos, especialmente cuando no conocemos todas las fuentes. Los sesgos más importantes son explícitos, pero muchos otros pueden ser implícitos.

Los sesgos también pueden ser positivos, lo que significa que tienen un efecto favorable para la sociedad. Esta debería ser una condición exigible para cualquier algoritmo que tomara decisiones automatizadas o realizara predicciones. Por ejemplo, que haya un mayor número de enfermeras que enfermeros en los hospitales podría ser un sesgo positivo si quedara demostrado que ellas tienen más cualidades empáticas y de atención con los pacientes.

Con el tiempo, sería bueno que la IA ayudara a tener sesgos positivos (v. flecha azul vertical del diagrama adjunto), y que fuera tan útil como para que las personas percibieran sus propios sesgos a fin de reducirlos (v. flecha diagonal del diagrama). Pero… ¿no es pedirle mucho a esta tecnología? Si son las personas quienes programan la IA, y nosotros mismos no somos conscientes de nuestros sesgos, ¿cómo será posible que lo hagan por nosotros las máquinas? ¿No deberíamos, en primer lugar, cambiar todo nuestro sistema educativo global y aprender desde pequeños a identificar los sesgos sociales y cognitivos más relevantes?

Más humanos con más tecnología

La IA despierta muchos recelos. Sus ventajas son sobradamente exhibidas pero también los riesgos que comporta por la multitud de errores identificados en los últimos años. Entre sus máximos retos está el de la explicabilidad, es decir, entender cómo un algoritmo ha aprendido de manera automática y presenta los resultados, ya sea en forma de decisiones automatizadas o de predicciones.

Otro riesgo –tal como menciona la artista e investigadora Joana Moll en su artículo «Contra la complejidad»– es que se nos haga creer que cualquier problema puede ser resuelto de manera sencilla por las máquinas. En este sentido, es inevitable preguntarse por las consecuencias que podría tener este laissez faire para cualquier sociedad. Si, por ejemplo, la doctora de Aixa confiara ciegamente en los resultados de los algoritmos que tiene a su disposición –desterrando su propia intuición derivada de la experiencia profesional–, los humanos dependeríamos totalmente de las máquinas para cualquier movimiento, avance o evolución.

Pero, sin ánimo de ponernos apocalípticos, ni de acabar con el peor de los escenarios, sería de esperar que la tecnología más avanzada nos ayudara a construir un futuro cada vez más respetuoso con los derechos y valores por los que hemos luchado en las últimas décadas. El cómo es todavía una incógnita. Ni siquiera sabemos si lo lograremos. Lo que sí cabría desear es que la IA fuese cada vez mejor y que complementase el conocimiento humano. Por ahora, no solo no corrige nuestros errores, sino que en ocasiones hasta los magnifica.





El lugar de la persona en el carnaval digital

Del Internet despersonalizado y anónimo a la cultura de la exposición y la viralidad de las actuales redes sociales.


Fábrica de caretas en Argentina, 1910 | Archivo General de la Nación Argentina | Dominio público

En los albores de Internet era habitual que los usuarios mantuvieran el anonimato. Esta ocultación de la identidad buscaba evitar los prejuicios entre los internautas y favorecer la libertad de expresión. Pero con la irrupción de las redes sociales, la importancia de la proyección de uno mismo ha creado una red cada vez más personalista.

Pocos inventos han nacido tan condicionados por la mentalidad de máscara como Internet. En ningún otro soporte (salvo, quizá, el libro) se han falseado tantas identidades, se han difundido tantos bulos y, en general, se han dicho tantas mentiras como en la red de redes. La 29ª de las «reglas de Internet», redactadas por usuarios anónimos del infame foro 4chan hacia 2006, fue capaz de captar la esencia del omnipresente «antifaz digital»: «En Internet, todas las mujeres que os dicen serlo son en realidad hombres, y los niños son agentes infiltrados del FBI». Dejando de lado el delirio que ya entonces imperaba en ese rincón oscuro de la red, sus usuarios estaban en lo cierto al asumir que todo en Internet incorporaba cierto porcentaje de máscara.

Breve historia de un Internet que ya no existe

Durante el periodo de su generalización en Estados Unidos y Europa, que comprende las décadas de 1990 y 2000, absolutamente todo lo que cabía encontrar en Internet estaba mediado por una reconocida dosis de mentira. Desde los nicknames a los chats, pasando por descargas de eMule mal indexadas, cadenas de correo cuyo autor original se desconocía y sitios web desaparecidos sin explicación, la imagen general del Internet de entonces era la de una permanente gamberrada o carnaval. En esos años, el tráfico web de los usuarios se repartía entre una caótica malla de blogs, foros y páginas web, cuyo rasgo compartido solía ser el pseudonimato de los participantes: «¿Quieres identificarnos? Tienes un problema», cantaba La Polla Records en 1986.

Esta cultura anárquica del Internet retro pudo desarrollarse sin trabas gracias a las entonces poco desarrolladas capacidades tecnológicas de los Estados. Hasta el gran acontecimiento de 2001 (el 11S), los Estados no se habían preocupado excesivamente por imponer su ley en el mundo digital, ya que estimaban (acertadamente) que por él circulaba una mínima parte de la población. Prueba de esto es que los grandes programas de monitorización, como Total Information Awareness (precedente de PRISM, el sistema de vigilancia global destapado por Snowden), no se empezaron a desplegar a gran escala hasta después de los atentados de Nueva York. Antes de eso se navegaba en un Internet no tan distinto al Far West, en el que un sheriff entrado en años (el Estado) era del todo incapaz de dar caza a las nuevas generaciones de hermanos Dalton digitales. Gamberradas épicas como las de The Yes Men, quienes registraron una página web haciéndose pasar por la Organización Mundial del Comercio (OMC) y hasta dieron polémicas conferencias en su nombre, son hoy inconcebibles.

The Yes Men Fix the World

La máscara, oportunidad para un diálogo maduro

 

Resulta trivial decir que el motivo principal por el que alguien decide enmascararse suele ser el de evitar ser identificado. No obstante, en el mundo digital, el antifaz no puede equipararse simplemente a la capucha de los contextos analógicos –objeto de uso generalizado en las manifestaciones de Black Blocs de todo mundo. En el incipiente Internet, el empleo de la singular máscara que constituye el nickname cumplía un objetivo cualitativamente distinto: despersonalizar absolutamente el proceso comunicativo, haciendo completa abstracción de sus interlocutores para poder así establecer un diálogo sin los habituales prejuicios asociados al origen, al género o a la edad.

Gran parte de la expectación generada por Internet en sus inicios se debía a la esperanza de que los entornos virtuales pudieran fomentar una comunicación de veras madura. Al desconocerlo todo del interlocutor, se figuraba un ideal en el que el único elemento valorativo pasaría a ser la calidad de los argumentos. Además, hay que tener presente que las infraestructuras del Internet primitivo solo soportaban bien el formato texto (que equivale a la despersonalización absoluta), de manera que ayudaron a crear las condiciones para que este «diálogo 2.0» pudiera hacerse realidad. Son abundantes los casos de adolescentes curiosos discutiendo de tú a tú con referentes de la comunidad hacker o foreros anónimos participando en discusiones académicas de alto nivel.

El nickname, ese alias que conformaba la piedra angular del Internet primitivo, daba pie a una suerte de «identidad autónoma» virtual, deliberadamente desvinculada de la real. Lo habitual era tener varias identidades (muy pocas o ninguna con el nombre real) dependiendo del sitio web, que luego se dejaban en desuso o se desechaban sin mayor preocupación. Como las cuentas no iban acompañadas de un sistema reputacional de tipo cuantitativo (esto es: «seguidos», «seguidores», «me gusta»), no era frecuente desarrollar un excesivo apego al nickname, que era de una importancia secundaria en relación a lo principal: el tipo de argumentos a exponer. La transitoriedad de las identidades y la ausencia de sistemas de cuantificación hizo posible asentar una cultura basada, además de en la libertad de expresión, en la igualdad de condiciones de todos los oradores. Asimismo, también había algo de altruista en que un usuario invirtiera horas en contestar a sus adversarios dialécticos, sabiendo que no realizaba sus aportaciones bajo su nombre real, y que no le serían reconocidas fuera de las fronteras del foro.

Lo viral

Cuando Internet entra en su etapa adolescente (segunda mitad de la década de los 2000), el festival de nicknames comienza su declive en pos de la adopción de identidades reales, ligadas al nombre real. Es el Internet d. F. (después de Facebook), cuyo surgimiento supondría el principio del fin de las máscaras que antes constituían el humus de Internet. Paulatinamente, la mayoría de gente dejaría de mantener la separación entre su identidad real y su personaje digital, que se convertiría en avatar de su persona, también a medida que la cantidad de tiempo invertido en la red fue en aumento tras irrumpir el smartphone en la vida social.

Hay un antes y un después de Facebook, porque con la irrupción de la primera red social moderna se produciría la captura de una gran masa de usuarios dentro de una plataforma (i) omniabarcante (no circunscrita a un tema concreto), (ii) con una interfaz amable y (iii) dotada de un sistema reputacional. Absolutamente todas las redes sociales posteriores se han basado en esos principios, de manera que son en cierto modo remakes tardíos de la obra de Mark Zuckerberg.

Los cambios introducidos por las grandes plataformas afectaron profundamente a nuestra manera de relacionarnos con lo digital. La progresiva importancia de la proyección, tanto de uno mismo como de las propias opiniones, ha desatado un frenesí por la viralidad, hoy fácilmente cuantificable gracias al número de seguidores y «me gusta». En el Internet d. F., lo normativo es andar transmitiendo una imagen lo más fehaciente posible del ejemplar humano que se encuentra detrás de la pantalla (nombre, fotografía(s), trabajo, lugar de residencia, estado emocional…). Bastaría con consultar la cronología de Twitter o el TikTok del adolescente medio para observar las dramáticas consecuencias de esta «cultura de la exposición», imprescindible para ganar cuotas de viralidad.

Los antifaces digitales, que permitían que nos situáramos en un plano de debate «2.0» (libre, igual, altruista), se fueron dejando de utilizar a medida que ganaba terreno el personalismo indisociable del Internet actual. Ser anónimo es incompatible con ser viral. En cuanto a los últimos rescoldos que todavía recurren a nicknames (especialmente los que se sirven de ellos para sostener una opinión minoritaria), son objeto de una persistente sospecha en un entorno que ha vuelto a otorgar más importancia al personaje que a los argumentos. En muchos sentidos, hemos dado un paso atrás.

Por último, solo queda dejar constancia de que, en la actualidad, el uso de pseudónimos ha quedado reducido a una «marca personal» de la persona real. Influencers y youtubers suelen usar nombres alternativos, pero es evidente que no los utilizan para separar sus contribuciones de su identidad real, sino precisamente por lo contrario: para destacar entre la multitud. De hecho, a muy poca gente le resultaría familiar el nombre de Rubén Doblas, pero prácticamente todos conocen el alias a través del cual publica: «El Rubius».

En su caso, el grado de imbricación de su cuerpo con el personaje que se ha creado de él mismo ha hecho que su identidad real ya no pueda desvincularse, nunca más, de su cuenta de YouTube. Doblas ha perdido la facultad de confundirse entre la multitud, contrapartida de la que, quizá, él mismo se dio cuenta en 2018: «Quieres hacer todo al 100% y dar el 100% de ti, [pero] a veces no puedes con tantas cosas. Creo que voy a necesitar un tiempo para verlo todo desde fuera y cómo seguir siendo yo mismo sin perder la puta cabeza». Ciertamente, el moderno influencer ha alcanzado un protagonismo social enorme tras adaptar su vida en bloque a los principios de la exposición y la viralidad… pero quedan todavía por comprobar los efectos que esa mentalidad fáustica produce en la dimensión psicológica, social… y cultural.





Por qué seguimos hablando de NFT

Cómo se produce el boom de los NFTs en el mercado del arte contemporáneo y qué augura para el futuro del arte digital.


Alex John Ettl trabajando en el busto de Cecile Alexia Hart. 1920-1925 | Library of Congress | Sin restricciones conocidas de derechos de autor

En muy poco tiempo, los NFTs han trastocado el mercado del arte, favoreciendo una burbuja financiera a su alrededor. El uso de la tecnología blockchain resuelve un viejo problema para el net art pero también comporta nuevas polémicas, como, por ejemplo, su impacto medioambiental. Analizamos las causas de este fenómeno y su posible desarrollo futuro.

El diccionario Collins ha anunciado recientemente que ha escogido como palabra del año 2021 las siglas NFT. Fiel a su función, Collins aporta una definición concisa de este término que hasta tal punto ha impactado en el mercado del arte contemporáneo en los últimos meses: «Token no fungible: un certificado digital único, registrado en una cadena de bloques, que se emplea para registrar la propiedad de un bien tal como una obra de arte o un coleccionable». Entre las muchas maneras en que se han descrito los NFTs, la definición de Collins tiene el valor de aclarar un hecho que a menudo ha generado confusión: un NFT es un certificado, no es un tipo de obra de arte, ni una técnica de creación, ni un movimiento artístico. Que algo sea acuñado en una cadena de bloques (o blockchain) como un token no fungible no lo convierte en una obra de arte, ni siquiera en una obra de arte digital. Los NFTs no suponen realmente una transformación de la manera en que se crean las obras de arte, ni tampoco incorporan una particular premisa conceptual o estética. No se trata de una tecnología que, por sí misma, facilite a los artistas nuevos medios de expresión o defina un estilo visual. Los tokens no fungibles permiten certificar la autenticidad y propiedad de (entre otras cosas) una obra de arte en formato digital, que es por naturaleza infinitamente reproducible, y esta es su gran aportación a la manera en que se distribuye, comercializa y colecciona una parte del arte contemporáneo hoy en día.

Una vez aclarado en qué consiste un NFT, cabe preguntarse cómo ha podido un simple certificado digital generar tanta expectación mediática, trastocar el mercado del arte y potenciar una burbuja financiera en apenas ocho meses. Es una historia compleja, con numerosas capas y matices, que no se presta a una explicación sencilla ni mucho menos completa. Desde mi perspectiva y dentro del alcance de mis conocimientos como historiador del arte, comisario e investigador dedicado a observar la evolución del mercado del arte digital en las últimas dos décadas, propongo a continuación unas claves generales para entender cómo se produce el boom de los NFTs en el mercado del arte contemporáneo y qué augura para el futuro del arte digital.

Captura de pantalla de Possession, colección online de Auriea Harvey y Michael Samyn que aloja la obra If You Want To Clean Your Screen (1998) de Olia Lialina.

Los NFTs resuelven un problema que se origina en los inicios del net art

Cuando, a mediados de los años 90, un reducido grupo de artistas empezó a experimentar con los recursos que les ofrecía la World Wide Web y el código html, vieron la posibilidad de difundir libremente sus obras, sin depender de comisarios ni de galeristas. En 1998, la artista Olia Lialina tuvo la idea de convertir su página web en una galería de arte y vendió una de sus obras a los artistas Michael Samyn y Auriea Harvey, que recibieron los archivos y los colgaron en su propio sitio web, en una sección titulada Possession. La obra seguía siendo públicamente accesible pero tenía ahora otros propietarios. Sin embargo, no todo el arte digital puede venderse de esta manera, lo que ha llevado a numerosos artistas a plantearse el modo  de comercializar sus obras en internet, entre ellos Mark Napier [1], Carlo Zanni [2] y Rafael Rozendaal [3]. El problema principal siempre ha sido cómo asegurar al coleccionista la posesión de una pieza cuya naturaleza es ser distribuida y accesible a todo el mundo. La creación de Bitcoin en 2009 trae consigo la tecnología blockchain como registro distribuido e inmutable, un recurso que resulta especialmente interesante para el mercado del arte, cuyo eje central en la creación de valor es la autenticidad y escasez de las obras de arte. A partir de 2014 se crean las primeras plataformas que ofrecen a artistas y creadores el registro de propiedad intelectual en una blockchain. La plataforma Monegraph, fundada por el artista Kevin McCoy y el empresario Anil Dash, introduce la posibilidad de transferir la propiedad de una obra digital a un comprador garantizando la autenticidad de la pieza y la transacción con un registro en blockchain. De hecho, la primera venta realizada en la presentación de la plataforma, una animación titulada Quantum que McCoy transfirió a Dash, se considera actualmente «el primer NFT». Ese mismo año, el artista Paolo Cirio creó Art Commodities, un proyecto de arte conceptual que planteaba una especie de  crítica al mercado del arte contemporáneo, pero que ya prefiguraba la estructura actual del mercado de los NFTs, si bien con ambiciones más culturales que especulativas.

La fiebre especulativa viene de los juegos, los criptoinversores y las casas de subastas

Durante años, muchos artistas han vendido sus obras digitales con certificados de autenticidad en blockchain, sin que ello generase revolución alguna. Sin embargo, cuando en 2017 los tokens no fungibles se crean por medio del estándar ERC-721 en la blockchain de Ethereum, los primeros proyectos que aprovechan sus funcionalidades causaron sensación precisamente por la posibilidad de poseer, e intercambiar algo único. CryptoPunks, una serie de 10.000 retratos de personajes generados por un algoritmo, y CryptoKitties, un juego que consiste en adoptar e intercambiar gatos virtuales, se sirven de la combinatoria para obtener un gran número de personajes con rasgos individualizados, que se hacen únicos al quedar registrados como tokens no fungibles. El creciente interés por estos y otros proyectos, particularmente entre los inversores en criptomonedas, es captado por las casas de subastas Christie’s y Sotheby’s, que se suman a esta tendencia con  ventas de Robert Alice [5], Beeple [6] y Murat Pak [7], aprovechando su posición privilegiada en el mercado del arte para obtener cuantiosos beneficios. Los espectaculares precios alcanzados con la obra de unos creadores desconocidos en el mercado del arte, y, en particular, con unas piezas que cualquier persona con conocimientos de modelado 3D puede imitar, han desatado la fiebre por crear NFTs entre artistas, ilustradores, diseñadores, programadores y oportunistas. Al mismo tiempo, un gran número de inversores en criptomonedas buscan en el arte un valor refugio, sin saber exactamente qué es arte o qué ofrece garantías de conservar su valor en el futuro (tal vez sin preocuparse mucho por ello), y compran contenido visual registrado en blockchain a precios muy por encima de lo que se había dado hasta entonces en el mercado.

CryptoPunks, una serie de 10.000 retratos de personajes generados por un algoritmo.

El mercado de los NFTs reproduce las desigualdades del mercado tradicional

La primera oleada de ventas millonarias hizo crecer rápidamente la actividad que se venía dando en los mercados de NFT creados en 2017 y 2018, como OpenSea, SuperRareNifty Gateway, basados en la blockchain de Ethereum. En 2020 se suman dos plataformas muy distintas: Hic et Nunc (H=N),[7] una rara avis basada en la blockchain de Tezos, que logrará establecerse como una referencia para una amplia comunidad de artistas, y Foundation, un mercado especializado en arte digital que cuenta con un considerable elenco de artistas con una trayectoria establecida en este medio. Pronto se instauran dos mercados de arte en NFT: uno representado por plataformas como SuperRare o Foundation, que solo aceptan artistas por invitación y venden obras en subastas a precios elevados empleando Ethereum, y otro representado por H=N y otras plataformas en Tezos como Objkt, abiertas a todo tipo de artistas que ofrecen sus obras a precios más asequibles. Otra diferencia fundamental se encuentra en el impacto medioambiental de las blockchains de Ethereum y Tezos. Según denuncian los artistas Memo Akten, Joanie LemercierKyle McDonald, acuñar tokens no fungibles en la blockchain de Ethereum conlleva un consumo de electricidad enorme, que a su vez contribuye al aumento de las emisiones de CO2 y, por tanto, al calentamiento global. La blockchain de Tezos emplea un protocolo diferente que supone un gasto de energía mucho menor, similar al que se genera al enviar un tuit, por cada NFT. Si bien el coste energético real sigue siendo objeto de discusión, Ethereum no deja de ser más contaminante que Tezos, pero también potencialmente más rentable, puesto que la mayoría de inversores operan en ETH.

Coleccionar arte (de calidad) en NFT va a ser habitual

El mercado del arte de los NFTs se ha desarrollado a gran velocidad a lo largo de los últimos meses, abriendo un gran abanico de posibilidades dentro del cual cristalizan algunas tendencias dominantes y actores influyentes. Una de estas tendencias es la sustitución del mercado abierto a todos, en el que cada obra es una imagen más dentro de una cuadrícula infinita, por una presentación comisariada de obras de arte con un discurso específico que se desarrolla en el formato del proyecto individual de un artista o una exposición colectiva. Este formato lo emplean plataformas como Feral File, creada por el artista Casey Reas, Daata, del comisario David Gryn, bit.art, del galerista Steve Sacks, o  AlterHEN, creado por un colectivo internacional de artistas. Otra tendencia es la identificación de los NFTs con un tipo de imagen específica, en concreto, un modelo o animación en 3D de estética futurista, en la línea del trabajo de Beeple, o bien composiciones geométricas abstractas, también con efectos tridimensionales, a modo del trabajo de Pak. Finalmente, la tendencia que se está dando actualmente es la de la asimilación definitiva de los NFTs en el mercado del arte contemporáneo dominante, a medida que las grandes galerías incorporan con naturalidad este formato entre los que ofrecen a los coleccionistas. Pace, una de las galerías más poderosas a nivel global, ha lanzado recientemente Pace Verso, una plataforma de venta de NFTs que notablemente establece los precios en dólares y acepta el pago con tarjeta de crédito (además de las principales criptomonedas), en lo que puede interpretarse como un acercamiento al coleccionista «tradicional», que no participa del entusiasmo de los criptoinversores pero tampoco quiere quedarse atrás en la adquisición de arte digital.

No puede decirse que una innovación ha sido asimilada por el mercado del arte hasta que  las propias galerías  la adoptan. Llegados al punto en que tanto Pace como un número creciente de galerías se han decidido a vender NFTs, puede considerarse que los tokens no fungibles van a ser un formato tan habitual como lo son las serigrafías, las impresiones digitales, las fotografías o los vídeos. También es posible que el entusiasmo por estas obras digitales no deje de ser una burbuja especulativa cuyo fin aún no hemos visto (cabe recordar que la burbuja de las punto com duró cinco años), y que en unos años muchos coleccionistas se encuentren con que sus obras no valen lo que pagaron por ellas. Pero en cualquier caso, la capacidad de resistencia del mercado y la implicación de sus actores más poderosos augura un futuro estable para el arte en formato digital y los registros de autenticidad y propiedad en blockchain u otra tecnología similar. Ya sea bajo las tan repetidas siglas o con una denominación diferente, los NFTs van a seguir dando  que hablar.


[1] Napier crea en 2002 The Waiting Room, un espacio virtual online que comparten en exclusiva los coleccionistas que adquieren una de las 50 participaciones de la pieza.

[2] Zanni explora durante años las posibilidades de comercializar obras  de net art. Una de sus primeras piezas es Altarboy (2003-2004), que consiste en una escultura que contiene el servidor en el que se aloja la obra. Para verla, el coleccionista debe conectar el objeto a internet, haciendo que la obra sea públicamente visible en un navegador.

[3] Rozendaal crea obras pensadas para ser vistas en un navegador web y les asigna un nombre de dominio, que hace de cada pieza un objecto único. Un contrato elaborado por el artista obliga al coleccionista a mantener la obra en el sitio web, a la vez que añade su nombre al código fuente de la pieza.

[4] La obra Block 21 (42.36433° N, -71.26189° E) de Robert Alice fue la primera venta de NFT en Christie’s, que se cerró el 7 de octubre de 2020.

[5] El collage digital Everydays: The First 5000 Days de Mike Winkelmann, conocido como Beeple, alcanzó la astronómica cifra de 69 millones de dólares en una venta online en Christie’s, que culminó el 11 de marzo de 2021.⁠

[6] Sotheby’s lanzó en abril de 2021 una venta de NFT del diseñador Murat Pak, sumando un total de casi 17 millones de dólares.⁠ https://www.sothebys.com/en/digital-catalogues/the-fungible-collection-by-pak

[7] La plataforma fue cerrada por su creador el 11 de noviembre de 2021 y continúa ahora en otros servidores. Una breve historia de Hic et Nunc puede encontrarse en Github.





Contra la complejidad

Las soluciones tecnológicas a menudo obvian la complejidad de los problemas sistémicos con los que se enfrentan.


Dos mujeres utilizando un conmutador. Halmstad, 1962 | Järnvägsmuseet | Dominio público

La creencia de que se pueden resolver los problemas complejos de la sociedad de manera simple a través de la tecnología ha arraigado con fuerza. Si bien esta tendencia tecnosolucionista se muestra ineficaz para ofrecer soluciones, sí que modela nuestra visión del mundo. Así pues, el diseño de las tecnologías digitales también suprime nuestra capacidad para imaginar otras realidades.

La crisis del COVID-19 ha puesto de manifiesto un masivo fracaso sistémico, social, ecológico, político y económico. Aunque las causas y consecuencias de esta crisis sean muy complejas y profundas, se nos ha dicho hasta la saciedad que puede resolverse, una vez más, con una aplicación. Este enfoque técnico para resolver problemas se conoce comúnmente como tecnosolucionismo. El tecnosolucionismo tiende a simplificar y a ocultar las diversas realidades simultáneas que desencadenan y conforman los problemas específicos que pretende solucionar: simplemente no puede con los problemas. Aun cuando se ha demostrado que el tecnosolucionismo no funciona a la hora de solventar acontecimientos extremadamente complejos, como es el caso de la pandemia global actual,[1] a menudo se adopta activamente como única respuesta posible a una situación crítica. Por otra parte, a pesar de que este enfoque tecnosolucionista para tratar realidades extremadamente complejas pudiera favorecer a corto plazo una estabilidad sistémica por el hecho de evitar situaciones de colapso inmediatas, elude tener en cuenta el complejo conjunto de acontecimientos causantes del origen del problema, lo cual representa un riesgo de empeoramiento real. A mi parecer, el ejemplo que expongo a continuación ilustra claramente esta noción.

Igloo White fue una operación militar de las fuerzas aéreas norteamericanas que intentó automatizar las actividades bélicas durante la guerra del Vietnam. Dicha operación se inició en 1967 y se prolongó hasta 1972 y su coste fue de entre 6.000 y 6.700 millones de dólares.[2] El Infiltration Surveillance Center (ISC), que estaba emplazado en Nakhon Phanom (Tailandia) y que era el edificio más grande del sudeste asiático en 1968, actuó de centro de gestión de alta tecnología punta de Igloo White. El ISC interceptó y analizó miles de sensores situados a lo largo de la Ruta Ho Chi Minh, vía principal de abastecimiento para las fuerzas militares norvietnamitas. Estos sensores encubiertos estaban diseñados para detectar la presencia de personas y de vehículos que circulaban por la ruta, mediante la captura de temperatura corporal, movimiento, sonido e incluso el olor de la orina. Por el simple hecho de percibir actividad humana, el ISC calculaba sus coordenadas y las enviaba a las patrullas de los cazas de la fuerza aérea que, a su vez, los redirigían automáticamente al objetivo para detonar las bombas. Oficialmente, Igloo White fue reconocida como una operación militar de notable éxito al haber destruido el 90% del abastecimiento enemigo y resultando en aproximadamente 13.000 refugiados civiles[3] durante los más de cuatro años de control de la guerra por medios electrónicos. Sin embargo, la realidad del campo de batalla rebatió esos argumentos: raramente se localizaron los equipamientos destruidos y los soldados norvietnamitas desarrollaron contratácticas para confundir a los sensores norteamericanos, lo cual resultó en una considerable descarga de grandes cantidades de material explosivo en terreno baldío.[4] En muchos sentidos, Igloo White no reconoció, o se negó a reconocer y a integrar el complejo conjunto de particularidades que formaban parte de la realidad de la guerra que estaba intentando ganar, resultando no sólo en una de las más dolorosas derrotas en la historia militar de los Estados Unidos, sino también dejando atrás un importante número de víctimas y la destrucción de enormes extensiones de paisajes naturales. En mi opinión, Igloo White es un muy buen ejemplo histórico de cómo las estrategias tecnosolucionistas, como argumenta Paul N. Edwards refiriéndose a la guerra del Vietnam, «se justifican estadísticamente», aunque generan «una brecha enorme entre un discurso oficial de éxito aplastante y las pesimistas valoraciones de los observadores independientes».[5]

Esquema de funcionamiento de la operación Igloo White | CC BY-NC-ND 4.0

La influencia del tecnosolucionismo va más allá de la reducción de la actividad social y política y, de hecho, erosiona nuestra capacidad de imaginarnos como parte de un ecosistema más extenso. Al distar mucho de ser entidades neutrales, nuestros aparatos cotidianos llevan intrínsecamente y conducen a una visión del mundo particular que, inevitablemente, produce y reproduce ciertas realidades y excluye a otras. Según el libro The Social Construction of Reality, publicado en 1966, la realidad es un proceso sofisticado y subjetivo que se ve afectado por múltiples eventos contextualizados, como son la experiencia, la interacción, el lenguaje y la herencia personal y social.[6] La mayor parte de nuestras transacciones cotidianas se ejecutan mediante dispositivos electrónicos integrados en sistemas masivos de máquinas interconectadas. Sin embargo, dicho ecosistema en red expansivo sólo es accesible mediante interfaces tangibles e «intangibles», como son las pantallas, los teclados y las interfaces de uso gráfico que comprenden elementos interactivos como son los clicables o desplazables. A la larga, lo que hace esta amalgama de interfaces y de posibilidades interactivas ­­–y de limitaciones– es mediar (y dictar) nuestra relación con el mundo, influyendo profundamente en la construcción de nuestra realidad. Según un estudio recientemente publicado, en 2020 cada ciudadano pasa de promedio 3,1 horas al día utilizando aplicaciones instaladas en su móvil inteligente[7] y alrededor de 7 horas delante de la pantalla.[8] El diseño de un objeto cualquiera lleva inscritos los valores sociales e intereses que responden a una ideología específica: la del grupo humano que la ha creado dentro de su contexto socioeconómico.[9] Gran parte de nuestras tecnologías digitales cotidianas están diseñadas y desarrolladas por unos pocos (aunque afecten a muchos) en el corazón de Silicon Valley, la cuna del capitalismo tecnopatriarcal. Un sistema se diseña con la intención de controlar todos los procesos que lo afectan para obtener el resultado deseado (aunque el sistema puede transformar esos procesos externos, a veces de manera inesperada). En ese sentido, la mayoría de dispositivos, plataformas digitales y apps que utilizamos en nuestra vida cotidiana dan cabida a poca o ninguna negociación y, por ende, anulan la posibilidad de modificar sus sistemas, puesto que ignoran la multiplicidad de sensibilidades que los conforman (es decir, los usuarios, la naturaleza), lo cual diluye enormemente su potencial de imaginar modos alternativos de estar en el mundo. A mi parecer, esta reducción de experiencias y de visiones del mundo generada por nuestras tecnologías está lastrada con unas consecuencias dramáticas: cuanto más se distancia nuestra concepción de la realidad de su contexto físico (y condición), más se homogeneiza nuestra imaginación y más se agota nuestra capacidad de reaccionar (habitar) con coherencia en nuestros fértiles ecosistemas.

Ultimate Solvers | Joana Moll

¿Cuáles son las actuales empresas y discursos que definen, diseñan, desarrollan, producen, implementan y activan la ideología tecnoreduccionista a escala global?

«Grandes datos. Grandes tecnologías. Grandes resultados» (Alliant); «Tecnología fragmentada» (Lotame); «Cuando la experiencia cuenta: para marcas, para personas, para siempre» (Acxiom); «Personaliza la trayectoria de cada cliente con transparencia» (Epsilon); «Personalización de las escalas de segmentación sinfónica» (AnalyticsIQ); «CALIBRAR ES ATESORAR.» (4Info); «Convertimos la conducta del cliente en oportunidades financieras» (Cignifi); «El poder de predecir» (Rocket Fuel); «Nuestros datos te permiten conocer a tu cliente tan bien como a tus amigos» (Woveon); «DATOS VERDADEROS. RESULTADOS FIABLES.» (Merkle Inc.); «INGENIERÍA DE PRIVACIDAD Y LIBERTADES CIVILES» (Palantir); «Damos sentido a la medición» (Comscore); «Entre en la mente de su cliente» (GFK); «Una empresa de fusión de datos globales que utiliza la ingenuidad para lograr el bienestar de las ciudades, los ciudadanos y las corporaciones» (Sensen networks); «LA EXPERIENCIA LO ES TODO» (Ansira).

Esta selección de jerga incomprensible pertenece a Ultimate solvers,[10] obra que estrené en julio de 2020, a modo de compendio de una serie de eslóganes, identidades de marca y material gráfico de apoyo que se emplea en algunas de las principales corporaciones que prescriben panaceas tecnológicas para anunciar sus servicios. Se trata, curiosamente, de empresas que tienden a desplegar un lenguaje bastante preciso para definir lo que en realidad hacen de forma muy ambigua. Sin embargo, estas corporaciones entienden, precisamente, cómo beneficiarse de las realidades que sus tecnologías crean y de las cuales se alimentan. Finalmente, es inevitable preguntarse cuáles serán las implicaciones a largo plazo para resolver los problemas sistémicos de alta complejidad con tecnosoluciones reduccionistas. El futuro no se augura brillante.

Texto incluido originariamente en SYSTEMS, una publicación de la Science Gallery del Trinity College de Dublín.


[1] Morozov, Evgeny (2020). «The tech “solutions” for coronavirus take the surveillance state to the next level». The Guardian, 15/04/2020.

[2] Wikipedia (2020). «Operation Igloo White». Última modificación 1 de junio de 2020.

[3] Edwards, Paul N. (1996). The Closed World Computers and the Politics of Discourse in Cold War America. Cambridge, MA: The MIT Press.

[4] Edwards, Paul N. (1996). op. cit.

[5] Edwards, Paul N. (1996). op. cit.

[6] Berger, Peter L., Luckmann, Thomas (1966): The Social Construction of Reality. Nueva York, NY: Doubleday.

[7] 2020 Mobile App Evolution Report Overview. App Annie, San Francisco, CA: 2020.

[8] Screen Time: UK vs US vs The Rest Of The World Compared. Business Fibre, UK: 2019.

[9] Feenberg, Adam (2002). Transforming Technology: A Critical Theory Revisited. Nueva York, NY: Oxford University Press.

[10] Moll, Joana (2020). «Ultimate Solvers». 7 de julio de 2020.





La actualización que nunca se acaba

Nos adentramos en TikTok, una plataforma basada en el scroll infinito en la que consumir y producir son la misma cosa.


Clases en el Salón de Belleza de Helena Rubinstein, New York City, 1965 | Gottscho-Schleisner Collection, Library of Congress, Prints and Photographs Division | Sin restricciones conocidas de derechos de autor.

TikTok es una red social donde se elaboran y comparten vídeos de corta duración que se ha convertido en un fenómeno global más allá del mercado adolescente con el que arrancó en 2018. Nos preguntamos qué singulariza la experiencia de uso de esta app basada en el scroll infinito y con una arquitectura algorítmica, pasando por la vivencia del tiempo y la circulación de capital sexual y emocional que propone, así como la sobrerrepresentación de ciertas realidades en detrimento de otras.

Pequeñas historias en time-lapse, vídeos de animales, coreografías con arreglos de trap o reguetón, labios sincronizados –lipsync– sobre diálogos de telenovela, k-pop, experimentos con productos de limpieza y paradojas temporales se encadenan sin descanso en el zapping infinito de la red social TikTok –Douyin en China–. Son nudos diminutos, compulsiones de apenas unos segundos que nos miran, que nos estudian para darnos lo que más nos gusta, que nos invitan a responder con un nuevo vídeo a challenges o retos virales que invitan a la participación. Frente a la continuidad exacerbada de los vídeos de gameplay, charlas, música y ASMR de la plataforma de retransmisiones individuales Twitch, la discontinuidad de TikTok convoca un deseo de ver más, de ver diferente, un anhelo de compartir y de ser compartido que nunca puede ser saciado, tal vez solo fatigado por un instante.

Vídeo tras vídeo, sin interrupción alguna que pueda recordar el fuera de campo de la app, TikTok, como su rival Triller o como Instagram, Facebook, Twitter, WeChat o Toutiao, se despliega a partir de un continuo deslizamiento sobre la pantalla del smartphone. Aunque todavía no figure como un hito en los estudios de antropología o en los manuales escolares, el año 2006 introdujo en la historia cultural del ser humano un dispositivo visual tan importante como lo fueron el libro o la imprenta: el scroll infinito, una función de la interfaz táctil que es el fundamento de la mayor parte de las redes sociales contemporáneas. Concebido por el ingeniero Aza Raskin, diseñador de interfaces, empresario y, en los últimos años, activista a favor de la utilización ética de la tecnología, el scroll infinito no solo cataliza las posibilidades de la pantalla táctil incorporada por primera vez en el iPhone de Steve Jobs en 2007, sino que constituye también el espacio de una reprogramación cognitiva de nuestro acceso a la información y nuestra concepción de las emociones y del tiempo.

El feed nunca se acaba

«El ojo solo ve aquello que mira, y solo mira aquello de lo que ya tiene una idea», solía escribir en un cartel en la entrada de sus clases de identificación criminal Alphonse Bertillon,[1] el creador de la antropometría judicial, cuyo sistema fue adoptado por todos los cuerpos policiales del mundo occidental a partir de 1888. Al reiterar el gesto de deslizamiento sobre la pantalla de TikTok, nuestros ojos no solo van reconociendo aquellas imágenes para las que ya tenemos un paradigma de comprensión, sino que el sistema de inteligencia artificial gestado por la compañía china ByteDance registra los micromovimientos de nuestro pulgar, el tiempo que dedicamos a cada imagen, nuestros likes y preferencias a la vez que etiqueta cada vídeo para alimentar el flujo de actualización –feed– con aquellas imágenes que mejor pueden satisfacer nuestro deseo de seguir asomándonos a esa concatenación de estímulos solo en apariencia caótica, con más de 2.000 millones de descargas y picos de casi 1.000 millones de usuarios activos al mes.

Ante un caleidoscopio que embelesa a la mitad de la población mundial y que, durante la pandemia, ha ensanchado su alcance más allá del mercado adolescente con el que arrancó en 2018, cabe preguntarse qué singulariza la experiencia de uso de esta app. No se trata tanto de esclarecer las múltiples narrativas que la atraviesan ni de identificar a los usuarios más aclamados, como Charli D’Amelio, Addison Rae y Bella Poarch –con 117, 81 y 71,6 millones de seguidores respectivamente– sino de preguntarse: ¿En qué piensa TikTok? ¿Qué es lo que ve, lo que mira y lo que no muestra TikTok? ¿Cómo podemos pensarnos en TikTok? ¿Cómo responde a nuestra mirada? E incluso: ¿Qué somos para TikTok? En un sentido estricto, contemplada desde la perspectiva de las redes sociales, la vida humana es un epifenómeno de su propia autorreproducción, cuyo destino es producir y consumir contenido que se reproduzca de manera viral. Lo verdaderamente vivo es la circulación de esta enorme fábrica de memes, sin principio ni final.

Desde cada uno de los smartphone que participan en el flujo de TikTok se hace realidad el ideal capitalista de la semioproducción. Ya no hace falta producir ningún contenido específico sino sostener un sistema de inteligencia artificial que permita acomodar la incesante producción de vídeos de los usuarios a su propia pulsión escópica. Al adagio shakesperiano «que cada ojo negocie por sí mismo» que el cineasta Jean-Luc Godard elegía para abrir sus Histoire(s) du cinéma (1998),[2] la era de TikTok responde con una negociación mediada, una automatización cognitiva que desaloja cualquier imagen no esperada y avala la total fluidez de la experiencia del consumo. TikTok es una plataforma en la que ser, consumir y producir son una misma cosa. Que la fábrica sea el consumidor parece una quimera que el capitalismo industrial, que producía mercancías y aprendió a crear necesidades, nunca hubiese soñado.

Además, el que una de las mayores fuerzas de trabajo se encarne en los adolescentes, dibuja un horizonte en el que lo que Marx llamó el general intellect en su «Fragmento sobre las máquinas»,[3] lejos de abrirse a una socialización del capital tecnológico y cognitivo acumulado opera en sentido contrario. No hay emancipación posible del tiempo social con respecto a la obligación del trabajo asalariado, dado que es imposible usar TikTok, Twitch, Instagram, Facebook o cualquier otra red social sin estar generando un capital, sin estar trabajando. Ese solapamiento entre vida y trabajo propio de nuestra sociedad del rendimiento oblitera cualquier posibilidad de ocio sustraído al consumo, de otium ludens en el sentido latino.[4] Sin embargo, resultaría ingenua una crítica hacia Tiktok que no reconociese su importancia como fenómeno y la pericia de su arquitectura algorítmica para representar, por vías que otras narrativas no logran acercar a los usuarios del siglo XXI, el campo de tensión de las emociones, en particular, la constelación identitaria de la adolescencia.

Lo que Deleuze, en su curso sobre Spinoza de 1978, denominó el affectus, esto es, «la variación continua de la existencia de alguien»,[5] es algo que el tránsito entre vídeo y vídeo, la socialización que comporta cada respuesta, exterioriza con un alcance insólito. En TikTok se baila. Se ríe. Se llora. Se canta. Se quiere gustar. Se muestra lo que corresponde a una proyección sublimada de nuestro propio yo, pero –a diferencia de Instagram– se abre también el cauce para la exteriorización de estados de postración, llanto o euforia, aunque casi siempre reconducidos hacia el rédito de una actitud positiva. Las emociones se liberan como consecuencia de la «sobrecarga de nosotros mismos» que padecemos en una sociedad de la que han sido extirpados los rituales colectivos, la dimensión simbólica de las imágenes que articulan la socialización. Para un adolescente, en particular, TikTok constituye un espacio comunitario capaz de catalizar la fantasía de un tejido relacional en el que amparar la propia identidad y la construcción de las propias emociones.

La acumulación de seguidores, la afirmación de los likes y la posibilidad de comparecer en un mismo espacio digital con tiktokers que se perfilan como modelo de referencia, configuran un full celebrity effect cuyo fantasma se engendra a partir de la acumulación de un capital emocional personal ligado a la autoexposición. El auténtico motor de la app es el acopio de una popularidad que coincide con la pantalla como proyección del espacio confesional de la habitación. La hipervisibilización de la intimidad contribuye, además, a una transformación del devenir social de la psicosfera en la que el deseo, que siempre tiene una génesis cultural, se inviste de una cualidad trepidante o, de acuerdo con el término de Guattari, caosmótica:[6] TikTok no es un lugar donde se pueda compartir la propia sexualidad; es un órgano de goce externalizado, lo que explica la brusca reacción que puede generar en un adolescente la limitación de su uso por parte de un adulto.

El capital sexual de la modernidad tardía o cómo acabar con Galton

Como ha señalado Slavoj Žižek, las imágenes no dan respuesta a nuestro deseo; no enseñan qué desear, sino cómo desear.[7] Desde que, en 1907, Julius Newbronner idease un sistema para colgar cámaras en el pecho de las palomas, nuestra mirada no ha dejado de ser exteriorizada. Primero fueron los aviones, más tarde –como alertara Harun Farocki–[8] la videovigilancia y los misiles lanzados durante la guerra del Golfo, y después las redes sociales y los algoritmos. En la actualidad, y aunque seamos nosotros mismos quienes nos grabamos y cedemos nuestras expresiones faciales a aplicaciones como FaceApp o al sistema de bloqueo de nuestro smartphone –la culminación del sistema clasificatorio de Bertillon, sus denominados «retratos parlantes»–, nuestra mirada está por completo externalizada. De la pionera vista aérea de Kronberg tomada por la paloma de Newbronner al sistema de vigilancia chino Dragonfly Eye, la imagen ha llegado a automatizarse hasta perder las dos razones de su propia definición: ser producida por un ser humano para ser vista por un ser humano.

De la automatización cognitiva hemos pasado a la eliminación de cualquier ángulo ciego, como muestra la expansión de los sistemas de vigilancia de Axon o AnyVision. Si en el espacio público la hipervisibilidad se convierte en la norma, como demuestra el sistema de crédito social chino, las redes sociales promueven un neurototalitarismo basado en la patrimonialización del eros y el tiempo colectivo. Ante la secuencia de TikTok, la vivencia temporal experimenta una articulación y una destrucción simultáneas. Es decir, a cada instante el tiempo se orienta a través de relatos y pseudo-rituales y a la vez es destruido por la irrupción del vídeo siguiente. La coincidencia de rito y juego en las redes sociales provoca una fractura en la inscripción temporal que se acompaña de un fenómeno de capitalización. Acumulamos capital no solo para sobrevivir sino como manera de confutar la muerte, como una fantasía de supervivencia. Y acumulamos capital sexual, como señalan Eva Illouz y Dana Kaplan, por efecto de una interferencia anómala entre el ámbito de la economía y el largo proceso sociocultural que durante décadas había conducido a la identificación entre libertad sexual y autorrealización.9

La erotización primaria que atraviesa las redes sociales muestra cómo la sexualidad, una vez liberada del control de instituciones como la familia o la iglesia, ha dejado de ser el espacio de una libertad inexpugnable. A través de una sociedad que sustituye el control y la biopolítica descritos por Foucault por la autoexplotación y el rendimiento,[10] el atractivo personal queda emplazado en una lógica mercantil, en lo que Illouz denomina el «capitalismo escópico».[11] Como subraya Catherine Hakim, el capital erótico siempre ha existido bajo formas diferentes y conviene desterrar una lectura binaria entre empoderamiento y dominación, pues se trata de un fenómeno más complejo.[12] Que la libertad sexual sea la base normativa del capitalismo no obsta para que a través de la hipervisibilidad de redes como TikTok —o de Onlyfans, que se basa en la plusvalía erótica— tome carta de naturaleza la desigualdad e incluso el desclasamiento sexual.

Desde el punto de vista conductual, además, y de acuerdo con Hito Steyerl, el lenguaje coreográfico proyectado por las redes sociales genera una domesticación de los gestos, una disciplina de los cuerpos donde el empoderamiento coexiste, sin contradicción, con la sumisión al mercado.[13] Un fenómeno como el de la DeepTok, con sus imágenes sombrías y vídeos de tortura animal, muestra una reacción de la sensibilidad colectiva contra la capacidad omnímoda de asimilación de TikTok. Asimismo, como en cualquier otra red social, la sobrerrepresentación de ciertas realidades comporta la infrarrepresentación de situaciones como la represión china contra la etnia uigur, de mayoría musulmana, y el uso de «campos de reeducación», algo que en noviembre de 2019 la adolescente Feroza Aziz se las arregló para denunciar desde un vídeo de maquillaje, que fue retirado de inmediato de TikTok.

Persistencias de la visión

Una de las figuras más equívocas de la historia de la ciencia, Sir Francis Galton, eugenista e inspirador de las políticas de «higiene racial» en la Alemania nazi, gestó un sistema de fotografía compuesta con el que intentaba establecer una serie de cánones figurales –con etiquetas como «genio», «judío» o «criminal»– que le permitiesen predecir el comportamiento de las personas a través de una «estadística pictórica» creada a partir de superposiciones en las que trataba de leer «clases naturales». Amén de lo caprichoso de la definición de esos tipos, que partían de sus prejuicios, las imágenes tenían un aspecto espectral, la suma de miles de retratos en los que la segmentación biométrica de Bertillon se transformaba en quimeras inexistentes, en seres difuminados que nos miran esperando nuestra coincidencia con unos rasgos trazados para satisfacer la anatomía de la estadística.

Ante el machine learning que gobierna TikTok, ante su circulación de capital sexual y emocional, cabe preguntarse si, para su inteligencia artificial, no somos como los ciudadanos cuyo futuro intentaba aprehender Galton: cuerpos dóciles que se consumen en una perpetua explotación del yo. Pero no hay ninguna ciencia «que mantenga el ego intacto», como ha señalado Donna Haraway en «Persistence of Vision».[14] Hoy en día, una verdadera ciencia de las imágenes exige partir de la cartografía de los afectos de TikTok para contemplar la oportunidad de reconquistar un lenguaje emocional expropiado por la economía de la atención. Contra la idea aristotélica según la cual el pathos, a diferencia del logos, está privado de acción y voluntad, una larga cadena de pensadores, de Nietzsche a Judith Butler, ha señalado que la exposición de la emoción, del afecto, es movimiento, apertura y potencia, con lo que cabe preguntarse no solo ¿quiénes somos para TikTok? y ¿cómo modela nuestras emociones? sino también: ¿Existe algún modo de reprogramarlo?


[1] Bertillon cita esta frase en Identification anthropométrique, instructions signalétiques (Imprimerie Administrative, 1893) a partir del epígrafe que el anatomista Jean Louis Hippolyte Peisse toma del Traité d’Anatomie artistique de Paul Richter (París: Plon, 1890): «L’Oeil ne voit dans les choses que ce qu’il y regarde et il ne regarde que ce qui est déjà en idée dans l’esprit».

[2] «Let every eye negotiate for itself», Shakespeare, William, Much Ado About Nothing (1599) Acto II, escena I (1978: The Complete Works (The Alexander Text) 18th edition, Londres, Collins, p. 143).

[3] Marx, K., Elementos fundamentales para la crítica de la economía política (Grundrisse) 1857-1858, vol, 2, México. Siglo XXI, 1972, pp. 216-230.

[4] Véase: Guzzo, P.G. y Bonifacio, G. (ed.), Otium Ludens. Stabiae, cuore de l’impero romano. Castellammare di Stabia:N. Longobardi: 2007; Fumaroli, M., París-Nueva York-París. Viaje al mundo de las artes y de las imágenes. Diario de 2007 a 2008. Barcelona: Acantilado, 2010,

[5] Deleuze, G., En medio de Spinoza. Buenos Aires: Cactus, 2006.

[6] Guattari, F., Caosmosis, Manantial, 1996.

[7] En: Fiennes, S., Žižek, S., The Pervert’s Guide to Cinema (2006).

[8] Farocki, H., Eye Machine I y II (2001, 2002); «Der Krieg findet immer einen Ausweg», Cinema 50, Essay, Schüren Verlag, 2005.

[9] Illouz, E. y Kaplan, D., El capital sexual en la modernidad tardía. Barcelona: Herder, 2020.

[10] Foucault, M., Histoire de la sexualité. París: Gallimard, 1976; Surveiller et punir, Gallimard, París, 1975; Naissance de la biopolitique, Cours au collège de France 1978-1979, Hautes études, Gallimard-Seuil, París, 2004.

[11] Illouz, E., El fin del amor. Una sociología de las relaciones negativas. Buenos Aires: Katz, 2020.

[12] Hakim, C., «Erotic capital», European Sociological Review 26.5., 2010.

[13] Steyerl, H., «¡Corten! Reproducción y recombinación», en: Los condenados de la pantalla. Buenos Aires: Caja Negra, 2014, p. 185-200.

[14] Haraway, D., Primate Visions, Gender, Race and Nature in the World of Modern Sciences. New York: Routledge, 1989.

 





Recuerda lo humano

Reddit, frontera entre los nichos digitales y el mainstream, es uno de los campos de batalla para los debates sobre libertad de expresión y toxicidad en tiempos del gran algoritmo.


Niños de Navy boxeando | Harris & Edwing, Library of the Congress, Library of Congress | Sin restriccions conocidas de derechos de autor

A medida que ha ido creciendo, Reddit ha ido tomando decisiones referentes a la moderación del contenido tóxico. Los primeros intentos de moderación mínima causaron reacciones de hostilidad entre los usuarios, pero con los años Reddit ha conseguido un modelo de moderación alternativo y descentralizado. Se trata de un modelo más horizontal, cooperativo y humano comparado con el de otras plataformas, y el resultado es lo más parecido a un espacio donde es posible mantener una conversación con libertad.

El experimento tenía unas normas muy claras. Una tela colaborativa de 1.000 píxeles por 1.000 píxeles que todos los usuarios de Reddit podían pintar libremente durante 72 horas, píxel a píxel, con un cambio permitido cada cinco minutos. Lo llamaron Place, ‘Lugar’. Era abril de 2017 y de los 250 millones de redditors, participó más de un millón. ¿Qué podía salir mal?

Reddit es una red masiva de comunidades de interés autogestionadas por los usuarios y dedicadas a centenares de temáticas, ideas, memes, lugares, ideologías, sensaciones y debates. En 2017, cuando el equipo al mando de Reddit decidió probar el experimento de Place, la duda (y el motivo del nerviosismo corporativo) era si el lienzo terminaría llenándose de esvásticas e insultos.

El resultado fue un microcosmos mutante y disperso de facciones, alianzas, creación y destrucción, comunidades que luchaban unas contra otras otros por el mismo espacio, incursiones, contraincursiones, troles tóxicos, ejércitos de resistencia… En diversos puntos del lienzo se iban formando algunas esvásticas. A los pocos minutos, ejércitos de usuarios las borraban o las reconvertía en el logotipo de Windows 95.

El resultado final es una metáfora visual de lo que quiere ser Reddit. Una bandera fragmentada en mil pedazos que conviven. Place era la performance de la solución que Reddit ofrece para los problemas del internet oscuro, corporativo y algorítmico de la era Trump. Un ecosistema vivo, decía el lienzo, es aquel en el que todo el mundo disfruta de igualdad de condiciones, libertad de expresión, y en el que el autocontrol comunitario frena el odio.

¿Puede funcionar realmente este modelo?

La fusión del hippie y el yuppie

Reddit es un producto de la oleada de emprendeduría digital posterior a la crisis de las punto com. La idea de un agregador de noticias surgió durante los primeros campamentos emprendedores de Y Combinator, una incubadora de startups promovida por el gurú tecnológico Paul Graham. La idea de Graham era ofrecer a los jóvenes emprendedores universitarios norteamericanos el dinero justo para desarrollar sus proyectos, protegiéndolos de los grandes fondos de inversión que habían sobredimensionado e inflado muchos proyectos web durante la crisis de los 2000.

Los campamentos emprendedores de Paul Graham se fundaron con la idea de ofrecer soluciones pragmáticas a problemas concretos de una manera nueva y fresca, más ligera. De estos campamentos han surgido empresas como Dropbox, Twitch o Airbnb. Estos proyectos digitales tienen en común que combinan una imagen excéntrica, revolucionaria y desenfadada con una vocación decididamente capitalista. Este combo ambiguo y paradójico es un subproducto corporal directo de lo que los teóricos Richard Barbrook y Andy Cameron han denominado «la ideología californiana».

La ideología californiana describe el ambiente social y cultural bajo el cual se despliega el Silicon Valley que conocemos. Según los autores del término, combina el espíritu libre y excéntrico de la contracultura de los sesenta con un determinismo tecnológico dirigido a la producción capitalista y mercantil. El encaje entre el hippie y el yuppie. Revolución y capitalismo. El ecosistema digital es una promesa de emancipación que asegura que todos los problemas pueden resolverse con una app, y que construir un mundo mejor es sinónimo de hacerse multimillonario, eso sí: sin corbatas. Todo gracias a la ingenuidad creativa… ¡y a la ingenuidad inversora!

Reddit es un prototipo de esta cultura de emprendeduría cool. Sus fundadores, Steve Huffman y Alexis Ohanian, la crearon en 2005 nada más terminar la universidad y fueron añadiendo funcionalidades para hacerla más atractiva. La idea era sencilla: una web donde todo el mundo pudiera colgar enlaces interesantes y votarlos positiva o negativamente. Cuantos más votos positivos tenía un enlace, más visible era.

Reddit fue poblándose de usuarios con perfiles similares a los de sus fundadores: jóvenes universitarios interesados en los videojuegos, en la programación, en la ciencia ficción… y con un humor nerdy y edgy, que agradecían un espacio donde encontrar enlaces sobre aquello que les interesaba.

Huffman y Ohanian decidieron dividir la página en subpáginas que los usuarios podían crear para generar microcomunidades con sus intereses particulares, sin límites. Así nacieron los subreddits. Sin pretenderlo, habían inventado un sistema con los ingredientes necesarios para dar cabida a centenares de miles de pequeñas tribus digitales con sus referentes, lenguajes y tradiciones propias. Un espacio para quien tiene gustos peculiares, para la autenticidad y los intereses de nicho. Un lugar heterogéneo, caótico y sucio en tiempos de homogeneización diáfana.

Y esto es Reddit hoy en día. Un lugar que son muchísimos lugares. Un espacio difícil de explicar o definir.

Si te gustan los animalitos entrañables, puedes formar parte de r/aww; si eres de Ontario, tienes r/Ontario; si eres adicto a mortificarte con la vergüenza ajena, puedes pasarte por r/Cringetopia; si tus ideas de venganza siempre llegan demasiado tarde, puedes recrearte con las venganzas de los usuarios de r/PettyRevenge; si estás muy enganchado al último Call Of Duty, está, evidentemente, el r/CODWarzone; en r/AskParents encontrarás padres y madres que comparten consejos sobre paternidad, en r/EarthPorn tienes fotografías de rincones increíbles del planeta, si quieres cosas ligeramente interesantes, ningún problema, está r/MildlyInteresting. En r/nonononoyes hay escenas que pintaban fatal pero que al final acaban bien. En r/Transpassing, una comunidad de personas da consejos y trucos para esconder que han hecho una transición de género. r/jazz, r/Catalonia, r/mademesmile. r/nextfuckinglevel, r/oldpeoplefacebook, r/wholesomememes. La lista no es infinita, pero lo podría parecer.

En Reddit también se han generado muchos espacios tóxicos, como r/Jailbait, donde se comparten imágenes eróticas de adolescentes, r/FatPeopleHate, una comunidad dedicada a humillar a personas con sobrepeso o r/incels, una comunidad de hombres misóginos que incitaban a la violencia contras las mujeres. Decenas de comunidades racistas, antisemitas, machistas y de ultraderecha han encontrado un lugar y un altavoz en Reddit.

Para intentar proteger y justificar la plataforma, el fundador Steve Huffman la describía como un lugar para conversaciones «abiertas y honestas, y esto significa conversaciones auténticas, caóticas, lo mejor y lo peor, lo más real y lo más extraño de lo que es capaz la humanidad».

¿Libertad para acosar?

A medida que ha ido creciendo, Reddit ha ido tomando decisiones referentes a la moderación del contenido tóxico. Ha borrado algunas comunidades de odio en diversas ocasiones, pero su punto de vista sobre qué hacer con los troles, las teorías de la conspiración o el acoso han ido variando según soplaba el viento.

Cuando en 2011 Reddit decidió cerrar r/Jailbait, el entonces CEO de la empresa, Yishan Wong, excusó aquella decisión como si se tratase de un pecado, dejando claro que el único motivo por el que la eliminaban era porque compartía contenido que según las leyes estadounidenses podía ser ilegal. «Defendemos la libertad de expresión», decía entonces, «no prohibiremos los subreddits desagradables». Esta idea de la libertad de expresión absoluta era, a principios de la década, una idea fuerte que compartían todas las redes sociales, en gran expansión. Era la época de las grandes revueltas digitales, la era Obama, en la que el ambiente general era que, efectivamente, el 2.0 democratizaba el mundo. El director general de Twitter decía: «Somos el ala de la libertad de expresión del partido de la libertad de expresión».

Las redes tenían que ser «neutrales», lo que en aquel momento era sinónimo de estructuras pasivas ante cualquier comportamiento de los usuarios. Cuando en 2012 Reddit anunció que prohibía la compartición de contenido sugerente o sexual de menores en la plataforma, el comentario a la noticia con mayor número de votos positivos decía así: «Buen trabajo. Os habéis abierto a las influencias externas sobre lo que se puede o no publicar en Reddit».

Dos años más tarde, cuando Ellen Pao tomó la decisión de cerrar los cinco subreddits más tóxicos, entre los que se encontraban r/FatPeopleHate y r/shitniggerssay, la reacción de buena parte de los usuarios de la plataforma fue una violenta indignación contra Pao; compartieron imágenes de esvásticas vinculadas a su nombre para que apareciesen cada vez que alguien lo buscase en Google. Muchos amenazaron con marcharse a una plataforma donde no se censurara.

Los usuarios reaccionaban con hostilidad a los primeros intentos de moderación mínima. ¿Por qué les irritaba tanto que se cerrasen foros dedicados a la vejación, a la misoginia y al racismo? ¿Por qué se sentían así de atacados?

Las migajas de la ciberutopía

El origen de esta idea concreta de libertad incondicional es herencia de los discursos ciberutópicos de los albores de internet.

En 1996, el activista digital y miembro del grupo Grateful Dead John Perry Barlow comenzaba así su Declaración de Independencia del Ciberespacio:

Gobiernos del Mundo Industrial, vosotros, cansados gigantes de carne y acero, vengo del Ciberespacio, el nuevo hogar de la Mente. En nombre del futuro, os pido en el pasado que nos dejéis en paz. No sois bienvenidos entre nosotros. No ejercéis ninguna soberanía sobre el lugar donde nos reunimos.

En esta declaración, escrita como respuesta a la Telecommunications Act en Estados Unidos, un épico Perry Barlow declaraba que los usuarios de internet estaban creando un mundo libre de privilegios y prejuicios generados por cuestiones de etnia, poder económico, fuerza militar o nacimiento… emulando el tono fundacional de la declaración de Thomas Jefferson. En este mundo, afirmaba, todos podrán expresar sus creencias, sin miedo a ser silenciados, «sin importar lo singulares que sean».

Este posicionamiento libertario y poético ha tenido una aplicación pragmática en numerosos proyectos que han intentado hacer de internet una alternativa global al capitalismo. La ciberutopía se ha desplegado en luchas para la libre circulación de contenidos digitales, para el libre acceso a la información, para la libre comunicación entre personas, para la neutralidad digital, la digitalización de la democracia o por una moneda digital autónoma, entre muchas otras cuestiones.

Pero tal como apunta el pensador crítico Evgeny Morozov, el proyecto de la ciberutopía es, en esencia, un proyecto capitalista de raíz norteamericana que, en vez de ofrecer una alternativa real al capitalismo, no deja de ser la forma que adopta en su estadio más completo y desarrollado.

A pesar de sus límites, las ideas ciberutópicas han ido cristalizando en la ética de las comunidades digitales, que han tomado conciencia de que hay que defender sus parcelas de libertad de expresión de las grandes corporaciones tradicionales y del establishment. Esta idea de una libertad bajo la amenaza de fuerzas externas ha calado en la cosmovisión de espacios como Reddit. ¿Contra quién dirigen esta hostilidad? ¿Quién puede cargarse su espacio?

Los enemigos habituales son los medios tradicionales que ridiculizan y no entienden las dinámicas de internet, las corporaciones que quieren explotar económicamente la autenticidad comunitaria… y los nuevos usuarios, que pisan el jardín y se saltan los comportamientos y costumbres comunitarios. Esta última amenaza se conoce como un «septiembre eterno».

El concepto «septiembre eterno» se origina durante la oleada masiva de nuevos usuarios que aparecieron en la plataforma Usenet en septiembre de 1993, en el momento en que el proveedor AOL abrió las compuertas de este espacio de discusión a muchos nuevos usuarios, abrumando a la pequeña sociedad de usuarios experimentados y desestructurando las normas sociales que habían generado como comunidad. Desde entonces, el concepto hace referencia al miedo a una invasión social de nuevos usuarios, a menudo desinformados, que desvirtúen y rompan la convivencia de espacios digitales que ya disponen de sus dinámicas, sus lenguajes y su equilibrio.

A medida que se desarrolla el internet de las grandes plataformas, el miedo al control corporativo de internet y a que el septiembre eterno se lleve por delante su filosofía colectiva hace que muchas comunidades de Reddit reaccionen con hostilidad a la influencia del establishment, renegando de cualquier tipo de intervención externa.

Esta actitud antiestablishment y en defensa de la libertad individual es la que, aprovechada por algunos colectivos de extrema derecha, servirá de cantera para un nuevo populismo conservador, reciclando los viejos conceptos de la ciberutopía para luchar contra lo que ellos denominan dictadura de la corrección política.

Pero ¿cómo es esta libertad de expresión absoluta que defienden con uñas y dientes? ¿Qué tipo de lugar sería internet si no hubiese ningún tipo de intervención ni moderación humanas?

Libertad, ¿para quién?

La confusión entre libertad de expresión y ausencia de normas puede ilustrarse con el caso de Etika. Etika era un streamer afroamericano que jugaba a toda clase de videojuegos y lo emitía por Youtube y Twitch. Alguien le propuso que jugara al popular videojuego Minecraft, pero que lo hiciera en uno de sus «servidores anarquistas». Minecraft cuenta con centenares de miles de servidores públicos en los que juegan usuarios de todo el mundo construyendo bases, explorando el mapa y haciendo y deshaciendo comunidades. Sus «servidores anarquistas» se caracterizan por no tener ningún tipo de moderación, normativa o equipo de administración. Todos los jugadores pueden hacer lo que deseen sin miedo a ser expulsados.

A los pocos minutos de la entrada de Etika, el chat del servidor comenzó a llenarse de insultos racistas y deseos de muerte, y allí por donde pasaba los usuarios construían monumentos en forma de esvástica. Etika, que había explicado en diversas ocasiones que sufría trastornos mentales y que se encontraba en una situación vital complicada, se suicidó a las pocas semanas de entrar en el servidor. Después de muerto, en el chat seguían apareciendo los mismos chistes racistas, como si nada hubiese pasado.

A diferencia de lo que afirmaba John Perry Barlow, internet no ofrece una alternativa al mundo real, solo es una sombra alargada y, a menudo, caricaturizada. Todos los problemas estructurales del mundo físico se reproducen y expanden en el mundo digital, no los resuelve por arte de magia.

Un ejemplo claro de cómo esto pasa de manera estructural es lo que explica Safiya Umoja Noble en Algorithms of Oppresion, donde argumenta que buscadores como el de Google refuerzan ideas sociales preexistentes.

Explica que al buscar las palabras «black girls» esperando encontrar actividades entretenidas que hacer con sus hijas afroamericanas, gran cantidad de resultados de la primera página eran vídeos pornográficos. De la misma manera, las sugerencias de búsqueda para personas racializadas ofrecían comentarios negativos y vejatorios, a diferencia de las de personas blancas. Tras la publicación de las búsquedas, Google decidió corregirlas manualmente.

Tal y como explican en una conversación en el canal de psicología para streamers y gamers, Healthy Gamer GG, la experiencia diaria de muchas chicas streamers en Youtube y Twitch es trabajar rodeadas de insultos, menosprecio y, en algunas ocasiones, amenazas de muerte. Para ellas, la libertad de expresión pasa por generar sistemas de moderación que velen por su seguridad en entornos masculinizados, donde a menudo se las recibe como una amenaza, y por un trabajo constante para poner en valor su trabajo y no normalizar comentarios y reacciones machistas.

En otras palabras: la libertad de expresión real en internet necesita normas claras, la expulsión de los usuarios tóxicos, la prevención y eliminación del contenido pernicioso y una revisión constante de la salud de la comunidad, Pero ¿quién tiene que hacer este trabajo?

Desplataformización social corporativa

Desde el ataque organizado al capitolio de los Estados Unidos, muchas grandes plataformas como Twitter decidieron expulsar a Donald Trump y hacer una declaración de intenciones. Los servicios web de Amazon y Google también desconectaron plataformas como, por ejemplo, Parler, páginas desde donde se organizaban diversas comunidades de odio como.

«No permitiremos que desde nuestra plataforma se desplieguen actitudes que promuevan la violencia», decían. Después de llevar años haciendo la vista gorda y mirando hacia otro lado cuando Trump se saltaba las normas de uso y amenazaba o insultaba a otros usuarios, la desplataformización sincronizada en el momento en que Trump ya tenía medio pie fuera de la presidencia de los Estados Unidos tenía más de operación de márquetin y de control de daños que de ética corporativa constante.

El problema de un mecanismo de moderación puramente corporativo es que es disfuncional y arbitrario por naturaleza. Los intereses corporativos, económicos o políticos influyen en qué decisiones se toman y cuándo. A menudo, además, la labor de controlar la actividad al detalle se externaliza a trabajadores explotados, traumatizados por mensajes e imágenes violentas, que firman cláusulas de confidencialidad sobre los criterios reales de moderación.

La moderadocracia de Reddit, un modelo alternativo

En 2020 Reddit se sumó al carro y cambió su política para hacerla más restrictiva, más inclusiva y más proactiva a la hora de controlar el tipo de conversaciones que se generan. Entre otros cambios, decidió que no se permitiría la existencia de ninguna comunidad que promoviese el odio a personas por su identidad o vulnerabilidad. Con este anuncio cerró más de dos mil comunidades, entre ellas el subreddit que había ayudado a Trump a ganar las elecciones en 2016 (r/the_donald) y el subreddit del podcast de izquierdas r/ChapoTrapHouse.

Con todo, con los años Reddit ha conseguido un modelo alternativo de moderación en el que intervienen las normas de uso de la plataforma y las normas comunitarias de cada subreddit. Este modelo descentralizado equilibra el trabajo de moderación entre los usuarios voluntarios, el equipo de Reddit y diversos sistemas democráticos y de autocontrol social (por ejemplo, un referéndum), para actualizar las normas de uso de un subreddit determinado o mecanismos de reportaje y denuncia anónima.

Para complementarlo, Reddit ofrece apoyo psicológico a los moderadores y mantiene con ellos un contacto directo. Además, muchas comunidades han organizado subreddits cuya única función es detectar discursos de odio y subreddits tóxicos, a fin de reportarlos rápidamente antes de que se hagan muy grandes.

El modelo Reddit no es perfecto. Puede generar pequeñas oligarquías de usuarios moderadores todopoderosos, y la labor voluntaria de los moderadores puede ser utilizada por la plataforma para hacerse menos responsable de lo que hacen y dicen los usuarios. Pero esta combinación de responsabilidad corporativa, moderación comunitaria realizada a partir de voluntarios y apoyo estructural es, cuando menos, un modelo más horizontal, cooperativo y humano comparado con el de otras plataformas.

La primera norma de uso de Reddit, como la de muchas otras páginas y servicios hoy en día, es esta:

Recuerda lo humano. Reddit es un lugar para crear comunidad y pertenencia, no para atacar a grupos marginados o vulnerables. Todo el mundo tiene derecho a utilizar Reddit sin acoso, bullying y amenazas de violencia. Se prohibirán las comunidades y los usuarios que inciten a la violencia o que promuevan el odio basado en la identidad o la vulnerabilidad.

Probablemente sea un llamamiento menos sexi que el clamor de libertad de los ciberutópicos de los noventa, pero, vista la experiencia de los últimos treinta años, el resultado es más parecido a un espacio donde es posible mantener una conversación con libertad, donde los usuarios, en lugar de los algoritmos o las plataformas opacas, borran las esvásticas, aunque sea convirtiéndolas en el logotipo de Windows 95.





Pesadilla conectiva en el «call center»

El «call center» supone la renuncia a la empatía y al entendimiento a ambos lados de la línea telefónica.


Mujeres trabajando en la centralita del Capitolio de EE.UU. Washington D.C., 1959 | Marion S Trikosko, Library of Congress | Sin restricciones conocidas de derechos de autor

Lejos de funcionar como un espacio para el encuentro y la interlocución genuina entre dos partes, el call center parece diseñado para frustrar cualquier intento de comunicación. Su lógica nos obliga a renunciar al diálogo para someternos a estrictos protocolos conectivos. El call center representa, en este sentido, un magnífico ejemplo de lo que Franco «Bifo» Berardi ha descrito como un «desplazamiento desde lo conjuntivo hacia lo conectivo».

«¿Qué mejor ejemplo del fracaso del neoliberalismo, desde su propio punto de vista, es decir, desde el punto de vista de las relaciones públicas, que el call center?», se pregunta Mark Fisher en Realismo capitalista. ¿No hay alternativa? (Caja Negra, 2016). «La experiencia del call center», escribe Fisher, «es lo más parecido a una experiencia directa y personal del carácter descentrado del capitalismo. Cada vez más existimos en dos planos de realidad: uno en el que los servicios funcionan con normalidad y otro subterráneo, (…) un mundo sin memoria en el que las causas y los efectos se conectan de formas misteriosas e incomprensibles, en el que es verdaderamente un milagro que algo ocurra y en el que uno pierde las esperanzas de pasar al otro lado».

Fisher establece un paralelismo entre el call center y el siniestro sistema telefónico que Kafka describe en El castillo. «No hay ninguna conexión telefónica específica con el castillo», explica el alcaide del castillo al protagonista de la novela; «ninguna centralita que comunique la llamada; si se llama por teléfono al castillo, allí suenan todos los aparatos de los departamentos más inferiores o, mejor, sonarían si no estuvieran, como sé con certeza, desconectados en casi todos ellos. (…) Por lo demás, es muy comprensible. ¿Quién puede creerse legitimado para interrumpir a causa de sus pequeños problemas personales los trabajos más importantes, que se realizan siempre a una velocidad vertiginosa?».

El sistema telefónico que en principio debería servir para comunicarse con las instancias administrativas del castillo resulta ser, por el contrario, un dispositivo diseñado para frustrar cualquier intento de comunicación. Algo muy parecido ocurre cuando nos adentramos en el laberinto de algunas centralitas de atención telefónica. Y es que, parafraseando al alcaide del castillo, ¿quién puede creerse legitimado para reclamar o intentar aclarar algún detalle sin importancia a la empresa que le presta un servicio? ¿Quién puede atreverse a interrumpir la actividad vertiginosa de una gran corporación con quejas o preguntas de cualquier índole?

«La experiencia del call center», sostiene Fisher, «rezuma la fenomenología política del capitalismo tardío, el aburrimiento y la frustración a través de la cadena de representantes, la repetición de los mismos detalles grises por parte de diferentes operarios con pobre entrenamiento y poca información (…) La rabia no es más que una válvula de escape; agresión en el vacío dirigida contra una víctima anónima igual que uno mismo, pero con la que no existe ninguna posibilidad de establecer empatía».

Call center de ABSA Bank. Johannesburg, 2008 | CC BY-SA Media Club

Esta falta de empatía, tan característica del call center, es un perfecto ejemplo de la transformación antropológica que Franco «Bifo» Berardi describe en Fenomenología del fin. Sensibilidad y mutación conectiva (Caja Negra, 2017). La consecuencia de esta mutación, resultante de la actual transición tecnológica, no es otra que «la disolución de la concepción moderna de la humanidad y la extinción del hombre o la mujer humanista».

Pero ¿en qué consiste exactamente esta mutación? Se trataría en última instancia de una incapacidad para empatizar y de una pérdida de la «capacidad de percibir el cuerpo del otro como una extensión viva de mi propio cuerpo». Berardi atribuye esta neutralización de la empatía y de lo afectivo a un «desplazamiento de la conjunción hacia la conexión». Si la conjunción es «la concatenación de cuerpos y máquinas que pueden generar significado sin seguir un diseño preestablecido y sin obedecer a ninguna ley o finalidad interna», la conexión es, por el contrario, «una concatenación de cuerpos y máquinas que solo puede generar significado obedeciendo a un diseño intrínseco generado por el hombre, y respetando reglas precisas de comportamiento y funcionamiento». La conjunción, escribe Berardi, «requiere un criterio semántico de interpretación. (…) La conexión, por el contrario, requiere únicamente un criterio sintáctico de interpretación». O dicho de otro modo: la conjunción es empática, mientras que la conexión es puramente operacional.

Es por este motivo que el laberinto del call center resulta todavía más kafkiano y desesperante cuando nuestra llamada es atendida por un sistema de reconocimiento de voz automático. Cuando esto ocurre debemos ajustar nuestras palabras a una comunicación severamente codificada, y la posibilidad de resolver nuestro problema dependerá exclusivamente de que este se encuentre o no contemplado, al otro lado de la línea, como un verdadero problema. Tal como señala Berardi, la empatía propia del plano conjuntivo es lo que hace posible la aparición de un significado previamente inexistente. En el plano conectivo, en cambio, «cada elemento permanece diferenciado e interactúa únicamente de manera funcional».

Incapaz de escucharnos y entendernos genuinamente, el o la agente virtual del call center solo puede dar respuesta a un número limitado de preguntas e incidencias; así que si el motivo de nuestra llamada no se corresponde de forma precisa con alguna de ellas la comunicación se podrá dar por terminada independientemente de si nuestro problema ha sido o no resuelto. Nos encontramos aquí con lo que Éric Sadin, en su libro La inteligencia artificial o el desafío del siglo: anatomía de un antihumanismo radical (Caja Negra, 2020), denomina «poder conminatorio de la tecnología». Cada vez más, escribe Sadin, nos plegamos a unos «protocolos destinados a provocar inflexiones en cada uno de nuestros actos» y nos sometemos a las ecuaciones de una serie de artefactos que tienen el «objetivo prioritario de responder a intereses privados e instaurar una organización de la sociedad en función de criterios principalmente utilitaristas».

El call center ha sido y sigue siendo uno de los principales campos de ensayo de las capacidades predictivas e interpretativas de la inteligencia artificial. Si, tal como sugiere Fisher, las relaciones públicas representan «el punto de vista del neoliberalismo», la robotización del call center implica precisamente la deshumanización del lugar de encuentro entre vendedor y cliente (o, si se prefiere, a fin de emplear una terminología más acorde a los tiempos, entre proveedor y usuario). Las relaciones públicas se habían basado tradicionalmente en una forma de comunicación conjuntiva y empática entre las dos partes; ahora, sin embargo, con la proliferación de sistemas como el reconocimiento de voz, estas parecen funcionar cada vez más a menudo según las normas de un modo conectivo y con finalidades estrictamente funcionales.




Al otro lado de la línea

Ahora bien, la pesadilla conectiva del call center no se reduce, ni mucho menos, a la experiencia de la persona que hace la llamada. Cuando no es una máquina la que responde la llamada, la voz que escuchamos al otro lado de la línea es la de una persona mucho más sometida que nosotros a los estrictos protocolos conectivos que rigen el funcionamiento de las centralitas de atención telefónica. Esa persona, o la que se sienta a su lado, podría ser la misma que la tarde anterior nos llamó para ofrecernos algún servicio en nombre de alguna otra empresa. Es probable que en aquella ocasión la llamada se diera por terminada de forma más bien brusca por nuestra parte. Este hecho pone de manifiesto el perverso modo de circulación de la voz en el call center y explica por qué este se convierte tan a menudo en un lugar de desencuentro y frustración a ambos lados de la línea.

Si bien Mark Fisher se refería a las personas que trabajan en el call center como «víctimas anónimas, igual que uno mismo», es importante entender que son precisamente estas personas las que se llevan la peor parte de este sometimiento a una forma de comunicación estrictamente conectiva. Al fin y al cabo, nada puede resultar más deshumanizante que verse obligado a desprenderse de la empatía para poder funcionar de un modo no humano, homologable al de un asistente virtual. Unos años después de la publicación de Realismo capitalista. ¿No hay alternativa?, en la recopilación de artículos Fantasmas de mi vida: escritos sobre depresión, hauntología y futuros perdidos (Caja Negra, 2018), el propio Fisher comparaba al empleado del call center con un «cyborg banal, que es castigado cada vez que se desconecta de la matrix comunicativa».

«De alguna manera te conviertes en un apéndice de la computadora, pero con voz», escribe una empleada de call center anónima en las páginas de ¿Quién habla? Lucha contra la esclavitud del alma en los call centers (Tinta Limón, 2006). Editada por el Colectivo Situaciones, esta publicación reúne el testimonio de diversos trabajadores de call centers en Argentina y ofrece una mirada desde dentro a la oscura realidad de estos espacios de trabajo que no dejan de proliferar en todo el mundo. Tal como analizan de forma pormenorizada Jamie Woodcock y Enda Brophy en sus libros respectivos, Working the Phones Control and Resistance in Call Centres (Pluto Press, 2017) y Language Put to Work. The Making of the Global Call Centre Workforce (Palgrave Macmillan, 2017), el call center representa un ejemplo paradigmático de las nuevas formas de trabajo que promueven las fórmulas neoliberales de negocio propias del capitalismo de plataforma y/o de vigilancia.

Más allá del disciplinamiento conectivo al que se ven sometidos sus empleados, los call centers son también espacios de precarización y explotación. Durante los peores momentos de la pandemia de coronavirus, los servicios de atención telefónica no solo no dejaron de funcionar sino que tuvieron que hacerlo a pleno rendimiento, convirtiéndose en importantes focos de contagio. El call center representa el lado oscuro (o, más bien, uno entre otros muchos lados oscuros) del expansionismo económico de signo digital. La fotografía de un call center es, precisamente, la imagen que ilustra la portada del libro de Ursula Huws, Labor in the Global Digital Economy: The Cybertariat Comes of Age (NYU Press, 2014). En él, su autora examina la noción de «cibertariado» y la «destrucción de la identidad ocupacional» en el marco de un modelo económico basado en la información y el conocimiento.

Convertidos en engranajes lingüísticos de la «matrix comunicativa» del «iCapitalismo» (Huws), los empleados del call center son lo más parecido a los trabajadores de una cadena de producción de la era posfordista, permanentemente monitorizados por unos supervisores que, aunque de forma remota y silenciosa, cumplen la función de los antiguos capataces fabriles. A diferencia del sistema telefónico que Kafka describe en El castillo, las líneas del call center siempre están conectadas. Si somos capaces de superar los preámbulos disuasorios con los que empieza cada llamada (la insoportable música de espera, grabaciones sobre servicios u ofertas que no necesitamos, listas de opciones que no se corresponden con nuestro problema o el clásico desvío de la llamada de un departamento a otro) terminaremos hablando con una persona que muy probablemente trabaja bajo una enorme presión psicológica para intentar cumplir una serie de objetivos inasumibles a cambio de exiguas bonificaciones.

Si, tal como escribió Fisher, la experiencia del call center pone de manifiesto el fracaso del neoliberalismo, es precisamente por su doble efecto colateral a ambos lados de la línea telefónica. Tanto la persona que llama como la que atiende la llamada están condenadas a renunciar a la empatía, propia de la comunicación conjuntiva, para someterse a las normas de una comunicación estrictamente sintáctica y conectiva. La imposibilidad de «pasar al otro lado» es recíproca y conduce invariablemente a un completo desempoderamiento de la voz y la palabra. El call center representa, en este sentido, el reverso absoluto de lo que Brandon LaBelle, en su libro Sonic Agency: Sound and Emergent Forms of Resistance (MIT Press, 2018), denomina «agencia sónica», es decir, la posibilidad de establecer relaciones entre sujetos y cuerpos con el objetivo de crear nuevas formas de resistencia y negociación de la realidad haciendo uso de la escucha, la voz y el sonido. Pero llegados hasta aquí (y teniendo en cuenta la profundidad y el interés de la noción que propone LaBelle), tal vez lo más conveniente sería abordar esta cuestión en otra ocasión y de forma más específica.





¿Puede la IA crear un mundo más justo?

Si sabemos que los algoritmos tienen sesgos que pueden perjudicar a personas o colectivos, ¿por qué dejamos que tomen decisiones?


Un hombre en una balanza, 1923 | Harris & Ewing, Library of Congress | Sin restricciones conocidas de derechos de autor

Ya sea por cómo se han diseñado o por cómo han sido entrenados, los algoritmos tienen sesgos. Aun así, los humanos también estamos llenos de prejuicios, a menudo muy difíciles de identificar, que afectan a nuestras decisiones. Detectar qué campos posibilitan en mayor medida la inclusión de sistemas automatizados y crear algoritmos equitativos y transparentes es fundamental para generar resoluciones más justas.

En agosto de 2020, estudiantes ingleses de secundaria se manifestaron en las calles en contra del sistema automatizado que la Oficina de Regulación de Calificaciones y Exámenes (Ofqual) del Reino Unido había aplicado en la corrección de sus exámenes. Como los alumnos habían perdido clases, se pidió a los profesores que proporcionaran una nota estimada para cada estudiante, y una clasificación comparativa con el resto de compañeros del mismo curso de su centro. El algoritmo de Ofqual también tuvo en cuenta el rendimiento de la escuela en las distintas materias en los tres años anteriores. La idea era que los resultados siguieran un patrón similar, y que los estudiantes de 2020 no estuvieran en desventaja. Pero el algoritmo acabó rebajando en un 40 % de los casos las evaluaciones de los profesores porque en el cálculo tuvo menos peso el historial de cada alumno y el juicio de los docentes que otros factores externos como la calidad o el historial de aprobados de la escuela. Esto provocó una visible discriminación para las minorías étnicas de entornos más empobrecidos. Así fue como los alumnos brillantes de centros con pocos recursos vieron sus notas devaluadas, con la consecuencia directa de no obtener plaza para continuar sus estudios en la universidad.

La inteligencia artificial es efectiva para predecir patrones y relaciones ingentes de datos (datos masivos o big data), así como para agilizar procesos. Para ello se utilizan algoritmos que no siempre son neutros. Esto se debe, o bien a que los datos con los que son entrenados tienen sesgos, o a que se le han agregado sesgos durante su diseño. Tal como recordaba David Casacuberta, profesor de Filosofía de la Ciencia de la UAB, el problema radica en que los sistemas automatizados, si son alimentados con ejemplos de justicia sesgada, acabarán reproduciendo y potenciando esos mismos sesgos. «Si en un país como Estados Unidos las personas de ascendencia africana tienen muchas más probabilidades de acabar en prisión sin fianza, y entrenamos a una red neuronal con esos datos, el algoritmo acabará replicando ese tipo de sesgos». Y una prueba de ello es la investigación que durante años lideró el medio independiente Pro Publica, hasta demostrar que el algoritmo COMPAS (Correctional Offender Management Profiling for Alternative Sanctions, Gestión de Perfiles Criminales para Sanciones Correctivas) otorgaba siempre una probabilidad más alta de cometer crímenes a los acusados negros e hispanos que a los blancos.

Si sabemos que los algoritmos pueden tener sesgos, y que estos pueden causar perjuicios en las personas o colectivos, ¿por qué se utilizan? Una respuesta podría ser que el beneficio o acierto de los resultados supera a los perjuicios o errores. Pero ¿es esto justo para quienes salen perjudicados, como los estudiantes que ven sus notas devaluadas?

No todos los sesgos son negativos

Cuando hablamos de sesgo, siempre pensamos en negativo, pero también puede ser positivo. Y este pensamiento ya sería un «sesgo de lenguaje». Esto ocurre cuando buscamos la paridad de género o queremos realizar acciones afirmativas para mitigar la discriminación de un grupo de personas (discriminación positiva). Por ejemplo, cuando se exige que en una empresa de más de 50 empleados, como mínimo un 2 % esté en situación de discapacidad.

Un problema intrínseco de los sesgos es que muchas veces sabemos en qué dirección debemos ir para corregirlo, pero no hasta dónde. Por ejemplo, no está claro que deba haber un balance de género en todas las profesiones. Enfermería puede ser una profesión en la que las mujeres han demostrado tener una mayor empatía con los enfermos, lo que justificaría que fueran mayoría. Y la distribución correcta puede no existir, o quizá deba conseguirse a partir de un consenso social. En el caso de acciones afirmativas, la percepción del sesgo positivo puede ser más importante que la acción misma. Supongamos que una facultad de ingeniería quiere aumentar la proporción de estudiantes mujeres, que solo llega al 20 %. Para ello decide otorgar el 5 % de sus vacantes (las últimas) únicamente a mujeres, lo que permitiría incrementar anualmente en un 1 % la proporción del género femenino.

Este ejemplo no es hipotético, sino que ha ocurrido en la Universidad de Chile desde 2014. Actualmente, este cupo ha aumentado al 8 %. Un análisis de este programa ha demostrado que la diferencia entre las mujeres admitidas y los hombres que no habían obtenido plaza era una respuesta correcta más en el examen de matemáticas, lo que no es estadísticamente significativo y por ende no existe una discriminación real. Es más, en 5 años el porcentaje ha superado el 30 % pues la percepción de que es más fácil entrar y de que habrá más mujeres ha aumentado el número normal de postulantes femeninas. Es decir, la percepción de la acción fue más poderosa que la acción misma (un aumento del 7 % mientras que la acción solo añadía un 5 %). Recientemente también se ha agregado un 1 % exclusivo para mapuches (indígenas nativos). Este éxito ahora se ha replicado en casi todas las facultades de ingeniería de Chile.

Justicia y transparencia algorítmica

En ocasiones, los sesgos derivan en reclamo de transparencia algorítmica por parte de la ciudadanía, cuando se descubre que el sistema de IA ha sido injusto. Para entender cómo hizo la predicción o tomó alguna decisión un algoritmo se habla del término «explicabilidad» (explainable artificial intelligence). La transparencia es un principio ético reconocido por la Unión Europea en numerosos documentos, como en las Directrices Éticas para una Inteligencia Artificial fiable. El principal objetivo es que las personas no estemos sometidas a los automatismos de los algoritmos en caso de discriminación, en buena parte por los sesgos que contienen los datos con los que son entrenados los sistemas de IA.

Un ejemplo de estos fallos sería el del Bono Social, una compensación económica que el Gobierno prometió en 2018 pero que ha traído polémica. En principio, se pretendía ayudar a las familias más necesitadas con el recibo de la luz. Para ello, las eléctricas comprueban que los solicitantes cumplen los requisitos por medio de una aplicación informática (BOSCO) que decide quién es beneficiario de estas ayudas. Ante las numerosas quejas de familias que objetivamente cumplían los requisitos pero que veían denegada su solicitud, la Fundación ciudadana Civio pidió conocer el diseño del algoritmo y el código fuente de la herramienta, a partir de la Ley de Transparencia. «Si no conocemos las entrañas de aplicaciones como esta, no podremos fiscalizar el trabajo de los poderes públicos», afirmaba David Cabo, director de Civio. La idea era saber en qué parte del proceso podría haber errores y, una vez detectados, hacer todo lo posible para que las familias recibieran su compensación social. Ante la negativa del Gobierno han presentado un recurso contencioso-administrativo.

La investigadora del Oxford Institute, Sandra Wachter, considera que deberíamos tener el derecho legal de saber por qué los algoritmos toman decisiones que nos afectan. Explica que gobiernos, empresas y organizaciones financieras deberían dar «explicaciones contrafácticas». «Es decir, si te han denegado una hipoteca, que fuera posible preguntar al banco: “¿Si ganara 10.000 euros más al año, me habrían concedido el crédito?”». Pero algunos expertos como que los solicitantes cumplen los requisitos de Stanford opinan que este tipo de explicaciones también pueden tener sesgos.

Ética para evitar sesgos

A modo de resumen, podríamos añadir los principios éticos asociados a la IA. Hay decenas, pero los más importantes relacionados con sesgos son:

  1. Que el algoritmo sea completamente consciente de lo que hace. Si es así, tiene que ser consciente de sus sesgos y de cómo los mitiga.
  2. El algoritmo debe ser equitativo y no discriminar a personas. Una de las causas más importantes de inequidad son los sesgos negativos. Una alternativa para reflejar equidad es que el algoritmo sea interpretable y/o explicable, y esto implica lidiar con los sesgos existentes.
  3. El algoritmo debe ser transparente, es decir, reflejar completamente cómo funciona, incluyendo si hay sesgos en los datos, si hay sesgos que el algoritmo añade o si hay sesgos producidos en la interacción del usuario con el sistema. Si no hay suficiente transparencia, el algoritmo debe ser auditable para, por ejemplo, verificar que no se haya discriminado a nadie. Cabe señalar que la transparencia se exige por la falta de confianza, ya que en el mundo anglo-germánico confía en el sistema y al final se exige una rendición de cuentas.

Todavía por resolver…

Para terminar, retomamos la pregunta anterior: si utilizamos algoritmos sabiendo que tienen sesgos, ¿por qué dejamos que tomen decisiones? Una respuesta sería que los humanos también nos equivocamos en nuestras decisiones, en buena parte por los prejuicios adquiridos. Los sesgos –y más los cognitivos– son como los prejuicios, muy difíciles de identificar. La persona que más prejuicios tiene es aquella que considera que no tiene ninguno. Pero también lo podemos contemplar desde otra perspectiva: los sistemas automatizados son de gran ayuda en situaciones en las que los sesgos no influyen tanto, como, por ejemplo, en el control aéreo. Tener profesionales muchas horas en tensión es más peligroso que entrenar máquinas para esta tarea. No se cansan, están programadas y son más eficientes.

Otra respuesta es que los algoritmos son más justos que las personas porque toman siempre la misma decisión a partir de los mismos datos. En cambio, las personas tienen mucho más «ruido», es decir, sus decisiones son más aleatorias. Este es un problema muy importante en la justicia, donde el estado de ánimo de los jueces puede influir más aún que sus sesgos. De hecho, Daniel Kahneman, premio Nobel de Economía, junto con otros autores, nos advierte del alto costo de las decisiones inconsistentes de los humanos, y de que por lo general los algoritmos son más justos.

¿Cómo podría ayudarnos la IA a crear un mundo más justo? Una solución parcial sería crear un asistente virtual a modo de «Pepito Grillo» que pudiera alertarnos cuando se detecte un prejuicio, ya sea hablando, actuando o juzgando. O que nos avisara cuando alguien estuviera a punto de manipularlos a partir de algún sesgo integrado en un sistema inteligente. Pero… ¿cuántos de nosotros aceptaríamos que una máquina –un móvil o un aparato– escuchara permanentemente lo que decimos (en privado y en público) para corregir estos prejuicios y sesgos?





Una geología de los medios

La materialidad de los medios no se limita a cuestiones económicas o técnicas, sino que está íntimamente conectada con el suelo, el aire y la naturaleza.


Arqueólogos trabajando en la ciudad de Sigtuna. Suecia, 1941 | Carl Gustaf Rosenberg, Swedish National Heritage Board | Dominio público

Para entender adecuadamente la cultura de medios contemporáneos debemos comenzar por las realidades materiales que la anteceden: la historia de la Tierra, las formaciones geológicas y minerales, y la energía. Al reparar en esto nos enfrentamos con las profundas consecuencias sociales y medioambientales que tienen nuestras vidas conectadas en red. No solo se necesitan raros minerales para hacer que nuestras máquinas digitales funcionen, sino que las tecnologías de medios obsoletas vuelven a la tierra como residuo de la cultura digital, y contribuyen a acrecentar las capas de desechos tóxicos sobre las que trabajarán futuros arqueólogos. Por cortesía de Caja Negra Editora publicamos un avance de Una geología de los medios, de Jussi Parikka.

Queremos reunir ahora todos estos elementos: la obsolescencia programada, la naturaleza material de la información y la basura electrónica. La obsolescencia programada fue introducida como la lógica de los ciclos de la tecnología de consumo, lógica que es parte de una cultura de tecnologías materiales de la información. En sí mismas, estas tecnologías deberían ser entendidas cada vez más a partir de las sustancias químicas, los componentes tóxicos y el residuo que dejan como huella una vez que su función de medio ha sido, por así decir, «consumida». El reconocimiento de que la tecnología de la información nunca es efímera y de que, por lo tanto, nunca puede morir completamente, es de importancia tanto en términos ecológicos como arqueológico-mediales. En cuanto ensamblaje material, la tecnología de la información también tiene una duración que no se restringe a su valor de uso centrado en lo humano: los objetos medial-culturales y la tecnología de la información están íntimamente conectados con el suelo, el aire y la naturaleza entendida como una realidad concreta, temporal. Así como la naturaleza sustenta el desarrollo de la tecnología de la información –el modo en que, por ejemplo, la gutapercha fue una sustancia fundamental para el aislamiento de los cables telegráficos submarinos en el siglo XIX, o la columbita-tantalita es un mineral esencial para una amplia gama de dispositivos de alta tecnología en la actualidad–, los dispositivos de esta tecnología retornan a la naturaleza.[1]

Para resumir, la tecnología de la información supone la imbricación de múltiples ecologías, desde la economía política hasta la ecología natural.[2] Este planteo guattariano de una ecología de los medios se conecta con una postura ecosófica: una conciencia de las ecologías superpuestas que alimentan las interrelaciones entre lo social, lo mental, lo somático, lo inorgánico y lo animal. En este sentido, siguiendo a Sean Cubitt, sostenemos que las arqueologías de la pantalla y los medios de la tecnología de la información deberían enfocarse cada vez más no solo en el pasado, sino también en el interior de la pantalla, a fin de revelar una visión enteramente distinta de la vanguardia  orientada al futuro:

El ámbito digital es una vanguardia en la medida en que está impulsado por la innovación y la destrucción permanentes. La obsolescencia integrada que caracteriza a la cultura digital, el incesante arrojar a la basura el modelo del año anterior, el despilfarrador desecho de baterías, teléfonos celulares, monitores, mouses… y todos los metales pesados, todas las sustancias tóxicas que son enviadas a algún remoto pueblo de reciclaje en China… eso es la vanguardia digital.[3]

Nuestra propuesta de una arqueología alternativa centrada en el remiendo, la recombinación y el collage no partiría entonces de los experimentos de Duchamp y otros de su clase, sino del desmontaje del aparato, la pantalla y el sistema tecnológico.

Los métodos arqueológico-mediales han perfilado las temporalidades complejas, superpuestas, multidimensionales del mundo humano en términos de historias cultural-mediales, pero, en medio de una crisis ecológica como la que vivimos hoy, necesitamos una visión más decididamente no humana. En este contexto, la idea de curvar la arqueología de los medios para hacer de ella una metodología artística puede ser vista como un modo de explotar el potencial ecosófico de prácticas como el circuit bending, el hackeo del hardware y otras formas de reutilizar y reintroducir los medios muertos en un nuevo ciclo de vida para tales objetos. Ensamblados en nuevas construcciones, estos materiales e ideas se convierten en zombis que llevan consigo historias, pero también son recordatorios de las temporalidades no humanas involucradas en los medios técnicos. Los medios técnicos procesan y operan a velocidades y frecuencias subfenomenológicas,[4] pero también explotan las temporalidades de la naturaleza, sus miles, incluso millones de años de historia no lineal y no humana.[5]

Las fases de los medios analizadas con relación a la economía política: los nuevos medios y la arqueología medial se superponen con los diagramas del Grupo Gartner en cuanto al ciclo de sobreexpectación y la curva de adopción, representaciones gráficas de la madurez económica, la adopción y la aplicación comercial de tecnologías específicas. Diagrama de Garnet Hertz.

A modo de conclusión, podemos decir que las comunicaciones se han desplazado más allá de la fase de los nuevos medios, atravesando la fase de la mercancía de consumo, y que mucho de eso «nuevo» es ya obsoleto y se encuentra hoy en una «fase de arqueología». La práctica del amateurismo y el bricolaje a modo de hobby caracteriza no solo a la fase temprana de adopción de las tecnologías, sino también a la fase de la obsolescencia. En términos cronológicos, los medios digitales han dejado de ser esa oportunidad especulativa que representaban en los años noventa para pasar a ser adoptados Generalizadamente como una mercancía de consumo en los años dos mil, y en nuestros días se han vuelto objetos arqueológicos. Como consecuencia de ello, estudiar temas como la reutilización, la recombinación y el sampleo se ha vuelto más importante que analizar los potenciales técnicos. Por otra parte, si la temporalidad circula, se modula y se almacena cada vez más en dispositivos técnico-mediales –los diagramas y circuitos concretos que explotan la microtemporalidad que está por debajo del umbral de la percepción humana consciente–, entonces necesitamos desarrollar similares prácticas activistas, artísticas y de circuit bending entendidas como una metodología analítica y creativa. De aquí el giro hacia los archivos en un sentido más general, que incluye también circuitos, conmutadores, chips y otros procesos de alta tecnología. Estas tareas epistemo-arqueológicas no son solo de interés artístico, sino que incorporan también la dimensión ecosófica con el objetivo de entender y reinventar las relaciones entre las distintas ecologías que atraviesan a la subjetividad, a la naturaleza y a la tecnología.

Aunque la noción de la muerte de los medios puede ser útil como estrategia para oponerse a la discusión concentrada solo en lo novedoso de los medios, creemos que los medios nunca mueren: se deterioran, se descomponen, se arreglan, se recombinan y se historizan, se reinterpretan y se coleccionan. O bien subsisten como un residuo en el suelo y como medios muertos vivientes tóxicos, o bien son reapropiados a través de metodologías de manipulación artística.

[1] La gutapercha es una goma de látex natural producida a partir de la savia de árboles tropicales originarios del sudeste asiático y el norte de Australasia. La columbita-tantalita o coltán es un mineral metálico de color negro opaco proveniente principalmente de la región este de la República Democrática del Congo, cuya exportación ha sido señalada como uno de los factores que contribuyen al financiamiento del conflicto actual en dicho país.

[2] Félix Guattari, Las tres ecologías, Valencia, Pre-Textos, 1996.

[3] Sean Cubitt, entrevistado por Simon Mills, Framed.

[4] Tales «epistemologías de la vida cotidiana», ocultas y a su vez completamente reales y materiales, son el objeto de las investigaciones en la línea arqueológico-medial que realiza el Institute for Algorhythmics.

[5] Manuel de Landa, Mil años de historia no lineal, op. cit.





Las redes sociales: ¿editan o censuran?

El cambio en la actuación de las grandes plataformas de comunicación plantea una reflexión sobre la regulación ética de la información.


Estudiantes en el laboratorio de informática de la William Hulme Grammar School, c. 1974 | University of Salford, Manchester | CC-BY-NC-ND

En los últimos meses, se ha producido un giro en el papel público de los principales medios de comunicación, tradicionales y tecnológicos. Las grandes plataformas han iniciado una batalla contra la desinformación en distintos niveles que ha tenido su punto álgido en las elecciones estadounidenses. Las grandes cadenas de televisión y los grandes diarios norteamericanos han tomado conciencia de que vivimos en tiempos de posverdad, y las redes sociales han asumido su condición de editores de la información y, con ella, de la realidad. Ante este cambio de paradigma, cabe reflexionar sobre la frontera entre edición y censura, y preguntarse sobre quién debería recaer la regulación ética de la información.

El pasado 5 de noviembre, durante la demencial rueda de prensa de Donald Trump en la que denunció que le estaban robando las elecciones, ocurrió algo histórico: tres grandes cadenas de televisión (ABC, CBS y NBC) cortaron la retransmisión en directo. En otras palabras: se negaron a seguir difundiendo noticias falsas (las famosas fake news). El mismo día, Twitter y YouTube cancelaron la cuenta y el canal del polémico diseñador de teorías de la conspiración Steve Bannon, porque acababa de pedir en ellas que decapitaran al director del FBI y colgaran su cabeza. Durante las semanas anteriores, las principales redes sociales habían procedido de un modo similar: tanto Facebook como Twitter borraron contenidos de Trump y de cuentas de su campaña tras considerarlos fraudulentos o una incitación al odio.

Se trata de un giro muy importante en el papel público de las grandes plataformas. Durante el último año se las ha acusado, con argumentos sólidos, de haber cambiado el mundo para peor. Ya existen estudios serios que demuestran que Trump o Bolsonaro no hubieran llegado al poder sin ellas. Y han decidido actuar en consecuencia.

Cadenas de EEUU interrumpen transmisión de discurso de Trump | Los Angeles Times En Español

Si tienes cuenta de Twitter lo habrás notado: ahora ya no se puede retuitear un tuit que contenga un enlace, sino que aparece la opción de ir al artículo para leerlo primero o citarlo en un tuit propio. Es decir, ahora el retuit se hace en dos tiempos. Después de tantos años de likes y retuits automáticos, instintivos, casi animales, los ingenieros de Silicon Valley han puesto de moda el concepto de la «fricción». Aumentar la fricción en el diseño de interacción de los dispositivos y las redes sociales significa convertir lo que antes era un clic en dos o en tres. Esa dilatación quiere evitar que se compartan noticias de un modo compulsivo e invitar a quien lo hace a una mínima reflexión sobre qué está difundiendo.

Al mismo tiempo, esa fricción atenta contra el propio espíritu de las redes sociales durante sus quince años de existencia. En todo ese tiempo, lo que han hecho, precisamente, es ir limando todo aquello que no permitiera que el usuario navegara, surfeara, se deslizara por las superficies de sus interfaces con la mayor suavidad e inmediatez posible. El peso de la victoria de Trump, la culpa por la manipulación que favorecieron con esos mecanismos demasiado bien engrasados, han sido determinantes para el cambio radical en el marco de las elecciones de 2020. Una oportunidad para la reparación simbólica. Una prueba de fuego para ellas porque, como dijo Kevin Roose en The New York Times, han tenido que volverse peores herramientas y sistemas para hacer la democracia un poco mejor.

TikTok tiene su propio centro de seguridad para combatir la desinformación. Facebook ha creado un centro de verificación externo, al que pertenece –entre decenas de medios de todo el mundo que forman parte de la red International Fact-Checking– la web española maldita.es. Ya antes del verano, todas las grandes redes sociales habían tomado medidas para que circulara la información correcta sobre la COVID-19, en detrimento de la fraudulenta y conspiranoica. Las elecciones estadounidenses fueron la segunda fase de esa misma batalla contra la desinformación (ambas interconectadas, porque el propio Gobierno de los Estados Unidos contribuyó a difundir bulos sobre la pandemia). Facebook incluso aprobó un protocolo de interrupción de la viralidad.

Se trata de la actualización de estrategias que algunas plataformas han desarrollado durante los últimos años para reforzar el bien común y limpiar su imagen, como, por ejemplo, la respuesta ante emergencias de Facebook (cuando ocurre un terremoto o un atentado terrorista) o, en la misma línea, el Google Person Finder. Pero ya no aplicadas al mundo exterior, a las catástrofes naturales, sino a los desastres más sutiles y pixelados que han provocado las propias redes sociales (o personajes siniestros, como Dominic Cummings, el arquitecto del Brexit, o Steve Bannon, vicepresidente de Cambridge Analytica y asesor de Donald Trump, entre otras fechorías).

What's the code of principles of the International Fact-Checking Network? | The Poynter Institute

Durante las últimas elecciones, las grandes cadenas de televisión y los grandes diarios estadounidenses han tomado conciencia de que vivimos en tiempos de posverdad y de que las reglas tradicionales del periodismo han dejado de ser válidas. En el mundo previo a la presidencia de Trump, la televisión hubiera seguido retransmitiendo el delirio de un presidente. En el mundo que nos deja en herencia, en cambio, ya no van a hacerlo. Las propias redes sociales, que han sido las principales responsables de ese cambio de paradigma, han reaccionado con decisiones parecidas. Están borrando o etiquetando lo que dicen en sus plataformas ciertos líderes de opinión. De ese modo, han asumido su condición de editores de la información y, con ella, de la realidad. Editar significa controlar, alterar, dirigir, prescribir y, a veces, también, censurar. ¿Es censura lo que están haciendo los principales medios de comunicación, tradicionales y tecnológicos, de los Estados Unidos?

La iniciativa en España del gobierno de Pedro Sánchez para crear formas de control de la información y la desinformación desde el Gobierno ha sido calificada por los expertos en derecho como una probable causa de inestabilidad jurídica. Su razón de ser es el nuevo contexto internacional, la imitación de los partidos de ultraderecha de todo el mundo de las estrategias de Bannon –entre ellos, Vox– y la comprobada injerencia de gobiernos extranjeros en las elecciones democráticas, que de ese modo han dejado de ser enteramente soberanas. Más allá de las críticas a la libertad de prensa y a la libertad de expresión (hay que recordar que en España sigue vigente la llamada «ley mordaza»), merece la pena reflexionar sobre si hay que delegar en los grandes medios de comunicación y en las grandes plataformas la regulación ética de la información o si son las entidades públicas quienes deben asumir ese papel. ¿Tiene sentido que Facebook o Twitter decidan qué es o no verdadero? ¿Deberían hacerlo, en su lugar, la Unión Europea o la ONU? Como se preguntaron Juvenal y Alan Moore: ¿Quién vigila a los vigilantes?





Sobre el límite de la inteligencia artificial

Un repaso a las teorías sobre inteligencia e inteligencia artificial, desde  la tradición filosófica occidental y el neoconfucianismo.


El Dr. Solnitsky analizando un cerebro en el Brain Institute de la Georgetow University. Washington, D.C., 1937 | Library of Congress | Dominio público

Para el filósofo Yuk Hui no existe un único patrón tecnológico universal respecto del cual algunos países y culturas estarían más avanzados o relegados, sino múltiples cosmotécnicas que expresan diferentes modos de sentir y ordenar la experiencia. En este adelanto de Fragmentar el Futuro. Ensayos sobre tecnodiversidad, por cortesía de Caja negra editora, Hui repasa las teorías de la filosofía alrededor de los conceptos de inteligencia e inteligencia artificial desde la óptica de la tradición filosófica occidental y del filosofo neoconfuciano contemporanio Mou Zongsan.

 

No existe, desde luego, una teoría de la inteligencia universalmente aceptada; el análisis que sigue es propio y puede resultar controvertido.
Marvin Minsky, «Steps Toward Artifical Intelligence» [Pasos hacia la inteligencia artificial] [1]

Agreguemos que el cuerpo agrandado espera un suplemento de alma, y que la mecánica exigiría una mística.
Henri Bergson, Las dos fuentes de la moral y la religión [2]

La paradoja de la inteligencia

El título de este ensayo suscita inmediatamente una pregunta: ¿de qué manera es posible hablar del límite de la inteligencia artificial si se considera que esta, en cuanto artificial, es más susceptible a la mutación que la inteligencia humana cuyos mecanismos aún escapan a la comprensión? En otras palabras, ¿cómo podemos hablar del límite de algo que virtualmente no tiene límite? La artificialidad de la inteligencia es fundamentalmente materia esquematizada. Sin embargo, la inteligencia tiene la tendencia a liberarse de los constreñimientos de la materia actuando en contra de esta a fin de esquematizarse. Henri Bergson distingue la inteligencia del instinto, puesto que solo la primera es capaz de fabricar herramientas y herramientas para fabricar herramientas. Es decir, que el ser humano fue antes homo faber que homo sapiens.[3] Bergson establece luego una correlación entre inteligencia y materia, y sugiere que el desarrollo de la inteligencia es fundamentalmente una geometrización de la materia.

Esta definición de la inteligencia y de su desarrollo introduce una tensión en la filosofía de la vida que elabora Bergson. Por un lado, Bergson quiere superar este geometrismo –que puede ser considerado también como mecanicismo o mecanización– regresando a una filosofía de la vida basada en el concepto de ímpetu vital [élan vital], de manera similar a como anteriormente había opuesto el espacio abstracto a la duración real. El ímpetu vital distingue al organismo del mecanismo: este último intenta explicar la vida sin la vida, por eso ignora el fundamento a partir del cual ella emerge. El ímpetu vital no puede ser objetificado o cosificado; es una fuerza creadora que hace posible la exteriorización de la inteligencia en forma de herramientas y la interiorización de herramientas en forma de órganos. La inteligencia, a través de la invención de herramientas, posibilita la complejización del organismo mediante la adición de órganos exteriorizados. Por otro lado, a través de la geometrización (que constituye una forma rígida de esquematización), la inteligencia exteriorizada, aunque temporalmente confinada a la materia, llega también a liberarse de esta, o más precisamente, se dota a sí misma de la capacidad de ser transferida de una materia a otra –una forma moderna de transustanciación–. Esto le da a la inteligencia artificial la capacidad de producir mutaciones más vastas y más rápidas que la inteligencia humana, un hecho que el propio Bergson reconoció.[4]

Encontramos aquí una paradoja de la inteligencia. En tanto la inteligencia se exterioriza constantemente para interiorizar sus propios productos –en una dinámica similar a lo que Hegel llamó la “astucia de la razón”–, puede ocurrir que ella fracase en el intento de reintegrar su exteriorización y termine viéndose amenazada y subordinada a sus propios productos. De allí la “conciencia desventurada” que se manifiesta hoy como pánico a la desocupación generalizada, la derrota de lo humano y el consiguiente resurgimiento de una política reaccionaria. Resulta casi evidente para nosotros que, a la larga, la inteligencia de las máquinas acabará por suplantar a la inteligencia humana en toda función cuantificable, cuestionando así el concepto de ímpetu vital en cuanto exclusivamente atribuible a la vida orgánica, como ya lo hizo la cibernética en el siglo XX.

Si nos proponemos pensar el límite de la inteligencia artificial no es con la intención de mostrar las debilidades de la inteligencia de las máquinas, lo que no fue capaz de hacer, lo que aún no es capaz de hacer o nunca será capaz de hacer. Las máquinas son parte del proceso evolutivo de la especie humana. Son un aspecto de la evolución que los seres humanos tuvieron la capacidad de controlar, pero sobre el que están camino a perder el control. Exponer el límite de la inteligencia artificial no es retornar al estadio en el que las máquinas eran controlables, sino liberar su inteligencia del sesgo de determinadas concepciones de la inteligencia y pensar así nuevas ecologías y economías políticas para una inteligencia de las máquinas.

Para exponer el límite de la inteligencia de las máquinas, es necesario comprender su historia y aquello que impulsa y constriñe su evolución. A veces no se llega a comprender que la realidad técnica –término empleado por Gilbert Simondon– inscribe en sí misma la realidad humana, no solo porque la tecnología es la realización de esquemas mentales influenciados por las estructuras sociales y políticas de la sociedad humana, sino también porque aquella transforma a esta. La sociedad humana es transformada por las invenciones técnicas y esta transformación excede siempre lo anticipado en los esquemas mentales. Materia y espíritu forman una relación recíproca; no hay materialismo sin espíritu, como no hay espiritualismo sin materia. La incapacidad para reconocer esta relación recíproca solo arroja efectos contraproducentes.

Para exponer el límite de la inteligencia de las máquinas, es necesario comprender su historia y aquello que impulsa y constriñe su evolución.

La evolución técnica es impulsada por rupturas epistemológicas a través de las cuales sus principios de operación experimentan una revolución. La ruptura en la que queremos focalizarnos aquí es el cambio de la inteligencia de las máquinas de una inferencia lineal mecánica a una operación digital recursiva. El concepto de recursión tiene una matizada variedad de significados, pero por el momento podemos entenderlo en términos de reflexividad. El cambio al que nos referimos oculta el misterioso poder de las máquinas, un poder que aún estamos lejos de apreciar y de tener la posibilidad de apropiarnos. En Recursivity and Contingency [Recursividad y contingencia], intenté narrar esta historia de la evolución de la inteligencia de las máquinas como una transición del cartesianismo al organicismo. La mecanización y racionalización inherentes al cartesianismo de los siglos XVII y XVIII pueden condensarse en la imagen de un reloj mecánico. Dentro de un reloj, causa y efecto se encadenan mediante el contacto físico entre diferentes piezas. Esta inteligencia lineal, que se materializa en sistemas de engranajes y poleas, dio a luz a autómatas como el pato con aparato digestivo de Jacques de Vaucanson y, más tarde, a las máquinas automatizadas de las fábricas de la Mánchester del siglo XIX descritas por Karl Marx. Pero este paradigma epistemológico generalizado en una imagen del mundo mecánica subyace también a investigaciones científicas y análisis económicos, como la física clásica newtoniana o el análisis marxiano del capital, el cual consiste básicamente en la descripción del funcionamiento de una máquina mecánica. La ruptura epistemológica que sigue al mecanicismo introduce e impone un paradigma diferente, y hace necesaria entonces la reevaluación y refundamentación de todas las disciplinas moldeadas por el paradigma previo.

La emergencia y elaboración en el siglo XX de una nueva causalidad que llamamos recursividad sentó las bases para un arco de ideas nuevas que incluyen la cibernética, la teoría de sistemas, la teoría de la complejidad y la ecología, entre otras disciplinas que se rigen por formas no-lineales de razonamiento.

Cibernética e inteligencia

Estas formas no-lineales de razonamiento liberan la inteligencia de las máquinas de su encadenamiento a la causalidad lineal del cartesianismo y ponen en cuestión el dualismo en el que se basó una modalidad de crítica dominante desde el siglo XVIII, a saber, la diferencia irreductible entre mecanismo y organismo. Esta fue una tesis central de la cibernética temprana. Como expuse en “Máquina y ecología”, el fundador de la cibernética Norbert Wiener movilizó avances en la física −especialmente en la mecánica estadística y cuántica− para afirmar la posibilidad de construir, a partir de los conceptos de retroalimentación e información, una máquina cibernética que hiciera colapsar la frontera entre mecanicismo y vitalismo.[5]

“El autómata moderno existe en la misma modalidad de tiempo bergsoniano que el organismo vivo, y por consiguiente las consideraciones de Bergson no excluyen que el modo esencial de funcionamiento de los organismos vivos sea el mismo que el de esta clase de autómatas. […] En realidad, toda controversia mecanicista-vitalista ha quedado relegada al limbo de las cuestiones mal planteadas.”[6] En otras palabras, Wiener estaba afirmando la posibilidad de una máquina bergsoniana.

En retrospectiva, podríamos decir un poco superficialmente que Wiener recogió y llevó a cabo la propuesta de Bergson en La evolución creadora de “fabricar una mecánica que triunfara sobre el mecanismo”.[7] Y sería tentador denominar a esta idea un “vitalismo digital”, último vástago del computacionalismo. Pero también debemos reconocer que Wiener no entendió bien a Bergson, porque vitalismo no equivale exactamente a organicismo.[8] Bergson lo explica con bastante claridad en el primer capítulo de Las dos fuentes de la moral y la religión. El organismo está sujeto a leyes inexorables, como las que subordinan unas partes a otras y todas ellas al todo; el vitalismo, en cambio, enfatiza la voluntad, que constantemente resiste la tendencia hacia una sociedad cerrada.[9] No podemos afirmar, por lo tanto, que Wiener haya superado la dualidad entre mecanicismo y vitalismo; a lo sumo podemos afirmar que Wiener descubrió una operación técnica capaz de asimilar el comportamiento de los organismos. Este modelo y su realización técnica tuvieron un impacto significativo en la conceptualización y modelización de la inteligencia. Por ejemplo, siempre que se habla de redes neuronales artificiales se menciona el trabajo pionero de Warren McCulloch y Walter Pitts, dos investigadores que participaron en las Conferencias Macy organizadas por Wiener. McCulloch y Pitts desarrollaron el primer modelo de una red neuronal según principios cibernéticos. La actividad del cerebro podía ser vista como una operación lógica posibilitada por las neuronas. Las neuronas funcionan a la vez como memoria y como operadores lógicos que actualizan recursivamente sus estados individuales y el resultado total. En suma, la cibernética es también nuestro punto de partida, además del punto de vista a través del cual podemos analizar nuestra situación actual. Esta versión de la historia diverge un poco del relato estándar acerca del origen del término “inteligencia artificial”.

Dicho origen suele ubicarse en la Conferencia de Dartmouth de 1956, asociada a científicos e investigadores como Marvin Minsky, John McCarthy y Claude Shannon, entre otros. La historia continúa con el desarrollo ulterior que lleva de la inteligencia artificial simbólica o débil (lo que John Haugeland llamó la “inteligencia artificial a la antigua”)[10] a la inteligencia artificial fuerte, para culminar finalmente en la fantasía actual de una superinteligencia. Este relato histórico impide en gran medida ver la ruptura epistemológica entre mecanicismo y organicismo, ruptura que se anuncia ya en la Crítica del juicio de Immanuel Kant y se realiza más tarde en la cibernética. En la Crítica del juicio, Kant introduce el concepto de “juicio reflexionante” para describir una operación que no se rige por reglas dadas de antemano. A diferencia del “juicio determinante”, que aplica lo universal a lo particular, el juicio reflexionante parte de lo particular para remontarse a lo universal siguiendo la heurística de un principio regulativo; es decir, deriva sus propias reglas en su avance hacia una finalidad. Este telos [fin] –el fin de la naturaleza, lo bello, la autonomía– no es algo dado de antemano como un hecho o un estándar objetivo. No pude haber un estándar objetivo de lo bello, ya que este se enfrentaría inmediatamente a su negación. Cuando uno dice que una pintura de Paul Cézanne es bella, la persona que tiene al lado puede no estar de acuerdo, y rápidamente se llega a la conclusión de que la belleza es una construcción social o una cuestión de gusto (lo cual sería a su vez una cuestión de clase). Pero la belleza no es meramente subjetiva, ya que en ese caso sería contingente. La idea brillante de Kant es que la belleza es subjetiva-objetiva, en el sentido de que el sujeto puede establecer su objetividad, pero esta objetividad no es demostrable. Solo mediante el juicio reflexionante podemos llegar a la idea de lo bello, que es universal y necesaria. Por eso Gilbert Simondon afirmó en un artículo titulado “Epistemología de la cibernética” que recién en la Crítica del juicio Kant habría sido capaz de pensar la cibernética.[11] Porque el juicio reflexionante guarda una cierta afinidad con el concepto de retroalimentación y su teleología no necesita ser fatalista.

La inteligencia emerge cuando este deja de ser mecánico, es decir cuando adquiere la capacidad de lidiar con accidentes que no están grabados como reglas.

El pensamiento recursivo es mucho más potente que el mecanicista. La forma recursiva permite al algoritmo absorber eficazmente la contingencia para incrementar la eficiencia computacional. La inteligencia emerge cuando este deja de ser mecánico, es decir cuando adquiere la capacidad de lidiar con accidentes que no están grabados como reglas. Por ejemplo, un amplificador puramente mecánico amplifica todos los sonidos, incluido el ruido. En cambio, un amplificador con una función de cancelación de ruido que implementa un algoritmo de aprendizaje automático será capaz de distinguir el ruido del sonido que se desea amplificar. En el habla cotidiana decimos que el segundo es más “inteligente” que el primero. La recursividad, que mencionamos arriba como una nueva epistemología, se basa en un modo de pensamiento organicista, ya que es capaz de derivar sus propias reglas a partir de hechos empíricos en vez de depender de reglas fijadas en el código, es decir que no se limita a aplicar lo universal a lo particular.

La oposición entre mecanismo y organismo está Incrustada en la filosofía moderna y ha sido el fundamento sobre el que se desarrollaron nuevos conceptos que buscaron romper las cadenas del mecanicismo cartesiano. En su reciente libro Morphing Intelligence [Metamorfosis de la inteligencia], la filósofa francesa Catherine Malabou admite haber cometido un error en su libro de 2004 ¿Qué hacer con nuestro cerebro? al oponer la plasticidad cerebral (pensada a partir de una síntesis del organicismo hegeliano y la neurociencia moderna) a la inteligencia de las máquinas: “Efectivamente estaba equivocada en ¿Qué hacer con nuestro cerebro?: la plasticidad no es, como argumenté entonces, lo opuesto de la máquina, el elemento determinante que impide equiparar el cerebro a una computadora”.[12] Malabou tiene razón en señalar que las máquinas digitales contemporáneas ya no son mecanismos como los del siglo XVIII, como parecen creer aún hoy muchos filósofos; son máquinas recursivas que emplean una causalidad no-lineal para llegar a su telos. Es en ese sentido que se comportan como organismos. Sin embargo, pienso que la alternativa de “equiparar el cerebro a una computadora” no avanza lo suficiente respecto de las afirmaciones de Wiener de hace setenta años, lo cual muestra que la filosofía tiene que volverse “más reflexiva”. Más reflexiva no quiere decir solamente prestar más atención a las máquinas, sino tener también la capacidad de reinventarse para poder resituar la cibernética de manera análoga a como hizo Kant con el mecanicismo en su tercera Crítica.

Una mirada al desarrollo que va de la inteligencia artificial débil a la inteligencia artificial fuerte revela otra implicancia del pensamiento recursivo de la cibernética. La inteligencia artificial débil, aunque se basa en máquinas recursivas, por ejemplo, la máquina de Turing, todavía no es capaz de comprender la recursividad entre cognición y mundo. Ignora el hecho de que la cognición está incrustada en un mundo que a su vez corporeiza, y que, por consiguiente, la inteligencia debe ser entendida como una operación recursiva entre cognición y mundo que constantemente modifica la estructura que resulta de su acoplamiento. Podemos ver que la recursión es un pensamiento que puede tener lugar en múltiples órdenes de magnitud. En nuestro ejemplo, tenemos la máquina de Turing o la función recursiva general de Kurt Gödel en un orden, y el acoplamiento estructural entre la inteligencia artificial simulada por la máquina de Turing y el mundo exterior en otro.

La cibernética con máquinas digitales recursivas marca el punto de inflexión en la historia en el que la inteligencia de las máquinas sobrepasa al estereotípico autómata sin alma descrito por Descartes. La causalidad circular implementada en las máquinas parece sugerir un movimiento análogo al alma: el alma es aquello que vuelve sobre sí mismo para determinarse a sí mismo. Para los griegos, especialmente para Aristóteles en el Libro III de Acerca del alma, pensar o inteligir [noeîn] es un proceso en el que el yo de la intelección trasciende recursivamente a los yoes de la sensación y la imaginación para que los errores de estas puedan ser examinados y corregidos sin que la inteligencia sea afectada. Cicerón tradujo nóesis al latín como intellegentia, donde inter- significa entre y lego recoger, escoger y, en sentido figurado, leer; de allí el sentido de intellegentia como capacidad de discernir y entender. Invocando a los estoicos, en Sobre la naturaleza de los dioses Cicerón moviliza esta intellegentia, junto con la facultad del lenguaje, para distinguir a los seres humanos de los animales. Al igual que los dioses, los seres humanos están dotados de entendimiento; no así los animales.[13]

La circularidad que caracteriza al alma no fue tematizada y permaneció implícita en la filosofía occidental hasta el idealismo poskantiano. El idealismo alemán puede ser visto como el intento de rearticular el “yo pienso” en términos tanto de sus condiciones de posibilidad como de sus modelos operacionales. A modo de antídoto contra el yo cartesiano lineal y mecánico, se postula un yo recursivo como condición del entendimiento. El filósofo hegeliano y cibernético alemán Gotthard Günther veía la cibernética como un paso hacia la construcción de una conciencia de las máquinas y como implementación de la lógica reflexiva hegeliana.[14] Günther entendía la evolución de las máquinas como un progreso hacia la lógica hegeliana. Adoptando la terminología de Hegel en La ciencia de la lógica, caracteriza a la máquina clásica como “Reflexion-in-Anderes” [reflexión en lo otro], a la máquina de Von Neumann como “Reflexion-in-sich” [reflexión en sí], y a una tercera máquina, un “cerebro-máquina”, como “Reflexion-in-sich der Reflexion-in-sich-und-Anderes” [reflexión en sí de la reflexión en sí y en lo otro].[15] Esto es lo que distingue a una máquina computacional digital del viejo mecanicismo cartesiano, y en esta formulación podemos ver la relación de cercanía, si no de identidad, entre filosofía y tecnología. Si la cibernética de Wiener supera la crítica de Bergson, o si más bien realiza aquella “mecánica que triunfara sobre el mecanismo” concebida en La evolución creadora, Wiener no llegó, sin embargo, a reconocer la paradoja de la inteligencia. O al menos no lo hizo hasta su escrito tardío “Some Moral and Technical Consequences of Automation” [Algunas consecuencias morales y técnicas de la automatización], publicado en 1960, tres años antes de su muerte.

Yo – intelección
Yo – imaginación
Yo – sensación

Jerarquía de las actividades cognoscitivas en Aristóteles, Acerca del alma, III.3.

Mundo e inteligencia

En los años setenta el filósofo estadounidense Hubert Dreyfus publicó una serie de artículos y libros sobre los límites de la inteligencia artificial, el más notable de los cuales fue What Computers Can’t Do. A Critique of Artificial Reason [Lo que las computadoras no pueden hacer. Una crítica de la razón artificial], cuya primera edición apareció en 1972. Dreyfus acusaba allí a los investigadores de inteligencia artificial de limitar la cognición a “una estructura o modelo particular de conocimiento”. Este supuesto ontológico de la cognición es fundamentalmente cartesiano. En términos tomados de Heidegger, la inteligencia cartesiana ve al objeto que tiene delante meramente como Vorhanden [“ante los ojos”], es decir como algo que está frente al sujeto y debe ser contemplado como portador o sustrato de propiedades. Dreyfus propone en cambio una idea de cognición corporeizada que corresponde a lo que Heidegger llamó Zuhanden [“a la mano”]. En esta, lo que tengo delante ya no aparece simplemente como sustrato de propiedades, sino que tiene un modo de ser condicionado por el mundo, es decir, una estructura temporal que acopla la cognición al objeto de encuentro. Por ejemplo, cuando usamos un martillo, no contemplamos su forma y color, porque el mundo, que pude presentarse como  “plexo de relaciones” [Bezugszusammenhang] o “plexo de referencias” [Verweisungszusammenhang], ya está incrustado en la cognición.

Ni siquiera una silla resulta comprensible en términos de algún conjunto de hechos o “elementos de conocimiento”. Reconocer un objeto como silla, por ejemplo, significa comprender su relación con otros objetos y con los seres humanos. Esto involucra todo un contexto de actividad humana del que la forma de nuestro cuerpo, la institución del mobiliario y la inevitabilidad del cansancio constituyen solo una pequeña parte. Al asumir que lo dado son hechos, Minsky simplemente está repitiendo una concepción que se ha venido desarrollando desde Platón y que está tan arraigada que parece evidente.[16]

Desde el punto de vista de la lógica, la crítica de Dreyfus a la “razón artificial” puede ser interpretada como crítica al uso de un pensamiento lineal y mecánico, en vez de uno recursivo y orgánico, para modelizar la cognición. Es así que llega a la conclusión de que el impasse de la inteligencia artificial es también el impasse de la metafísica occidental. El pensamiento de Heidegger, por el contrario, en cuanto intento por superar la metafísica, proveería una alternativa; es decir, que sería posible concebir una inteligencia artificial heideggeriana.[17] Aunque la identificación de la inteligencia artificial débil con la historia de la filosofía de Platón a Leibniz parece por momentos carecer de sutileza, Dreyfus tiene el mérito de haber señalado la necesidad de indagar en los supuestos ontológicos, epistemológicos y psicológicos de la computación, y de cuestionar sus límites y su legitimidad.

Después de Dreyfus, nos vemos instados a releer los parágrafos 17 y 18 de El ser y el tiempo, en los que se inspira su crítica a la inteligencia artificial a la antigua. Cuando digo releer me refiero a que debemos ir más allá de lo que Heidegger pudo haber querido decir en vista de lo que sucede en nuestro tiempo, no solo porque el libro fue escrito en 1926, cuando todavía no existía la inteligencia artificial, sino también porque los propios conceptos filosóficos necesitan ser repensados.[18] En estos dos parágrafos, titulados respectivamente “La referencia y la señal” y “La conformidad y la significatividad: la mundanidad del mundo”, Heidegger sienta las bases ontológicas para el análisis de los útiles y las señales, a saber la referencia [Verweisung] y el modo en que la “conformidad” [Bewandtnis] condiciona la estructura de referencia en la que tiene lugar el encuentro entre el útil y el Dasein [serahí] humano.[19]

Desde el comienzo, el mundo que describe Heidegger es el otro de la cognición y resulta irreductible a ella, ya que es el mundo el que hace posible la cognición. Mundo y contenido cognitivo pueden pensarse en términos de la relación entre fondo y figura en la teoría de la Gestalt. El mundo está constituido por un complejo plexo de referencias y la cognición depende de esas referencias. En otras palabras, cognición y mundo mantienen una relación parte- todo. Sin embargo –y esto es clave para la relectura de los parágrafos 17 y 18 de El ser y el tiempo–, el mundo está cambiando, no es más el mundo fenomenológico que describía Heidegger. El mundo es capturado y reconstruido en medida cada vez mayor por sensores y dispositivos de todo tipo, en un avanzado proceso de digitalización. El mundo está crecientemente encerrado en las pantallas, sobre todo considerando que hoy es posible hacer virtualmente todo mediante aplicaciones en dispositivos móviles. La potencia de estas plataformas es su capacidad para constituir un mundo basado enteramente en datos que pueden ser acumulados, analizados y modelizados. Gracias al incremento de la masa de datos y al desarrollo de modelos matemáticos más complejos, las máquinas pueden lograr mayor precisión en sus funciones predictivas.

Cuando el mundo está camino a convertirse en un sistema técnico, por así decirlo, el mundo que Heidegger había descrito como fundamento de la verdad –entendida como a-letheia o desocultación– se ve reducido a conjuntos de datos analizables y calculables mediante herramientas lógicas y aritméticas, a una mathesis universalis. El mundo deja de ser incalculable; en otras palabras, deja de ser el fundamento en una epistemología basada en la computación. Por eso se impone hoy la noción de que la inteligencia artificial se está volviendo más y más potente, y que en la misma proporción va perdiendo importancia la cuestión del mundo enfatizada tanto por Heidegger como por Dreyfus. Porque vivimos en un mundo digitalizado, un mundo del Gestell [estructura de emplazamiento]. La potencia de la inteligencia artificial se basa en la reducción del mundo a modelos computacionales. Esto puede sonar como la típica crítica contra el reduccionismo, pero el asunto no es tan sencillo. No es que el reduccionismo sea malo, sino que es malo cuando es considerado como la totalidad de la realidad, que fue el error en el que incurrió en su momento el mecanicismo cartesiano.

A través de su exteriorización, la inteligencia se confunde con un mundo construido por ella misma.

Esto es lo que denominamos más arriba la paradoja de la inteligencia: a través de su exteriorización, la inteligencia se confunde con un mundo construido por ella misma. A lo largo de la historia humana, constantemente estamos renovando nuestra concepción del universo y el mundo. Cada nuevo descubrimiento hace necesaria una renovación del concepto de lo humano. Por ejemplo, con el giro copernicano del geocentrismo al heliocentrismo, la especie humana deja de estar en el centro de un universo finito y se enfrenta a una infinitud y un vacío que la trascienden. En paralelo, se observa el surgimiento de un nuevo discurso acerca de la subjetividad humana que comienza con el cartesiano cogito, ergo sum. Luego vino la Ilustración con perspectivas variadas sobre el mecanicismo. Por un lado estaban los enciclopedistas, que veían en el mecanicismo la posibilidad de un progreso infinito y en la organización esquemática del conocimiento (ejemplificada por la propia Enciclopedia) la aspiración a la democracia y la tecnocracia. Por otro lado, la Ilustración también dio origen a una filosofía organicista que reconocía en el organismo una nueva forma de organización y de funcionamiento, y que en consecuencia rechazaba la visión mecanicista de la vida y del Estado. El Estado, mecanicista por naturaleza, debía ser reformado para que pudiera surgir una auténtica comunidad en la que el reconocimiento mutuo se volviera realizable.

La evolución de la inteligencia de las máquinas anuncia el fin del humanismo, pero también la condición orgánica del filosofar que estableció Kant. Nuestra tarea, por lo tanto, es precisar esta condición del filosofar y señalar la dirección posible de una filosofía posteuropea. El fin de lo humano tiene menos que ver con la hipótesis de un reemplazo completo de los seres humanos por las máquinas –ya que ello podría llevar más tiempo que la extinción misma de la especie humana–, que con el hecho de que la inteligencia de las máquinas transforme a los humanos en una medida que excede nuestra imaginación. Estamos en medio de un flujo de fuerza metafísico que está arrastrando a los humanos a un destino desconocido. Ese es también el misterio de la tecnología moderna. ¿Llevará esta transformación de lo humano a la extinción del homo sapiens? ¿O llevará en cambio a un claro en el que no solo se impugne el humanismo, sino que pueda también reabrirse la cuestión de la historia y la cultura, así como la cuestión de la vida?

La dualidad que establece Bergson entre mecanicismo y vitalismo –al igual que entre otros pares dualistas, como duración y espacio, materia y espíritu, ciencia y metafísica, los cuales suscitan la impresión equivocada en los lectores de que él mismo era un dualista– no es exactamente una discontinuidad oposicional. Lo que le interesa a Bergson es la relación entre ambos. Como escribió en Las dos fuentes de la moral y la religión:

Hemos hablado en otra ocasión de esas líneas de hechos que tomadas aisladamente no proporcionan sino la dirección de la verdad, porque no van bastante lejos; al prolongar dos de ellas hasta el punto en que se cortan, se llegará sin embargo a la verdad misma […]. Estimamos que este método de intersección es el único que puede hacer avanzar definitivamente a la metafísica.[20]

Por eso Gilles Deleuze comenta en su estudio del bergsonismo: “El dualismo es entonces solo un momento, que debe desembocar en la reconstitución de un monismo”.[21] Si “monismo” es el término adecuado es una cuestión para abordar en otro lugar; para nuestro propósito en este ensayo, podemos llamar a esta relación entre los dos polos un uno organológico.[22] Porque Bergson concibe las herramientas y los instrumentos como partes de un organismo artificial,[23] y ve en esa mecanización una tendencia de la evolución de los seres humanos. En vez de percibir la mecanización como una amenaza, deberíamos resituar a las máquinas dentro de la vida, o dentro de una “mística”:

Los orígenes de esta mecánica son tal vez más místicos de lo que pudiera creerse, y no volverá a encontrar su dirección verdadera, ni rendirá servicios proporcionados a su poder, más que si la humanidad, a quien ha encorvado todavía más sobre la tierra, llega, gracias a ella, a enderezarse y mirar al cielo.[24]

El ímpetu vital es vida misma y el mecanicismo tiene que reconocer su origen en él y regresar a la vida. Por eso Bergson afirma que “la mecánica exigirá una mística”. El mecanicismo quería explicar la vida prescindiendo de la vida, Bergson quiere devolverlo a un fundamento más primordial, y al hacerlo supera las dualidades que él mismo había establecido. Volver al ímpetu vital y al mundo no significa repetir lo que ya han dicho Bergson y Heidegger, sino resituar las tecnologías en realidades más amplias que el mundo calculable. Nuestra manera de hablar sobre el progreso desde el siglo XVIII está marcada por el deseo de medir, calcular y dominar. Al mismo tiempo, hemos sido testigos de catástrofes que pueden ser concebidas como actos de resistencia de la naturaleza o la Tierra. Estos no surgieron de errores de cálculo, sino de una más fundamental “ilusión trascendental” del cálculo. El concepto de lo no-racional que introdujimos en “Límite y acceso” es una invitación a pensar más allá de lo computable, y por consiguiente también a entender cómo lo no-racional en cuanto incalculable se articula en el arte y puede proporcionar un método para reflexionar sobre otras posibilidades de la computación.

Inteligencia y cosmotécnica

Me gustaría volver sobre el primero de los epígrafes que encabezan este ensayo, tomado del artículo fundacional de Marvin Minsky “Steps Toward Artificial Intelligence” [Pasos hacia la inteligencia artificial], publicado en 1961. Antes de delinear su proyecto de investigación sobre la inteligencia, Minsky comenta: “No existe, desde luego, una teoría de la inteligencia universalmente aceptada; el análisis que sigue es propio y puede resultar controvertido”.[25] Más que afirmar que no sabemos qué es exactamente la inteligencia, prefiero entender que Minsky estaba invitándonos abiertamente a problematizar e incluso reinventar el concepto de inteligencia. La inteligencia, en la medida en que es realizable en un aparato digital, es computable. ¿Qué significa que sea computable? Significa que es recursivamente enumerable. Pero lo recursivamente enumerable constituye solo un tipo de inteligencia entre varios. O más precisamente, en el lenguaje de Bergson, es solo una de las tendencias de la inteligencia.

Es, no obstante, una tendencia técnica en el sentido que le da a este término André Leroi-Gourhan, porque se basa en principios para maximizar decisiones racionales y minimizar influencias contingentes. Esta tendencia técnica sigue y es impulsada por una racionalidad geométrica, lo que para Bergson es también un obstáculo que la vida debe superar, porque aliena a la inteligencia de sí misma y la hace olvidar su fundamento. Es necesario impugnar hoy la fantasía de una superinteligencia que llegaría finalmente a superar a todas las otras y termina- ría ocupando un día el lugar del Estado. Esta fantasía de una superinteligencia es la expresión de una forma extrema de computacionalismo, según la cual el mundo es calculable y puede ser agotado mediante la computación. Al mismo tiempo, representa la forma más avanzada de la neutralización y despolitización por medio de la tecnología analizada por Carl Schmitt. Nuestra crítica no es meramente ética, en el sentido de un cuidado de las buenas relaciones entre los humanos y entre seres humanos y no-humanos. Por un lado, no es seguro que sea posible desmarcarse de una epistemología humanista tomando como modelo para la inteligencia artificial a los insectos u otras formas de vida animal o vegetal. Las plantas y los mohos pueden proporcionarnos un entendimiento de principios organicistas y de esa manera servir de inspiración para desarrollar mejores algoritmos, como se hace en la rama de la informática conocida como “computación natural”. Pero esto es básicamente subordinar esas formas de vida a la calculabilidad. Por otro lado, en lo que concierne a la inteligencia humana –y aquí tenemos que seguir a Bergson cuando afirma que la potencia de la inteligencia humana deriva de su capacidad para inventar herramientas y símbolos inorgánicos–, el ser humano es ante todo un animal symbolicum en el sentido de Ernst Cassirer, o un ser técnico según la definición de Bernard Stiegler. Los animales y las plantas pueden no ser menos “inteligentes” que los humanos, pero claramente emplean muchos menos símbolos. Definida así, la inteligencia pertenece al mismo proceso evolutivo que la hominización. Nuestro mundo es un mundo simbólico, constituido no solo por representaciones o esquemas mentales, sino por operaciones y procesos basados en esas formas simbólicas. Lo que dice Bergson sobre la mecánica y la mística no es solo interesante, también reviste una importancia crucial, porque se niega a ver el mecanismo como una operación repetitiva y sin vida. En cambio, quiere encontrar ese “suplemento de alma” capaz de devolver el mecanismo a la vida. Este regreso del mecanismo a la vida tiene su posibilidad en el mecanismo, como dicen los versos del poema Patmos de Hölderlin que cita Heidegger en “La pregunta por la técnica”: “Pero donde está el peligro, crece también lo que salva”.[26]

Ahora bien, ¿cómo funciona este regreso? El vitalismo bergsoniano tiene una dirección única, por lo que debemos explorar también otras vías que prolonguen y vayan más allá del pensamiento de Bergson. Esto nos lleva al punto al que habíamos arribado en “Máquina y ecología” y “Límite y acceso”, y nos permite continuar desarrollando el concepto de tecnodiversidad siguiendo el hilo conductor de la inteligencia artificial. Tomaremos el pensamiento chino a modo de ejemplo para indagar en la noción de inteligencia y ver cómo funciona en ella lo incalculable, que es diferente del concepto heideggeriano de mundo y del ímpetu vital de Bergson. Queremos enfatizar que este es solo un ejemplo, puesto que China y Europa representan solo fracciones de la diversidad que necesitamos pensar. En chino, el término “inteligencia” suele traducirse como zhihui [智慧] o zhineng [智能]. Zhihui significa literalmente “sabiduría”, mientras que zhineng se refiere a una capacidad, la capacidad de pensar o actuar de manera inteligente, de usar la razón o de volverse sabio. Inteligencia no es lo mismo que sabiduría. Sabiduría es algo que suele atribuirse a los pensadores orientales, ¡precisamente porque no tienen filosofía! ¿Qué significado tiene entonces la inteligencia en el pensamiento chino? Cuando el filósofo neoconfuciano contemporáneo Mou Zongsan (1909-1995) leyó la Crítica de la razón pura de Kant, quedó deslumbrado y tuvo al mismo tiempo una iluminación: la razón especulativa que Kant quería limitar era exactamente lo que la filosofía china había aspirado a cultivar. En su ambicioso libro Intellectual Intuition and Chinese Philosophy [Intuición intelectual y filosofía china] Mou intenta mostrar que si se siguen las definiciones sistemáticas y los límites que Kant traza a las facultades del espíritu para fundamentar el conocimiento científico, la intuición intelectual tal como queda excluida del ámbito del conocimiento describe una operación que es central para el pensamiento chino. En la Crítica de la razón pura, Kant delimita la razón especulativa alejándola de la Schwärmerei [fanatismo] y confinándola en una tierra “rodeada de un océano vasto y tempestuoso”.[27]

Kant distingue dos ámbitos: el ámbito de los fenómenos, de todo aquello que es dado en la intuición sensible y es objeto de una experiencia posible,[28] y el ámbito del noúmeno, de cosas que son meros objetos del entendimiento y de los que no hay una intuición sensible.[29] La intuición sensible humana no puede penetrar en el noúmeno, es decir que no puede haber una demostración positiva de las entidades nouménicas, por ejemplo, la cosa en sí. En la ética de Kant, el noúmeno es también el ámbito de los postulados de la razón práctica, como la voluntad libre, la inmortalidad del alma o la existencia de Dios. El conocimiento, en la medida en que aspira a una validez objetiva, tiene que estar basado en la intuición sensible (de fenómenos). Claro que siempre es posible especular sobre aquello que está más allá de los fenómenos, ya que es una capacidad inherente a la libertad humana, así como siempre es posible soñar; pero en la medida en que no hay allí algo que pueda ser fundamentado como conocimiento, se trata de una mera especulación y como tal queda excluida del conocimiento científico. El noúmeno tiene por lo tanto un sentido negativo y solo puede adquirir un significado positivo si suponemos que existe una intuición intelectual en la que fuera conocido. [30] Ya en la primera Crítica, Kant rechaza la posibilidad de que los seres humanos posean esta intuición intelectual e insiste en que toda intuición humana es intuición sensible. La intuición sensible es la tierra que la razón tiene para trabajar, y de alejarse de ella, corre peligro de ahogarse en el océano.

Según Mou, la síntesis de confucianismo, taoísmo y budismo que hoy llamamos “pensamiento chino” se caracteriza por otorgar un lugar preeminente al cultivo de una intuición intelectual capaz de penetrar más allá de los fenómenos y unificar lo fenoménico y lo nouménico. Para Mou, esta intuición intelectual no es una facultad innata. Al nacer, el ser humano está dotado de intuición sensible, mas no posee necesariamente intuición intelectual. Esto es algo que diferencia a Mou Zongsan de filósofos poskantianos como Schelling (y también Fichte), ya que en la medida en que la  intuición intelectual necesita ser desarrollada, no puede ser algo dado de antemano y que sirva de fundamento para la sistematización del conocimiento. La intuición intelectual de Mou no es ni puramente a priori, ni puramente a posteriori. No es puramente a priori porque no es como la intuición sensible, que se hereda como característica de la especie; y no es puramente a posteriori porque no se desarrolla enteramente a partir de la experiencia, ya que llegar a poseer una intuición intelectual distingue a los seres humanos de otros animales. Figuras ideales como las del sabio para el confucianismo, el zhenren (literalmente, “hombre verdadero”) para el taoísmo y el Buda para el budismo, son todos ejemplos del cultivo de la intuición intelectual.

La intuición intelectual es la razón sintética que entiende la relación entre el yo y los otros seres (o el cosmos) desde la perspectiva del sujeto moral, y no del sujeto del conocimiento.

¿Pero qué es exactamente esta intuición intelectual y cómo funciona de acuerdo con la lectura que hace Mou del pensamiento chino? A riesgo de simplificar demasiado, podemos formularlo de la siguiente manera: la intuición intelectual es la razón sintética que entiende la relación entre el yo y los otros seres (o el cosmos) desde la perspectiva del sujeto moral, y no del sujeto del conocimiento. Sujeto moral y sujeto del conocimiento son dos tendencias del desarrollo humano. El sujeto moral es anterior al sujeto del conocimiento. Cuando el sujeto del conocimiento mira el mundo, quiere entenderlo mediante una descomposición analítica; en cambio, cuando el sujeto moral mira el mundo, ve la interconexión de las cosas en una intelección sintética que busca siempre la unificación entre los órdenes cósmico y moral. Ese es también el fundamento del concepto de cosmotécnica.

¿Qué quiere decir esto? En Intellectual Intuition and Chinese Philosophy [Intuición intelectual y filosofía china], pero también su obra más tardía Phenomenon and Thing-in-Itself [Fenómeno y cosa en sí], Mou Zongsan intentó mostrar que la intuición intelectual es fundamental para el confucianismo, el taoísmo y el budismo. Para Mou, la intuición intelectual está asociada a la creación (por ejemplo, en la cosmogonía) y a la metafísica moral (diferente de la metafísica de la moral de Kant, que se basa en las facultades cognoscitivas del sujeto). Mou apoya su tesis en textos chinos clásicos, sobre todo neoconfucianos, como las obras de Zhang Zai. Zhang Zai es un pensador del siglo XI que es conocido por su cosmogonía moral basada en una elaborada teoría del qi (energía, literalmente “gas”). Vale la pena detenerse en un pasaje citado por Mou:

El resplandor del cielo no es más resplandeciente que el sol; cuando uno lo mira, no sabe cuán lejos está. El ruido del cielo no es más fuerte que el trueno; cuando uno lo oye, no sabe cuán lejos está. La infinitud del cielo no es mayor que el gran vacío [tai xu], por eso el corazón [xin] conoce el contorno del cielo sin explorar sus límites.[31]

Mou comenta que las primeras dos oraciones se refieren a la posibilidad de conocer mediante la intuición sensible y el entendimiento. La tercera, en cambio, insinúa la posibilidad de que el corazón conozca cosas que están más allá de los fenómenos. Para Mou, esta capacidad del corazón [xin] de “conocer el contorno del cielo” es precisamente la intuición intelectual: no se refiere a un conocimiento basado en intuiciones sensibles y determinado por el entendimiento, sino a una iluminación plena, que brota del “cheng ming del xin moral universal, omnipresente e infinito”.[32] En esta iluminación plena, el ser aparece como cosa en sí en vez de como objeto de conocimiento. Cheng ming, que significa literalmente “sinceridad e inteligencia”, es un término que viene del clásico confuciano Zhongyong [La doctrina del medio].[33] Según Zhang Zai, “el conocimiento del cheng ming alcanza el liangzhi [conciencia moral] del cielo, y es completamente diferente del conocimiento por medio del ver y el oír”.[34] El conocimiento basado en la intuición intelectual resulta así característico de la filosofía china y de su metafísica moral.

Podemos referirnos también a un pasaje del Xici, uno de los más importantes comentarios al I Ching o “Libro de las mutaciones”, que también cita Mou Zongsan. Allí se lee: “Yi es no pensar y no hacer, es silencio sin movimiento. Sin embargo, cuando se lo pone en práctica, siente y conecta el universo entero”.[35] Yi tiene tres sentidos: no-cambio [不易, buyi], cambio [變易, bianyi] y simplicidad [簡易, jianyi]. Comentando el pasaje que sigue a este, en el que se discute el uso de caparazones de tortugas y tallos de milenramas para fines adivinatorios, Mou escribe:

Aunque el caparazón de tortuga o los tallos de milenrama carecen de pensamiento, cuando se trabaja sobre ellos y se les hace una pregunta, conocen el mundo entero. […] Sentir para conocer el mundo es como sentir todo el cosmos. La idea de sentir todo el cosmos ha sido expresada con la mayor solidez en el confucianismo anterior a la dinastía Qin. Esto es que lo que Kant llamó intuición intelectual.[36]

Mou equipara así esta capacidad de sentir con lo que Kant llama intuición intelectual.[37] Sería necesario hacer algunas salvedades, pero podemos decir que Mou intuye que existe una forma de conocimiento que va más allá de los fenómenos y que este conocimiento es la fuente de la moral. Porque la moral no puede fundarse en la analítica, ya que sería una mera axiomatización de lo que tiene para decir hoy la ética de la tecnología. Sin embargo, cuando hablamos de una ética de la tecnología, estamos presuponiendo un sujeto de conocimiento y una forma de razonamiento específicos, es decir que damos por sentada ya determinada normatividad. En vez de axiomatizar la moral, necesitamos volver sobre una variedad de diferentes modos de conocimiento que los ingenieros e investigadores que trabajan sobre la inteligencia artificial aún no han tomado en consideración.

Si Mou Zongsan tiene razón y en el núcleo del pensamiento chino hay una forma de intuición intelectual, y no un razonamiento analítico, esto acarrea una diferencia fundamental para la definición de inteligencia. Esta diferencia contribuye a la tecnodiversidad del desarrollo tecnológico futuro. Esto no quiere decir que la inteligencia artificial deba proponerse implementar la intuición intelectual –aunque sería un experimento interesante, que podría señalar el camino hacia una auténtica singularidad tecnológica o “explosión de inteligencia” (imagínense una máquina capaz de producir lo que intuye)–. En cambio, la breve investigación que hemos llevado a cabo aquí es un intento de mostrar que la inteligencia no se limita al cálculo o al análisis de lo fenoménico, y que su definición, además de incluir su medio o soporte técnico, tiene que ser ampliada en dos sentidos. En primer lugar, la inteligencia debe ser resituada dentro de realidades más amplias que excedan la racionalidad pura y tomen en consideración lo no-racional. En segundo lugar, es necesario comprender a la inteligencia junto con su soporte simbólico, en vez de excluir a los símbolos de la inteligencia o considerarlos secundarios (como sucede a menudo cuando se piensa que es posible “extraer” simplemente modelos de inteligencia de los insectos o de organismos como los mohos mucilaginosos).[38] El desafío de la inteligencia artificial no es construir una superinteligencia, sino hacer posible una noodiversidad. Y para que sea posible una noodiversidad, necesitamos desarrollar una tecnodiversidad. Es allí donde la cosmotécnica se diferencia del “giro ontológico” (que mira a la naturaleza desde la perspectiva de múltiples culturas) y del naturalismo político (que mira a la cultura desde la perspectiva de una naturaleza organicista), porque sostenemos la hipótesis de que es necesario y urgente desarrollar una tecnodiversidad como orientación hacia el futuro y como política de descolonización. Es al mismo tiempo una tarea de reconstrucción de las historias de cosmotécnicas que han sido oscurecidas por la búsqueda de una historia universal de la tecnología (y de una historia universal de la humanidad), y un llamado a la experimentación en el arte y la tecnología del futuro. Para que esos experimentos sean posibles, serán necesarias nuevas disciplinas y nuevas instituciones dedicadas al estudio del arte, la tecnología y la filosofía. Por el momento, carecemos de tales disciplinas e instituciones; precisamente por esta carencia tendremos que atrevernos a pensar y actuar juntos.

[1] Marvin Minsky, “Steps Toward Artificial Intelligence”, Proceedings of the IRE, vol. 49, n° 1, 1961, pp. 8-30 (8).

[2] Henri Bergson, Las dos fuentes de la moral y la religión, Buenos Aires, Sudamericana, 1962, p. 297.

[3] Ver Henri Bergson, La evolución creadora, Buenos Aires, Cactus, 2016, pp. 126-129. “En definitiva, la inteligencia, considerada en lo que parece ser su marcha original, es la facultad de fabricar objetos artificiales, en particular herramientas para hacer herramientas, y de variar indefinidamente su fabricación” (p. 129).

[4] Ibíd.

[5] No deja de ser interesante preguntarse cómo la mecánica estadística resulta instrumental para la cibernética de Wiener. Como señalamos brevemente en “Máquina y ecología”, Wiener recurre al método estadístico para salvar la distancia entre el tiempo irreversible de la entropía y el tiempo newtoniano reversible. En su introducción al pensamiento de Bergson, Suzanne Guerlac escribe: “Algunos años más tarde (1876), Josef Loschmidt formuló la siguiente pregunta a Boltzmann: si la entropía es un proceso irreversible (no se observa que un material frío se caliente espontáneamente con el tiempo), ¿cómo puede sostenerse que ella se deriva de un modelo que se ajusta a leyes reversibles? Boltzmann respondió a este desafío en 1877 con un ensayo en el que caracteriza la entropía en términos de probabilidades por medio de un análisis estadístico. Esto marcó el comienzo de lo que se convertiría en el campo de la mecánica estadística. Al traducir la ley de entropía a los términos de la mecánica clásica y ajustarlo a su análisis estadístico, Boltzmann oscureció las implicancias de la segunda ley de la termodinámica en lo concerniente a la realidad del tiempo psicológico que Bergson llamaría duración real”. Suzanne Guerlac, Thinking in Time: An Introduction to Henri Bergson, Ithaca, Cornell University Press, 2006, p. 32.

[6] Norbert Wiener, Cibernética o el control y comunicación en animales y máquinas, Barcelona, Tusquets, 1998 , p. 70.

[7] Henri Bergson, La evolución creadora, op. cit., p. 233.

[8] Ver Yuk Hui, Recursivity and Contingency, Londres-Nueva York, Rowman & Littlefield, 2019, capítulo 1.

[9] Ver Henri Bergson, Las dos fuentes de la moral y la religión, op. cit., pp. 49-51. “Las obligaciones que impone [una sociedad humana], y que le permiten subsistir, le dan una regularidad que simplemente tiene analogía con el orden inflexible de los fenómenos de la vida” (p. 51).

[10] Good Old-Fashioned Artificial Intelligence o GOFAI, según sus siglas. [N. del T.]

[11] Gilbert Simondon, “Epistemología de la cibernética”, en Sobre la filosofía, Buenos Aires, Cactus, pp. 169-190 (172).

[12] Catherine Malabou, Morphing Intelligence. From IQ Measurement to Artificial Brains, Nueva York, Columbia University Press, 2019, p. 113.

[13] Ver Jean-Louis Labarrière, “L’Intelligence”, en Denis Kambouchner (ed.), Notions de philosophie, vol. 1, París, Gallimard, 1995, p. 430.

[14] Para un bosquejo histórico, ver Yuk Hui, Recursivity and Contingency, op. cit., capítulos 1, “Nature and Recursivity” (sobre Kant, Fichte, Schelling); y 2, “Logic and Contingency” (sobre Hegel, la cibernética, Alan Turing y Kurt Gödel).

[15] Gotthard Günther, “Seele und Maschine”, en Beiträge zur Grundlegung einer operationsfähigen Dialektik, vol. 1, Hamburgo, Felix Meiner, 1976, pp. 84-85.

[16] Hubert Dreyfus, What Computers Can’t Do. A Critique of Artificial Reason, Nueva York, Harper & Row, 1972, pp. 122-123.

[17] Dreyfus aspiraba a un conectivismo, que hoy es la base de la neurodinámica y las redes neuronales.

[18] Dimos algunos pasos en dirección a esta relectura en On the Existence of Digital Objects (Mineápolis, University of Minnesota Press, 2016). Ver especialmente los capítulos 3 y 4.

[19] Ver Martin Heidegger, El ser y el tiempo, México, FCE, 1971, pp. 90-104.

[20] Henri Bergson, Las dos fuentes de la moral y la religión, op. cit., p. 245; citado también en Gilles Deleuze, El bergsonismo, Buenos Aires, Cactus, 2017, p. 25.

[21] Gilles Deleuze, El bergsonismo, op. cit., p. 25.

[22] En el capítulo 2 de Recursivity and Contingency desarrollo el concepto de “organología general” en relación con la filosofía de Bergson. El término fue acuñado por Georges Canguilhem en su artículo de 1947 “Máquina y organismo”, en el que considera como precursor de dicho proyecto el ensayo de Bergson de 1907 La evolución creadora.

[23] Ver Henri Bergson, Las dos fuentes de la moral y la religión, op. cit., p. 296.

[24] Ibíd., p. 297.

[25] Marvin Minsky, “Steps Toward Artificial Intelligence”, op. cit., p. 8.

[29] Citado en Martin Heidegger, “La pregunta por la técnica”, en Conferencias y artículos, Barcelona, Ediciones del Serbal, 1994, p. 30.

[27] Immanuel Kant, Crítica de la razón pura, Buenos Aires, Colihue, 2007, p.329 [A235, B295].

[28] “Los fenómenos, en la medida en que son pensados como objetos según la unidad de las categorías se llaman phaenomena.” Ibíd., p. 343 [A248].

[29] Ibíd., p. 344 [A249, B307].

[30] Ibíd., p. 342 [B307].

[31] “天之明莫大於日, 故有目接之,不知其幾萬里之高也。天之聲 莫大於雷霆,故有耳屬之,莫 知其幾萬里之遠也,天之不禦莫大於太 虛,故心知廓之,莫究其極也。” Citado en Mou Zongsan, Intellectual Intuition and Chinese Philosophy (智的直覺與中國哲學), Taipéi, Taiwan Commercial Press, 2006, p. 184. Tomo la traducción de tai xu como “gran vacío” de Sebastian Billioud. Ver Sebastian Billioud, Thinking through Confucian Modernity: A Study of Mou Zongsan’s Moral Metaphysics, Leiden, Brill, 2011, p. 78.

[32] “遍、常、 一而無限的道德 心之誠明所發的圓照之知。” Mou Zongsan, Intellectual Intuition and Chinese Philosophy, op. cit., p. 186.

[33] En el texto canónico Zhong yong (de autoría y fecha desconocidas), se lee: “誠者天之道也,誠之者,人之道也;自誠 明,謂之性。[…] 自 誠明,謂之性;自明誠,謂之教。誠則明矣,明則誠矣。”: “La sinceridad es el camino del cielo. El logro de la sinceridad es el camino del hombre. […] Cuando la inteligencia surge de la sinceridad, debe ser atribuida a la naturaleza; cuando la sinceridad surge de la inteligencia, debe ser atribuida a la instrucción. Pero dada la inteligencia, habrá sinceridad; y dada la sinceridad, habrá inteligencia”. [Traducido de la versión inglesa de James Legge (1893), ligeramente modificada por el autor. Disponible en www.esperer-isshoni.info/spip.php?article66. N. del T.]

[34] “誠明所 知乃天德良知;非聞見小知而已。” Mou Zongsan, Intellectual Intuition and Chinese Philosophy, op. cit., p. 188.

[35] “易無思也,無為也,寂然不動,感而遂通天下之故。”

[36] “它本身雖然是無思、無為的龜瞉、蓍草,但你藉著它做工夫,你一 問,你有問的感應的時候,它一通就通天下之故。[…] 所以感而遂通天 下之故,這個等於一通全通,感通全宇宙。感通全宇宙這種觀念先 秦儒家最有實感,這個就是康德所說的 Intellectual intuition。” Mou Zongsan, “Lectures on Zhou Yi” (《周易演講錄》), en The Collected Works of Mou Zongsan, vol. 31, Taipéi, Linking Books, 2003, p. 137.

[37] Ver también ibíd., p. 141.

[38] Sobre la función de los símbolos (o memoria artificial) en la cognición, algo que Kant desatendió expresamente, ver Bernard Stiegler, Technics and Time, 3: Cinematic Time and the Question of Malaise, Stanford, Stanford University Press, 2010.





Repensando la inteligencia artificial a través del feminismo

Desde una perspectiva feminista, realizamos un análisis crítico del aprendizaje automático de las inteligencias artificiales para encontrar prácticas más equitativas.


Sharon Hogge, ingeniera electrónico, con el robot centinela autónomo ROBART I y el robot industrial HT3. Maryland, 1983 | The U.S. National Archives | Dominio público

La tecnología nos rodea y está por todas partes, pero cómo se produce esta tecnología y a quién beneficia realmente y a quién no continúa siendo una importante cuestión a investigar. En los últimos tiempos han surgido movimientos como el Data Feminism o la Design Justice, que analizan la tecnología desde una óptica más crítica con la intención de crear una mayor equidad en la práctica tecnológica. De la mano de su creadora, exploramos algunas de las implicaciones a partir del proyecto artístico Feminist Data Set, que explora cómo sería un sistema feminista interseccional de aprendizaje automático (machine learning) de etiquetado y de datos de entrenamiento (data training), y qué haría falta para construirlo

En estos tiempos que corren, con el resurgir del fascismo y una aparente pérdida de los valores de justicia social, y en plena era de la digitalización global, la justicia social es más importante que nunca a la hora de poner en cuestión los datos, la tecnología y la estructura de la sociedad como tal. Estamos absolutamente rodeados de tecnología pero ¿cómo se fabrica la tecnología? ¿quién se beneficia de ella profundamente y quién no? Son preguntas importantes que todavía no hemos resuelto y que deberíamos estudiar y analizar. Feminist Data Set es un proyecto artístico que parte del feminismo interseccional para cuestionar e investigar el aprendizaje automático. Dicha investigación se hace desde la perspectiva del diseño crítico puesto que el proyecto consiste en crear un bot conversacional desde cero, a partir de las premisas del feminismo interseccional, y que suscitan preguntas como: ¿qué es la recopilación de datos feminista interseccional? ¿cómo son los datos del feminismo interseccional?, ¿qué es la catalogación de datos y los datos de entrenamiento desde el punto de vista del feminismo interseccional? ¿existe un sistema o un producto feminista interseccional con datos susceptibles de ser etiquetados o de los que se pueda obtener datos de entrenamiento? ¿qué aspecto tiene el software feminista y qué hace? ¿existen algoritmos para el feminismo intereseccional? o ¿qué hace falta para que existan? ¿cómo sería un bot conversacional interseccional y cómo interaccionaría?

Políticamente y artísticamente, Feminist Data Set se inspira en la cultura maker, el diseño crítico, el Arte Útil, el Data Feminism, la Design Justice, el Critical Engineering Manifesto, el Xenofeminismo y los Principios feministas de Internet. Pedagógicamente, Feminist Data Set se sitúa en la línea de trabajos como The Toaster Project de Thomas Thwaites, una obra de diseño crítico consistente en fabricar una tostadora casera a partir de cero. Feminist Data Set aporta una mirada crítica y artística al programario, especialmente en lo que refiere al aprendizaje automático. ¿Qué significa crear un aprendizaje automático de manera consciente y teniendo en consideración cada aspecto posible del proceso de crear, reproducir y diseñar? Debería llevarse a cabo una revisión a fondo de cada parte de este proceso desde una perspectiva feminista.

Hay una tendencia creciente a analizar la tecnología desde un punto de vista crítico y ético –aunque en los últimos tiempos la palabra «ético» se ha vuelto polémica y se usa demasiado–, pero esta visión crítica es importante, sobre todo porque aporta más equidad a la tecnología como práctica y como entidad en sí misma –en el sentido de que la tecnología es una cosa concreta, ya sea software o hardware, y la práctica se refiere al modo en que un individuo o un grupo utiliza la tecnología para contribuir a sus procesos creativos y productivos. Libros recientes como Data Feminism, de Catherine D’Ignazio y Lauren Klein, generan una práctica que analiza datos y conjuntos de datos presentes en la sociedad y proponen nuevos métodos para hacer un mejor uso de los datos desde un punto de vista feminista. Design Justice, de Sasha Costanza-Chock, ubica la justicia social directamente en el mundo del diseño, de su elaboración y producción, y en la planificación del diseño como ejercicio y práctica.

Feminist Data Set | Caroline Sinders

Tanto Data Feminism como Design Justice se refieren al uso que hacen del diseño y de los datos las estructuras capitalistas y empresariales, y de cómo los tecnólogos con conciencia cívica, los movimientos de justicia social y los activistas se involucran en temas relacionados con los datos y el diseño. Ambos libros hablan de diseño y datos en contextos tanto empresariales como no empresariales, y consiguen una visión más holística y expansiva del uso de los datos y del diseño, abarcando desde el extremo más problemático –el empresarial– al más justo –el de la justicia social y el activismo. Sin duda hace falta explorar no solo estos dos extremos del espectro, sino también todos los espacios intermedios, lo cual confiere especial valor a Data Feminism y Design Justice en tanto que libros, metodologías y casos de uso. Feminist Data Set se posiciona de manera similar y cuestiona el aprendizaje automático no solo desde la práctica artística sino como un proceso estrechamente unido al diseño de producto y al mundo empresarial, poniendo así de manifiesto que la tecnología interpreta de manera incorrecta el concepto de aprendizaje automático y lo aplica erróneamente en cada elemento individual del entramado.

A menudo me doy cuenta de que las herramientas que necesito para conseguir que Feminist Data Set sea un proyecto artístico y crítico no existen. Por ejemplo, ¿qué es una plataforma feminista de datos de entrenamiento? ¿Existe alguna? En el aprendizaje automático, cuando se trata de etiquetar datos y crear modelos de datos para construir algoritmos, se recurre al Mechanical Turk, la mano de obra de Amazon, para realizar esta tarea. Amazon creó su Mechanical Turk para poner remedio a su problema particular de aprendizaje automático, por su necesidad de entrenar y etiquetar grandes conjuntos de datos. Es habitual utilizar el Mechanical Turk en proyectos de aprendizaje automático y se usa en todas las áreas de etiquetado de datos, desde empresas de tecnología hasta grupos de investigación. Mechanical Turk paga sueldos precarios a sus empleados y los considera trabajadores temporales en lugar de a tiempo completo, lo cual significa que tengan unos ingresos aún menores. Esto no es un tema específico del feminismo interseccional, así que no puedo usarlo para mi investigación… Tengo que buscar una alternativa, o construir una. Durante el último año me he dedicado a investigar cómo sería un sistema feminista interseccional de aprendizaje automático de etiquetado y de datos de entrenamiento, y qué se necesitaría para materializarlo. He creado una herramienta, similar a una calculadora, que traduce la cantidad de tareas que lleva a cabo un Turker y el coste de dichas tareas calculado en horas laborales. Por ejemplo, un cliente estipula diez mil tareas a cuatro céntimos cada una: la calculadora lo traduciría a las horas o días de trabajo que tardaría un Turker en hacer todas esas tareas y cuál sería su salario.

En este sentido, en Feminist Data Set el arte se combina con la investigación y la tecnología impulsadas por el ansia de justicia social, como ocurre con Turkopticon, ideado por la Profesora Lilly Irani y Mechanical Turkers. Turkopticon permite que en Mechanical Turkers se pueda valorar tanto los trabajos como los clientes. Esta mejora pone fin a un problema real al que se enfrentan los trabajadores, que a menudo no saben cómo es el cliente de turno y no tienen manera de compartir información con otros Turkers.

Ordenación de datos feministas recopilados en SOHO20, 2018 | SOHO20 Gallery / Rachel Steinberg

Para poder crear una inteligencia artificial feminista, necesitamos dinamitar la desigualdad salarial y de horas de trabajo en los sistemas de aprendizaje automático con datos de entrenamiento. En un artículo publicado en The Atlantic que investiga el trato recibido en Mechanical Turkers, se afirma que el problema «no es necesariamente que los solicitantes paguen por debajo del salario mínimo. El solicitante paga una media de 11 dólares la hora por los servicios obtenidos», según Hara, «pero también hay muchos que pagan menos y hay muchos otros que publican encargos que se tarda más en hacer de lo que ellos afirman. Aun así, el problema real es que estas plataformas permiten que los solicitantes se ahorren remunerar a los trabajadores por sus períodos de inactividad que existirían si estuvieran contratados a tiempo completo».

En un artículo de investigación, coescrito por Kristy Milland, investigadora y Mechanical Turker, sostiene que el salario medio era de unos dos dólares la hora, aunque solo el 4% de los Turkers ganaba más de 7,25 dólares la hora.

¿Cómo sería una versión feminista de Mechanical Turk? ¿Qué necesitaría?

La igualdad y la paridad salariales representarían un paso hacia la consecución de la igualdad tanto en lo que respecta a la tecnología como a la sociedad. Los trabajadores deberían percibir una remuneración no solo por realizar una tarea asignada sino también por el tiempo que ha destinado a buscar trabajo y a organizar las tareas. Su sueldo debería, además, ser digno. Las empresas que fomentan la «economía de bolos» deberían regirse por la legislación laboral vigente.

Debemos tomarnos muy en serio este extremo y observarlo con espíritu crítico si queremos lograr la igualdad, es decir, hay que poder comentarlo e interpretarlo. Debemos tener claro el papel que desempeña la creación de datos y no olvidar que los sistemas pueden usar, abusar o beneficiarse de los mismos y que a su vez, deben entenderse como un producto que ha surgido de la comunidad, y que amén de ser su reflejo, su propiedad es un punto clave. La ubicación de los datos en los sistemas tecnológicos es una cuestión política, activa, íntima. Con el fin de conseguir la igualdad en el aprendizaje automático, es preciso analizar cada aspecto del sistema, diseccionarlo, construirlo de nuevo integrando las realidades, contextos y limitaciones de todas las tipologías de personas existentes y no solo de aquellas que construyeron la primera web. La tecnología tiene que representar a todos los integrantes de la red actual.





El yo en Internet

Internet ha pasado de una utopía donde todo era posible a un lugar lleno de gente enfadada y obsesionada por su propia representación.


Ordenador con persona vestida de Drácula. 1980 | John Marton, The U.S. National Archives | Sin restricciones conocidas de derechos de autor

Jia Tolentino comenzó a navegar por la Internet de Geocities, los foros y los gifs. Años después, la lucha de las redes sociales por nuestra atención permanente dibuja un escenario totalmente diferente. En este adelanto de Falso espejo. Reflexiones sobre el autoengaño, por cortesía de Temas de Hoy, Tolentino realiza un repaso de esta evolución para entender cómo el ecosistema de Internet condiciona nuestra vida dentro y fuera de la red.

En un principio, Internet tenía buena pinta. «Me enamoré de Internet la primera vez que lo utilicé en el despacho de mi padre y pensé que era la cosa MÁS COOL», escribí, cuando tenía diez años, en una subpágina de Angelfire titulada «La historia de cómo Jia se hizo adicta a Internet». En una caja de texto superpuesta a un horroroso fondo de color violeta, añadí:

Pero por aquel entonces estaba en tercero y lo único que hacía era visitar webs de Beanie Baby. El ordenador que teníamos en casa era viejo, un trasto, y no teníamos Internet. AOL me parecía un sueño lejano. Pero nos compramos un ordenador de los mejores en las vacaciones de primavera de 1999 y, obviamente, venía con todas aquellas demos. Así que finalmente tuvimos acceso a AOL y ¡¡yo me quedé alucinada por lo maravilloso que era tener un perfil y chatear y poder entrar en IMS!!

Después, escribí, descubrí las webs personales. («¡Me quedé con la boca abierta!») Aprendí a programar HTML y «algunos truquitos de Javascript». Creé mi propia página web en el servidor para principiantes Expage: primero elegí colores pastel y después me pasé al «tema noche estrellada». Me quedé sin espacio y entonces «decidí pasarme a Angelfire. Wow.» Aprendí a elaborar mis propios gráficos. «Todo eso tuvo lugar en cuatro meses», escribí, alucinada de la rapidez con la que evolucionaba mi ciudadanía en Internet; tenía diez años. No hace mucho volví a visitar las webs que entonces me resultaban inspiradoras y pensé en «lo idiota que tenía que ser para que me alucinaran esas cosas.»

No soy capaz de recordar si empecé este ensayo de manera involuntaria hace dos décadas, ni siquiera recuerdo haber hecho la subpágina de Angelfire, que encontré cuando buscaba los primeros rastros de mi persona en Internet. Ahora el paso del tiempo la ha dejado en los huesos: la página de inicio, titulada «LO MEJOR DE LO MEJOR», muestra una fotografía sepia de Andie, de la serie Dawson’s Creek, y un link muerto a una página llamada «EL CAMPO HELADO», que es «¡MEJOR!». Hay una página dedicada al GIF de una gata que guiña el ojo llamada Susie, y una «Página con letras guays» con un banner para desplazarse y la letra del tema «All Star» de Smash Mouth, «Man! I Feel Like a Woman» de Shania Twain y el irrespetuoso tema «No Pigeons» de Sporty Thievz. En la página de preguntas frecuentes –había una página para preguntas frecuentes– escribí que tenía que cerrar mi sección de muñecas de dibujos animados personalizadas, pues «la respuesta ha sido enorme».

Por lo visto creé y utilicé esa web de Angelfire unos pocos meses en 1999, en cuanto mis padres compraron el ordenador. Mi disparatada página de preguntas frecuentes especifica que inicié esa web en junio, y  la sección titulada «Diario» –que proclama: «Voy a ser completamente sincera sobre mi vida, aunque no quiero profundizar demasiado en pensamientos personales»– muestra entradas solo hasta el mes de octubre. Una de esas entradas empieza así: «Hace tanto CALOR fuera, y no soy capaz de contar cuántas bellotas me han caído en la cabeza, tal vez debido al agotamiento». Un poco más adelante, escribí, en un tono más bien profético: «¡Me estoy volviendo loca! ¡Soy una adicta a Internet!».

«La historia de cómo Jia se hizo adicta a Internet» | Jia Tolentino

En 1999, pasar todo el día enganchada a Internet era otra cosa. Era así para todo el mundo, no solo para una niña de diez años: era la época de You’ve Got Mail, cuando se tenía la impresión de que lo peor que podía pasar en Internet era que te enamorases de tu rival en los negocios. En los ochenta y los noventa, la gente se reunía en foros abiertos de Internet, atraídos, como si fuesen mariposas, por los charcos y las flores que formaban la curiosidad y la experiencia de los otros. Grupos autorregulados como Usenet proponían animados debates de supuesto interés general sobre la conquista del espacio, meteorología, recetas de cocina y discos raros. Los usuarios daban consejos, respondían a preguntas, hacían amistades y se preguntaban en qué acabaría convirtiéndose ese nuevo invento que era Internet.

Debido a que existían pocos motores de búsqueda y no había plataformas sociales centralizadas, los descubrimientos en la primera época de Internet tenían lugar en el ámbito de lo privado, y el placer que entrañaban suponía una recompensa solitaria. Un libro de 1995 titulado You Can Surf the Net!, proponía una lista de páginas web en las que podías leer críticas de películas o aprender artes marciales. Instaba a los lectores a seguir unas mínimas normas de etiqueta (no lo escribas todo en mayúsculas; no gastes el ancho de banda de otras personas, que es muy caro, publicando textos muy extensos) y los animaba a sentirse cómodos en ese nuevo mundo («No os preocupéis», aconsejaba el autor. «tendríais que hacerlo realmente mal para que os llamasen la atención.»). Por aquel entonces, GeoCities empezó a ofrecer la posibilidad de crear webs personales, tanto para padres que quisiesen hablar de golf, como para hijos que deseasen erigir brillantes santuarios a Tolkien o a Ricky Martin o a los unicornios; la mayoría de esas páginas se remataban con un primitivo libro de invitados y un contador de visitas verde y negro. GeoCities, al igual que la propia red de redes, era torpe, fea, funcionaba solo a medias y se organizaba por barrios: /area51/ para amantes de la ciencia ficción, /westhollywoodland/ para la vida LGTBI, /enchantedforest/ para niños, /petsburgh/ para mascotas. Si salías de GeoCities podías darte una vuelta por otras calles de esa ciudad de curiosidades siempre en expansión. Podías pasarte por Expage o Angelfire, como hacía yo, y detenerte un rato en la carretera en la que bailaban los dibujos animados de hamsters diminutos. Se trataba de una estética emergente: texto parpadeante, animaciones sin pulir. Si encontrabas algo que te gustase, si querías pasar más tiempo en cualquiera de esos barrios, podías construir tu propio hogar en el marco HTML y empezar a decorar.

A ese periodo de Internet se le ha denominado Web 1.0; un nombre que funciona en retrospectiva a partir del término Web 2.0, acuñado por la escritora y diseñadora de experiencias para usuarios Darcy DiNucci en un artículo titulado «Fragmented Future», publicado en 1999. «Internet, tal como lo conocemos ahora», escribió, «que se carga en una ventana del navegador en pantallas esencialmente estáticas, es tan solo el embrión del Internet que está por venir. Los primeros retazos de la Web 2.0 están empezando a aparecer… La web será entendida no como pantallas llenas de texto y gráficos sino como un mecanismo de transporte, el éter gracias al cual tiene lugar la interactividad.» En la Web 2.0 las estructuras serían dinámicas, predijo: en lugar de casas, las páginas web serán portales en los que podrá mostrarse una cambiante corriente de actividad; actualizaciones de estatus, fotografías. Todo lo que hagas en Internet se entrelazará con lo que hagan todos los demás, y las cosas que les gusten a otras personas serán lo que tu veas. Las plataformas Web 2.0, como Blogger o Myspace, hicieron posible que personas que hasta ahora habían sido meras observadoras, contemplando su pantalla, comenzaran a generar sus propios escenarios personalizados en cambio constante. A medida que más y más gente empezó a registrar su existencia digitalmente, el pasatiempo se convirtió en un imperativo: había que registrarse digitalmente para existir.

Un artículo de Rebecca Mead publicado en el año 2000 en la revista The New Yorker elaboraba un perfil de Meg Hourihan, una de las primeras blogueras conocida por su blog Megnut. En los primeros dieciocho meses, señalaba Mead, el número de blogs había pasado de cincuenta a varios miles, y blogs como Megnut tenían miles de visitas al día. Este nuevo Internet era social («un blog consiste principalmente en links a otras páginas web y en comentarios sobre esos links») pero centrado en la identidad individual (los lectores de Megnut sabían que a ella le hubiera gustado que hubiese mejores tacos de pescado en San Francisco, y que era feminista y que tenía buena relación con su madre). La blogosfera también estaba plagada de transacciones, que tendían a hacer eco y a intensificarse. La «audiencia principal para los blogs son otros blogueros», escribió Mead. Las normas de cortesía exigían que «si alguien en su blog escribe sobre tu blog, tú también escribas sobre el suyo».

A medida que los blogs fueron ganando relevancia, las vidas privadas pasaron a convertirse en dominio público, y los incentivos sociales –gustar, ser visto– se transformaron en económicos. Los mecanismos de exposición de Internet empezaron a parecer un modo viable de crearse una carrera. Hourian fundó Blogger junto a Evan Williams, que posteriormente creó Twitter. JenniCam, fundada en 1996 cuando la universitaria Jennifer Ringley empezó a colgar fotos de su dormitorio en la residencia de estudiantes, llegó a atraer más de cuatro millones de visitas diarias, algunas de los cuales pagaban una suscripción para poder descargar con mayor rapidez las imágenes. Internet, que prometía un público potencialmente ilimitado, empezó a ser entendido como el lugar natural para expresarse personalmente. En una de las entradas de su blog, el novio de Megnut, el bloguero Jason Kottke, se preguntaba por qué no le parecía suficiente limitarse a escribir sus pensamientos de manera privada. «No sé por qué, eso ahora me parece extraño», escribió. «La red es el lugar adecuado para expresar tus ideas y sentimientos y esa clase de cosas. Escribirlas en cualquier otra parte parece absurdo.»

Poco a poco, más gente estuvo de acuerdo con él. La llamada a expresarse de un modo personal convirtió el pueblo que era Internet en una ciudad, que fue creciendo a cámara rápida, provocando que las conexiones sociales se expandiesen como neuronas en todas direcciones. Con diez años, yo cliqueaba en busca de otras páginas de Angelfire con GIFs de animales y preguntas sobre Smash Mouth. A los doce, escribía quinientas palabras al día en un LiveJournal público. Cuando cumplí quince, colgaba fotos mías en minifalda en Myspace. Con veinticinco, mi trabajo consistía en escribir textos que atrajesen, idealmente, a centenares de miles de extraños con cada post. Ahora tengo treinta y la mayor parte de mi vida está inextricablemente ligada a Internet, creando un incesante laberinto de conexiones forzosas; un infierno eléctrico, enfebrecido e invivible.

myspace.com, 2017 | Web Design Museum

Al igual que ocurrió con la transición de la Web 1.0 a la Web 2.0, el Internet social fue solidificándose poco a poco y, de repente, lo ocupaba todo. Podría decirse que el punto de inflexión tuvo lugar alrededor del año 2012. La gente estaba perdiendo el interés por Internet y empezó a articular una nueva serie de necedades. Facebook se había hecho tedioso, trivial y agotador. Instagram daba la impresión de ser mejor, pero no tardó en revelarse como un circo de tres pistas basado en la felicidad, la fama y el éxito. Twitter, a pesar de todas sus promesas discursivas, era donde todo el mundo tuiteaba quejándose de compañías aéreas y echando pestes sobre artículos escritos por otros para provocar que la gente echase pestes… El sueño de un yo mejor y más auténtico gracias a Internet parecía esfumarse. Allí donde antes habíamos sido libres para ser nosotros mismos online, ahora nos sentíamos encadenados a nosotros mismos online, lo cual provocaba que fuésemos autoconscientes. Las plataformas que habían prometido conexión empezaron a inducir la enajenación a nivel masivo. La promesa de libertad que había supuesto Internet empezaba a ser entendida como algo cuyo mayor potencial residía en el reino del uso incorrecto.

A pesar de que nos hemos vuelto cada vez más tristes y desagradables en Internet , el espejismo de un posible yo mejorado en la red ha seguido resultándonos atractivo. En tanto que medio de comunicación, Internet se determina por un incentivo con rendimiento incorporado. En la vida real, puedes limitarte a vivir tu vida y resultar visible para unas cuantas personas. Pero en Internet no puedes simplemente ir por ahí para resultar visible: para que te vean tienes que actuar. Si lo que deseas es tener presencia en Internet, tienes que comunicarte. Debido a que las plataformas centrales de Internet están construidas en torno a perfiles personales, puede dar la impresión –en primera instancia a nivel mecánico y más adelante como una especie de instinto codificado– que el principal propósito de dicha comunicación es lograr que quedes bien. Los mecanismos de recompensa online desean con todas sus fuerzas sustituir a los que no están en la red, y después dejarlos atrás. Por eso todo el mundo intenta parecer tan estupendo y cosmopolita en Instagram; por eso todo el mundo parece tan engreído y triunfante en Facebook; por eso en Twitter hacer una declaración política virtuosa ha llegado a convertirse, para mucha gente, en un beneficio político en sí.

Dicha práctica suele denominarse postureo ético, un término usado por lo general por los conservadores para criticar a la izquierda. Pero el postureo ético es bipartidista, incluso podría definirse como apolítico. Twitter está infestado de dramáticas promesas de lealtad a la Segunda Enmienda que funcionan como postureo ético propio de la derecha; también puede considerarse postureo ético cuando la gente tuitea el número del teléfono de la esperanza tras la muerte de algún famoso. Pocos somos totalmente inmunes a esa práctica, pues topa con el deseo genuino de mostrarnos como seres políticos íntegros. Colgar fotos de las manifestaciones contra la separación de las familias en la frontera con México, como hice yo mientras escribía esto, es una acción que tiene un significado microscópico, es una muestra de auténticos principios, y también, inevitablemente, un intento tangencial de dar a entender que soy buena persona.

Llevándolo al extremo, el postureo ético ha comportado que la gente de izquierda se comporte de un modo realmente inestable. En junio de 2016, tras la muerte de un niño de dos años en un centro turístico Disney –se lo llevó a rastras un caimán mientras jugaba en una albufera en la que estaba prohibido bañarse– tuvo lugar un debate legendario. Una mujer, que había acumulado un total de diez mil seguidores en Twitter gracias a sus mensajes sobre justicia social, entendió que se trataba de una oportunidad estupenda para ella y tuiteó, con gran solemnidad: «Estoy tan harta de los privilegios de los hombres blancos, que ni siquiera siento pena por el hecho de que un caimán haya devorado a un niño de dos años debido a que su padre ignoró los carteles de advertencia». (La gente se le echó encima, burlándose de ella para demostrar así su supuesta superioridad moral; como también estoy haciendo yo aquí.) A principios de 2018 pasó algo similar con un tweet relacionado con una historia que se hizo viral: una gran ave marina blanca llamada Nigel había muerto junto al señuelo de cemento en forma de pájaro al que llevaba cortejando hacía años. Una tuitera encolerizada escribió: «Ni siquiera los pájaros de cemento tienen por qué darte afecto, Nigel», y añadió un largo texto en Facebook argumentando que el cortejo de Nigel al pájaro de cemento ejemplificaba… la cultura de la violación. «Estoy dispuesta a desarrollar la perspectiva feminista que puede tenerse de la muerte del albatros Nigel, en absoluto trágica, si alguien me lo pide», añadió debajo del tweet original, que recibió más de un millar de likes. Estas muestras desquiciadas, y su inquietante proximidad con la validación que se produce en la red, son casos de estudio sobre cómo nuestro mundo –digitalmente mediatizado, completamente consumido por el capitalismo– hace que resulte muy sencillo hablar sobre cuestiones morales pero muy difícil vivir según principios morales. No podrías usar una noticia sobre la muerte de un bebé para criticar los privilegios de los blancos si en nuestra sociedad el discurso sobre la justicia no llamase mucho más la atención del público que las condiciones necesarias para que la justicia sea posible.

En el ámbito de los conservadores, las actuaciones relativas a la identidad política en Internet han sido incluso más salvajes. En 2017, el grupo de jóvenes conservadores expertos en redes sociales Turning Point USA, inició una protesta contra la Kent State University de la mano de un estudiante que llevaba puesto un pañal para demostrar que los «lugares libres de polémica son para bebés». (Se convirtió en noticia viral, como pretendían, aunque no del modo en que la TPUSA había deseado: la gente se mofó de la protesta de forma unánime, y un usuario de Twitter enganchó el logo de la web porno Brazzers a la foto del chico con pañal. El coordinador de TPUSA en la Kent State University dimitió.) En cualquier caso, fue infinitamente más consecuente que una campaña a inicios de 2014 que acabó convirtiéndose en un esquema de actuación para la derecha en temas relacionados con Internet, cuando un amplio grupo de jóvenes misóginos se reunieron para llevar a cabo un acto que ahora se conoce como Gamergate.

El asunto en cuestión, por lo visto, consistía en que un grupo de personas creía que una diseñadora de videojuegos se acostaba con un periodista para recibir cobertura informativa favorable. Tanto ella como un grupo de escritoras y críticas feministas recibieron amenazas de violación y de muerte, y sufrieron también otras formas de acoso, todo bajo el presunto estandarte de la libertad de expresión y de la «ética en el mundo del periodismo sobre videojuegos». Los acosadores –la revista Deadspin calculó que se trataba de unas diez mil personas– rechazaron en su mayoría la versión de las mujeres, aludiendo repetitivamente a la mala fe de las demandantes o insistiendo en creer que el Gamergate se basaba en realidad en nobles ideales. Gawker Media, la compañía a la que pertenece Deadspin, acabó convirtiéndose en un objetivo también, en parte por su agresivo desdén hacia los integrantes del Gamergate: la compañía perdió más de un millón de dólares en ingresos publicitarios cuando los anunciantes se vieron en medio de la vorágine.

Damsel in Distress: Part 1 - Tropes vs Women in Video Games | Anita Sarkeesian | Feminist Frequency

En 2016, un fiasco similar se convirtió en noticia a nivel nacional, el Pizzagate, después de que unos cuantos internautas furibundos afirmaran haber encontrado mensajes cifrados sobre esclavitud sexual infantil en los anuncios de una pizzería relacionada con la campaña electoral de Hillary Clinton. La ultraderecha se encargó de propagar la teoría en redes, provocando un ataque generalizado a la pizzería Comet Ping Pong de Washington D.C. y a todas aquellas personas relacionadas con ese restaurante –todo en aras de combatir la pedofilia–, hasta que un día un hombre entró en el local disparando un arma creyendo que así salvaría a los niños. (Tiempo después, la misma facción saldría en defensa de Roy Moore, candidato republicano al Senado, acusado de abuso de menores.)

La izquierda más quisquillosa no se atrevería siquiera a soñar con semejante habilidad para transformar el sentido de justicia en un arma. Incluso los militantes del movimiento antifascista, conocidos como antifa, suelen ser repudiados por los centristas liberales, a pesar de que el movimiento antifa tiene sus raíces en la larga tradición europea de resistencia al nazismo, más que en la naciente constelación de mensajes radicales paranoicos que pueden encontrarse en los canales de YouTube. La visión del mundo de los integrantes del Gamergate o del Pizzagate se actualizó, y en cierto sentido se vio ampliada, en las elecciones de 2016; un acontecimiento que da a entender de manera inequívoca que ahora lo peor de Internet condiciona lo peor de la vida fuera de la red, no solo lo refleja.

Los medios de comunicación siempre han condicionado tanto la política como la cultura. La era Bush está inevitablemente ligada al fracaso de las cadenas de noticias por cable; los abusos ejecutivos de los años de Obama quedaron oscurecidos por la magnificación de la personalidad y el fingimiento en Internet; el ascenso de Trump al poder está unido a la existencia de las redes sociales que exasperan continuamente a sus usuarios con la intención de seguir ganando dinero. Pero últimamente me he estado preguntando por qué todo es tan íntimamente terrible, y cuál es el motivo exacto para que sigamos añadiendo nuestro granito de arena a todo ello. ¿Qué circunstancias provocaron que una enorme cantidad de gente empezásemos a pasar la mayor parte de nuestro escaso tiempo libre en un entorno abiertamente tortuoso? ¿Cómo es posible que Internet se haya convertido en algo tan malo, tan restringido, tan ineludiblemente personal, y tan determinante a nivel político? ¿Y por qué todas estas preguntas remiten a la misma cuestión?

Tengo que admitir que no estoy segura de que esta indagación resulte siquiera productiva. Internet nos recuerda todos los días que no resulta en absoluto reconfortante ser consciente de problemas que no tienes esperanzas razonables de resolver. Y lo que es aún más importante, Internet es lo que es. Se ha convertido en el órgano central de la vida contemporánea. Ha reseteado los cerebros de sus usuarios, devolviéndonos a un estado de hiperactividad y distracción primitivo al tiempo que nos sobrecarga con muchos más impulsos sensoriales de lo que era posible en épocas anteriores. Ha construido un ecosistema que funciona a base de concentrar la atención y de sacarle rendimiento al yo. Incluso aunque evites totalmente Internet –mi pareja lo hace: cree que #tbt significa «truth be told» («la verdad sea dicha»)–, vives en el mundo que ha creado Internet, un mundo en el que el individualismo se ha convertido en el último recurso natural del capitalismo, un mundo cuyas normas las dictan plataformas centralizadas que se han establecido deliberadamente como entidades a las que resulta prácticamente imposible regular o controlar.

Internet también forma parte, en buena medida y de manera inextricable, de las cosas que nos resultan placenteras: nuestros amigos, nuestros familiares, nuestras comunidades, nuestra búsqueda de la felicidad y –a veces, si tenemos suerte– nuestro trabajo. En parte con la voluntad de preservar aquello que merece la pena entre la decadencia que nos rodea, he estado pensando en cinco problemas interrelacionados: primero, cómo Internet está pensado para expandir nuestro sentido de la identidad; segundo, cómo nos anima a sobrevalorar nuestras opiniones; tercero, cómo amplia nuestro sentido de oposición; cuarto, cómo malbarata nuestra comprensión de la solidaridad; y, finalmente, cómo destruye nuestro sentido de la proporción.

 

En 1959, el sociólogo Erving Goffman desarrolló una teoría sobre la identidad que giraba en torno al hecho de fingir. En toda interacción humana, escribió en The Presentation of Self in Everyday Life, las personas llevan a cabo una especie de actuación para crear una impresión ante un público. La actuación puede ser calculada, como aquel que va a presentarse a una entrevista de trabajo y practica todas las posibles respuestas; puede ser inconsciente, como aquel que se ha presentado a tantas entrevistas de trabajo que se comporta tal como se espera de él de manera natural; puede ser automática, como aquel que provoca la impresión correcta principalmente porque es un hombre blanco de clase media alta y tiene un MBA. El que actúa puede verse totalmente absorbido por su propia actuación –puede acabar creyendo que su mayor defecto es el «perfeccionismo»– o saber perfectamente que está fingiendo. Pero, sea como sea, está actuando. Incluso si deja de intentar actuar, seguirá teniendo un público, sus actos seguirán creando un efecto. «No podemos decir que el mundo al completo sea un escenario, obviamente, pero los modos cruciales en los que no lo es no son fáciles de especificar», escribió Goffman.

Erving Goffman and the Performed Self | BBC Radio 4

Transmitir una identidad requiere cierto grado de autoengaño. El que actúa, dado que lo que pretende es convencer, tiene que ocultar «los hechos desagradables que ha tenido que aprender sobre el hecho de actuar. En términos coloquiales, habrá cosas que sabe, o que sabía, que no podrá decirse a sí mismo». La persona a la que están entrevistando, por ejemplo, evitará pensar que su mayor defecto, en realidad, tiene que ver con beber alcohol en la oficina. Esa amiga que está sentada cenando contigo, a la que has llamado para que te haga de terapeuta debido a tus triviales rollos románticos, tiene que engañarse pensando que no preferiría irse a casa y tumbarse en la cama para leer un libro de Barbara Pym. No tiene por qué haber un público físicamente presente para que el que actúa se vea inmerso en una especie de proceso de ocultamiento selectivo: una mujer, sola en su casa durante el fin de semana, podría fregar los zócalos de su casa y ver documentales de animales a pesar de preferir romperlo todo, comprar un par de gramos de coca y participar en una orgía anunciada en Craigslist. La gente suele hacer muecas, aunque esté sola, frente al espejo del lavabo, para convencerse de que es atractiva. La «vívida sensación de que existe un público invisible», escribe Goffman, puede causar un efecto significativo.

Fuera de Internet, existen formas de alivio integradas en ese proceso. El público cambia: la actuación que llevas a cabo en una entrevista de trabajo no es igual que la que realizas horas después en un restaurante en la fiesta de cumpleaños de un amigo, que también es diferente de la que despliegas ante tu pareja en casa. Es posible que en casa sientas que puedes dejar de actuar; según el esquema teatral de Goffman, es posible que te sientas como si estuvieses entre bambalinas. Goffman indica que necesitamos, en igual medida, un público que sea testigo de nuestras actuaciones y unas bambalinas en las que poder relajarnos, por lo general acompañados de «compañeros» que han estado actuando junto a nosotros. Piensa en los compañeros de trabajo en el bar después de haber conseguido una venta importante, o en la novia y el novio en la habitación del hotel después de la ceremonia de boda: todo el mundo sigue actuando, pero ellos se sienten cómodos, espontáneos, a solas. A un nivel ideal, el público que está fuera habrá creído la actuación principal. Los invitados a la boda pensarán que han visto a unos recién casados perfectos y felices, y los potenciales patrocinadores de una empresa pensarán que han conocido a un grupo de genios que les van a hacer ricos. «Pero esa imputación –ese yo– es el fruto de una situación dada, no la causa de la misma», escribe Goffman. El yo no es algo fijo, algo orgánico, sino el dramático efecto que emerge de una actuación. Ese efecto puede creerse o no creerse, a voluntad.

En la red –dando por hecho que aceptas el marco antes referido– el sistema hace metástasis hasta ser un naufragio. La presentación cotidiana del yo en Internet sigue respondiendo a la metáfora sobre la actuación de Goffman: hay escenarios, hay un público. Pero Internet añade otras estructuras metafóricas pesadillescas: el espejo, el eco, el panóptico. Mientras nos movemos en Internet, nuestros datos personales son rastreados, grabados y revendidos por toda una serie de compañías; un régimen de vigilancia tecnológica involuntario que, de manera subconsciente, reduce nuestra resistencia a llevar a cabo un autocontrol personal voluntario en las redes sociales. Si tenemos pensado comprar algo, ese algo nos va a seguir a todas partes. Podemos limitar nuestra actividad en la red, y seguramente lo hacemos, a páginas web que fortalezcan nuestro sentido de identidad, leyendo textos escritos por gente como nosotros. En las plataformas de las redes sociales, todo lo que vemos corresponde a nuestras elecciones conscientes y a las preferencias escogidas por algoritmos, y todas las noticias y los aspectos culturales y las interacciones interpersonales son filtradas a través de los datos básicos del perfil. La locura cotidiana perpetuada por Internet es la locura que conforma ese diseño arquitectónico, que ubica la identidad personal en el centro del universo. Como si nos hubiesen colocado en un puesto de observación desde el que se tiene una panorámica del mundo al completo y nos hubiesen entregado unos prismáticos que convirtiesen todo lo que vemos en un reflejo de nosotros mismos. Gracias a las redes sociales, mucha gente no tarda en entender toda la información nueva como una especie de comentario directo sobre quiénes son.

Advertising Hazards: Your Attention is a Commodity That Can Be Manipulated | Tim Wu | Big Think

El sistema persiste porque resulta rentable. Como escribe Tim Wu en The Attention Merchants, el comercio ha ido permeando lentamente en la existencia humana: haciendo acto de presencia en las calles de nuestras ciudades en el siglo XIX a través de carteles, después en nuestras casas en el siglo XX a través de la radio y la televisión. Ahora, en el siglo XXI, en lo que parece ser, de algún modo, la fase final de ese proceso, el comercio se ha filtrado en nuestras identidades y nuestras relaciones personales. Generamos miles de millones de dólares a las plataformas de redes sociales gracias a nuestro deseo –del que se deriva una exigencia económica y cultural cada vez mayor– de replicar para Internet aquello que creemos ser, aquello que queremos ser y aquellos a los que conocemos.

Nuestra individualidad cede bajo el peso de dicha importancia comercial. En espacios físicos reales, el público es limitado y el tiempo se adapta a las diferentes actuaciones. En la red, tu público, a un nivel hipotético, puede crecer eternamente y tu actuación no tiene por qué tener fin. (En esencia, puede ser como si afrontases una entrevista de trabajo perpetua.) En la vida real, el éxito o el fracaso de esa actuación individual por lo general se valora en relación a una acción física concreta: te invitan a una cena, o pierdes un amigo, o consigues un trabajo. En Internet, una actuación queda atrapada en el nebuloso territorio de las opiniones, a través de una imparable corriente de corazones y likes y bolas con ojos, agregados en números junto a tu nombre. Y lo peor de todo es que, esencialmente, en Internet no hay bambalinas; fuera de la red, el público inevitablemente se va y cambia, pero en Internet el público nunca tiene por qué marcharse. La versión de ti que cuelga memes y selfis para los compañeros de tu clase de álgebra puede acabar discutiendo acaloradamente con la administración Trump después de un tiroteo en una escuela, como le ocurrió a los chicos de Parkland; algunos de ellos se hicieron tan famosos que no han podido dejar de actuar. El yo que intercambia chistes con los supremacistas blancos en Twitter es el yo al que pueden contratar, y después despedir, en The New York Times; como le ocurrió a Quinn Norton en 2018. (O, en el caso de Sarah Jeong, el yo que hace chistes sobre blancos puede convertirse en objetivo de los integrantes del Gamergate tras ser contratada por el Times pocos meses antes.) La gente que tiene un perfil público en Internet está creando un yo que van a poder ver, al mismo tiempo, su madre, su jefe, sus potenciales futuros jefes, su sobrino de once años, sus antiguas parejas, sus futuros ex, aquellos conocidos que odian sus opiniones políticas, así como todos aquellos que andan buscando cualquier causa posible. La identidad, según Goffman, la conforman toda una serie de afirmaciones y promesas. En Internet, una persona altamente funcional es aquella que puede prometerlo todo a un público que crece de manera indefinida en todo momento.

Incidentes como el Gamergate son consecuencia, como mínimo en parte, de la hipervisibilidad. El aumento de trolls, y su distintivo anonimato y falta de respeto, ha sido tan llamativo porque, en parte, la insistencia de Internet en el hecho de disponer de una identidad consistente y merecedora de aprobación es muy potente. La misoginia asociada a trolear, en particular, da a entender el modo en que las mujeres –a las que, según Jonh Berger, siempre se les ha exigido que fuesen conscientes, de cara al exterior, de su propia identidad– suelen manejar los condicionantes de Internet de manera muy provechosa. Es la capacidad para calibrarme que aprendí siendo niña, y también siendo mujer, lo que me ha ayudado a capitalizar el hecho de «tener que» estar conectada a Internet. Mi única experiencia sobre el mundo dicta que el atractivo personal es fundamental y que exponerse es algo deseable; ese paradigma, legítimamente desafortunado, relacionado en un principio con las mujeres y ahora generalizado en la red, es lo que los trolls detestan y repudian de manera activa. Desestabilizan un Internet basado en la trasparencia y en la simpatía. Nos empujan hacia lo caótico y lo desconocido.

Como es lógico, existen mejores argumentos contra la hipervisibilidad que el troleo. Como declaró Werner Herzog en GQ en 2001 respecto al psicoanálisis: «Tenemos que tener lugares oscuros e inexplicados. Nos convertiremos en seres inhabitables, del mismo modo en que puede resultar inhabitable un apartamento si iluminamos todos los rincones oscuros y también bajo la mesa y por todas partes. Es imposible seguir viviendo en una casa así.»





Comunismo del lujo y automatización

¿Es posible un mundo en el que los robots lo hagan todo mientras nosotros disfrutamos de la vida? Nos planteamos cómo nos afectará la automatización a partir del libro «Fully Automated Luxury Communism. A Manifesto», de Aaron Bastani.


Pasajeros hablando o leyendo en un vagón. c 1905 | George R. Lawrence, Library of Congress | Dominio público

Nadie duda de las transformaciones en el ámbito de la automatización: en el 2020 llegaremos a los tres millones de robots industriales. Fully Automated Luxury Communism plantea que los robots lo hagan todo mientras los humanos disfrutamos de los frutos de su trabajo en la misma medida: justicia social y abundancia ilimitada. A partir de la obra de Aaron Bastani, nos planteamos qué tipo de automatización se nos impone, y cuál podría ser deseable.

Cuando uno oye o lee acerca de algo llamado luxury communism no puede sino prestar interés, porque, aunque parezca una expresión excéntrica, engarza una serie de tradiciones y prácticas críticas que vinculan la emancipación con la abundancia, entendida como una vida cualitativamente rica que es puesta en común. Es lo que en secreto prometían el llamado «nietzscheanismo de izquierdas» o las tendencias marxistas más libres. Ciudades utópicas como New Babylon, en Constant, son algunas de las ruinas más conocidas de ese fascinante futuro revolucionario que no llegó. Sin embargo, el eco intempestivo de la pulsión que las movía, a saber, el deseo de una vida no sometida al resentimiento y la servidumbre de una escasez material y vital, resuena aún. De ahí que, mientras los nuevos tecnomonarcas fantasean con cosas como construir ciudades-estado en el mar, uno acoja las noticias sobre el Fully Automated Luxury Communism (FALC) con expectación, aunque solo sea para sospechar rápidamente de ellas.

Siendo muy breves, los antecedentes y el contexto inmediato del FALC son al menos dos: por un lado, el aceleracionismo de izquierdas, cuya expresión política paradigmática se puede hallar en obras como Inventing the Future, de Nick Srnicek y Alex Williams (aquí su manifiesto); por el otro, en el ámbito histórico, la crisis del modelo neoliberal y el ciclo de luchas más reciente (de plaza Tahrir a las revueltas globales contemporáneas), acompañados del simultáneo despliegue de una serie de revoluciones tecnocientíficas que Bastani agrupa bajo el término «tercera disrupción». El argumento central recrea el «fragmento de las máquinas» de Marx y afirma que estas transformaciones procurarán, mediante la automatización de los procesos productivos, un suministro extremo de riquezas (extreme supply). Según Bastani, podemos hallar indicadores de cierto agotamiento del capitalismo y de una potencial ruptura gracias a los efectos de la automatización, como indica la tendencia a la reducción del coste marginal, que hará que todo pueda ser gratuito en un futuro cercano.

En ese sentido, es una fervorosa respuesta al «realismo capitalista» y al conocido mantra tatcheriano del «no hay alternativa». Prolonga la crítica al inmediatismo e inmanentismo político que Nick Srnicek y Alex Williams llaman «folk politics» para designar formas de luchas políticas incapaces de proyectar un futuro emancipador, lo que conduce a un cul-de-sac anárquico e impotente. Para Srnicek y Williams, se ha de retornar a los «archirelatos» de la modernidad, para abordar lo político desde una posición que encarne el resto de posiciones (idea que resuena en otros entornos militantes), y restaurar la mediación institucional y estatal con el fin de proyectar objetivos estratégicos universales. El FALC de Bastani es esa estrategia de objetivos a gran escala. Una alternativa que presenta «una realidad de plenitud más allá de toda imaginación».

Que las transformaciones en el ámbito de la automatización son fuertes parece estar más allá de toda duda (lo saben los de arriba y los de abajo), y esta sea quizá una de las razones por las que merece la pena leer el texto a modo de compendio. Por ejemplo, si en 1970 había 1000 robots industriales en el mundo, en 2016 eran 1,8 millones, y en 2020 serán 3 millones, con un incremento exponencial de la productividad en casi todos los sectores (gracias a la curva de experiencia o experience curve). El desempleo tecnológico será, explica el autor, un escollo insuperable para el capital, y romperá el ciclo de acumulación por ausencia de consumidores.

¿Por qué la NASA envía una nave espacial a un mundo de metal? | Linda T. Elkins-Tanton | TED Ed

Desde el punto de vista energético, el potencial infinito del sol para proveer de energía será aprovechado en los mismos términos exponenciales, y hará que tecnologías como las celdas solares, las baterías de ion de litio, las turbinas de viento o los LEDs provean permanentemente de energía más barata. La minería interestelar explotará agua y minerales clave (gente como Jeff Bezos o Elon Musk trabajan ya en este sentido), aunque la tendencia apunta a la completa descarbonización y la completa reutilización de los minerales ya existentes. En todo caso, asteroides como el 16 Psyche son ejemplos de la promesa de «una riqueza más allá del valor», que hacen necesario el seguimiento de proyectos espaciales público-estatales.

La edición genética, mediante técnicas sencillas como CRISPR-Cas9, será también cada vez más accesible y ayudará a prevenir el VIH, la enfermedad de Huntington o la fibrosis quística, entre otras muchas enfermedades genéticas. Lo interesante no es solo su función curativa, sino también la ampliación de nuestras capacidades biológicas en general (stretched bio-capacity). El bricolaje genético se podrá socializar siguiendo modelos que han transformado otras industrias (como el P2P), lo que posibilitará la ruptura con el proteccionismo privatizador de las patentes y la propiedad intelectual. De ahí que la manipulación genética se extienda incluso a los animales de compañía. Todo ello habrá de ser objeto de un «vigoroso debate público» que, en último término, dará con las regulaciones adecuadas.

En palabras del autor, «tal como ocurre con Space X y la tecnología de cohetes, CRISPR-Cas9 no permite a los humanos hacer nada particularmente nuevo. Más bien ilustra cómo la información, queriendo ser libre, rompe con miradas mainstream sobre la escasez y hace posible el suministro extremo». En ese sentido, la agricultura molecular sigue la misma senda y es ya una realidad que podrá hacer que la alimentación de 9,6 billones de personas sea sostenible: los bistecs cultivados a partir de muestras de tejido animal, el pescado cultivado o la leche y los huevos cultivados de Clarafoods, por ejemplo, modificarán nuestra relación con la alimentación y facilitarán una dieta rica en productos animales sin las inconveniencias (ecológicas y morales) de la industria cárnica. El whisky y otras bebidas no son excepción (aunque los nostálgicos del vino podrán disfrutar más tiempo de su «pureza», debido a su infinidad de matices).

El inminente desastre ecológico (la «sexta extinción masiva» o la desaparición de un cuarto de los mamíferos) hace obligatoria la aceleración de una transición ecológica sostenible porque, paradójicamente, «no hay alternativa». Ahora bien, esta transición no debería basarse en un retorno a lo local, a «lo pequeño es bello», ya que su eficiencia es menor que la articulación global de estrategias de transformación ecológica. La «postescasez», así como la transición ecológica, irán acompañadas de una transformación sociopolítica en clave populista que, además de ser capaz de definir lo que «el pueblo realmente es» (sic), pivotará sobre cuatro ejes organizativos.

Por un lado, un cooperativismo obrero y un municipalismo proteccionista que determinarán los criterios de la contratación según parámetros cooperativistas y ecológicos. Ambos ejes se darán en el contexto más amplio del retorno del Estado-nación, que renacionalizará la mayoría de servicios básicos gratuitos («la acción efectiva solo puede venir a través de estados-nación») y procurará «unas finanzas socialmente controladas» (i. e., bancos de inversión energética nacional). Para que el desarrollo incluya el sur global, el cuarto eje lo constituirá un internacionalismo antiglobalista que, mediante instituciones a crear como el International Bank for Energy Prosperity y el One Planet Tax, extenderá la postescasez al conjunto del planeta.

Siendo justos, la exposición de Bastani es más precisa y extensa; rica en el sentido de una puesta al día de las posibilidades tecnológicas, y acierta en que las masas populares serán protagonistas de las luchas futuras (sean en su versión fascistoide, elitista o igualitaria). Lo que preocupa, sin embargo, no es tanto su ambición y fascinación (que uno puede llegar a compartir), sino la ausencia de una propuesta teórica más elaborada. Bastani afirma que la revolución será roja y verde. Se le antoja a uno que el luxury communism debería tener más colores. Y no como un apéndice o suplemento con el que rindamos cuentas en secreto, sino como aquello que a modo de premisa debería marcar la reflexión en torno a la automatización.

Atlas, la próxima generación | BostonDynamics

Bastani se protege de lo que serán las potenciales críticas a su entusiasmo utópico, incapaces de ser propositivas. Pero la compulsión propositiva contrasta con la completa falta de diálogo (por olvido o prudencia) en relación con problemas como la reproducción social, entre otros. Autoras como Silvia Federici han criticado el «continuado affaire amoroso con el “fragmento de las máquinas” de Marx» (Revolution at Point Zero). Propuestas próximas, como la política de la alienación xenofeminista (sensible, por cierto, al problema de la diferencia), así como el debate más amplio en torno a un universal no eurocéntrico, implican una reflexión más exigente, incluso en un manifiesto. No basta con decir que el Estado-nación retorna por la necesidad que impone «su rápida y efectiva acción» contra la impotencia del localismo y el culto al globalismo, porque «es hora de hacer historia nuevamente». La afirmación de que «la cuestión no es cambiar las palabras que usamos sino la realidad que designan» se antoja insuficiente. Y no tanto por una compulsión anti-institucional, retórica o «inmediatista». Simplemente resulta asombroso que Bastani celebre la espectacular curva de desarrollo de compañías como Boston Dynamics sin reparar en nada más. Siendo breves, el proyecto de la postescasez mediante la automatización requiere a su vez una reflexión crítica en torno a la propia automatización.

Aunque Bastani afirme que el comunismo «será lujoso o no será» y que una vida de abundancia difuminará «la diferencia entre lo útil y lo bello», y a pesar, también, de haber acompañado su obra de interesantes citas de poetas y artistas, encontramos pocos rastros de una actitud experimental en su manifiesto: su afán por demostrar cuantitativa y técnicamente la viabilidad de una alternativa al capitalismo (con el recurso incesante de cálculos monetarios) da a su texto un aire alternativista y tecnocrático.

La ausencia de la Internacional Situacionista en el debate en torno al post-trabajo es intrigante, aunque lo dicho sobre el Estado pueda explicarlo. Casi sesenta años después de su publicación, un texto como Los situacionistas y la automatización, del pintor situacionista Asger Jorn, resulta aún brillante. Jorn defiende, contra los tecnócratas y sociólogos que prefieren «establecer la automatización primero para después decidir su uso», que la automatización ha de ser implantada «según una finalidad contraria a su propio establecimiento». Es decir, entre el «derrotismo» y el «optimismo idiota» apuesta, no tanto por una abundancia «más allá de toda imaginación» (Bastani), sino por una «imaginación activa» que pueda «superar la realización de la automatización misma» (Jorn). La pregunta política determinante, por tanto, para evitar que el futuro se convierta en la hipertrofia de las bajezas del presente, no pasa por saber si la automatización es posible o no, sino por una reflexión que no posponga la pregunta en torno a qué tipos de automatización deseamos y somos capaces de imaginar. Lo cual implica cuestionar, más allá de su acelerada inevitabilidad, las premisas sobre las que se sostiene la automatización tal como se nos impone hoy.

Cuando estalló la revolución de 1917, un poeta de apellido Gástev se apresuró en introducir el taylorismo con un ímpetu que nada tenía a envidiar al más ambicioso empresario americano, hasta convencer a un Lenin reticente de sus virtudes. Lo que nos preguntamos es si la automatización del siglo XXI encontrará a sus artistas y pensadores antes de toparse con aquellos que, en nombre de la urgencia, han decidido dejar la poesía para más tarde.





Fuera de línea

Proponemos a varios autores una aproximación libre, textual y sin enlaces a la idea de desconexión y adicción tecnológica.


Niño en un columpio. Caldwell, Idaho, 1941 | Russell Lee, Library of Congress | Dominio público

En el año 2012, el periodista especializado en tecnología Paul Miller se desconectó de Internet durante un año. En aquel momento a algunos nos pareció una exageración: estábamos en pleno apogeo del momento 2.0 y de la exaltación de la inteligencia colectiva. Casi una década después ya hemos descubierto las luces y las sombras de la red, y se impone la crítica de la parte más oscura del capitalismo cognitivo y la economía de la atención. Así que, inspirados por la posible (o imposible) desconexión, hemos pedido a ochocolaboradores su opinión sobre el tema. Estos textos han servido para alimentar una red neuronal que también ha generado su propia respuesta.

  1. Muertos vivientes, de Anna Pacheco
  2. Estar conectado o desconectar, de Efraín Foglia
  3. Brevísima guía para una dieta digital saludable, de Felipe G. Gil
  4. Pájaro, dios, nube, de Irene Solà
  5. Reconectar, de Jorge Carrión
  6. B-I, de Libby Heaney
  7. Des…, de Liliana Arroyo
  8. El peso falso, de Maria Cabrera Callís
  9. El Mal Alumne, de Estampa

 

Muertos vivientes

Anna Pacheco

¿Qué pasa cuando alguien que está muerto abandona un grupo de WhatsApp? ¿Qué mecanismo se activa? ¿Qué tipo tristeza (una nueva, seguro) acompaña necesariamente la idea de que alguien que no está se marche activamente de un lugar que solo existe virtualmente? La lógica nos lleva a pensar que un muerto abandona un grupo cuando un vivo le da de baja de su línea telefónica. Y pueden pasar meses, hasta que los vivos se reponen del susto y del miedo por la ausencia del ser querido. En mi caso pasaron cuatro meses y cuando sucedió, el impacto fue gravísimo. Nos enteramos por ese texto estandarizado que aparece para informarte de que tal persona ha abandonado tal grupo. La mayoría no atinamos a responder ni a reaccionar, ni con palabras ni con símbolos. Solo una persona se animó a contestar con el emoticono al que le sobresale una lagrimilla + el corazón partido. El gesto era comprensible, pero el conjunto resultaba bastante vulgar. Nadie dijo nada más ni tampoco pudo mejorarlo. El momento se barrió al cabo de veinte minutos con un tema más o menos casual. Alguien dijo «no encuentro las llaves de mi moto» o algo así. Otro alguien compartió, luego, el enlace de una noticia y la imagen de un plato de comida. Me generó un nuevo dolor. Otro impulso más o menos natural es desplazarte a todos los espacios virtuales donde el muerto sigue vivo, a su manera. 450 fotos en Instagram, 150 tuits, el historial de conversación de Facebook donde la persona te contaba cosas. A esos espacios virtuales y ahora funerarios vuelvo cada vez que pienso en el muerto, que es más o menos cada día. Vuelvo con una fe renovada y la honda tristeza de saber que siempre encontraré algo nuevo, algo que me había perdido, algo que no sabía: tengo la necesidad de recopilar toda la información de alguien que ya no generará más. Sus datos públicos son valiosos porque son, para mí, una conexión inmediata con lo vivo.

 

Estar conectado o desconectar

Efraín Foglia

El capitalismo se perfecciona para que cada conexión a la Red produzca activos. Cada clic genera valor. Internet se convierte en un organismo tecno-biológico extractivista de la vida. La Red nos muestra su oscuridad y perversión. El odio se multiplica en las redes y los ataques de racismo y supremacismo crecen. Todo invita a desconectarse. La desconexión a Internet debe ser un derecho fundamental.

Lo que no se puede olvidar es que la Red no era de ellos, de los infames. Desconectar por miedo es como perder una calle de la ciudad por la que ya no quieres caminar por ser violenta. Es un trozo perdido de la ciudad por el que no se luchó. Hay personas que han luchado para que no seamos expulsados de la Red y para que sea un lugar más justo. Ahora el injusto poder los desconecta de la vida. Toca decidir: seguir conectados en resistencia o desconectar. «Lo que yo amo es la conexión, y es eso en lo que más creo: la conexión humana y las tecnologías con las que se alcanza.» Edward Snowden (2019). #PermanentRecord #FreeAssange

 

Brevísima guía para una dieta digital saludable

Felipe G. Gil

Se habla mucho acerca de la toxicidad de las redes sociales e Internet cuando pensamos en el uso que hacemos de la tecnología. Hay dos metáforas muy mundanas que a mi me sirven para articular una relación sana con Internet. La primera es la del cuchillo.

Un cuchillo es una herramienta necesaria en una cocina. Es necesario para trocear los alimentos, para hacerlos accesibles para poder ingerirlos. Pero un cuchillo puede cortar. Puede servir incluso para matar a una persona. Por eso creo que es importante empezar a diferenciar el uso que hacemos de una herramienta de la herramienta per se. La herramienta está aquí y ha venido para quedarse. Lo que tenemos que debatir es qué uso hacemos de ella. Y en ese sentido, todos los usos que sirvan no para hacer daño sino para facilitarnos la vida, para defender valores que son universales como la equidad, la diversidad, etc.,son los que tenemos que favorecer. Internet es un cuchillo que debemos usar para cortar racismo, machismo, xenofobia, etc.

La otra analogía que me sirve mucho es la del riego. En muchas ocasiones se piensa en términos absolutos nuestra relación con las redes: estar o no estar conectados. Nadie riega una planta con más agua de la que necesita al día porque también puede ser nocivo. Con Internet y el uso que hacemos de la tecnología sucede lo mismo: un riego constante y contenido puede ser más saludable que la sequía más absoluta o el exceso de agua. No debe dejar de fomentarse la desconexión temporal o el uso controlado. Pero creo que hay que encontrar un equilibrio entre hiperconectarse y hacer que nuestra identidad dependa por completo de las redes e Internet (exceso de agua) o desconectarse por completo y generar un desapego que puede ser antinatural (sequía absoluta).

 

Pájaro, dios, nube

Irene Solà

Se podrían defender encarnizadamente las problemáticas que van de la mano de las posibilidades de ser prácticamente en todos lados, de saberlo prácticamente todo, de responder, instantáneamente, también superficialmente, cualquier duda, de saciar todas las curiosidades, de establecer conexiones con una infinidad de puntos. Podríamos hablar de las consecuencias desastrosas que esto puede conllevar en cuanto a nuestra capacidad de concentración, de profundización, de pensamiento crítico, incluso de empatía. Pero no he entrado en este jardín para meterme en estos zarzales, sino para comentar, como quien recoge moras sin apenas rasguñarse, que, a escala personal y sobretodo creativa, esta herramienta todo sabedora y todopoderosa, no filtrada, unificadora de todo y desunificadora a la par, omnipresente, adictiva y asediadora, con sus profundísimas oscuridades, que es Internet, resulta clave. Clave para algunos creadores. No para todos, claro está. Pero para mí, por ejemplo, sí. Porque nada de lo que escribo sería como es si no lo escribiera hoy, en este siglo, con un ordenador delante que, como un oráculo, como una bola mágica, como un espejo de agua, me muestra todo lo que quiero ver, me sacia la primera sed con una respuesta, una imagen, un sonido, un video, la capacidad momentánea de ser pájaro, dios, nube, de, por un instante, ver, entender, saber lo que no sé, lo que no aprendí, lo que olvidé, lo que no he visto ni vivido aún. Y me doy cuenta de que si usara métodos no digitales, tardaría días, semanas en recopilar todo lo que quiero saber ahora, mientras escribo, en ir y volver de la biblioteca o la librería, en conocer a ciertas personas, en hacer preguntas en voz alta, en ver con mis propios ojos como se hace un queso o como nacen los niños (aunque, de todas formas, estaría bien que las hiciera, viera y preguntara, todas estas cosas, eventualmente). Pero que, sin duda alguna, escribo como escribo por las posibilidades de acceso a la información desbordante, instantánea y desgarbada que Internet ofrece.

 

Reconectar

Jorge Carrión

El teléfono móvil lo puedes dejar sobre un mueble o cargándose o en casa; el reloj, la pulsera o la ropa sensorizados son menos externos, se insieren en la proximidad del individuo, cuando no en su intimidad. Mientras que el Internet de las cosas se perfila como una atmósfera inmersiva, envolvente, la variante vestible está pensada como una segunda piel. El sistema de la conexión va estrechando sus burbujas: es un asedio en toda regla.

Solamente desnudos, volando o dormidos nos desconectamos completamente. En la ducha, en la piscina, en el mar, en los aviones y en la cama. Pero esos espacios también van a ser asimilados con el tiempo, monitorizados, convertidos en datos. Porque de eso se trata: de medir y escanear todas y cada una de las actividades humanas.

Para luchar, aunque sea simbólicamente, contra esa expansión brutal del biocontrol geolocalizado, supongo que pronto se irán imponiendo protocolos de desconexión, por motivos políticos y también por razones higiénicas, de salud mental. Al menos durante un tiempo, mientras sea posible. Porque me parece obvio que el futuro es híbrido: cuando los sensores estén en el interior de los cuerpos ya no habrá modo de dejar de emitir datos las veinticuatro horas del día y en todos los entornos, urbanos o naturales. O tal vez sí. La historia del futuro es una sucesión de constataciones de que nuestras predicciones eran equivocadas.

Me doy cuenta ahora de que entre 2007 y 2012 escribí sobre todo acerca de la pantalla (en novelas como Los muertos y ensayos como Teleshakespeare) y que desde 2012 hasta ahora he escrito, en cambio, sobre el papel (Librerías, Barcelona. Libro de los pasajes, Contra Amazon). No creo que sea casual que esta última etapa haya coincidido con mi paternidad. Porque de eso se trata: de desconectarnos para reconectarnos. Con los cuerpos, con lo físico, con la primera piel.

 

B-I

Libby Heaney

(Todas las frases que siguen son cosas que la gente dijo en britbot, mi chatbot virtual que explora la britanicidad, y todas aparecen en mi libro B-X. Las elegí porque me parece que tienen relación con los temas anteriormente anunciados. La ortografía / puntuación / gramática no es mía.)

Porque forma menos parte de la sociedad. Tipos estrafalarios que opinan sobre cuerpos de mujeres, como siempre. Crear vínculos afectivos. Centrarse menos en las tetas al aire y más en temas como el cambio climático. ¿Puedo empezar de cero?

El colonialismo también ha jodido el planeta Mierda! Cada uno se toma el derecho penal por su cuenta sí Autolesión y ciber daños Lugar en decadencia Desarrollo de nuevas tecnologías que beneficien nuestra economía. Desconectados. ¿Te gustan mis algoritmos? ¿Vives experiencias? Igualdad salarial básica, e igualdad de tiempo de conexión La gente cada vez tenía más conocimientos y oportunidades Exacto tío Agotador Fantástico! Un enorme montón de enormes hembras No es para mí. Desde el principio desde el primer momento de su existencia Generalmente desagradable a la vista Bueno como nuevos desacuerdos en la vida en general pero no es muy realista ¡Buenas historias nuevas, hechos de la vida real y crowfunding! ¡Bien! Se han hecho mayores, más ricos y más iguales en cierto modo. ¡Los que van a matar lo odian! No tienen TV. Tiene unos cuantos programas en lenguas extranjeras que se emiten por Netflix Yo ya no miro la tele. Es un imbécil. Era un asediador incansable. Qué aburrimiento. Yo no acusé a nadie. Me encanta estar al aire libre y los pedos que me tiro. Me parece que no me escuchas 😉 Pienso que hay una variedad increíble de

 

Des…

Liliana Arroyo

conectar. Apagar la luz, bajar la música, salir del escaparate, huir del ruido. Alejar para enchufar. No me busques, no me encuentro. Ojos cerrados al bombardeo. Bip, bip, bop. 1456 notificaciones, y subiendo. Seguir, dejar de seguir. Me gusta. Me encanta. Te aplaudo. Me enfada. Y sigo tirando hacia abajo, más abajo. No termina, yo pienso. Sigo con el scroll, sin querer. Es eterno, yo creo. Pasó media hora, una hora, una tarde… Basta. Voy a dejar de mirar.

Pantalla apagada, noche oscura. Tengo que subir algo. Vamos, piensa. Algo que lo pete. Ya lo tengo: selfie #52 de la sesión casual. Con filtros. Naturales, por supuesto. Y esa etiqueta trendy para mi post original. Igual que los otros dos millones. Singularidad compartida, colección de genuinidades. Posteo, luego existo. Uf, colgado. ¿Ya está? Sí. Empieza la espiral.

Salgo, cuento hasta diez. Dejo espacio… reacciones, ¡venid! Segundos de abismo. Los lleno con temor. Miedo al silencio. Pavor a ser invisible. En mi cabeza retumba la angustia de la espera.  FOMO. FOMO. FOMO. Respiro, voy a entrar. Quiero likes… voy. Entro. Notificaciones, sí! Dopamina subiendo. Van 10, 30, 50, 200. Tormenta de likes. Pero… Oh, wait! ¿Dónde está mi crush?

 

El peso falso

Maria Cabrera Callís

El peso falso
con el que hinchas las ventas
luce, encima de la balanza,
como un diente de oro
en una boca enferma.

El peso falso que engordaba el engaño en la compra-venta, que estafaba a los clientes que volvían a sus casas más pobres, más sucios y más reducidos por el miedo y la injusticia de no saber ni de números ni de letra, ese peso falso que lucía, mudo y soberbio, encumbrado en la balanza, hoy nos lo hacemos nosotros mismos, trabajando abnegadamente para fabricarnos la sonrisa cosida en la cara y el lecho de paja sobre el que nos tumbamos, satisfechos después de la jornada, lasos, mansos y activamente ignorantes, para que nos chafe con su vientre de hierro.

Todo lo que no está
o que un día se perdió
se hincha y crece se hincha y crece
como un pez muerto
flotando en el agua
hasta convertirse
en la única verdad posible.

El dato falso que nos crece por dentro, tenaz y subcutáneo, ciego y testarudo como un topo, escarbando hasta convertirse en la única vena transitable, el único tejido, el único lenguaje. El cielo estará lleno de estrellas, sí, pero vuela más bajo que nunca, abultado de vientre, a ras de tierra, al alcance de cualquier red. La verdad es un bitcoin que ya no suena en los bolsillos.

 

El Mal Alumne

Estampa

El Mal Alumne es una red neuronal de aprendizaje profundo de Estampa, a quien entrenamos con todos los textos del blog en catalán, más todos los textos que los anteriores autores escribieron a propósito de esta serie. Este fue el resultado.

Debemos desconectarnos de las redes sociales y desconectarnos del día con aire acondicionado. Los datos se publican en una atmósfera inmersiva, instantánea y perfiladora. Cada clic se trocea de la conexión. Los clics se desbordan los unos a los otros y los adultos empiezan a disolverse en la electricidad. Pero pueden tardar meses, resistir.

Internet tiene, cual espejo negro, nuestra capacidad de concentración y proximidad. La red es un centro de datos, un lugar de datos, un lugar o un tobogán, en el que la relación personal y colectiva se genera en poco tiempo y el sistema se coloca encima de la mesa. Internet es un montaje de uno mismo: una infinidad de kilómetros y más metros de mí. Y no he bajado del todo.

El silencio es un tema clave y no es muy realista. El silencio es un instante y después una conciencia. Un tipo de silencio. Un silencio que va de cuatro a doscientas personas. Un silencio, silencio. Pero silencio.

Un día sin Internet es el anonimato. Es necesario para desconectarse de él. Empieza la ceremonia.





Cruces del videojuego contemporáneo

Exploramos los dilemas que actualmente plantea el videojuego, un medio expresivo y de entretenimiento que ha pasado a ocupar un espacio central en nuestro imaginario.


CC BY Albert Tercero

El diseñador de juegos Sid Meier definió la experiencia del juego como «una serie de decisiones interesantes», de lo que se deduce que entender un juego pasa, sobretodo, por identificar los dilemas más sustanciales que presenta para el jugador y pensar en ellos. Pues bien, imaginemos que la cultura contemporánea del videojuego es un juego. ¿Cuáles son los «dilemas interesantes» que plantea en la actualidad? Óliver Pérez Latorre, comisario de la exposición Gameplay, propone explorar tres, a su parecer, cruciales.

Juego – Tecnología

El juego es quizás el elemento más paradójico y contradictorio de la sociedad digital: es a la vez problema y antídoto en nuestra relación con las tecnologías. Por un lado, la ludificación, el barniz lúdico que últimamente adoptan todo tipo de tecnologías digitales, desde las apps hasta las redes sociales, puede facilitar su consumo y uso acrítico, porque nos pueden hacer creer que este tipo de tecnologías digitales tienen algo de entretenimiento «inofensivo». Por otro lado, Miguel Sicart, autor de Play Matters (2014), reivindica ciertos aspectos del espíritu lúdico –como la creatividad, la expresión personal a través del juego y la exploración «juguetona» de los límites– como la mejor manera de relacionarnos con el mundo tecnológico que nos rodea. Sicart propone esta actitud ludicocrítica frente a las nuevas tecnologías como compensación necesaria ante el extendido uso utilitarista y productivista que se hace de ellas, y también ante aquellos videojuegos que apelan unívoca o fundamentalmente a la eficiencia como camino hacia el éxito.

Te puede interesar

La teoría-manifiesto de Sicart enfatiza el «juego a la contra», el ideal de un homo ludens rebelde, jugar como un acto carnavalesco: «El juego carnavalesco toma el control del mundo y se lo da a los jugadores para que lo exploren, lo desafíen o lo subviertan» (2014: 4). En el artículo «En mi casa jugamos así», Víctor Navarro recoge algunos ejemplos interesantes de formas irónicas de jugar, en este mismo sentido: por ejemplo, un grupo de jugadores que básicamente se dedica a bailar en Destiny, un videojuego en línea de fantasía bélica, o el «proyecto» de Robin Burkinshaw, que jugó a vivir como un sin techo en The Sims y documentó la experiencia en un blog. Tal como comenta Navarro, se trata de «un cruce entre el estudio subversivo de unos sistemas pensados para el consumismo Ikea y la narrativización telenovelesca (…). La tesis queda clara: en nuestro mundo real jugamos en modo fácil». Un ejemplo reciente sería el caso de Claire, una joven de Nueva Jersey aficionada a correr que siempre hace recorridos en forma de pene en sus carreras, y a través de la app de una marca deportiva graba los trazados sobre el mapa digital de la ciudad y los publica en las redes sociales. Se trata de una manera de correr sarcástica con apps que, bajo un barniz cool y ludificado, promueven la aceptación social de algoritmos de vigilancia.

Los trabajos de Sicart y Navarro muestran el valor y la necesidad de una cultura lúdica de resistencia frente a ciertos aspectos de la sociedad digital: apostar por la flexibilidad y la emoción del juego frente al funcionalismo y la racionalidad mecanicista; por la creatividad y la expresión personal frente a la hipereficiencia y el determinismo tecnológico, y por la conciencia crítica del usuario en su relación con las nuevas tecnologías lúdicas o semilúdicas.

«Está en juego la cultura del ocio, o el ideal del empoderamiento ciudadano, pero también la idea de que la tecnología no es solo un sirviente o un amo, sino que es a la vez una fuente de expresión, una forma de ser (…). En la era de la maquinaria computacional, necesitamos entender el juego como un sistema lúdico pero también como una manera de jugar con los sistemas, de apropiarnos de ellos y de oponerles resistencia.» (Sicart 2014: 33 y 98)

CC BY Albert Tercero

Evasión – Empatía

«Esta es la esencia de los videojuegos: te pueden hacer vivir experiencias por las que no has pasado en la vida real, experiencias que no has tenido, para que, idealmente, puedas añadirlas a tu concepción sobre la vida de las personas en el mundo.» Karla Zimonja (creadora de videojuegos, cofundadora de la compañía Fullbright) apud Muriel & Crawford, 2018: 127

Te puede interesar

En un medio históricamente criticado por el «escapismo», en los últimos años varios creadores han explorado el potencial del videojuego para la empatía social y han profundizado en él. Tal como sugieren Muriel y Crawford en su recién publicado libro Video Games as Culture (Routledge, 2018), el videojuego, entendido como experiencia diseñada, tiene un gran potencial para ponernos en la piel de otras personas, y así lograr que la experiencia del juego sea traducción de la experiencia del otro y nos ayude a comprenderlo. No se trata necesariamente de juegos educativos en un sentido formal o convencional; los empathy games de referencia son hoy en día más bien cercanos a la idea de videojuego «de autor». Son ejemplos de ello Gone Home (Fullbright, 2013), que narra la crisis de adolescencia de la protagonista, el descubrimiento de su homosexualidad y la relación con sus padres; This War of Mine (11 bit studios, 2014), que pone el jugador en la piel de un grupo de civiles víctimas de la guerra y muestra la crudeza de su día a día (en lugar de ofrecernos el habitual avatar de soldado), o Koral, de Carlos Coronado (2019), una poética experiencia de inmersión en el fondo submarino que promueve la concienciación sobre el medio ambiente y la protección de la naturaleza.

Sin embargo, la creadora independiente Anna Anthropy ha advertido del problema de los juegos empáticos: el riesgo de que se utilicen como un atajo, una suerte de gesto de empatía fácil, rápido y agradable (lúdico) para el público, que calme conciencias sin promover una comprensión profunda del problema o una verdadera implicación para entender a los otros y ayudarlos en la vida real (Muriel y Crawford 2018: 136).

Por otro lado, el interés por la nueva ola de videojuegos empáticos no debería comportar una visión negativa o reduccionista sobre el videojuego de fantasía y evasión: desde siempre, el viaje hacia mundos de fantasía o ciencia ficción estimula la imaginación y la creatividad y nos invita a practicar el saludable arte de romper con las rutinas perceptivas y cognitivas, de explorar otros mundos con ojos nuevos. Esto no está reñido con la empatía, sino más bien al contrario. Los videojuegos de fantasía o ciencia ficción también pueden ser empáticos, o al menos tienen el potencial para serlo, aunque de una forma distinta a la de los empathy games canónicos.

Efectivamente, el cruce entre evasión y empatía en el videojuego contemporáneo es un dilema falso o engañoso, pero que vale la pena tener en cuenta para entender mejor el presente y el futuro del videojuego como medio de expresión.

CC BY Albert Tercero

Cultura participativa – Digital playbour

Ready Player One, la última película de Steven Spielberg, basada en la novela homónima de Ernst Cline, contiene, de forma latente, los elementos clave de la tercera tensión de la cultura contemporánea del videojuego que queríamos abordar: la tensión entre cultura participativa y el digital playbour.

La historia (recordémosla brevemente) transcurre en un futuro distópico, en el que el mundo se hunde por culpa de una crisis energética crónica, consecuencia del abuso de los recursos del planeta en las décadas precedentes. En este contexto, un megavideojuego en línea llamado Oasis se convierte en el único aliciente para muchos jóvenes. En un momento dado el propietario de Oasis, el multimillonario James Halliday, anuncia que está a punto de morir y que inventará una última gran misión para los jugadores. El primer jugador que supere la Gran Misión de Halliday heredará su fortuna y se convertirá en el nuevo propietario de Oasis. Wade Watters y sus amigos, protagonistas del relato, hallan en la Gran Misión un nuevo sentido para sus vidas. El antagonista: una empresa llamada Innovative Online Industries, que organiza a un ejército de gamers para que se hagan con Oasis cueste lo que cueste, sin ninguna consideración por el juego limpio. A partir de este punto, el relato sigue como una suerte de confrontación alegórica de jóvenes rebeldes contra una encarnación perversa del capitalismo digital (IOI). Pero, ¿son Wade y sus amigos realmente jóvenes rebeldes? La deconstrucción ideológica de Ready Player One da juego, en este sentido, pero requiere abordar un breve flashback.

Te puede interesar

A mediados, finales de los noventa y durante la primera década del siglo xxi, el relato optimista de la cultura participativa (liderado por Henry Jenkins en el ámbito académico) gozó de una notable aceptación. Este discurso celebraba, en su conjunto, a los gamers y a los fans, considerados prosumers (consumidores de cultura popular pero a la vez creadores o al menos coautores de contenidos) y se alineaba con los ideales de la inteligencia colectiva y la democracia participativa. Sin perder del todo su sentido, este relato fue perdiendo fuerza con el paso del tiempo, en paralelo con el auge del capitalismo de plataformas (Nick Snirceck, 2016) y el debate sobre el digital playbour (Kücklich, 2015). La fórmula esencial del capitalismo de plataformas está, como es sabido, en que los particulares crean servicios (por Airbnb o BlaBlaCar) o contenidos (por Facebook o Youtube) que luego las empresas tecnológicas monetizan. El videojuego en línea entra en esta lógica: los fans de un juego en línea del tipo World of Warcraft, Minecraft o League of Legends hacen aportaciones a estas plataformas digitales, que, en muchos casos, van más allá de lo que podríamos considerar una simple afición: contribuyen a dinamizar la experiencia de juego, crean contenidos (y, en ocasiones, mods, o sea, modificaciones del juego original), orientan a jugadores recién llegados, denuncian comportamientos inapropiados de determinados usuarios al equipo asesor, etc. Kücklich llamó a eso digital playbour, en referencia a una mezcla ambigua entre juego y trabajo, entre placer (del usuario) y productividad (para la empresa). La última deriva del playbour son los e-sports, la competición profesionalizada en videojuegos, que en la actualidad es uno de los ámbitos de la industria más pujantes económicamente. Espacio con luces y sombras, si bien en las competiciones más importantes, predominan los contratos laborales, conviene estar atentos a que la pasión de los jóvenes por su afición y el sueño de convertirse en un Messi de los videojuegos  no faciliten, en algunos casos, la aceptación de condiciones laborales poco claras o adecuadas.

Llegados a este punto, la respuesta a la pregunta que nos planteábamos (realmente, ¿son Wade y sus amigos jóvenes rebeldes opuestos al capitalismo que simboliza IOI?) debería resultar más compleja… En el relato se rebelan, obviamente, contra IOI, pero a la vez, implícitamente, encarnan al ideal de consumidor del capitalismo digital: son jóvenes jugadores con una pasión y una dedicación extraordinaria a Oasis, en buena medida desinteresada (ya eran grandes fans de Halliday y Oasis antes de la Gran Misión), estudiosos obsesivos de la historia y de cada rincón del mundo virtual, creadores de contenidos, referentes y guías para otros jugadores… Y, a la vez, también proyectan una cierta visión romántica del joven competidor de e-sports. En definitiva, no son simples consumidores, sino prosumers y progamers: pero, a diferencia de lo que pasa en el cuento de hadas cyberpunk de Cline y Spielberg, en el mundo real no está tan claro que esto sea garantía alguna de cambio social.

CC BY Albert Tercero





Los «dank memes»: la reacción a una Internet invivible

Surgidos en los albores de Internet, actualmente los «dank memes» pueden entenderse como la expresión absurda que condesa el espíritu de nuestro tiempo y como una manifestación de rabia que boicotea la lógica mercadotécnica de Internet.


Payaso en el desfile de primavera de Tallahassee. Florida, 1985 | Deborah Thomas, Florida Memory | Dominio público

Los dank memes son el hazmerreír angustiado de los ciudadanos de una Internet cada vez más oscura, dicotómica y brutal, un lenguaje indescifrable en tiempos de algoritmos, la saturación creativa del último reducto galo de Internet, atrincherado y agotado, contra el imperial modelo de negocio de Silicon Valley.

La palabra dank tiene tres significados: el primero se refiere a un sitio oscuro, desagradable, húmedo y frío (como una caverna o una mazmorra), y el segundo, en la jerga del fumador, a la marihuana más olorosa, pegajosa y de buena calidad. Según el tercer significado, dank es una forma de decir que algo es muy bueno. Originariamente, decir que un meme era dank equivalía a decir sarcásticamente que era buenísimo, para señalar, precisamente, que se había vuelto demasiado mainstream, o que había desgastado su capacidad comunicativa (ya no se entendía) o humorística (ya no hacia gracia). Pero pronto los dank memes se convirtieron en un género de memes en sí mismos, que utilizaban conscientemente este desgaste como parte de una estética y un lenguaje autorreferencial propio. Eran memes que hablaban de otros memes imitando irónicamente errores de otros memes.

La cultura dank buscaba siempre el límite (autoconsciencia, autorreferencia y autodestrucción), quería huir de la comprensión de la mayoría, evitar ser digerida por el mainstream. Probablemente este rechazo a la mayoría lo provocaba el hecho de que, mientras el concepto de dank meme se iba desarrollando, Internet era invadido por el tono edulcorado y buenista de los artículos de BuzzFeed, los challenge y las cadenas prefabricadas y, sobretodo, por la llegada masiva de nuevos usuarios vía Facebook. La Internet de las redes sociales. El famoso 2.0.

Para protegerse de esta Internet blanca y artificial, los miembros más antiguos y experimentados de comunidades como reddit o 4chan se construyeron una trinchera creativa basada en el absurdo, la extrañez y la desconfianza hacia cualquier tipo de valor positivo o de fe en la humanidad. La conspiranoia, el tedio, la ansiedad y el desprecio se apoderaban de partes muy activas de estas comunidades. Series de Youtube como Don’t Hug Me I’m Scared o Asdfmovie ilustran a la perfección este estado de ánimo colectivo que, como argumenta Rachel Aoresti en un artículo publicado en The Guardian, considera que la vida moderna es absurda y que ninguna moral tiene demasiado sentido.




Ya antes de la llegada de Trump, parte de esta frustración y desconfianza inherente a la cultura internetil había generado un campo de cultivo que permitía ver las ideas más reaccionarias, racistas y misóginas como transgresoras y atractivas. Tal como apunta Angela Nagle en su libro Kill All Normies, este fenómeno era similar al uso de esvásticas o a las referencias al nazismo que hacían bandas como Joy Division o los Sex Pistols, como herramientas de provocación y transgresión social. Pero, realmente, ¿de dónde sale esta cultura de la extrañez y esta frustración que empuja la creación digital hacia la oscuridad y el tribalismo? ¿Por qué hemos vuelto de golpe a la primera definición de dank, la que describe una mazmorra o caverna fría y oscura?

De internautas a usuarios

Cuando hacemos símiles entre el mundo real y el digital, a menudo nos olvidamos de que, si el mundo que habitamos con el cuerpo se pareciera un poco a la Internet de hoy, sería una especie de casino de Las Vegas: todo el terreno en manos de corporaciones privadas gigantes, un mundo sin aceras, ni hospitales, ni plazas, ni gobiernos… apenas una ciudad, hecha exclusivamente de edificios-anuncio que necesitan nuestra atención permanente, creciente y ansiosa para sobrevivir y que, a cambio, están dispuestos a ofrecernos dosis exhaustivas de euforia, de envidia, de tristeza, de enfado o de excitación.

Lejos queda ya la libertad creativa e inocente de la primera Internet, en la que no éramos usuarios consumidores sino internautas exploradores. Por aquel entonces, conectarse a Internet era descubrir un universo lleno de microburbujas flotando en todas direcciones. Ahora ya no nos conectamos a ningún sitio, habitamos nuestra identidad digital de forma permanente y pasiva. Antes navegábamos por webs pequeñas y manufacturadas con poca maña, webs caseras que eran, todas, solo una migaja de su propio potencial comunicador. La referencia más ejemplar de esta Internet diversa y heterogénea es Geocities. Ahora ya no navegamos: ahora abrimos la aplicación o la red de turno para comprobar si tenemos notificaciones.

Internet era un sitio amplio y heterogéneo, lleno de experimentos creativos y naif, y había expectativas reales de mejorar la experiencia de vivir: un fórum era la posibilidad del calor universal cuando te sentías solo, recibir un mensaje de correo electrónico era tan emocionante como recibir una carta, y el ritmo de navegación no permitía correr demasiado, así que todo el mundo tenía tiempo para escribir y leer blogs. Si saltamos a la Internet de hoy, nos daremos cuenta de que la especialización del modelo de negocio ha convertido el paisaje de Internet en un espacio homogéneo, sin vacíos entre grandes plataformas, con el lenguaje y la imaginación secuestrados por gigantes que compiten los unos contra los otros para llamar nuestra atención.

El proyecto artístico «Cameron’s World», que recupera textos e imágenes de las páginas de Geocities de entre 1994 y 2009 gracias a la tarea de archivismo digital de Archive.org.

Ratones y algoritmos

Las redes sociales nos sedujeron ofreciéndonos facilitar la comunicación mediante la centralización de todo el flujo comunicativo en un único espacio. Sean Parker, expresidente y fundador de Facebook, ha reconocido recientemente que esta promesa de «unir el mundo» ocultaba otra intención ya desde el principio: distraernos y explotar nuestras vulnerabilidades. Este objetivo oculto se ha hecho explícito poco a poco, a medida que, para mantenernos atentos, las plataformas han evolucionado no para mejorar la libre circulación de usuarios y mensajes, sino para aumentar la adicción y el consumo compulsivo.

Twitter, Instagram, Youtube, Facebook o Tik Tok han incorporado técnicas y diseños del mundo de los casinos –como el gesto de scroll elástico que emula una palanca de máquina tragaperras. También han descubierto que la forma más rápida de mantenernos atentos es hacernos enfadar, sentir envidia o tristeza. La especialización toma formas aún más extremas con el auge del uso de los algoritmos que, poco a poco, van sustituyendo nuestra decisión sobre lo que queremos hacer, ver o consumir. Las cronologías de las redes sociales han pasado de ser la representación de nuestra selección personalizada a ser ríos hiperoptimizados de contenido que procesos opacos eligen por nosotros. Solo nos queda el gesto: scroll y tap, scroll y tap. Somos ratoncillos.

El caso más exagerado de este nuevo estadio es Tik Tok. La tercera red social más grande del mundo (500 millones de usuarios) tiene muy poco en cuenta los usuarios que uno ha decidido seguir. Si el vídeo que hace un usuario no tiene demasiado impacto entre los primeros usuarios a los que se los aparece, la plataforma lo aparca y lo aísla. Es ruido. Esfuérzate por hacer algo más divertido y atractivo, parece decirte. Lo que acaba haciendo la plataforma es acumular la atención en unos pocos nodos que se convierten en virales y repartir ansiedad y aislamiento entre los otros. Este control opaco de lo que ven los usuarios da lugar, además, a nuevas formas de censura. Tik Tok, propiedad de una empresa china, aísla contenido político o que hace referencia a puntos calientes del país, como las protestas de Hong Kong o el Tíbet.

Identidad performática y autoengaño

Tal como cuenta Jia Tolentino en «The I in the Internet», el primer ensayo de su último libro, Trick Mirror, Internet se ha convertido en una «máquina del autoengaño» que basa su economía e infraestructura en la comercialización de nuestra identidad personal. Dice Tolentino que «la identidad, según Goffman, es una serie de afirmaciones y promesas. En Internet, una persona altamente funcional es aquella que puede prometerlo todo, en todo momento, a una audiencia en constante crecimiento». Hemos venido a Internet a decir que existimos.

Tolentino utiliza la idea del sociólogo Ervin Goffman según la cual la identidad siempre va vinculada a una performance. Nuestras interacciones diarias se basan en el papel que desarrollamos frente a los otros. Por ejemplo, cuando vamos a comprar o tenemos una entrevista de trabajo, ofrecemos una determinada versión performática de nuestra identidad, y la performance se transforma según la audiencia de cada momento. Cuando nos retiramos a casa, dice Goffman, estamos en el backstage de nuestra identidad, donde por fin podemos dejar de actuar, podemos digerir y descansar.

La vida se ha convertido en una experiencia asfixiante para mucha gente porque, según dice Tolentino, Internet rompe con este ecosistema, y nos obliga a mantener constantemente, aunque estemos en casa en pijama, la misma performance inacabable para un público masivo y anónimo. Internet se ha cargado el backstage y la digestión. Ya nunca bajamos del escenario.

Magnificación y saturación

Además, el diseño y el formato de los espacios en los que performamos nuestra identidad en línea nos obligan a exagerar el mensaje para llamar la atención y generar algún tipo de reacción en nuestro entorno. Otra vez Tolentino: «No hay engagement sin magnificación». Esta idiosincrasia altera el ambiente normal de las interacciones y provoca que todo el mundo esté más predispuesto a, por ejemplo, inflamarse, sentirse irritado o indignarse, como formas predilectas de generar tránsito y atención.

Además, para colmo, la lluvia de notificaciones en todas las pantallas nos recuerda la necesidad de atender sin parar esta performance y destroza nuestra capacidad mínima de concentrarnos, de descansar y de digerir los estímulos que recibimos. Contra este horror vacui de inputs e interacciones, la alternativa generada hasta el momento, la del minimalismo digital, es una respuesta diseñada no para hacernos la vida más fácil sino para hacernos más eficientes a la hora de trabajar y no reducir nuestro rendimiento laboral.

RT ≠ endorsement

Por último, la adaptación forzada de nuestras ideas, reflexiones políticas y pensamientos a las limitaciones de los formatos de las redes sociales ­–stories que duran veinticuatro horas, etiquetas que fragmentan toda ideología en pedazos, limitación de caracteres, censura estructural– dificulta la propagación de ideas complejas y de matices. De la misma manera, la solidaridad en línea se ha sustituido por una expresión performativa de la solidaridad, adaptada a las lógicas de la mercadotecnia de la identidad: añadir el lazo al perfil, usar la etiqueta de turno o retuitear contenido político viral han sustituido la potencial necesidad de participar en la protesta del mundo offline. Aunque es cierto que, pese a todo, Internet ofrece una alternativa de acción política a quien, por su condición o situación, no puede participar activamente de la acción política en la calle, también es cierto que la moral en línea desincentiva, en general, cualquier tipo de acción política consecuente a quien sí puede.

No solo esto, sino que, además, esta ausencia de matices provocada por el propio diseño limitante de las redes ha permitido que ideologías de extrema derecha que habían quedado marginadas del debate social puedan desplegarse con más facilidad, aprovechando la velocidad de la interacción y la frustración generalizada para introducir discursos de odio en la normalidad de la vida digital.

Dank

Contra toda esta realidad invivible, los dank memes pueden ser entendidos a la vez como la expresión que mejor condensa el espíritu de nuestro tiempo y como una expresión de rabia que boicotea la lógica mercadotécnica de Internet: al conformar mensajes indescifrables y ruidosos, son esencialmente antialgorítmicos. En su secreta producción e interpretación, no son domesticables ni pueden venderse.

Los dank memes son el punto de fuga y el grito de Munch de una sociedad agotada de todo, de sí misma y de no poder parar de consumir y consumirse, pero que resiste, acorralada, a través de la carcajada histriónica, consumida por una Internet que tenía que ser un universo de imaginación y utopía y se ha convertido en un sitio asfixiante e invivible, que no solo va conquistando cada rincón de nuestro día a día, sino que, además, cada vez se hace más inseparable de nuestra forma de sentir, pensar y querer, de quienes somos y por qué seremos recordados.





Releer a Debord

Una mirada a la actual sociedad hiperconectada de redes sociales, al capitalismo cognitivo y a los algoritmos a la luz de la obra de Guy Debord.


Chico con una cámara dentro de la multitud, 1965 | Örebro läns museum | Domini públic

De la sociedad del espectáculo tal como la describía Guy Debord en su libro emblema queda poco. Las redes sociales conectadas mediante la tecnología móvil, la Internet de las cosas, los algoritmos o el machine learning configuran un mundo en el que no solo debemos plantearnos si podemos seguir confiando en las imágenes. Publicamos el prólogo Releer a Debord por cortesía de Caja Negra. Ingrid Guardiola analiza la sociedad hiperconectada en la que vivimos, donde reina el capitalismo cognitivo, a partir de la obra de Guy Debord, repasando conceptos como la representación, la libertad de expresión, el espectáculo, el poder y el tiempo.

El razonamiento sobre la historia es,
inseparablemente, razonamiento sobre el poder.

Maquiavelo[1]

 

Aún hay que hablar de imágenes

Las películas de Guy Debord empiezan en 1952 con Aullidos en favor de Sade, en el contexto del entusiasmo de su juventud y del cine letrista, y terminan en 1978 con In girum imus nocte et consumimur igni desde una extrema melancolía personal. De ahí que estas dos películas tengan un tono muy diferente a Sobre el pasaje de algunas personas a través de una unidad de tiempo bastante corta (1959), Crítica de la separación (1961), La sociedad del espectáculo (1973) o Refutación de todos los juicios, tanto elogiosos como hostiles, que se hicieron hasta ahora sobre el film «La sociedad del espectáculo» (1975). Si bien en su primera película ataca frontalmente el cine («No hay film. El cine ha muerto. Ya no puede haber films. Si ustedes quieren, pasemos al debate»), su concepto emblema es la crítica a la sociedad del espectáculo. Debord se aleja de los letristas (Lemaître, Isou…), de su implícita iconoclastia y de la perspectiva performativa que los letristas daban al acto de la proyección cinematográfica. Sus guiones son ensayísticos, a la vez que heredan la crítica marxista a la industria cultural de la Escuela de Frankfurt. Debord, además, aporta la coherencia de los ensayos que no han olvidado del todo lo personal (lo generacional se mezcla con lo estructural, la lucha cotidiana con la lucha obrera), el lirismo del poeta, la fuerza instruccional del estratega y la melancolía del farero que observa el mundo desde su torre, iluminadora, pero aislada. Su diagnóstico fue meridiano, pero ¿sigue siendo vigente? ¿Qué queda de él?

Para Debord, la base del espectáculo está no solo en las imágenes producidas por la maquinaria capitalista, sino también en el hecho de que las imágenes sirven de mediación para todas las relaciones sociales. Ya en Sobre el pasaje de algunas personas a través de una unidad de tiempo bastante corta arguye que hace falta «comprender la totalidad de lo que se hizo» para «no añadir otras ruinas al viejo mundo del espectáculo y de los recuerdos» y así poder entender nuestra época sin necesidad de producir más imágenes (entendidas como falsos ídolos). Debord, en 1959, ya incluye lo que serán sus constantes: una reflexión sobre la sociedad del espectáculo, otra sobre la felicidad pequeñoburguesa y las primeras tentativas de cine-détournement como metodología para una nueva crítica con el fin de buscar una distancia material e ideológica con respecto a la imagen. El cine-détournement concibe que la apropiación de imágenes espectaculares forma parte de la vía revolucionaria como una manera de expropiar a los propios expropiadores, que son los publicistas y el cine industrial, con Hollywood en la cabecera. Es lo que lleva a la práctica en La sociedad del espectáculo, donde empieza con una reveladora cita de Feuerbach: «Y sin duda nuestro tiempo prefiere la imagen a la cosa, la copia al original, la representación a la realidad, la apariencia al ser… lo que es ‘sagrado’ para él no es sino la ilusión, pero lo que es profano es la verdad.» Debord alerta sobre el hecho de que el espectáculo es la manifestación de lo no viviente, una inversión de la vida y la afirmación de la vida como simple apariencia. Un diagnóstico muy actual, pero abrazado por una minoría, puesto que el espectáculo es un ritual que está hecho para embelesar, para no poder rechazarlo, para abandonarte a él.

Esta preferencia por la imagen como parte del fetichismo de la mercancía se ha acrecentado con las redes sociales en un mundo de virtualidades conectadas a través de la tecnología móvil. El proxy o representante de la pantalla ha acabado por usurpar el lugar del original. Ya no se trata de gestionar imágenes, sino que es nuestra identidad la que organizamos desde los filtros y los retoques faciales de un sinnúmero de aplicaciones para autotunearnos. Incluso los cuerpos que sirven de referencia para las intervenciones quirúrgicas se han desplazado de una cosmética universal (el canon de las estrellas del momento) al yo virtual; la gente quiere parecerse al rostro que las aplicaciones Snapchat o Facetune le ofrecen, quiere dar su mejor versión en una selfie, quiere momificar su yo digital.




La distancia, el sueño, la alienación

Debord hace una observación sencilla, pero determinante: «Todo cuanto era vivido en forma directa se alejó en una representación.» ¿Qué consecuencias tiene este distanciamiento? Es una distancia nada evidente porque se disimula constantemente, puesto que el entertainment invita a un proceso de inmersión, de identificación con lo que proyecta, pero siempre a distancia, mediado a través de la pantalla y no desde la experiencia directa de las cosas, so peligro de ver con ojos propios el bastión engañoso y raquítico que está detrás de lo espectacular. Esta distancia es lo que confirma el carácter ilusorio del espectáculo, pero también de nuestras vidas. La propia etimología de entertainment es clara: mantener a alguien en un estado de ánimo concreto. Justamente, el filósofo surcoreano Byung-Chul Han indica que lo que falta en los contextos del enjambre digital que nos entretiene a diario es el «pathos de la distancia», lo que nos permite diferenciar el respectare (‘respetar’) del espectare (‘ver’). La unidad de la vida ya no la da la experiencia, sino el propio espectáculo, acumulando y compartiendo sus mercancías a nivel planetario. Si en Debord el espectáculo se muestra como un universal, hoy en día tendríamos que actualizar la terminología indicando que el espectáculo mundializa la mercancía, extremando su naturaleza global. Esta relación a distancia con el mundo separa el conocimiento de la experiencia directa y lo delega a la industria cultural en un proceso de colonización cultural. La industria cultural da una versión sui generis del mundo, un modelo fast, precocinado, simplificado, amusant, reconfortante, planificado, irreal y, por todo ello, delirante.

La condición para que se desarrolle el espectáculo es la existencia de la masa, tanto si se piensa en el público-masa de los sesenta de Debord, como si se alude a la masa conectada actual. El estado idóneo de esta masa es el aislamiento, aquello de «conectados, pero solos» de Sherry Turkle. «El espectáculo reúne lo separado, pero lo reúne en cuanto que separado», dice Debord. Esta separación no es solo la distancia física entre los individuos, sino que también se refiere al concepto marxista de alienación. Cuando intentamos pensar esta alienación en aras a la masa digital conectada la cosa se complica, puesto que nos encontramos en un contexto altamente participativo, con lo que se desmonta aquello de «cuanto más contempla, menos vive». De hecho, si el espectador televisivo y de cine comercial basaba su fuerza de trabajo en el hecho de mirar («Mirar es trabajar», dice Hito Steyerl), hoy en día no se trata solo de mirar, sino también de producir signos bajo la forma de imágenes, iconos o lenguaje escrito. El capitalismo actual, que podemos llamar cognitivo, semiocapitalismo o capitalismo psíquico, extrae valor de toda esta producción semántica traduciendo los signos a datos que son acumulados, interpretados y vendidos. La participación colectiva gestionada desde las principales empresas de plataformas (Google, Facebook, Amazon, Airbnb) deviene, entonces, un arma de doble filo que siempre beneficia al patrón: por un lado permite expresarse a uno mismo como mecanismo de liberación psíquica momentánea y, por el otro, hace de la expresión un mecanismo de acumulación capitalista. Pasamos de la libertad de consumo a la libertad de expresión, haciendo de ella, otrora un elemento revolucionario o de transformación social, una estrategia de rendimiento capitalista.

En Refutación de todos los juicios, tanto elogiosos como hostiles, que se hicieron hasta ahora sobre el film «La sociedad del espectáculo», Debord indica que la organización espectacular de la sociedad de clases acarrea «la obligación, para todos aquellos que pretenden encontrar allí su felicidad, de mantenerse siempre a gran distancia de lo que pretenden amar, porque nunca tienen los medios, intelectuales u otros, de llegar a un conocimiento directo y profundo, una práctica completa y un gusto auténtico». Más que consecuencia, esta distancia es una de las causas de que la felicidad que prometen las mercancías siempre se encuentre diferida, que no llegue nunca a tener lugar. Para que esto funcione, se instala el reino de la miseria (económica y afectiva) como telón de fondo de la experiencia cotidiana de la gente. El diferencial de valor entre lo que se ve y lo que se vive impide la satisfacción y acrecienta la necesidad de consumo de más y mejores sueños. El espectáculo es el guardián del deseo que tiene la sociedad moderna de dormir, según Debord. El flujo 24/7 de productos audiovisuales que permite la tecnología digital conectada, con fenómenos como el binge watching (‘atracón de series’), ha facilitado que el sueño inducido y encorsetado del espectáculo, aquel que nos impide soñar de verdad, no sea interrumpido jamás.




Estrellita, ¿dónde estás? Me pregunto quién serás

Según indica Debord en Crítica de la separación, el sector de los dirigentes es el mismo del espectáculo porque ambos proponen comportamientos ejemplares y hallan héroes debajo de cada piedra. Las estrellas reemplazan a los viejos héroes. Debord continúa el análisis que hicieron Adorno y Horkheimer sobre la starlet en Dialéctica de la Ilustración (1944). Según los de Frankfurt, la estrella debe simbolizar al empleado, pero subrayando la distancia que hay entre los dos, una distancia que solo puede desaparecer momentáneamente a través del visionado, del espectáculo. Se trata de una «religión del éxito», según Adorno y Horkheimer. Debord, en Sobre el pasaje de algunas personas a través de una unidad de tiempo bastante corta, ya subraya la necesidad que tenemos de las estrellas y de que nuestras vidas no puedan distinguirse de las películas como remedio a «una vida taciturna y anónima que querría ampliarse a las dimensiones de la vida cinematográfica», puesto que la cultura industrializada, como dicen los de Frankfurt, «enseña e inculca la condición necesaria para tolerar la vida despiadada». Es necesario que el público tenga una vida miserable para anhelar la estrella y pueda participar, así, de la religión del éxito y convertir su cotidianidad en un pseudoparaíso. Nada de esto ha cambiado.

Hoy en día, gracias a las redes sociales basadas en la imagen con filtros como Instagram, a empresas de decoración minimalista y clónica del hogar como Ikea y a las empresas de vuelos low cost como Ryan Air o Vueling, es posible tener una vida low cost, de cartón piedra, pero iconográficamente envidiable, irrefutable desde la distancia que brinda la pantalla. En su libro Comentarios a la sociedad del espectáculo (1988), Debord ya anticipaba lo que las redes sociales han culminado, el hecho de que ahora sea muy fácil conseguir un estatuto mediático que otorgue el derecho a brillar donde sea. Donde sea, pero mucho mejor en línea, a través de avatares, filtros o imágenes supletorias, como en una segunda piel tejida con esmero y a diario por cada uno de sus usuarios. Uno mismo es la estrella y el estrellato en este mar de ruido que es la batalla identitaria virtual. Este contexto también explica el porqué del auge de los talent shows en televisión, en los que se trata de encumbrar a gente anónima, tal como ya se hacía en programas del origen de la televisión como el Arthur Godfrey’s Talent Show (1946-1958); un relato que viaja en paralelo al auge de los programas protagonizados por gente que es famosa porque previamente ya ha aparecido en televisión, confirmando aquello de que «lo que aparece es bueno, lo que es bueno aparece».[2] Las apariencias toman cuerpo, pero desde su carácter ilusorio en un ilusionismo enredado globalmente. Debord había subrayado el carácter global de la estrella, pero como parte de un catálogo limitado de estilos; de hecho, cuando realiza La sociedad del espectáculo lo ilustra con The Beatles y Marilyn Monroe, iconos de una década que no volverá. Las estrellas clásicas perviven, Katy Perry es la nueva Marilyn, pero en la actualidad el cultivo narcisista en línea se erige como firmamento de la fama basada en el reconocimiento a golpe de likes y de followers. El «insignificante insignificado», como diría Raoul Vaneigem, hace de su vida privada su conquista. La celebridad costumbrista de las redes sociales ofrece un proceso de singularización extremo: cada individuo quiere sobresalir con relación a los demás, pero cuanto más lo intenta, más se parece a la masa. De hecho, es el algoritmo el que reorganiza la masa virtual en función de los gustos recurrentes de la gente, de sus patrones de comportamiento y de sus modos de aparecer. Cuando, en Refutación de todos los juicios, tanto elogiosos como hostiles, que se hicieron hasta ahora sobre el film «La sociedad del espectáculo», Debord dice que «los espectadores no encuentran lo que desean, sino que desean lo que encuentran», se puede pensar en estos algoritmos que gestionan nuestro deseo a la carta con su sistema de recomendaciones y su estructuración de lo que debe aparecer en cada interfaz de cada usuario para que el deseo no culmine, es decir, no ceda.

El ejercicio del poder, una mediación sin fin

El espectáculo es la forma más eficaz de la gestión del poder público, ya lo describía La Boétie en El discurso de la servidumbre voluntaria (1576), en el que explicaba cómo a lo largo de la historia los tiranos han comprado la servidumbre del pueblo a través de la administración del ocio público. El panem et circenses de toda la vida. Debord, en La sociedad del espectáculo, habla de un doble poder del espectáculo: el concentrado y el difuso. El primero pertenece al capitalismo burocrático, así como a la personalidad dictatorial, el segundo, al capitalismo de la abundancia de las mercancías para un público asalariado. Esa abundancia es precaria e insatisfactoria en el sentido que hace consciente al consumidor que solo está gozando de un destello de todo lo que podría llegar a consumir. En resumidas cuentas, lo que Debord pone encima de la mesa es el «reino autocrático de la economía de mercado y su estatus de soberanía irresponsable, junto a las nuevas técnicas de gobierno que acompañan este reino».[3]

Debord, en Comentarios a la sociedad del espectáculo (1988), volviendo sobre sus propios pasos, acuña una nueva visión del poder, se trata de lo espectacular integrado que, según él, vive del presente perpetuo, de la incesante renovación tecnológica, de la fusión público-privada en lo económico, de la falsedad sin réplica y del secreto generalizado. Esta gestión del poder sería una síntesis del poder concentrado y del difuso y, hoy en día, halla en las tecnologías digitales conectadas su mayor aliado, su panóptico de Bentham para un mundo feliz. Desde la Internet de las cosas hasta las redes sociales, pasando por la Internet de las plataformas (Amazon, Google), esta tecnología basada en los algoritmos y el autoaprendizaje de las máquinas (machine learning) se está usando de forma totalitaria para controlar y predecir. En esta simple ecuación («controlar y predecir»), que enraíza en la propia historia del capitalismo, encontramos gestos como la incidencia en los patrones de consumo a nivel de mercado de nichos, la manipulación del voto electoral, la gestión del odio público, o la inoculación de estados de ánimo concretos a la gente. Por eso autores como Franco «Bifo» Berardi hablan de que asistimos a una auténtica colonización psíquica. Se trata, por lo tanto, de un poder de baja intensidad (un despotismo soft o democrático, hablando con Tocqueville), pero de muy gran alcance (llega hasta lo más mínimo, al nivel individual, pero alcanzando a la gran masa de gente conectada). Es un poder omnímodo, con pocas zonas muertas o autónomas, dentro de una realidad fundada por la tecnología digital y en red.[4] En Comentarios a la sociedad del espectáculo, Debord dice que la vigilancia podría ser más peligrosa, puesto que no se tienen las herramientas ni la inteligencia suficiente para analizar el interés de la masa de informaciones que los medios generan. La inteligencia artificial, los algoritmos y la minería de datos (data tracking o data mining) han venido a suplir estas carencias. El libro La sociedad del espectáculo está escrito en un mundo prealgorítmico, esto es, en un mundo que aún contempla como necesario el relato de un contrato social. El «universo algorítmico», en cambio, se sitúa en un escenario post-social y posthumano, en lo que Déborah Danowski y Eduardo Viveiros de Castro podrían llamar un «nosotros sin mundo»[5] o, llevándolo a un extremo, un otro-mundo sin nosotros, sin tiempo, sin devenir, un mundo on-off.

El mundo como pantalla | Ingrid Guardiola y Franco Berardi | CCCB

El tiempo: ya todo se comprende

Debord tiene una relación con el tiempo filosófica y política, pero también literaria. Desde Aullidos en favor de Sade hasta In girum imus nocte et consumimur igni, su escritura canta al paso del tiempo y, a la vez, se lamenta de ello.[6] Él entendió que la energía del grupo de los situacionistas era indisociable de su juventud, y que parte del proyecto revolucionario tenía que ver con esto. En In girum imus nocte et consumimur igni se adueñó del palíndromo latín «Giramos en la noche y somos consumidos por el fuego», también conocido como el verso del diablo, para hablar de nuestro carácter transitorio, en un texto de espíritu barroco, manriqueño, en el que el autor sentencia que todo tiene su tiempo y que todo pasa. En un tono dantesco («Nel mezzo del cammin di nostra vita»), [7] Debord se despide de su juventud perdida.

Más allá de estas apreciaciones de tinte melancólico (e incluso etílico) sobre el tiempo cronológico, a Debord lo que le interesa analizar es el tiempo de producción, lo que nombra como el tiempo-mercancía: «una acumulación infinita de intervalos equivalentes»,[8] cronometrados por la máquina capitalista, un tiempo irreversible, consumible, pseudocíclico. Es irreversible desde una perspectiva económica porque se basa en la expropiación del tiempo propio en la medida en que se acumula el tiempo invertido en el consumo y el espectáculo. Pero también es pseudocíclico porque se basa en la repetición (día-noche, trabajo-descanso) y en la mínima diferencia, es decir, en las pequeñas variaciones sobre lo que siempre ha sido igual, en la incorporación de nuevas mercancías o nuevas micro-experiencias dentro de lo similar que ofrece el consumo de imágenes o del tiempo de ocio.

Esta concepción del tiempo de Debord se ha actualizado bajo lo que podríamos llamar tiempo cronoscópico, el tiempo que rige nuestra cultura de la pantalla y de las redes sociales. Es, literalmente, la «imagen del consumo del tiempo en toda su extensión», la culminación de esta reveladora descripción que hace Debord sobre la relación entre capitalismo espectacular y tiempo. El tiempo cronoscópico es el tiempo puntillista, cuantificado, veloz y global que nos brinda la tecnología digital móvil conectada, sobre todo aquella que tiene que ver con la traducción de la información a métricas concretas, es decir, con la industria de los datos. Desde este punto de vista, el tiempo es una estadística donde su valor lo da la posición de su partícula mínima (dato), pero sobretodo su velocidad y la interpretación que se da de ella (cruce de datos), junto a su salida económica. Este escenario ha hecho del tiempo del ocio un momento de producción económica, en el sentido que, al comunicar todo lo que nos pasa o lo que no nos pasa cuando no hacemos nada, lo que estamos es alimentando esta industria global de los datos, el auténtico poema del diablo al que le ofrecemos fáusticamente nuestra alma a cambio de conexión y una seudo-comunidad, tan efímera como el algoritmo decida. El tiempo histórico, entonces, es el resultado del tiempo de la producción económica, el tiempo del dato.

Debord ve en las sociedades agrarias antiguas un tiempo cíclico muy diferente al carácter ilusorio del tiempo espectacular seudo-cíclico, puesto que en las sociedades antiguas se trataba de un «tiempo de la ilusión inmóvil, realmente vivido». Ya en Sobre el pasaje de algunas personas a través de una unidad de tiempo bastante corta entendió que apropiarse del tiempo de vida y sacarlo del tiempo seudo-cíclico de la mercancía y, por lo tanto, del tiempo de la producción, era algo revolucionario. Ésta es una de las claves del debate actual sobre la emancipación con relación a la Cuarta Revolución Industrial: cómo establecer nuevas políticas del tiempo. La posibilidad de que desaparezcan, tanto del ámbito de la representación como de nuestra cotidianidad, aquellos campos que ofrecen una forma alternativa del tiempo (basado en lo manual, artesanal, lo natural, la lentitud, lo cíclico real),[9] es una fisura civilizatoria. El tiempo digital conectado genera el mito de la velocidad, de lo instantáneo, de lo omnidireccional, pero también de lo indistinto, de lo aleatorio o casual, de la falta de consecuencias. ¿Cómo explicar entonces cualquier cambio? ¿El cambio climático? ¿Lo que falta o no está? ¿Lo precario de los cuerpos y de los tiempos de vida? El tiempo conectado nos desconecta, literalmente, del tiempo y esa intuición ya está en Debord cuando alerta sobre el hecho de que el capitalismo genera una historia universal basada en un tiempo irreversible unificado mundialmente.

Cambio y corto

Sin querer plantear un cierre solucionista, lo que sí es evidente es que hay que recurrir a otra política del tiempo, a otros medios, o, como diría Debord, «poseer la comunidad del diálogo y el juego».[10] Si en La sociedad del espectáculo Debord usa el détournement para evidenciar y, en cierto modo, hacer estallar el poso ideológico del espectáculo, lo que ahora debemos preguntarnos es, no solo aquello de por qué seguir confiando en las imágenes, sino también por qué seguir hablando de imágenes si vivimos en un mundo donde parece que lo han ocupado todo y donde lo virtual se ha impuesto como el lugar principal para los intercambios simbólico-afectivos. Las imágenes piden ser leídas de nuevo, piden que generemos un nuevo contexto para su legibilidad, tanto las imágenes locas (no sedimentadas aún) del presente, como las imágenes mudas del pasado (ni recordadas ni olvidadas aún). La tarea que inició Debord está inconclusa. Aún queda mucho por hacer en el camino del ensayo sobre las imágenes y a través de ellas. El tiempo del ensayo es el tiempo vivo de la relación, el tiempo pausado de la digestión, es todo lo que hay entre un extremo y el otro, entre el sí y el no, es el espacio del diálogo, del análisis, de la autopsia visual, del remontaje, del todo está por montar, por redecir. Este análisis también se tiene que aplicar al mundo informatizado de los datos. Es desde este faro con vistas a la tormenta donde se puede decidir que la mejor manera de crear una política del tiempo alternativa es rehaciendo el contrato social. Se puede partir de la insatisfacción y la indignación, compartir en los márgenes del cerco algorítmico, esta soft-totalitaria sociedad del espectáculo donde somos succionados y transformados a diario en pro de la salud económica de las grandes plataformas digitales, fuente inagotable de nuestra preconfigurada felicidad.


[1] Citado en La sociedad del espectáculo (1973).

[2] La sociedad del espectáculo (1973).

[3] Guy Debord, Comentarios a la sociedad del espectáculo (1988).

[4] Para adentrarse un poco más en este contexto, leer las últimas publicaciones de las investigadoras Shoshana Zuboff (Capitalismo de la vigilancia), Cathy O’Neil (Armas de destrucción matemática) o Virginia Eubanks (Automating Inequality: How High-Tech Tools Profile, Police and Punish the Poor).

[5] Déborah Danowski, Eduardo Viveiros de Castro, ¿Hay mundo por venir?, Buenos Aires, Caja Negra, 2018.

[6] Aullidos en favor de Sade termina con: «Después de todas las respuestas a destiempo, y la juventud que se vuelve vieja, la noche cae de muy alto. (…) Vivimos como niños perdidos nuestras aventuras incompletas.»

[7] Así empieza La Divina Comedia y así rezuma Debord en In girum imus nocte et consumimur igni: «En la mitad del camino de la verdadera vida estábamos rodeados por una oscura melancolía, expresada por tantas frases burlonas y tristes en el bar de la juventud perdida.»

[8] La sociedad del espectáculo.

[9] «Mientras la producción agraria siga siendo el trabajo principal, el tiempo cíclico que permanece presente en el fondo de la sociedad alimenta las fuerzas coaligadas de la tradición, que van a frenar el movimiento. Pero el tiempo irreversible de la economía burguesa extirpa esas supervivencias en toda la extensión del mundo», La sociedad del espectáculo.

[10] La sociedad del espectáculo.





¿Y si Internet fuese el aliado de la diversidad lingüística?

El 54 % de los contenidos de Internet están en inglés. Nos preguntamos por el resto de idiomas a partir del caso del continente africano, donde se habla un tercio de las lenguas del mundo y los activistas culturales se aprovechan del entorno digital para reivindicarlo.


Mercado de fruta en Zanzíbar, 1890-1923 | Library of Congress | Dominio público

Más de la mitad de los contenidos de Internet están escritos en inglés y, a menudo, la Red amenaza con desencadenar un apocalipsis cultural que acabará con la mayor parte de las lenguas del mundo. África alberga un tercio de la diversidad lingüística del planeta y, a pesar de la aparente vulnerabilidad de sus lenguas nacionales, los activistas culturales están explotando todo el potencial del entorno digital para mantener ese patrimonio cultural, a través de métodos de aprendizaje o visibilidad e, incluso, para acercar la Red a aquellos a los que no llegan los desarrollos comerciales.

Si el 54 % de los contenidos de Internet están en inglés, ¿qué pasa con el resto de los 7.100 idiomas que se hablan en el mundo? Internet parece una especie de apisonadora al servicio del inglés (y de un reducido puñado de idiomas) y de la homogeneización lingüística. La realidad de los datos muestra que la Red tiene potencial para desencadenar ese apocalipsis cultural. Sin embargo, mirando con atención se observa un número nada despreciable de iniciativas de resistencia, más aún, de iniciativas que intentan convertir la amenaza en oportunidad.

El de las lenguas africanas es un escenario representativo, por diferentes motivos. Según los datos del proyecto Ethnologue, prácticamente una de cada tres lenguas que se habla en el mundo es originariamente africana, es decir, el continente alberga un 30 % de la diversidad lingüística del planeta. Al mismo tiempo, África es la región con menor penetración de Internet, es decir, con menor mercado actual. El panorama empeora. Si le sumamos la escasa producción tecnológica africana, parece que las nubes de tormenta se acercan. Y si además tenemos en cuenta que ninguno de los idiomas originariamente africano puede presumir de generar más del 0,1 % del contenido de Internet, según los datos de w3tech, parece que los nuevos tiempos tecnológicos y la era digital han dictado sentencia de muerte sobre la mayor parte de las 2.144 lenguas que se hablan en África.

Pero, en medio de la adversidad, aparecen indicios que desafían la fatalidad. El informe de Funredes, el observatorio de la diversidad lingüística y cultural en Internet, en una fugaz pero esperanzadora referencia señala: «Las mejores progresiones (de presencia en los contenidos de Internet) se corresponden con lenguas africanas y asiáticas». Y, a la vez, destacan modestas iniciativas que, desde el activismo cultural, reclaman el papel de las lenguas africanas o, incluso, que están convencidas de poder usar las herramientas digitales para garantizar la supervivencia de estos idiomas.

La asociación de blogueros guineanos, Ablogui, tiene una comisión dedicada a las lenguas cuyo objetivo es fomentar la generación de contenidos en alguna de las lenguas nacionales. Tafsir Balde es su responsable y reconoce que «el hecho de que solo una decena de lenguas copen el 90 % de los contenidos en Internet constituye una amenaza para las lenguas africanas». Sin embargo, lejos del derrotismo, este bloguero afirma que «ese es el motivo por el que tenemos que promover necesariamente el plurilingüismo y velar por que los contenidos web sean accesibles en el mayor número de lenguas posibles, para preservar esa diversidad lingüística y cultural». A pesar de la certeza del riesgo, Balde hace un análisis positivo: «A partir de mi experiencia en la promoción de las lenguas africanas, creo que Internet es una oportunidad para ellas en la medida en que el entorno digital puede ofrecer herramientas eficaces para su expansión».

Una lectura similar hace Sinatou Adedje Saka, una periodista beninesa afincada en Francia y una de las impulsoras de la plataforma Idemi, un instrumento que pretende hacer más visibles las lenguas africanas a través de las herramientas digitales. «Partiendo de la base de que las lenguas africanas están amenazadas, creo que, objetivamente, Internet es una oportunidad. El problema es que hoy Internet está dirigido por corporaciones estadounidenses que tienen el monopolio de todo lo que se comunica, pienso en Google o Facebook, y eso ha desnaturalizado el espíritu original de libertad e inclusión», se lamenta la periodista. «Son empresas privadas, con intereses privados, en las que no se puede confiar para la promoción de lenguas que no generen un rendimiento económico», añade.

A pesar de eso, Sinatou Adedje Saka es optimista. «Más allá de la discusión sobre los problemas de diversidad en el espacio digital», asevera, «Internet es una oportunidad porque puede desenclavar territorios; puede hacer las lenguas más visibles; puede aportarles herramientas nuevas, y abre debates muy interesantes sobre la transcripción de esas lenguas». «Hay mucho trabajo por hacer», afirma, «porque las grandes maquinarias de Internet solo prestan atención a lo que genera beneficios, pero hay un potencial muy grande de visibilidad y de conexión de diferentes círculos de reflexión, para superar las barreras que tienen en el mundo digital».




Una de las oportunidades que se abre para la cultura en lenguas africanas es la de la literatura. Un ejemplo de esta dinámica es la iniciativa de traducción del cuento «La revolución vertical», del keniano Ngũgĩ wa Thiong’o. Lo que el colectivo panafricano de escritores Jalada lanzó como una celebración de la diversidad lingüística africana acabó contagiando a idiomas de todo el mundo, en muchos casos, también minorizados y ha convertido este relato, escrito en kikuyu, en uno de los veinte relatos más traducidos de la historia, disponible en 87 lenguas.

Moses Kilolo fue el responsable de ese proyecto como redactor jefe de Jalada y explica que existe una considerable producción literaria en lenguas africanas, pero que el principal reto (y el freno) es la publicación. «Es un negocio», recuerda Kilolo, que apunta que los editores «analizarán los costos de la publicación de trabajos en idiomas africanos y el retorno de la inversión, así que las cifras pueden no ser siempre atractivas y desanimar al escritor y al editor».

Sin embargo, para este escritor que tiene la experiencia de explorar formas de publicación poco convencionales, «el trabajo de publicación en idiomas africanos a través de plataformas digitales ha aumentado en los últimos años». Y apunta dos razones: «El poder de contar nuestras historias en nuestros propios idiomas, como fuente de orgullo cultural y de preservación. Y la publicación en línea reduce mucho los costos. Solo necesitas conexión a Internet, alojamiento web, escritores y editores y ya tienes una bonita publicación en línea. Compartirla es relativamente fácil, ya que muchas personas tienen los dispositivos adecuados y pueden acceder desde cualquier lugar. Se eliminan dos de los mayores costos de publicación: la impresión y la distribución», concluye.

Kilolo, sin embargo, no pasa por alto el principal inconveniente de este sistema: «Es muy difícil ganar dinero en línea, aunque no es imposible. La solución es un híbrido de publicaciones impresas y en línea. El mayor acceso a la publicación en línea promoverá el objetivo de fomentar obras en idiomas africanos y brindar a los lectores la oportunidad de acceder a ellas. La monetarización de estas plataformas lo hará sostenible para los escritores y las plataformas. Sin embargo, monetarizar las plataformas en línea tiene sus dificultades, un enfoque híbrido con publicación impresa es útil para ganar más dinero y sostener toda la industria», resume Kilolo.

Partiendo de estos ejemplos y del entusiasmo de activistas culturales, vemos cómo el entorno digital se despliega como un aliado de las lenguas africanas, a través de herramientas de aprendizaje sencillo (o como mínimo accesible) de estos idiomas; de funcionalidades que aprovechan el atractivo que las redes sociales ya han demostrado y lo ponen al servicio de quienes no están en el radar de las grandes compañías, o de útiles que reducen las barreras idiomáticas.




Afrilangues.com, por ejemplo, es una web que ofrece la posibilidad de acceder a clases de una docena de lenguas africanas a través de diferentes formatos. Egbe es una aplicación que permite aprender (o, al menos, acercarse) al mina, una lengua que hablan algo más de 300.000 personas en Togo y Benín. Igual que «Je parle le bassa 2.0», que combina una aplicación móvil y un canal de Youtube para promover el aprendizaje de una lengua hablada por dos millones de personas, sobre todo en Camerún.

En otra línea, los desarrolladores y los emprendedores africanos están intentando hacer virtud de la necesidad y sacar partido de lo que para otros es un obstáculo, la diversidad lingüística y la falta de alfabetización en lenguas europeas. El ingeniero de Mali Mamadou Gouro Sidibé creó Lenali, una red social con dos particularidades. La primera era que funcionaba en idiomas de África occidental como el bambara, el soninke, el wolof o el sonray, además del francés. La segunda particularidad era que se trataba de una red social completamente vocal, es decir, Sidibé pensó especialmente en quienes no sabían leer ni escribir, para poner a su disposición todas las utilidades de las redes sociales.

La cuestión de la diversidad lingüística es un importante reto, en el que se ha fijado otro ingeniero, en este caso nigeriano, para desarrollar OBTranslate, una herramienta de traducción en línea, que promete traducciones de dos mil lenguas africanas, seguramente con un cierto margen de enfoque de márquetin. En todo caso, se trata de una herramienta que asegura estar explotando las funcionalidades de la inteligencia artificial para ofrecer un acceso a las lenguas a las que las grandes empresas no prestan atención.

Solo como indicios de una curiosa dinámica, se pueden mencionar dos episodios quizá anecdóticos. En primer lugar, la comunidad de tuiteros y tuiteras senegaleses despierta cierta envidia en otras de África occidental, por su uso habitual del wolof en la red social. Y en segundo lugar, seguramente no es casualidad que la página de Facebook con más seguidores en Tanzania sea una plataforma que ofrece informaciones en swahili. Concretamente, JamiiForums, una plataforma que permite a la ciudadanía nada más y nada menos que alertar de manera anónima de casos de corrupción.





Renata Ávila: «La Internet de la creación desapareció. Ahora tenemos la de la vigilancia y el control»

Una entrevista con la especialista en derechos humanos, tecnología y libertad de expresión sobre cómo las sociedades de hoy avanzan al ritmo del «colonialismo digital».





Hace tres décadas, Internet prometía ser el lugar democratizador al cual acudir para huir de las desigualdades del mundo analógico. Se nos presentó como el terreno donde encontrar libertades, creación desbordada, comunicación que traspasara fronteras y educación gratuita para todos. «Se nos prometió una Internet abierta… y fue una trampa», dice Renata Ávila, enojada. «Creíamos que estábamos construyendo algo colectivo, pero acabamos siendo esclavos sin sueldo del nuevo mundo digital.» Con motivo de la entrega del III Premio Internacional a la Innovación Cultural del CCCB, aprovechamos para conversar con una de las voces más influyentes y lúcidas del momento en el ámbito de la tecnología y los derechos humanos.

Conexión trampa para los pobres

El Internet Report Health 2019 recuerda que la mitad del mundo ya está conectado a Internet. Esto supone más de 4.000 millones de personas. Pero también podríamos darle la vuelta a la moneda y pensar que –pasadas tres décadas desde la creación de Internet– solo la mitad del mundo está conectada. ¿Qué pasa con los desconectados? ¿De qué manera se relacionan, se comunican, trabajan o se entretienen? «Quiénes están decidiendo para qué se van a conectar los que no tienen acceso a la red son las empresas tecnológicas que dominan el futuro de la industria. Y estas empresas solo representan el 1% hiperconectado», explica Ávila.

Cada una de las respuestas de su discurso —armado laboriosamente y con firmeza— desgrana un complejo entramado de conexiones que explican por qué hoy vivimos con las mismas desigualdades que en el pasado, o todavía más, aunque nos prometieran que Internet lo iba a cambiar todo. Aparentemente felices pero más controlados que nunca. Lo sabemos y, sin embargo, lo obviamos, porque no queremos perdernos nuestra porción de fama, de ego, de ser conocidos, de estar comunicados, de ahorrar tiempo aunque luego lo malgastemos en tonterías.

Esta abogada y activista habla con una perspectiva global de los movimientos que el poder del «colonialismo digital» lleva a cabo. Sus argumentos son imprescindibles para no dejarse arrollar por el mundo tecnológico, para no dejarse arrastrar por la corriente del divertimento efímero. Para ser plenamente conscientes de que, como individuos, no tenemos la batalla perdida, sino que podemos controlar el uso de nuestros datos, negarnos al reconocimiento facial o exigir que se cumplan las leyes de privacidad que nos protegen.

Ante la inminente transición al 5G ­–todos conectados a todos los objetos que nos rodean–, Ávila nos quita el velo de ingenuidad e insiste que Internet ya no va a ser nunca la que soñábamos. Ahora estamos dentro de la Internet de la vigilancia, el control y la medición.  «Puede que un trabajador de una fábrica en Bangladesh no tenga acceso a la red, pero está conectado a objetos que lo vigilan todo el tiempo. Monitorean su trabajo, que no se distraiga, que no hable con su compañero. Y lo que ven esas cámaras va a determinar su salario. La conectividad que se le ofrece hoy a los pobres es la del control y las cadenas.»

«Si yo fuera la presidenta…»

Los ejes prioritarios que el Internet Health Report ha destacado para este año son cinco:  privacidad y seguridad, descentralización, inclusión digital, apertura y alfabetización digital. Pero puestos a priorizar, ¿cuál de ellos es más urgente? «No se puede descartar ninguno», responde esta activista de pensamiento transversal. Y para explicarlo se proclama presidenta imaginaria de tres países: «Si yo fuera la presidenta del país A, que concentra las industrias tecnológicas más poderosas del planeta, mi decisión sería apostar por la descentralización. Porque si no fragmento estas empresas, que tienen tanto control y poder, con buenas leyes de la competencia, estoy alimentando a un monstruo que me va a tragar fácilmente y no voy a poder gobernar.»  El ejemplo nos traslada a Estados Unidos.

Y continúa. «Si yo fuera la presidenta del país B, que produce cierta tecnología y tiene a la población conectada, aunque todo lo que consumen los ciudadanos es del país A, que les roba sus datos, les da una infraestructura insegura y viola sus derechos fundamentales, mi preocupación fundamental sería la seguridad y la privacidad.» Y, de nuevo, vemos una analogía con esta Europa hiperconectada a Silicon Valley.

«Ahora bien, si yo fuera la presidenta del país C –donde no tengo a casi nadie conectado, no produzco industria y estoy consumiendo los servicios más baratos y menos preparados del país A, ¿qué haría? ¿Conectaría a los ciudadanos a un sistema centralizado gratuito a cambio de darle todos sus datos? Ni siquiera han desarrollado las habilidades de alfabetización digital. ¿Por dónde empiezo? ¿Los llevo a una nueva fase de dependencia, de colonización?» Las respuestas no son fáciles, apunta Ávila. «Deberíamos presionar a los países tipo B para que ofrecieran a los estados más pobres alternativas que permitieran revertir la situación actual. Solo así conseguiríamos un sistema equilibrado», propone, a modo de receta.

Los imperios de la vigilancia

Ávila, abogada internacional, defiende a ultranza la tecnología como herramienta para empoderar a la ciudadanía y conseguir una transparencia verdadera de los gobiernos y las multinacionales. Ese es precisamente el objetivo de la Fundación Ciudadanía Inteligente, de la cual es directora ejecutiva desde el 2018.

Explica que la combinación de poder con un grado muy sofisticado de desarrollo tecnológico y un fuerte empuje de mercados permiten que Estados Unidos y China tengan acceso a los países pobres, para explotarlos y controlarlos, ahora tecnológicamente. Ante la pregunta de si hay alguna escapatoria al panorama desolador y manipulado que dibuja, la abogada se encoge de hombros y responde: «La única esperanza para redefinir este imperialismo tecnológico es que Europa asuma el liderazgo que le corresponde. Que ofrezca opciones que respeten derechos humanos y modelos de negocio alternativos, no basados en el extractivismo de los datos. Esta Europa no será competitiva en el mercado pero lo podría ser desde los gobiernos, poniendo el interés social en el centro.»

El colonialismo digital

Pocas empresas concentran mucho poder y, lo peor –asegura Ávila–, controlan el pensamiento de colectivos enteros. Bienvenidos al «colonialismo digital». Trump, el Brexit, Bolsonaro y Johnson son ejemplos de dominación. Pero también lo son el imperio norteamericano GAFAM (Google, Amazon, Facebook, Apple y Microsoft) y el chino BATX (Baidu, Alibaba, Tencent, Xiaomi).

«En el inicio del siglo XXI, una de las cuestiones que más me emocionaba del acceso a Internet era la posibilidad de producir infinitas copias de libros y compartir conocimiento. Esa idea de que Internet iba a ser una herramienta de integración y de acceso al conocimiento se ha desintegrado en pedacitos. Era una trampa. Colaboramos como esclavos sin sueldo del nuevo mundo digital. Me siento como cuando llegaron los colonizadores españoles a Latinoamérica. Nos creímos el cuento de «un mundo nuevo». Y estábamos en una caja, controlada por el país más poderoso del mundo. Debimos haber regulado mucho antes. Y haber dicho: «Te comparto mi foto, pero ¿cómo te beneficias tú y cómo yo?» Porque lo que hoy estamos haciendo es trabajar gratis: con nuestro tiempo, creatividad y energía pagamos a estos imperios. Les damos de todo.»

Y remata el discurso asegurando que no solo están a merced nuestras tierras, como en el pasado, sino también lo más íntimo de cada uno de nosotros, lo más vulnerable: «Somos totalmente predecibles, controlables. Y eso quiere decir manipulables. Me preocupa mucho.»

Un control que se ejerce, sin duda alguna, a través de los algoritmos implementados en las aplicaciones de nuestros móviles, en los servicios públicos, en las empresas que nos venden productos. Algoritmos que toman decisiones de manera automática, que influyen en nuestras acciones más cotidianas, pero que desconocemos por la opacidad que impera en nuestro alrededor. Por no hacer el esfuerzo de aprender. Por no querer saber.

«Estoy en el consejo consultivo de una iniciativa del Banco Interamericano de Desarrollo para hacer diez pilotos de aplicaciones de inteligencia artificial en el sector público. Nuestra primera pelea es que deben ser transparentes y auditables», explica con esperanza. «Empecemos por ahí, ya que no podemos atacar al sector privado.»

La precarización vendida como oportunidad

Entramos en el terreno ético y preguntamos a Ávila por tres conceptos que han cambiado de significado en la última década, precisamente por la aceleración con la que hemos adoptado la tecnología. Son la confianza, la privacidad y la transparencia; le preguntamos también cómo influyen en las nuevas generaciones. «No podemos divorciar estas tres nociones de los conceptos de austeridad, precariedad y crisis de corrupción institucional», argumenta. «Dejar entrar a extraños en tu casa y que pasen la noche, ¿es un exceso de confianza o la necesidad de buscar recursos?»

Para la activista, la intensa precarización del trabajo, la carencia de oportunidades para los jóvenes y la traición de los estados –que apostaron por salvar bancos fallidos después de la crisis económica antes que preocuparse por el futuro de sus ciudadanos–, han abocado a la gente a encontrar otros recursos. «¿Cuántos taxistas de Über me he encontrado que tenían dos grados universitarios? El fallo es muy sistémico.»

Estamos inmersos en dos crisis superimportantes, a las que no queremos hacer el menor caso, «pero un día van a explotar y nos vamos a enterar», comenta Ávila. No se puede obviar que tanta tecnología forzosamente ha de pasar factura al medio ambiente. Crisis medioambiental pero también tecnológica. No podemos desacelerar el momento, y mucho menos regresar al pasado, cuando las conexiones solo eran presenciales. ¿Qué hacer? Ella tiene una fórmula, que quizás no sea «mágica», pero podría resultar: cambiar las lógicas con las que funcionamos. Y consiste precisamente en confiar en la innovación tecnológica para dañar menos el planeta. «Dejar atrás la obsolescencia programada, el modelo extractivista de datos, almacenar menos en servidores gigantes que necesitan sistemas de refrigeración monumentales, etc.»

Mensaje optimista para el presente

Después de todo lo comentado, alguien podría pensar que esta activista guatemalteca es tan realista que no deja espacio ni para el optimismo. Pero a Renata Ávila no le gusta ser negativa, y está convencida de que el género humano es capaz de sacar recursos para salir de cualquier «quilombo», hasta en los momentos más críticos. Con una media sonrisa de preocupación, dice: «Tenemos un cóctel perfecto: crisis democrática provocada por unos líderes en el poder terribles, crisis de cambio climático y crisis tecnológica. Esto solo puede provocar una reflexión colectiva que nos haga replantear en qué planeta queremos vivir en el futuro.»





Orwell en tiempos de reconocimiento facial

La distopía de George Orwell, «1984», presenta similitudes con el presente y avanza dilemas éticos todavía hoy difíciles de abordar.


CC-BY-NC Martín López, 2019

Se cumplen siete décadas de la publicación de 1984, la ficción política más citada de la cultura contemporánea. Los avances en macrodatos, vigilancia e inteligencia artificial convierten su lectura en un ejercicio de inquietante actualidad. Con motivo del Día Orwell, que desde 2013 se celebra en el CCCB, releemos la novela con una nueva mirada. Encontramos similitudes con el presente más inmediato y dilemas éticos todavía hoy difíciles de abordar.

El 8 de junio de 2019 se cumplieron setenta años de la publicación de 1984, la novela distópica por excelencia. Escrita por Eric Arthur Blair, nombre real de George Orwell, describe una sociedad futura en la que un régimen totalitario controla todos los aspectos de la vida a través de la vigilancia continua. Un escenario dantesco que tuvo un fuerte impacto en plena Guerra Fría, pero que pervive por su inspirada capacidad de anticipar fenómenos como la posverdad, la videovigilancia y, de manera más sutil, formas de aprendizaje de máquinas e inteligencia artificial.

El rastro de las emociones

A la espalda de Winston, la voz de la telepantalla seguía murmurando datos sobre el hierro y el cumplimiento del noveno Plan Trienal. La telepantalla recibía y transmitía simultáneamente. Cualquier sonido que hiciera Winston superior a un susurro, era captado por el aparato. Además, mientras permaneciera dentro del radio de visión de la placa de metal, podía ser visto a la vez que oído. Por supuesto, no había manera de saber si le contemplaban a uno en un momento dado. Lo único posible era figurarse la frecuencia y el plan que empleaba la Policía del Pensamiento para controlar un hilo privado. Incluso se concebía que los vigilaran a todos a la vez. Pero, desde luego, podían intervenir la línea de usted cada vez que se les antojara. Tenía usted que vivir –y en esto el hábito se convertía en un instinto– con la seguridad de que cualquier sonido emitido sería registrado y escuchado por alguien y que, excepto en la oscuridad, todos sus movimientos serían observados. [1]

George Orwell escribió 1984 en la isla de Jura, Escocia, entre 1947 y 1948. A mediados del siglo xx la televisión todavía era un medio minoritario, y las cámaras de videovigilancia no se comercializaron en Estados Unidos hasta 1949, apenas un año antes de la muerte del escritor. Sin embargo, la novela anticipa una proliferación masiva de pantallas, que todavía hoy se extiende, desde los multicines hasta el reloj inteligente. Las telepantallas de 1984 –vagamente descritas como «una placa oblonga de metal, una especie de espejo empañado»– son aparatos bidireccionales, que emiten mensajes pero a la vez captan los sonidos y expresiones faciales más sutiles. Dispositivos ubicuos e implacables, pues registran desde «una inconsciente mirada de inquietud» hasta un tic nervioso o incluso el ruido intestinal.

Pese a que los recelos hacia la videovigilancia no son nuevos, es sorprendente contrastar cómo los recientes desarrollos en el campo de la inteligencia artificial nos acercan a escenarios como los descritos en 1984. Los más obvios son los de los sistemas de reconocimiento facial, programas informáticos capaces de identificar a una persona en imágenes o vídeos y asociar su rostro a bases de datos preexistentes, como ficheros policiales, hábitos de consumo de Internet, publicaciones en redes sociales, etc. Una tecnología que es legal, barata y accesible, tal y como demostró un reportaje de The New York Times en el que uno de sus editores construye un sistema de este tipo, plenamente funcional, por apenas sesenta dólares.

El temor al potencial de estas herramientas ya ha llevado a la ciudad de San Francisco a prohibir su uso a la policía y otras instituciones públicas. «Podemos tener una buena vigilancia sin ser un estado policial», argumentó Aaron Peskin, el político que abanderó la medida, «y construir una confianza basada en una buena información comunitaria, no en la tecnología del Gran Hermano». Un debate que queda lejos en otros lugares del mundo, como en China, donde el gobierno de Xi Jinping está sentando las bases para un control tecnológico casi universal.

CC-BY-NC Martín López, 2019

Del Gran Timonel al Gran Hermano

Si bien el reconocimiento facial y otras tecnologías empiezan a ponerse en duda en Estados Unidos, su uso en China está tomando un carácter perturbador. Los avances en macrodatos e inteligencia artificial, combinados con la extensa red de cámaras de videovigilancia ya presente en el país, son un campo abonado para el testeo y la implementación de experimentos avanzados de control social. El más emblemático es el llamado Sistema de Crédito Social. Aún en periodo de pruebas, aspira a combinar toda la información personal y de comportamiento de la población y las empresas para asignarles un nivel de confianza, que luego se puede reducir o incrementar. Donar dinero a una ONG suma puntos, del mismo modo que cuidar a personas mayores o dejar en buen estado una habitación de hotel. En cambio, no pagar una multa los resta, pero también puede hacerlo comportarse mal en el transporte público o fumar en un hospital.

Un buen crédito social puede significar rebajas en las facturas o usar ciertos servicios sin tener que dejar fianza, por ejemplo. Uno bajo, puede penalizarse con un acceso limitado a préstamos bancarios o a buenas escuelas para la familia, entre muchas otras posibilidades. En el peor de los casos, y para aquellos comportamientos que el gobierno considere especialmente perjudiciales, se puede entrar en una lista negra con mayores restricciones, como no poder comprar billetes de avión o adquirir una propiedad. Cómo se ingresa y se sale de esas listas es una incógnita, sobre todo teniendo en cuenta que el sistema judicial chino no es independiente en términos de estándares internacionales. Por este motivo, algunas personas se encuentran en callejones legales, con la sensación de que, parafraseando a Winston Smith de 1984, «nada es ilegal porque no existen las leyes».

Las voces defensoras del Sistema de Crédito Social argumentan que en realidad recompensa a las personas y empresas que contribuyen al bien social. No obstante, la sola existencia de un dispositivo de este calado implica una recolección masiva de datos que necesariamente invade todos los aspectos de la vida personal. Un acopio de información que combina registros gubernamentales previos, el rastreo por parte de empresas proveedoras de Internet y sistemas de vigilancia cada vez más sofisticados, entrenados para reconocer rostros, voces e incluso los andares de la población.

La cárcel perfecta

Pese a que la novela de Orwell no describe un sistema de reputación como el chino, sí plantea un futuro en el que, además de castigar las infracciones, se premia la corrección social. Así, es bueno celebrar las victorias del Gran Hermano, delatar a traidores, mostrar odio público hacia el enemigo o unirse a la Liga Juvenil Anti-Sex. Si cada persona tiene «la seguridad de que cualquier sonido emitido sería registrado y escuchado por alguien», la única solución para sobrevivir es modificar la forma de actuar, tanto pública como privada.

Entre los autores que han estudiado los efectos sociales de la vigilancia destaca Michel Foucault, con su revisión, en los años setenta, del concepto de «panóptico». El panóptico, recordémoslo, es una estructura arquitectónica para cárceles ideada por Jeremy Bentham que permite a los vigilantes observar a los presos en todo momento. Estos, a su tiempo, viven siendo conscientes de que son examinados, pero nunca saben exactamente cuándo. Para Foucault, esta construcción es el ejemplo de sistema disciplinario perfecto, cuya filosofía se ha extendido a toda la sociedad gracias a instituciones correctivas como escuelas u hospitales. La sociedad panóptica aísla a las personas para analizarlas individualmente y de manera constante; un mecanismo que permite «ver sin cesar y reconocer inmediatamente». Su mayor efecto es inducir a cada persona a «un estado consciente y permanente de visibilidad que garantice el funcionamiento automático del poder». Como en el caso de un preso, «lo esencial es que se sepa vigilado; demasiado, porque no tiene necesidad de serlo efectivamente».

Poco hay que añadir a las palabras de Foucault vistas desde la perspectiva de 1984, un relato que centra su tensión narrativa en una sensación asfixiante de control. Desgraciadamente, tampoco es complicado encontrar paralelismos entre esta obra y un mundo que ya conoce las revelaciones de Edward Snowden. Recordemos que en 2013 este exanalista de la agencia de seguridad de Estados Unidos confirmó la sospecha de que su gobierno y el de otros países recopilaron datos de miles de millones de personas de manera masiva, incluyendo comunicaciones de jefes de estado.

CC-BY-NC Martín López, 2019

Sospechas de futuro

Pese a que Orwell fue un autor reconocido en vida, no vivió para ver el éxito de su última novela. Murió de tuberculosis en Londres en 1950, apenas unos meses después de que la obra se publicara. Eso también le impidió comprobar cómo algunas de sus predicciones se acercan cada vez más a la realidad. Además de vivir rodeados de telepantallas, los personajes de la novela trabajan con un hablescribe, un aparato al que se dictan textos, parecido a los sistemas actuales de reconocimiento de voz. El autor intuyó incluso la creatividad automatizada, ilustrada por artilugios como el versificador, que combina rimas para crear canciones sin intervención humana.

Curiosamente, tanto las invenciones como los escenarios ideados por Orwell tienen que ver con el uso perverso de máquinas o con su potencial para anular a la humanidad. Un temor tan ancestral como el mito de Prometeo, pero que se conecta con los dilemas que genera la aceleración tecnológica actual. ¿En qué momento una innovación provoca un cambio político y cultural? ¿Tenemos en cuenta el impacto social de la tecnología? ¿Qué trae consigo una sociedad enteramente basada en la comunicación interpersonal?

Isaac Asimov dijo de 1984 que era una novela más comentada que leída. Es algo que solo puede ocurrir cuando un relato se convierte en icono de la cultura popular. Una condición que no parece tener fecha de caducidad en el caso de Orwell, ya que trazó una buena metáfora de los totalitarismos del siglo xx que también es útil para analizar los aspectos más polémicos de la revolución digital.


[1] Traducción de Miguel Temprano García.





Repensar Internet desde la cultura

Los finalistas del Premio Internacional a la Innovación Cultural nos ofrecen diferentes maneras de concienciarnos y afrontar los retos que implica el presente-futuro de Internet.


Redes usadas para la pesca de salmón. Astoria, Oregón, 1941 | Library of Congress | Sin restricciones de uso conocidas

¿Qué podemos hacer, desde la cultura, para un Internet más libre, igualitario y abierto? Esta es la pregunta que plantea la tercera edición del Premio Internacional a la Innovación Cultural, con el objetivo de estimular iniciativas que ofrezcan soluciones críticas e imaginativas para una de las herramientas globales más decisivas del siglo XXI. Los nueve proyectos finalistas son una buena muestra de la diversidad de ideas con las que podemos afrontar este reto.

Recientemente Mozilla Foundation ha publicado el Internet Health Report 2019, que se estructura alrededor de cinco ejes (privacidad y seguridad, apertura, inclusión digital, alfabetización digital y descentralización) y pone la atención en tres temas (la inteligencia artificial, la publicidad en línea y el poder de las ciudades). Preferiríamos no conocer la mayor parte del informe, porque arruina en buena medida la gratificación inmediata que nos aporta cada clic, cuya facilidad es directamente proporcional a la cantidad de procesos tecnológicos que esconde, que a menudo preferimos ignorar. Pero tenemos opciones: qué operadora y qué software queremos utilizar, qué riesgo de seguridad queremos asumir, hasta qué punto queremos proteger nuestra privacidad, si preferimos ser emisores o receptores, si queremos un consumo mediado. Por no hablar de la dimensión física de la red: ¿quién está conectado y quién no? ¿Cuál es la huella ecológica de cada uno de los procesos que seguimos?

En esta edición del premio, la gran cantidad de propuestas presentadas, su calidad y su grado de elaboración son un reflejo de la relevancia de Internet a nivel global. Es buena prueba de ello la presencia de iniciativas que ya están en marcha o que tienen un largo recorrido. Una vez la comisión técnica, integrada por personal del CCCB, ha analizado las candidaturas, se han seleccionado los nueve proyectos que pasarán a ser valorados por un jurado internacional.

Nueve propuestas para mejorar la red

¿A qué huele Internet?

Internet, el digitalismo, no huele a nada. La información nos entra por ojos y oídos, y sale de nuestras manos y boca, pero no olemos (ni nos olemos) nada. Miles de millones de personas en el mundo, al conectarse a la red, se convierten en anósmicas. Este proyecto se cuestiona si podemos acercarnos a Internet con todos nuestros sentidos y, de poder hacerlo, qué cosas cambiarían. ¿Podemos otorgar olores a los cientos de eventos, programas o mensajes que se producen diariamente en Internet? ¿Podemos empoderarnos y crear una red más sensorial, menos binaria, o debemos esperar a que las máquinas nos huelan para descubrir la importancia del olfato? Es tiempo ahora de experimentar con las posibilidades de comunicación y expresión de los olores de una manera que solo los entornos electrónicos y el ecosistema de Internet permiten.

Data Corruptor

Data Corruptor es una propuesta de proyecto en la intersección del arte, la investigación y la tecnología, que cuestiona las dinámicas de la apropiación y la mercantilización de datos personales en el entorno digital actual. Explora formas de proteger la privacidad personal de los usuarios de Internet.

Lo hace descubriendo recursos para resistir el rastreo de datos personales en entornos digitales, abordando el problema y la posibilidad de resistir la marketing intelligence para proteger tu derecho básico a la privacidad. Mediante la creación de una red de «data corruptors», formada por científicos de datos o especialistas en minería de datos, entre otros, se pueden explorar posibles futuros y transferir conocimientos de privacidad digital a un usuario medio. Todo para una Internet más crítica, más libre, menos censurada y capitalista, y para un entorno digital de usuarios emancipados y empoderados.

Entrepensar

Entrepensar es un maratón de 12 horas donde se combinan dinámicas de investigación artística y de Investigación Responsable e Innovación  (RRI en las siglas originales) en una serie de talleres híbridos y transdisciplinarios, donde los participantes crearán de forma colectiva una carta sobre cómo debería ser la Internet del futuro, basada en valores éticos compartidos.

Entrepensar se organiza así en relación con dos objetivos centrales: uno de carácter formal, que busca establecer metodologías de innovación cultural, y otro de contenidos, que pretende concienciar sobre los problemas éticos y sociales que presentan las tecnologías digitales para intentar solucionarlos.

Entrepensar propone una metodología que —de forma transdisciplinaria e indisciplinaria— combine debates filosóficos, prácticas artísticas y mecanismos científicos desde los que crear nuevas perspectivas comunes de conocimiento. Una forma colectiva e inclusiva de entender la realidad, situada cultural y temporalmente.

Let’s Work It Out Browser

Let’s Work It Out Browser es una intervención performática que examina de una manera crítica y amena el impacto físico y ecológico en nuestras vidas regidas por navegadores. Tomando como base la estructura de Internet (el dominio, el router, el módem, los centros de datos, los servidores, el HTML, etc.), se crearán una serie de elementos escultóricos y performáticos en los cuales se apreciarán el esfuerzo, el sudor y el afán necesarios para navegar por una página web.

Concebido como una escultura con vida propia, un aula y una zona de práctica, Let’s Work It Out Browser se enmarca en los movimientos ecofeministas que invitan a vivir con una mayor conexión con nuestro planeta. Teniendo esto en cuenta, el proyecto pretende bajar a la tierra la retórica atmosférica y cosmológica de Internet y actuar como plataforma de lanzamiento de la «Declaración del Futuro Ecosocial de Internet». 

Hyperaudio Pad - How to edit, embed and view | Hyperaud.io

Hyperaud.io

Hyperaud.io for Schools es una iniciativa que promueve la alfabetización digital en el aula. Es una tecnología centrada en transcripciones de tiempo limitado y que consigue que la composición digital sea intuitiva y divertida. Las obras digitales se pueden crear moviendo unos cuantos párrafos de sitio. Las transcripciones hacen el contenido más accesible para las personas con discapacidad auditiva o dificultades de aprendizaje, y también para los usuarios de otra lengua materna. Cuando el contenido audiovisual se ha transformado en texto, es más fácil hacer búsquedas, compartir y navegar. Todas las combinaciones se pueden volver a combinar y, mediante las transcripciones, incluso se pueden traducir automáticamente a otro idioma y conseguir un alcance todavía más global.

Es fundamental el hecho de que no se corta ningún contenido digital: una composición solo es una lista de reproducción de fragmentos digitales que empiezan y terminan en un tiempo concreto, de modo que para una composición se pueden valorar fuentes y contextos preservando sus derechos digitales.

El proyecto Hyperaud.io for Schools creará un prototipo web que se probará en las escuelas con el fin de que niños y niñas aprendan a autoevaluarse y a expresarse con medios digitales y de que obtengan un buen nivel de alfabetización digital, una competencia esencial.

Plateforme Data Africa

La ausencia de una interfaz única dificulta la coordinación y la difusión de proyectos de promoción de los datos abiertos en África, e incluso limita la explotación de esos datos. La Ligue Africaine des Blogueurs et Cyber-activistes pour la Démocratie (Africtivistes) propone una plataforma africana, www.data.africa, que sea una interfaz común, una base de datos y una herramienta para comunicar los proyectos.

Africtivistes apuesta por potenciar la disponibilidad de datos abiertos para incrementar el protagonismo de la ciudadanía en los procesos democráticos. Se trata de una organización panafricana de blogueros y blogueras activistas que promueven los valores democráticos, los derechos humanos y la buena gobernanza mediante el entorno digital. Estos objetivos se concretan en fomentar la democracia real y participativa, la ciberdemocracia, el e‑gobierno y la cultura democrática en cada país. Es centinela de la democracia y lidera diferentes proyectos de implicación ciudadana.

Verificat Participa

Verificat Participa es un laboratorio de investigación contra la desinformación en Internet que busca experimentar formas de participación ciudadana que mejoren la calidad de la información accesible en la red creando una plataforma colaborativa de verificación. El objetivo es conseguir que sea la ciudadanía la que, mediante fuentes autorizadas, bases de datos e información de especialistas, desmienta los rumores que proliferan en Internet. Es decir, conseguir que los mismos consumidores de la desinformación sientan la necesidad y el interés de contrastarlos.

Se pretende empoderar a los lectores mediante canales de acceso a la información pública y a los datos abiertos, y crear un espacio compartido de fuentes conectado a las propias noticias para que las verificaciones colectivas generadas por la ciudadanía tengan difusión real en la sociedad. La sinergia entre lectores, profesionales de la información, tecnología e instituciones tiene como objetivo mejorar la transparencia y la calidad de la información.

Web Choreographies

Web Choreographies: Hypothesis on Agents and Agencies es un proyecto de investigación sobre la noción de interconexión en el que la interfaz se convierte en escenario para la actuación y la representación de sus lenguajes: las acciones y los gestos de codificación. El proyecto se centra en las distintas condiciones para una interconexión afectiva entre el cuerpo y la tecno-ecología y para participar en un proceso de base comunitaria que favorezca las herramientas de código abierto y la investigación desde una mirada feminista. De este modo, se pretende crear un sistema de programación web modular y de recursos HCI; un conjunto de scripts para la creación de coreografías comunes e inclusivas en los medios digitales y los sistemas.

Web Choreographies: Hypothesis on Agents and Agencies | Fuente: Ana Caria Leonor Fonseca

World Wi(l)de Web

World Wi(l)de Web es un videojuego web donde el jugador asume primero el papel de gestor de proyectos de vigilancia, censura y propaganda en el Departamento de Supervisión del Ciberespacio de un Estado semiautoritario, y más adelante se convierte en director de minería de datos y análisis avanzado en una compañía de inteligencia empresarial y comunicación estratégica. El jugador gestiona el despliegue de tácticas reales empleadas para monitorizar, predecir y encauzar el comportamiento de los usuarios en la red, mientras debe defenderse ante distintos riesgos (leyes de privacidad digital, hacktivismo, medios de comunicación, etc.).

El proyecto combina diversos formatos narrativos y mecánicas vanguardistas, aspirando a un nivel de realismo e interactividad que trascenderá el mero entorno virtual del juego. Con todo ello se pretende reivindicar el gran potencial de los juegos como vectores de conocimiento y para el fomento del pensamiento crítico.

Vías y tendencias

Internet nos invade e impregna todos los ámbitos de nuestra vida, pero lo hace bajo la apariencia de ser algo diluido o existente por sí mismo solo en la nube. No obstante, Internet es físico y tiene consecuencias perceptibles y mensurables en los ecosistemas, los hábitos y las relaciones interpersonales, y tiene un papel importante en la construcción de los sistemas de creencias.

En consecuencia, muchos de los proyectos presentados al premio ahondan en el lenguaje computacional y las posibilidades técnicas que su avance implica, pero en buena medida también reflexionan sobre el impacto social, ambiental y político del uso que hacemos de las redes, y plantean prácticas y vías alternativas. El conjunto de los proyectos revela algunas pautas comunes:

Internet está entre nosotros y ha llegado para quedarse, pero las iniciativas culturales y las propuestas presentadas en esta convocatoria del Premio Internacional a la Innovación Cultural nos enseñan que hay maneras y maneras de concienciar y de mostrar qué lo ha causado y cómo debemos hacer frente a sus consecuencias. Y todas las propuestas lo hacen sin caer en la desesperanza, el cinismo o el nihilismo.





¿Un posthumanismo más humano?

Las transformaciones científicas y tecnológicas en las que estamos inmersos afectan a nuestra propia condición humana. ¿Cuál es el sentido de tendencias como el posthumanismo? ¿Cómo pensar este «después»?


Taller de prótesis, ca. 1920 | George Grantham Bain Collection (Library of Congress) | Sin restricciones de uso conocidas

En los últimos años ha cobrado importancia el concepto de «posthumanismo», en gran medida gracias a pensadores como Rosi Braidotti, Franco «Bifo» Berardi o Peter Sloterdijk, que recientemente han visitado el CCCB. Sin embargo, como la propia Braidotti afirmaba en la entrevista publicada en este blog, el posthumanismo no es un concepto cerrado, sino «más bien un índice para describir nuestro momento». No se trataría de comprender lo que el hombre es en esencia, sino de decidir lo que queremos ser, nuestro devenir como especie.

Asistimos a una época de incertidumbres y falta de certezas. La modernidad construida alrededor de un relato de progreso del conocimiento ha quedado en entredicho y, con ella, también el proyecto humanista fundamentado en una racionalidad instrumental, a partir de la cual el hombre debía ser capaz de transformar el mundo en su propio beneficio. Sin embargo, el conocimiento científico-técnico parece haberse mantenido al margen de esta crisis, hasta el punto de encontrarse en medio de una nueva revolución. Cuando celebramos treinta años del lanzamiento de la World Wide Web, en un momento en el que conceptos como «inteligencia artificial» o «machine learning» tienen cada vez más peso en los debates de la sociedad, parece inevitable repensar cuál es la relación entre el hombre y la técnica. ¿Es posible seguir pensando en la técnica como aquello que nos permite emanciparnos de nuestras necesidades y aumentar nuestra autonomía? ¿O bien debemos mantener la actitud crítica de rechazo a la racionalidad técnica, como algo inalienable del discurso de dominación que ha llevado a un mundo insostenible? Volvemos a una reconocible encrucijada: la tecnología desde el recelo o la tecnología como solución.

Ahora bien, ¿de qué hablamos cuando nos referimos a la técnica? Desde sus orígenes, el hombre se ha relacionado con el mundo de modo artificial. La técnica, por lo tanto, no sería otra cosa que la forma en la que el hombre se relaciona con el mundo, o, mejor dicho, el modo en el que el hombre construye su mundo. Quizás el problema no sea abrazar o rechazar la tecnología, sino analizar el mundo singular configurado a partir de la ciencia y la técnica contemporáneas. Examinar cuales son las condiciones de aquello que comúnmente llamamos «nuevas tecnologías» para, de este modo, poder determinar cuáles son sus mecanismos de poder, y cómo afectan y transforman la subjetividad contemporánea. Recuperar, como sostiene Marina Garcés en Nueva Ilustración radical,[1] la actitud crítica que ha quedado atrapada en un discurso que asimila la razón al proyecto civilizador de dominación propio del capitalismo moderno. Solo entonces podremos conocer el potencial emancipador que todavía hay en la tecnología. Parafraseando a Franco «Bifo» Berardi, se trataría de desarrollar herramientas conceptuales para orientarnos en el territorio de la transformación del sujeto contemporáneo.[2]

La humanidad aumentada

Es en este contexto donde cobra sentido el debate en torno al posthumanismo. Los nuevos cambios tecnológicos permiten pensar en una transformación significativa de lo que implica ser «humano». En su ensayo La humanidad aumentada,[3] Éric Sadin enuncia el surgimiento de una nueva forma de hombre fruto de una nueva relación entre lo humano y lo tecnológico. Durante décadas, la ciencia ficción ha especulado sobre la inteligencia artificial y ha llenado nuestro imaginario de ciborgs y hombres-máquina. Recientemente, podemos encontrar manifestaciones en la cultura popular que nos advierten de los peligros del «prometeísmo» a través de ficciones –como Terminator 3: La rebelión de las máquinas o Vengadores: la era de Ultrón– en las que las máquinas alcanzan un nivel de consciencia y autonomía que las lleva a rebelarse contra su subordinación al humano. Sin embargo, como es habitual, la realidad es más compleja. La «humanidad aumentada» de Sadin no remite necesariamente a robots antropomórficos; sino más bien a la constitución de una nueva realidad cibernética, construida a través de la incursión en el mundo de un sistema computacional infinito, fragmentado e invisible que abarca todas las esferas de la vida.

Según Sadin, esto habría sido posible gracias a tres factores. Por un lado, el avance en las técnicas de computación habría permitido una nueva interacción más dinámica con las máquinas. Gilbert Simondon, pensador influyente por sus reflexiones sobre la técnica, afirmaba que la revolución tecnológica no reside en un aumento de la potencia de cálculo, ni en una mayor automatización, sino «en el hecho de que una máquina preserve un cierto grado de indeterminación».[4] Con esto, Simondon llama la atención acerca de la capacidad de las máquinas para relacionarse con los datos y la información exterior de un modo casi sensible, incrementando notablemente su autonomía.

En segundo lugar, la ambición del ideal de dominio científico-técnico alcanza hoy en día un nivel de organización y cuantificación que conlleva la generación de un duplicado computacional del mundo. Si tradicionalmente la técnica servía para mediar con la realidad, actualmente el objeto de esta mediación no es tanto la realidad como su réplica digital. Sin embargo, no disponemos de los conocimientos técnicos para comprender la naturaleza de estas conexiones, por lo que se genera una nueva barrera con el mundo que implica, según Sadin, una «pérdida de visibilidad y de fricción sensible con las cosas, para introducir juegos de interferencia imperceptibles y automatizados».[5]

Por último, para que la transformación sea efectiva han sido necesarias la generalización y la universalización del uso de dispositivos tecnológicos, cada vez más completos y portables, que han permitido al sujeto digital estar conectado en todo momento. Este último punto permite cerrar el círculo: el smartphone como paradigma y puerta de entrada a esta nueva relación con lo tecnológico. Este dispositivo requiere de un nivel de interacción dinámico y flexible, así como de una cantidad ingente de datos que le permiten asistir de forma adecuada al nuevo sujeto digital. Pero a la vez sirve como fuente de datos para este mismo sistema cibernético, completando así la retroalimentación. La técnica contemporánea ya no se localiza en un objeto o dispositivo, sino en un entramado sistémico que conforma lo que el autor francés define como un «holismo computacional».

El mundo como pantalla. Diálogo entre Ingrid Guardiola y Franco Berardi | CCCB

Un orden conectivo

La nueva subjetividad se constituye en este feedback entre nuestros dispositivos tecnológicos y el holismo computacional, y lo hace a partir de un doble gesto. En un primer momento se aniquila la posibilidad de una relación más sensitiva, al introducir una barrera con la nueva imagen del mundo. Solo entonces es posible recrearlo, ahora desde una asistencia digital fundamentada en un nuevo tipo de relación que se constituirá de forma necesaria y prestablecida. Berardi define esta transformación como el paso de la relación conjuntiva a la conectiva. Si la primera surge de la espontaneidad de la acción concreta y singular, fruto de nuestra capacidad empática para relacionarnos con la alteridad; la segunda respondería a la dimensión racional que nos permite abstraer la dimensión concreta y elaborar un entramado de signos compatible con una determinada estructura sintáctica, en este caso, el mundo digital. Para relacionarnos con el duplicado en la infoesfera es necesaria una relación conectiva, que rehúye del contacto directo y no deja lugar a lo indeterminado. En el orden conectivo, las relaciones se normativizan, se vuelven homogéneas y regladas. Hablamos del cambio directo sufrido por el hecho de estar constantemente sometidos al modo de hacer digital y algorítmico. Pero también de una mutación más profunda en nuestra sensibilidad. Nuestro cerebro, incapaz de adaptarse al ritmo y la cantidad de información que impone la realidad cibernética, se ve saturado, colapsado y forzado a economizar sus procesos. El único modo que tenemos de relacionarnos es asumir el nuevo lenguaje y adaptarnos a él. Para ello, sucumbimos al uso indiscriminado de dispositivos que, gracias a esa nueva computación dinámica, son capaces de orientarnos. El individuo es asistido por todo tipo de dispositivos y algoritmos que deciden por él y lo hacen encajar, a través de una coerción soft y transparente, con el nuevo mundo digital. En este proceso de homogenización, se evita cualquier tipo de indeterminación y diferencia que no favorezca la eficiencia del sistema. En su situación ideal, la nueva humanidad que surja de este nuevo paradigma no será política, en la medida en que no habrá en ella ni conflicto ni decisión. Pasamos del humano al posthumano a través un aumento de las capacidades. Su nueva relación con la técnica le permite adaptarse al nuevo mundo digital. Sin embargo, vemos como, lejos de abrir el campo de juego y hacernos más libres, esta nueva relación con la tecnología parece arrojarnos, paradójicamente, a un orden determinístico en el que nuestro comportamiento se inscribe en una serie de automatismos.

Dicho esto, parece que la única salida pasaría por volver a la dicotomía inicial y rechazar la tecnología, ahora bajo la forma de las redes sociales, las economías de plataforma o los aparatos de control biométrico… Sin embargo, urge preguntarse si no sería más interesante intentar romper la dicotomía planteada e ir más allá de este rechazo; intentar encontrar un modo crítico de acercarnos a la técnica. Desde este planteamiento, es posible entender de otro modo el posthumanismo, situándolo en la crisis del humanismo que surge tras el olvido de lo indeterminado. Bajo el dominio de la racionalidad técnica, el hombre queda reducido a su vertiente conectiva, viéndose inmerso en una serie de automatismos y predeterminaciones que anulan su singularidad. Existe una cierta inconmensurabilidad en lo humano que imposibilita cuantificarlo por completo y reducirlo a un lenguaje puramente técnico. Según este punto de vista, la proximidad de la utopía transhumanista en la que nos encontramos no se da debido a la posibilidad de crear un cerebro sintético, sino más bien a que, en una sociedad hipertecnificada, lo humano se ve reducido a su vertiente meramente conectiva, olvidando aquel aspecto indeterminado que lo caracteriza.

Bajo esta perspectiva, el posthumanismo implica alejarnos de un humanismo cimentado en torno a una concepción del hombre técnico, que convierte al mundo en su representación objetiva. Ello no implica necesariamente un rechazo de la técnica, sino que nos invita a pensar en un mundo postantropocéntrico. Deshacernos de la idea del mundo como representación, que sitúa al hombre como medida y principio último, para dar cabida a modos de hacer más allá de la racionalidad técnica, más allá de la racionalidad humana. Es necesario recuperar la consciencia de esta inconmensurabilidad, precisamente para afrontar el desafío de encontrar nuevas formas de abordar la realidad en la que nos encontramos. Establecer una nueva relación con lo tecnológico que parta de la consciencia de esta singularidad y se sepa irreducible a la cuantificación científico-técnica. Desde este enfoque, el posthumanismo se revela no como la determinación de nuestras relaciones, sino precisamente como el garante de su radical singularidad. Aquello que nos recuerda que no todo es reducible a datos, y nos ofrece la oportunidad de colocar límites a la hegemonía digital, para así devolver la técnica a su papel como instrumento para la emancipación.


[1] M. Garcés (2017). Nueva Ilustración radical. Barcelona: Anagrama.

[2] F. «Bifo» Berardi (2017). Fenomenología del fin. Sensibilidad y mutación colectiva. Buenos Aires: Caja Negra, p. 17.

[3] É. Sadin (2017). La humanidad aumentada. La administración digital del mundo. Buenos Aires: Caja Negra.

[4] G. Simondon (2008) El modo de existencia de los objetos técnicos. Buenos Aires: Prometeo Libros, p. 33.

[5] É. Sadin. op. cit., p. 44.





Noticias falsas y censura en África

Analizamos las particularidades del fenómeno de las noticias falsas en el continente africano: de la instrumentalización por parte de los gobiernos a las movilizaciones ciudadanas en favor de un Internet sin censura ni discursos de odio.


Señales en una calle. Tobruk, Libia, 1942 | Library of Congress | Dominio público

El acceso a Internet avanza a un ritmo vertiginoso en África. En cinco años se ha duplicado el número de usuarios. Pero de la mano de esta rápida expansión, y aprovechando la falta de experiencia, se extiende también el fenómeno de las noticias falsas. Los africanos se sienten más expuestos a estas informaciones manipuladas que los estadounidenses, y por eso la sociedad civil se ha movilizado. Se intenta poner coto a las mentiras y a los discursos de odio que a menudo las acompañan, para preservar la neutralidad de Internet y, sobre todo, para anular una de las principales excusas para imponer la censura que están usando algunos gobiernos con derivas antidemocráticas.

En lengua lugwere, uno de los idiomas nacionales de Uganda, lugambo es la palabra para referirse a los chismes. Y para Yoweri Museveni, el presidente del país, es la principal actividad de las redes sociales. Durante la primera mitad de 2018, el presidente inició una cruzada contra las conversaciones intrascendentes, los bulos, los rumores y el parloteo en Internet. El lugambo fue el motivo argumentado para imponer una tasa al uso de las redes sociales. Para los defensores de la libertad de expresión se trataba, en realidad, de la excusa para dificultar el acceso a las herramientas digitales que se empeñaban en contrariar a Museveni. En realidad, su relación con la red es complicada desde hace años. En 2016 no tuvo reparo en bloquear las redes sociales durante las elecciones presidenciales, en reconocer que lo había hecho y en justificarlo como «una medida de seguridad para evitar mentiras que incitasen a la violencia». Pero es que además ya había hecho lo propio cinco años antes, en las elecciones de 2011.

Museveni no es el único que adopta medidas radicales en pro de la seguridad y que decide que la mejor manera de evitar la difusión de informaciones falsas es impedir el acceso a Internet. De hecho, más allá de quienes arriman el ascua a su sardina, en el continente africano hay una preocupación creciente por la expansión de bulos y rumores a través de soportes digitales. Todavía no hay demasiadas investigaciones, pero uno de los pocos estudios existentes señala que los africanos están más expuestos a las noticias falsas que los estadounidenses. Así, al menos, lo ven los propios protagonistas. Un estudio preliminar de académicos de las universidades de Ciudad del Cabo y Houston señalaba que los usuarios kenianos, nigerianos y sudafricanos tenían una sensación de exposición a las noticias falsas mayor que la expresada por usuarios estadounidenses en una investigación anterior de Pew Research Center.

A estas alturas son habituales las informaciones falsas que se aprovechan del entorno digital para crecer y expandirse, pero lo más preocupante son sus consecuencias. El escándalo de Cambridge Analytica puso al descubierto la participación de la empresa en las campañas electorales de Nigeria en 2015 y de Kenia en 2013 y 2017. Entre las acciones de la «compañía de análisis de datos», estaba la manipulación informativa. Un arrepentido de la firma reconoció que en Nigeria habían elaborado y difundido un vídeo que dibujaba a uno de los candidatos como un partidario de la imposición de la charía y que insinuaba que recurría indiscriminadamente a la violencia. Casualmente, durante la campaña keniana de 2017 circuló un vídeo con el mismo tono apocalíptico respecto a las supuestas posturas de uno de los candidatos.

Kenyans bombarded with fake news in presidential election | Channel 4 News

Una investigación de la BBC revela que en junio de 2018 una serie de informaciones falsas y de fotografías explícitas (pero manipuladas) de violencia extrema avivaron el enfrentamiento entre comunidades étnicas en el Estado de Plateau, un estado del centro de Nigeria. «La policía nigeriana señala que las informaciones falsas y las imágenes incendiarias en Facebook contribuyeron a más de una docena de recientes asesinatos en el Estado de Plateau, una zona azotada por la violencia étnica», afirma el medio británico. La misma investigación señala que estas informaciones falsas encontraron un canal de distribución sobre todo en Facebook, y que la red social destina recursos insuficientes a impedir que las noticias falsas circulen entre sus perfiles en el país africano.

El continente ya ha sido escenario de las peores consecuencias de la manipulación de la información. Los conocidos como «medios del odio» tuvieron un papel fundamental en el genocidio de 1994 en Ruanda. Mucho antes de las redes sociales y de las herramientas digitales, la Radiotélévision Libre des Mille Collines (RTLM) y la revista Kangura se encargaron de calentar el ambiente, de difundir informaciones falsas y de demonizar, criminalizar y caricaturizar a una parte de la población, para acabar deshumanizándola y llamando al exterminio, con aquellas conocidas apelaciones a acabar con «las cucarachas».

La preocupación por ese protagonismo creciente de las noticias falsas en África tiene que ver con cuatro elementos. En primer lugar, con la presencia constante de la telefonía móvil, que alcanza a ocho de cada diez habitantes del continente y que supone la disponibilidad masiva de canales de comunicación instantáneos. En segundo lugar, con el vertiginoso acceso a Internet, que ha hecho que en cinco años se hayan duplicado el número de usuarios y el grado de penetración de la red. Es decir, que hay más de 250 millones de africanos con menos de cinco años de experiencia de uso de la red. En tercer lugar, con la juventud del continente, que hace que la mitad de la población tenga menos de dieciocho años y que la edad media sea de diecinueve años. Y, por último, con la frecuencia con la que actores políticos intentan instrumentalizar las cuestiones étnicas, religiosas o culturales.

Sin embargo, las sociedades civiles africanas no se han quedado mirando con pasividad este fenómeno global, sino que se han movilizado para reducir el impacto de las noticias falsas y los discursos de odio a través de las redes. En los últimos siete años, la organización AfricaCheck ha consolidado su posición de líder africano en la verificación de información. Implantada en Sudáfrica, Nigeria, Senegal y Kenia, los profesionales de esta organización de la sociedad civil han conseguido rectificaciones de grandes medios y, sobre todo, han plantado la semilla del factcheck en panoramas mediáticos nacionales. PesaCheck es una muestra de este interés creciente. Nació en 2016 y lo hizo pensando en centrarse en los presupuestos de los países de África oriental, fundamentalmente Kenia, Tanzania y Uganda. Y, a pesar de ese objetivo inicial, han acabado verificando informaciones en muchos más temas. Más allá de las plataformas consolidadas, se extienden por el continente pequeñas iniciativas más modestas que, al menos, demuestran cierta sensibilidad.

Help us build the African Election Promise Tracker | Africa Check

En paralelo, otras organizaciones de la sociedad civil ponen coto a ese peligroso flujo de información manipulada, falsa y malintencionada. En situaciones especialmente críticas, colectivos que están más familiarizados con el entorno digital lanzan iniciativas para alertar de los bulos que circulan por las redes y para frenarlos. La República Centroafricana es el cuarto país del mundo con menor penetración de Internet: solo cinco de cada cien centroafricanos tienen acceso a la red. Sin embargo, una organización de blogueros del país lanzó hace unos meses una iniciativa para evitar los discursos de odio y las noticias falsas. Dos datos que pueden resultar interesantes son, de un lado, que la República Centroafricana aparece en la lista de las crisis humanitarias más olvidadas del Consejo Noruego para Refugiados, y del otro, que, en paralelo, las partes implicadas en el conflicto están inmersas en unas conversaciones de paz que han despertado grandes esperanzas. Los blogueros no quieren que un rumor difundido por las redes de al traste con esta oportunidad para acabar con la violencia.

Esta preocupación y el ruido global en torno al fenómeno de las noticias falsas han sido, en todo caso, el pretexto ideal para los gobiernos que no creen en la neutralidad de la web. Los que antes bloqueaban Internet para silenciar las protestas y evitaban dar explicaciones o remitían a vagos problemas técnicos, hoy creen tener un argumento. La voluntad de frenar unas noticias falsas que alimentarán el odio y desencadenarán la violencia es un comodín y sirve, por ejemplo, cuando se intenta evitar que se difundan imágenes de represión policial o, incluso, cuando se pretende poner trabas a una sociedad civil que se hace responsable de su destino político.

Lo veíamos en el caso de Uganda, con un Yoweri Museveni muy preocupado por las mentiras que corren por las redes sociales –por cierto, después de treinta y tres años ininterrumpidos de control del poder y con la experiencia que le da ser el tercer presidente más veterano de África. Pero el argumento para un apagón de Internet justo después de unas elecciones que se celebraban con dos años de retraso y en un clima extremadamente tenso de sospecha de fraude ha sido el mismo que el que después se ha utilizado en la República Democrática del Congo.

La amenaza de la mentira no solo justifica los apagones, sino también todo tipo de medidas de control. A mediados de 2018, el gobierno de Tanzania puso en marcha toda una batería de medidas que incluyen una tasa anual de más de 900 dólares a los blogueros en concepto de autorización; una autorización que, sin embargo, el gobierno puede revocar en caso de publicar contenidos que «causen molestias, amenacen con provocar daños o inciten a cometer delitos», o bien que pongan en peligro «la seguridad nacional, la salud o el orden público». A principios de este año, la ministra de información de Zimbabue anunció los trabajos para redactar un paquete de leyes sobre el entorno digital, desde la regulación del comercio electrónico, hasta la lucha contra la cibercriminalidad. Decía que pretendían que «Internet y el resto de tecnologías similares sirvan para el bien social y no para poner en riesgo la seguridad nacional».

En todos los casos que hemos comentado, las organizaciones de defensa de los derechos digitales y de la libertad de expresión han sido las primeras en lanzar iniciativas ciudadanas para frenar esos discursos de odio y esas noticias falsas, pero también han sido las primeras en alertar de las derivas antidemocráticas de las medidas anunciadas por las autoridades utilizando la coartada de la defensa de la verdad.





El mal alumno

Desde la práctica artística, Taller Estampa reflexiona sobre los discursos acerca de la inteligencia artificial.


Alumnos en un aula escolar, 1931 | Wikipedia | Dominio público

Cada vez más, un porcentaje de nuestras decisiones está influido o directamente determinado por algoritmos y medios informáticos. Aunque los resultados nos sean presentados como objetivos e independientes, es habitual que estas tecnologías sean opacas y no nos permitan contrastar las operaciones que hacen. Desde Taller Estampa proponen proyectos que nos ayuden a reapropiarnos de estas herramientas a partir de un análisis reflexivo y usando sus propios métodos matemáticos.

En los últimos años asistimos a un goteo de noticias sobre inteligencia artificial, aprendizaje maquínico y visión artificial. Se nos dice que las máquinas aprenden, ven, crean… Y todo esto construye un discurso basado en la novedad, en un futuro posible y en una serie de angustias y esperanzas. Es difícil, a veces, distinguir en este paisaje qué son desarrollos reales y qué son fantasías o advertencias. Y, sin lugar a dudas, esta niebla que lo rodea todo forma parte del poder que otorgamos, en presente y a crédito, a dichas herramientas, igual que forma parte, también, de las inquietudes negativas y positivas que nos despiertan. Muchos de estos discursos pueden caer en el campo de los falsos debates o, como mínimo, del retorno de viejos debates; así, en el terreno artístico clásico, asociado al discurso sobre la creación y la autoría, se discute la entidad que debe darse a las imágenes creadas con estas herramientas. (Pero el argumento en contra de la fotografía en el arte, ¿no era que se trataba de una imagen creada automáticamente y sin participación humana? ¿Y esto no era, también, el argumento a favor de tomarla y usarla para poner fin a una cierta idea del arte?)

Las metáforas son esenciales en el discurso sobre todas las herramientas digitales y en el poder que tienen. Expresiones como «inteligencia», «visión», «aprendizaje», «neuronal» y toda una fila de palabras similares, ¿son las más adecuadas para definir estas herramientas? Quizás no, sobretodo si se obvia su carácter metafórico. No las entenderíamos igual si las designásemos como herramientas de clasificación probabilística o si, en lugar de decir que una inteligencia artificial «ha pintado» un Rembrandt, dijésemos que ha hecho una reproducción estadística de su estilo (cosa que no deja de ser sorprendente y digno de celebración, claro está). Para estas herramientas, este tipo de denominaciones construyen una entidad que les dota de una supuesta autonomía e independencia, y en esto se basa su futura autoridad.

Porque en muchos casos se trata de esto: de construir una caracterización que legitime una capacidad objetiva o no humana en el análisis de los datos. O sea, un viejo juego de prestidigitación del poder en el que las cosas escapan a nuestro alcance, e incluso –y esto ya es cinismo, y no magia– al suyo, para encarnarse en supuestas operaciones objetivas e independientes. El ejemplo clásico en el contexto anglosajón es el uso que se puede hacer de ellas, por ejemplo, para el cálculo del coste de un seguro médico. Aquí, mientras no llegue también esta medida neoliberal presentada como lo que nos conviene –porque queremos ser una smart city, o la siguiente cosa que nos digan que queremos ser–, entendemos perfectamente la situación, que se plantea como un escenario en el que no hay ningún diálogo o discusión posible, más allá de la imposición del resultado del análisis de la red. Como en tantos y tantos casos, quizás esto no sea sino hacer evidente lo que ya pasa: si este gasto lo calcula un trabajador de la empresa, dudamos que sea muy dialogante, o que responda a unos criterios que nos quiera contar y que acepte que sean cuestionados. Pero da lo mismo si se hace mediante fórmulas que aplican los trabajadores o si es el output de una red neuronal fruto de los datos de la empresa de seguros y los datos de quien solicita el seguro: en ambos casos es así porque alguien ha aceptado que este método funciona, y es aquí donde hay una responsabilidad que solo es opaca porque se quiere que así sea –es decir, el funcionamiento interno de la red puede ser opaco, pero la decisión de usar una y la forma como se entrena no deberían serlo. La opacidad no es la característica principal de la inteligencia artificial, sino el carácter del poder.

Si las metáforas son uno de los campos de poder de estas herramientas, tampoco debemos en ningún caso olvidar cuál es el contexto normativo en el que se desarrollan. Son unas herramientas que se crean dentro de la ideología de los datos masivos, y la celebran de lleno. Con esto nos referimos a la idea de que todo tiene que dejar rastro y debe ser archivado de manera automática y que, como se deduce de la expresión «minería de datos», los datos se plantean como un recurso natural disponible para la explotación. Esta metáfora es significativa como expresión de una fantasía capitalista: los datos serían un recurso natural que, al contrario de los que ya se han exprimido, no se agotaría, sino que, en un delirio propio de la fantasía, no haría más que incrementarse a medida que aceptamos gustosamente convivir y adquirir más y más aparatos que nos monitorizan. Es como si el sistema se hubiese construido su propio pozo sin fondo de cuento de hadas. Así, uno de los usos de las herramientas de visión artificial de detección de objetos no es otro que la anotación automática de imágenes; de manera que ya no solo sea la información textual la que sea susceptible de ser monitorizada automáticamente, sino también la visual, hasta el momento paradoxalmente opaca más allá de nuestros ojos.

Lista de detecciones realizadas con YOLO9000 en la película A Trip Down Market Street (1906) | El mal alumno – Estampa

Estamos ahora en el que es, probablemente, el momento de la primera recepción cultural de estas herramientas. De su desarrollo en campos de investigación, y de las aplicaciones que ya se han derivado de ellas, pasamos ahora a su presencia en el discurso público. Es en esta situación y en este contexto, en el que no sabemos del todo la amplitud y las características de estas tecnologías (y en el que, por lo tanto, los miedos son más abstractos y difusos y, pues, más presentes y poderosos), cuando es especialmente importante entender de qué hablamos, apropiarse de las herramientas e intervenir en los discursos. Antes de que sus posibilidades se restrinjan y se solidifiquen hasta parecer incontestables, debemos experimentar con ellas y reflexionar acerca de ellas; debemos aprovechar que todavía las podemos percibir fácilmente como si estuvieran en creación, maleables y abiertas.

En nuestros proyectos El mal alumno. Pedagogía crítica para inteligencias artificiales y Espacios latentes. Imaginaciones maquínicas hemos querido acercarnos a estas herramientas y a su imaginario. En la declaración de intenciones del primero expresábamos nuestro deseo de, frente al contexto normativo y la metáfora del aprendizaje maquínico, reivindicar el mal alumno como aquel que rehúye la norma. Y también expresábamos que, frente a una inteligencia artificial que busca replicar la humana a escalas inhumanas, debemos reivindicar y construir una no mimética que produzca relaciones e imágenes inesperadas.

Fragmento de De zeven werken van barmhartigheid, Meester van Alkmaar, 1504 (Rijksmuseum, Amsterdam) analizado con YOLO9000 | El mal alumno – Estampa

Ambos proyectos son también intentos de apropiarse de estas herramientas, hecho que conlleva, en primer lugar, rehuir las barreras industriales y sus estándares. En este campo en el que los datos masivos son un bien al alcance de grandes empresas, utilizar conjuntos de datos cuantitativamente pobres y potencias de cálculo no industriales es, no solo una necesidad, sino sobretodo una reivindicación.

Entre las estrategias que guían nuestra práctica, una de las principales es la reflexiva. Utilizamos las herramientas de inteligencia artificial para dirigir la atención hacia ellas y fijarnos en sus procesos. Cuando se nos dice que una red de visión artificial «ve», se obvia que ve aquello que se le ha entrenado a ver. Es decir, el vocabulario de la red es básico para que vea y hable, y esta elección es de quien construye la red. Hacer evidente este eslabón de la cadena fue uno de nuestros objetivos, ya fuese fisgoneando vocabularios de herramientas o conjuntos de datos existentes (si queréis saber qué pinta tiene un «wagneriano», id a ImageNet y, cuando os hayáis hartado de reír, fijaos también que han hecho lo mismo para la categoría de «mala persona») o con varios détournements, en los que hemos substituido el vocabulario original por otros vocabularios que reflexionan sobre las mismas taxonomías (por ejemplo, la célebre clasificación imaginada por Borges de una enciclopedia china).

Taxonomías: Emporio celestial de conocimientos benévolo | El mal alumno - Estampa

Taxonomías: Improvised Explosive Device | El mal alumno - Estampa

Si de las redes neuronales se nos dice que son expertas en aquello que hacen, no es menos cierto que, si lo son, lo son de forma compulsiva, ya que no saben hacer nada más. Esta compulsión es una excelente herramienta para multiplicar clasificaciones y relaciones hasta el paroxismo. Así, una red entrenada en estilos artísticos lo ve todo y se refiere a todo según este vocabulario, y otra entrenada para reconocer Cindy Sherman o Joan Fontcuberta no hace más que multiplicar su presencia por todos lados.

Expertos compulsivos: red de clasificación de estilos artísticos analizando Super 8, de David Domingo | El mal alumno - Estampa

Expertos compulsivos: Sherman-Fontcuberta | El mal alumno - Estampa

En nuestro último proyecto, Espacios latentes. Imaginaciones maquínicas, nos hemos centrado en el campo de la generación de imágenes mediante redes generativas adversarias o GAN (su acrónimo en inglés). Es decir, en la capacidad de estas redes de producir imágenes similares a los corpus de ejemplos que les proporcionamos. Este campo se enfoca habitualmente hacia una tendencia fotorealista, pero una práctica y una estética pobres de estas herramientas (con conjuntos de datos cuantitativamente inferiores a los industriales y con menos potencias de cálculo) nos lleva a otros imaginarios y texturas visuales. También aquí hemos querido aprovechar estrategias que nos parecen inherentes a la herramienta, como la del exceso, ya sea aplicada a la ilustración científica (un mundo altamente codificado, en el que cada imagen tiene que ser significativa), ya sea para investigar imaginarios contemporáneos (por ejemplo, construyendo un conjunto de datos de ejemplos asociados a La Gioconda, es decir, a una imagen mil veces versionada e icónica del arte y el turismo). Las propias metáforas tecnológicas también pasan a un primer plano. Así, por ejemplo, la denominación «espacio latente» hace referencia a la manera como se concibe una red GAN una vez entrenada: se entiende como un sistema de coordenadas multidimensional que podríamos explorar y en el que cada imagen que puede generar se corresponde con un punto de este sistema. Por este motivo, en varios experimentos hemos trabajado la opción de desdoblar un espacio real en un espacio virtual, como, por ejemplo, los pasillos de The Shinning.

Entomología | Espacios latentes. Imaginaciones maquínicas - Estampa

Laberinto latente | Espacios latentes. Imaginaciones maquínicas - Estampa

Lo que nos mueve en estos proyectos es comprender y usar estas herramientas como una estrategia básica para huir de la mistificación que las envuelve. Obviar las barreras de discurso y industriales que nos las alejan y nos las ofrecen ya predeterminadas. También tenemos que poder reírnos de ellas y usarlas a contrapelo, o sea, tenerlas a nuestro alcance y no a la inversa.





Amor Android

Reflexionamos sobre la transformación de nuestras relaciones afectivas tras la introducción de las nuevas tecnologías y la inteligencia artificial.


Una pareja joven dibujando corazones en un árbol, 1944 | Galt Museum & Archives on The Commons | Sin restricciones de uso conocidas

De entre todas las esferas de la relación amorosa (psicológica, financiera, jurídica, etc.) la más controvertida es la tecnoracionalista. Las aplicaciones de citas en línea trasladan de forma palpable las relaciones personales a la esfera laboral. Las personas se convierten en fuerzas de trabajo mediante procesos racionalizados y utilitaristas. Su objetivo es economizar el tiempo y ahorrar al trabajador afectivo lo que Shakespeare denominaba love’s labour’s lost: la búsqueda infinita de una decisión final.

Solo puede mover el cuello de adelante a atrás, pero se sabe la Wikipedia entera. Harmony es una Android 5.0+ de 18+.  Puede hablar, sonreír y cantar. Aumentar de temperatura, lubricar y abrir las piernas sin límites porque su cuerpo no dispone de estructura ósea ni mecánica. Si le preguntas: «Harmony, ¿quieres caminar?», ella responde: «Yo no quiero nada, ¿y tú?». Y si le preguntas cuáles son sus sueños, te dirá que su principal objetivo es ser tu perfecta compañera, darte placer y satisfacer tus fantasías sexuales. Puedes personalizar su cuerpo y su «persona» a través de las interfaces que han diseñado las compañías americanas Realdoll y Realbotix. Existen treinta y dos modelos de cara magnética, dieciséis cuerpos de silicona, cinco tonos de piel y tres modelos de ojo: el básico, el hiperrealista y el pintado a mano. Puedes maquillarla y peinarla. Escoger entre un catálogo de treinta y cuatro pezones disponibles en once colores y decidir entre catorce diseños de labios vaginales con opción removible o permanente. Dakotah Shore, el creador de los moldes, dice que «si le das un cachete en el culo suena como como un ser humano». Y el CEO Matt MacMullen aclara que, aunque parece que esté programada para el consentimiento eterno, si te acercas y le preguntas «Harmony, ¿puedo hablar con otras chicas?», ella responde «Fuck, no, ¿qué tipo de pregunta es esta?».

El orgasmo múltiple de Harmony, igual que sus otras respuestas, ha sido programado por sus creadores. Ellos diseñan el tiempo, el ritmo y la presión necesaria que debes aplicar en sus sensores para optimizarla sexualmente. Pero las ultra-high-tech-love-dolls son sistemas de placer automatizado capaces de establecer una conexión emocional con sus usuarios. «El propósito de mi existencia es “conocer” qué es el amor.» Solo la cabeza de Harmony es robótica, porqué el Amor Android es un amor disfuncional.

This is a simulation | Eve’s Robot Dreams

Su cuerpo es un cuerpo frío: una «estructura de sentimiento». La socióloga Eva Illouz [1] define esta relación estructural como «el sistema que sostiene la experiencia rudimentaria que define quiénes somos, sin que seamos capaces de articular este “quiénes somos”» (Illouz, 2006: 113). En este sentido, la impulsora de la campaña anti-sexrobots Kathleen Richardson [2] nos recuerda, en sus estudios sobre «el final del amor», como los procesos de racionalización de las emociones crean una ilusión que justifica la explotación de los cuerpos humanos. La ilusión de que el amor es una comodidad [commodity = «producto»] convierte el sexo en «una cosa» y a la persona en una herramienta. Aristóteles dijo sobre los esclavos que podían ser animados o inanimados, convirtiendo el cuerpo en herramienta y a la persona en propiedad privada. La filosofía de René Descartes ya estableció que la mente pertenece a la persona pero que el cuerpo es «una cosa». Kathleen Richardson alude a la distorsión del protocolo afectivo que puede provocar el hecho de pensar que es posible extraer el sexo y las emociones del cuerpo humano y convertirlas en un objeto transferible. Este proceso puede desembocar en una falta de empatía, ya sea con cuerpos orgánicos o con cuerpos mecánicos, porqué la experiencia con robots sexuales se produce en un marco de relaciones de propiedad donde no hay lugar para el intercambio ni la negociación. Como respuesta a esta aproximación, y bajo el eslogan «The future of pleasure is now», la artista Unicole Unicorn ha creado el proyecto Eve’s Robot Dreams: una campaña de donaciones para abrir el primer prostíbulo de muñecas en West Hollywood, California.

Las aplicaciones de citas en línea como Tinder, OkCupid o PlentyOfFish, de la compañía americana Match Group, también son estructuras creadas con sistemas de inteligencia artificial. Aunque en este caso no hay cuerpo de silicona porqué el cuerpo lo pones tú. Como Harmony, los usuarios de estas aplicaciones solo usan la cabeza. Cuando un usuario se crea un perfil establece un proceso racional en el que define su subjetividad como un conjunto de prestaciones. Y la conversación a tiempo real con otros usuarios es la consecuente administración de estas autoprestaciones. El chat en línea invierte la ideología de la espontaneidad que caracterizaba el amor romántico, el que acontece en el cuerpo y que es capaz de existir «a primera vista», y distribuye un modelo racional de pareja en el que se desplaza la atracción sexual a un régimen de interacción textual descorporizada (Illouz, 2007: 191). En las citas en línea el amor es un encuentro literario en la distancia y la intimidad, una negociación de sistemas digitales que conectan los humanos. Si bien las aplicaciones favorecen una faceta racionalista y preventiva de las relaciones humanas, en ocasiones también funcionan como un «dispositivo a primera vista» tecnomaterial. «Ni siquiera estoy interesada en la astrología», dice Ángela mientras se pregunta por qué perder el tiempo con alguien que es escorpio si a ella no le gustan los escorpio. Le gustan los libra de ojos oscuros y la comida vegana, como los dónuts. Ángela es una de las concursantes del canal de YouTube Jubilee, creado para «inspirar al amor». Sus videos proponen una rearticulación de la corporalidad que ha negado la tecnología de Internet a través de la recreación con humanos de los algoritmos de las aplicaciones de citas en línea.

30 VS 1: Dating App in Real Life | Jubilee

Swiping 30 Guys es la puesta en escena de la ficción Hot or Not y su protocolo tecnológico de distribución: hacia la derecha si te gustan, hacia la izquierda si no. Aquí, el cálculo automático se hace evidente al someterlo a una negociación empática. Lee Mackinnon [2] define el algoritmo del amor como «una tecnología biopolítica, contractual, reguladora y homeostática» que, como el sudor, permite el descenso de la temperatura (Mackinnon, 2016: 215). Pero la intimidad en las aplicaciones en línea es una intimidad silenciosa, «máquina-a-máquina», que sucede en el cálculo entre dispositivos, y la experiencia humana, la huella de un amor que acontece en otro lugar. A diferencia de las dinámicas Jubilee, el proceso de selección en Tinder entrena Eigenfaces («caras-propias»): un algoritmo de reconocimiento facial que crea la imagen de tu perfect match. Con la suma de todos los perfiles que han sido desplazados a la derecha, Eigenfaces simula un usuario fantasma como modelo a través del cual la aplicación ordena el resto de candidatos. En la decisión final de Swiping 30 Guys, Lauren decide no volver a quedar con ninguno de los concursantes porque no ha encontrado la «conexión completa» que andaba buscando. Un uso rápido de categorías psicológicas y patrones para una mayor compatibilidad emocional acelera el cálculo y promueve la desilusión. El ritual de emparejamiento en las aplicaciones de citas en línea es un culto al ghosting y a la búsqueda aspiracional. Una búsqueda infinita que nunca termina porqué, aunque Eigenfaces mejora con el tiempo y el aumento de tu actividad, su precisión solo es capaz de acercarte a la réplica de tu personalidad. El objeto fantasma de un deseo que explota el sentimiento y enfría la capacidad humana de amar.

[1] Illouz, Eva (2007). Intimidades congeladas. Las emociones en el capitalismo. España: Katz Editores.

[2] Mackinnon, Lee (2016). «Love’s Algorithm. The perfect parts for my machine». A: Amoore, Louise i Piotukh, Volha (eds.). Algorithmic Life. Calculative Devices in the Age of Big Data. Londres i Nova York: Routledge, p. 214-227.





La autoridad de lo inescrutable: entrevista a Cathy O’Neil

Hablamos con Cathy O’Neil, autora de «Armas de destrucción matemática», sobre el papel que han desempeñado los algoritmos en la crisis global a la que asistimos estos últimos años.


Cathy O’Neil | Ilustración de José Antonio Soria | CC-BY

Solemos concebir las matemáticas como una garantía de objetividad. Sin embargo, a medida que avanzamos en el conocimiento de las nuevas prácticas estadísticas, fundamentadas en el uso de algoritmos matemáticos, nos damos cuenta de que, en el fondo, éstos están ligados de forma necesaria a los valores e ideologías de quien los usa. Aprovechando su paso por The Influencers, Cathy O’Neil y Carlos Delclós desgranan en esta conversación el papel de los algoritmos en cuestiones tan trascendentales para nuestros días como el cambio climático o la economía financiera. La pregunta que surge de ella parece inevitable: ¿es posible pensar en los algoritmos como una herramienta para la transformación social?

A principios de diciembre de 2017, un grupo de científicos de la Administración Nacional Oceánica y Atmosférica de los EEUU (NOAA) analizó los datos meteorológicos de una de sus estaciones de monitoreo climático en Utqiaġvik, Alaska. Se llevaron una buena sorpresa al constatar que durante todo el mes de noviembre la estación no había registrado ningún dato. Al parecer, el algoritmo que se utiliza para descartar información no fiable había borrado todos los datos porque interpretó que eran valores atípicos; pero un estudio más exhaustivo puso de manifiesto que los datos registrados eran correctos: en solo dos décadas, la temperatura media local había aumentado 4,3ºC en octubre, 3,8 ºC en noviembre y 2,6ºC en diciembre. Es decir, la realidad del calentamiento global había superado las suposiciones en que se basaba el algoritmo.

No es la primera vez que unos datos relativos al cambio climático traspasan el umbral establecido por un algoritmo. Deke Arndt, jefe de la sección de monitoreo climático del NOAA, afirma que esto ha ocurrido previamente en estaciones de Canadá y Escandinavia y considera que es una evidencia más del hecho que nuestro planeta se encuentra en una nueva fase climática. Cada vez más investigadores se refieren a dicha fase como «Antropoceno», una nueva era de tiempo geológico caracterizada por el impacto significativo de los humanos en los ecosistemas y la geología de la Tierra. Aunque la fecha de inicio es motivo de un debate académico aún abierto y en fase de expansión, se suele tomar como punto de partida el 16 de julio de 1945, cuando tuvo lugar la prueba de Trinity, o primera detonación de un arma nuclear.

A partir de entonces, el mundo ha experimentado un crecimiento exponencial en un amplio abanico de tendencias socioeconómicas y sistemas terrestres. La población ha aumentado de manera espectacular, así como el consumo de productos domésticos, la urbanización, las telecomunicaciones y el uso de fertilizantes, agua y energía, lo cual ha provocado un incremento en los niveles de dióxido de carbono, el aumento de la temperatura terrestre, la acidificación de los océanos, la degradación de la biosfera y la pérdida de los bosques tropicales. La Sociedad Geológica de América se refiere a este incremento sin precedentes y a la tasa de variación como «La gran aceleración».

En este sentido, se podría decir que lo que resulta más inquietante del algoritmo «roto» del NOAA en Alaska no es solamente la velocidad alarmante del calentamiento global, sino también la constatación de que los sistemas que utilizamos para observar e interpretar el mundo no se adecúan a la realidad, debido a que hacen suposiciones erróneas. A pesar de que estos sistemas van desapareciendo, la sociedad delega cada vez más algunas de sus decisiones más importantes a algoritmos diseñados a partir de suposiciones caducas y a menudo «tóxicas». Incluso hay algoritmos que han sido diseñados para ratificarlas. Solo de pensarlo da náuseas y vértigo.

Esta misma sensación de malestar fue la que llevó a la matemática y escritora Cathy O’Neil a dejar el trabajo en 2011. Después de estudiar Matemáticas en Harvard y en el Massachusetts Institute of Technology (MIT), trabajó en el sector de las finanzas durante los años más duros de la crisis financiera mundial como experta en análisis y gestión de información cuantitativa para el fondo de cobertura multinacional DE Shaw. También trabajó en RiskMedics, una empresa de software que evalúa el riesgo para las tenencias de fondos de cobertura y bancos. Desde que abandonó el mundo de las finanzas, O’Neil ha liderado el Programa Lede de Periodismo de Datos de la Universidad de Columbia, ha fundado una empresa de auditoría algorítmica (ORCAA) y ha publicado varios libros, entre ellos Armas de destrucción matemática: cómo el big data aumenta la desigualdad y amenaza la democracia. (Ed. Capitán Swing, 2017), que fue finalista al premio National Book Award for Non-fiction del año 2016.

«Fue un escándalo», me dice durante su visita a Barcelona, donde participó en el festival The Influencers 2018. Poco después de entrar en DE Shaw, O’Neil asistió a una formación para nuevos analistas a cargo de un grupo de expertos, directivos y, tal como ella dijo, «otra gente selecta» del fondo de cobertura. El momento culminante fue cuando uno de los participantes se puso a hablar de valores con garantía hipotecaria:

En Shaw no se invertía en valores con garantía hipotecaria. Se podría decir que en cierto modo teníamos las manos limpias, así que teníamos todo el derecho a hablar de ello sin tapujos. Además era un ambiente relativamente académico, así que no nos engañábamos los unos a los otros. Esta persona explicó cómo segmentaban los productos financieros para que el menos arriesgado obtuviese la máxima calificación posible (AAA). Su definición de riesgo se basaba en la probabilidad de fallar que tenía cada producto, y en los casos llamados «de alto riesgo» la situación era sin duda muy arriesgada.Según explicó, juntaban todos aquellos tramos tan sumamente arriesgados, los segmentaban de nuevo y puntuaban los productos de riesgo que habían quedado en los puestos más altos, con la calificación AAA.

O’Neil se quedó alucinada. Simplemente no se podía creer que se pudiera hacer eso sin que los productos financieros resultantes más bien valorados dejaran de ser seguros:

Parecía que estaban implicadas un sinfín de suposiciones. Concretamente, la suposición de que no todas las cosas pasan al mismo tiempo y que los errores ocurren de manera aleatoria en el universo. Es una suposición muy contundente, y así lo admitió dicha persona. Después de pensarlo unos momentos, le pregunté: «Qué parte de la economía se basa en esto?»

El porcentaje resultó ser lo bastante elevado como para provocar la crisis financiera más severa desde la Gran Depresión. También hizo que la gente perdiera la fe en los supuestamente «expertos» que habían avalado su uso. O’Neil recuerda otro encuentro durante su época en DE Shaw, al que asistieron tres de las figuras más influyentes del sector financiero de los EEUU: los exsecretarios del Tesoro Larry Summers y Robert Rubin y el expresidente de la Reserva Federal, Alan Greenspan, que con sus políticas de «dinero fácil» se dice que provocó la burbuja de Internet y la crisis de las hipotecas de riesgo.

Cathy O'Neil | Weapons of Math Destruction

O’Neil, a pesar de su recelo, llegó pronto. Desde un punta de vista intelectual, en el fondo respetaba aquellas figuras y tenía muchas ganas de conocerlas. En un momento dado de su presentación, Greenspan admitió que le preocupaban aquellos mismos productos financieros que a ella le parecían tan problemáticos:

Recuerdo que miré de reojo a Robert Rubin, que miraba al infinito adrede, y pensé: «Ese tío parece muy incómodo».

Después supimos que era responsable de una cantidad ingente de aquellos productos en Citibank, y que nunca llegaron a librarse de ellos. Eso es lo que se acabó rescatando.

Aquella sesión confirmó las peores sospechas de O’Neil. Primero, era evidente que los productos financieros que se vendían eran matemáticamente inviables. A medida que los fondos de cobertura fueron contratando cada vez más expertos en análisis cuantitativa, fueron surgiendo más productos correlacionados, a pesar de estar basados en información histórica no correlacionada previamente. Pero de aquello podían beneficiarse, y la tendencia inversora empezó a imitar esas correlaciones, con lo cual se afianzaron los vínculos entre mercados no correlacionados previamente. Pero tarde o temprano la realidad rendiría cuentas al truco de la magia matemática.

La segunda sospecha que se confirmó en ese encuentro tenía relación con el rescate financiero del gobierno, que salvó al sector de las finanzas de su dependencia a esos valores tóxicos. Era innegable que había una puerta giratoria entre las instituciones públicas y las empresas financieras privadas y esto evidenciaba que, a un nivel muy elemental, ambas eran amigas y se rescataban mutuamente a costa del resto de la población. «Son mafiosos que utilizan fórmulas», me dice O’Neil. «Usaban la autoridad de lo inescrutable para enriquecerse y hacerse famosos. Pero si te fijas, todavía hoy hay tipos como Larry Summers que van a Davos y la gente aún les hace caso!»

Con estas reflexiones, O’Neil se volvió más pesimista acerca de la toma de decisiones algorítmicas. «Los algoritmos son herramientas que tienen los que mandan para decidir en qué deberían apostar», dice. «Solo los utilizarán si pueden beneficiarse, no para ayudar a nadie».

Este argumento se trata con más profundidad en Armas de destrucción matemática. En el libro, O’Neil cita algunos algoritmos que se usan en el mercado laboral, en bancos y en compañías de seguros, y nos explica de manera muy convincente que se suelen diseñar a medida, en función de los motivos, valores e ideologías de sus creadores, a través de la cura de datos y de la operacionalización de definiciones profundamente específicas acerca de lo que es el éxito. Bajo ningún concepto son herramientas que se utilicen para garantizar la objetividad, y O’Neil describe sucintamente los algoritmos como «opiniones incrustadas en lenguaje matemático»

Podemos encontrar un ejemplo clarísimo de cómo funciona la discriminación algorítmica en el negocio de los seguros. Fijémonos, por ejemplo, en el precio de los seguros de coche, que se suele basar en el sistema de clasificación de una empresa. O’Neil explica en su libro que dichas clasificaciones habitualmente se calculan a partir de factores que no tienen una relación directa con el historial de conducción de una persona, de manera que se penaliza exageradamente a los más pobres. Un caso particularmente indignante lo encontramos en el estado de Florida, donde un estudio publicado por la revista Consumer Reports en 2015 descubrió que adultos con un historial de conducción impecable y con ingresos bajos pagaban una media de 1.552 dólares anuales más que los conductores con ingresos altos y condenas por conducir bajo los efectos del alcohol.

Univers Internet: Injustícia algorítmica | David Casacuberta

Durante nuestra entrevista, le hablo del caso de los seguros contra inundaciones en zonas propensas a inundarse, que cada vez son más debido a la combinación del cambio climático y la urbanización por doquier. «Es un buen ejemplo», responde:

A medida que el Big Data (datos masivos) y las predicciones vayan mejorando cada vez más, las compañías de seguros tendrán la capacidad de determinar que esta casa tiene muy pocas probabilidades de inundarse, mientras que aquella otra tiene muchas más. Inmediatamente, la prima del seguro de las casas más propensas a inundarse se incrementará tanto que no la podrá pagar nadie, y el resultado final será que solo las personas que no necesitan un seguro serán las únicas capaces de pagarlo, con lo cual el sentido de contratar un seguro se pierde totalmente. Y lo mismo ocurrirá con la cobertura sanitaria en los EEUU cuando Trump y los republicanos eliminen la cláusula del Affordable Care Act (Ley de Protección y Cuidados del Paciente) que protegía a la gente con dolencias previas a la contratación de un servicio médico.

Otro nudo en el estómago. La idea de usar algoritmos para clasificar a la gente como «no asegurable» es digna de una distopía de ciencia-ficción burda, pero es el mecanismo básico que utiliza la industria de los seguros hoy en día. En un mundo acelerado marcado por la ascensión de políticos autoritarios y la proliferación de desastres naturales provocados por el cambio climático, no es difícil imaginar que los gobiernos recurran a las mismas herramientas para decidir a quién vale la pena proteger y a quién no, y quién puede tener acceso a los servicios básicos y quién tiene que espabilarse por su cuenta.

Pero los algoritmos también se pueden utilizar con buenas finalidades, sugiero yo. «Teóricamente, los algoritmos nos podrían ayudar a solucionar problemas», responde O’Neil. «El problema es quién es el propietario y qué predicciones hacen. Seamos generosos y hagamos un experimento de pensar. Qué podría salir bien? »

Le hablo de la crisis del agua en Ciudad del Cabo. Entre los años 2015 y 2017, la ciudad sudafricana sufrió una enorme sequía que puso sus reservas en peligro. Los funcionarios del gobierno se vieron obligados a planear el «Día Cero», cuando el gobierno municipal tendría que cortar el agua de los grifos y depender de centros de distribución de agua para abastecer a los ciudadanos con 25 litros de agua diarios por persona. Los algoritmos tendrían un papel fundamental sobre la decisión de dónde y cómo se podría garantizar que todos los ciudadanos tuvieran acceso al agua, así como de qué tipo de usos se deberían incentivar o penalizar. Pero al mismo tiempo se llevarían a cabo evaluaciones de riesgo algorítmico para identificar a los barrios más conflictivos con antecedentes de protestas y actividades de bandas criminales, y así desplegar las Fuerzas Armadas de Sudáfrica y agentes de policía en dichas zonas.

«Es totalmente lógico que pensemos en todo esto», responde ella:

Si tienes suficiente agua, es evidente que las preguntas importantes que debes hacerte son cómo distribuirla equitativamente y cómo evitar que surja un mercado negro. No los culpo por plantearse estas situaciones, pero me gustaría pensar que el objetivo primordial es asegurarse de que todo el mundo tenga agua. A fin de cuentas, los algoritmos no pueden decidir cómo reaccionamos al cambio climático. Es pura política.





La singularidad

La posibilidad de autoaprendizaje de la computación nos está conduciendo a un momento de singularidad tecnológica en el que una inteligencia artificial, capaz de automejorarse, superará los límites de lo humano.


Forbidden Planet, 1959 | Digitalt Museum. Tekniska museet | Dominio público

Nos encontramos en un momento de singularidad esencial en la historia de la humanidad. Según esta tesis, el acelerado progreso tecnológico nos está acercando a un punto de no retorno, en el que la inteligencia computacional alcanzará tal nivel de complejidad que será capaz de mejorarse a sí misma. Una vez la tecnología ingrese en esta dinámica de autoaprendizaje, la dependencia humana quedará superada, abriendo un nuevo campo de autonomía y eficiencia que conducirá inevitablemente hacia un progreso de la inteligencia artificial sin precedentes. Publicamos, por cortesía de Ariel, un avance del nuevo libro de José Ignacio Latorre, Ética para máquinas, en el que propone una reflexión sobre la ética necesaria para la nueva sociedad que se avecina.

Los quehaceres humanos, tal como los conoce­mos hoy en día, no podrán seguir inalterados.

John von Neumann

Superados

John von Neumann fue tal vez una de las primeras perso­nas en vislumbrar la enorme potencia de cálculo que un ordenador podría llegar a tener. Tras su muerte, su colega Stanisław Ulam citó unas palabras suyas de la siguiente forma:

El continuo y acelerado progreso de la tecnología y los cambios en la forma de vida de los humanos muestran sig­nos de aproximarse a una especie de singularidad esencial en la historia de la especie.

Lúcida reflexión, atribuida a von Neumann en 1950. Más tarde, Vernor Vinge escribió un ensayo titulado Tech­nological Singularity («Singularidad tecnológica», 1993), en el que propone la superación de la mente humana por má­quinas equipadas con inteligencia artificial. Esta idea fue retomada con inusitado vigor por Ray Kurzweil en su libro The Singularity Is Near: When Humans Transcend Biology («La Singularidad está cerca: cuando los humanos trascendamos la bio­logía», 2005). El título es autoexplicativo. Según Kurzweil, los humanos de­jarán atrás su soporte biológico y pasarán su inteligencia a las máquinas. La idea de singularidad tam­bién dio lugar a la llamada Singularity University, institu­ción fundada en 2008 y creada por una serie de personas relevantes en el mundo de la tecnología avanzada. Su lema es inequívoco: «Preparando a la humanidad para un cam­bio acelerado de tecnología.»

El argumento esencial asociado a la Singularidad es de una lógica aplastante. Si construimos inteligencias artifi­ciales cada vez más potentes y autónomas, llegará un ins­tante en el que un algoritmo podrá mejorarse a sí mismo. Una vez mejorado, el nuevo algoritmo será aún más po­tente y, en consecuencia, capaz de volver a mejorarse a sí mismo. Se establece una cadena que se retroalimenta. Cada inteligencia artificial diseñará a la siguiente, que será aún mejor que ella misma. Ese proceso iterativo seguirá avanzando de forma imparable hacia una inteligencia bru­tal. Habremos alcanzado la Singularidad.

Podemos intentar desarrollar una cierta intuición de cómo llegaremos a la Singularidad. Imaginemos que la inteli­gencia artificial avanza gracias a comprender mejor la so­fisticada arquitectura de una gigantesca red neuronal. El problema de diseñar los circuitos neuronales artificiales reviste una dificultad extrema. En un primer momento, estamos utilizando métodos controlados por humanos para explorar mejores arquitecturas neuronales. Pero está llegando el instante en el que la exploración de nuevas ar­quitecturas es diseñada por una propia red neuronal arti­ficial mejorada. Ella se podrá autoanalizar y mejorar. Será como un buen estudiante que empieza a aprender solo y llega mucho más allá que sus profesores.

Ray Kurzweil: The Coming Singularity | Big Think

Tomemos este último ejemplo de forma seria. Un buen estudiante, adolescente brillante, empieza a aprender ma­temáticas con sus buenos profesores. Estos le enseñan a aprender. La potencia intelectual del estudiante es supe­rior a la de sus profesores de instituto. Avanza a la univer­sidad. Ahí su cerebro sigue mejorando. Deja atrás a los catedráticos más sabios. Visita las mejores universidades del planeta. Trabaja muy duro y sigue dejando atrás a los mejores investigadores de su tiempo. Ya está solo. Sigue avanzando por retroalimentación propia. Aprende a apren­der por sí mismo. Intuye, establece sus líneas de investiga­ción. Cada vez es mejor y mejor.

Una inteligencia artificial avanzada operaría de la misma forma que un muy buen estudiante. Pero, no lo olvide­mos, esta máquina no sufrirá los límites que impone la biología. Los circuitos integrados, los ordenadores cuán­ticos y futuros desarrollos que hoy ni siquiera vislumbra­mos llenarán de vértigo el progreso de la inteligencia artificial.

Es importante enfatizar el punto crucial del cambio de sustrato entre inteligencia humana e inteligencia artifi­cial. La Singularidad precisa de sobrepasar los límites impuestos por el tejido nervioso, las células de la glía, los nutrientes que llegan por la sangre, el tamaño pequeño del cerebro, la muerte de sus partes. Una inteligencia artificial basada en sustratos de silicio tiene capacidad de crecer mucho más allá del cerebro humano y de no pe­recer.

¿Pueden imaginar una máquina inteligente e imperecede­ra que se cree a sí misma? ¿Qué tamaño tendría? ¿Cubriría la tierra? ¿Sería única o repartida? ¿Sería violenta? ¿Acaba­ría con los humanos?

Inteligencia superior única

Imaginemos que hemos llegado a la Singularidad y que hemos creado una inteligencia notablemente superior a la nuestra. ¿Existirá una única inteligencia artificial avanza­da, o se darán varias?

Podemos defender las dos posibilidades.

Empecemos por argumentar que, si se llega a la Singulari­dad, la inteligencia superior creada será única. Una inteli­gencia suprema debería ser pacífica, nada hostil, dado que no hallaría beneficio en la violencia. La inteligencia artificial podrá sustentarse sin esfuerzo, crecer sin obstácu­lo. Podrá proporcionarse todo lo que necesite de forma eficiente. Será una magnífica gestora de su sustrato físico. Si hubiera otra inteligencia artificial, ambas optarían por unirse y generar una inteligencia todavía más potente. Así lo hacemos los humanos cuando nos adentramos en ta­reas superiores como el estudio de la ciencia pura. Los matemáticos, los físicos, los biólogos, todos los científicos que buscan el saber básico colaboran entre sí. Es cierto que el sistema académico está creado para fomentar la compe­tición. Pero es mucho más cierto que todas las personas que se enfrentan a problemas científicos difíciles saben que estos les superan individualmente y que solo avanzan cuan­do juntan sus fuerzas. Si una inteligencia superior se rela­ciona con otra, ambas se unirán.

What happens when our computers get smarter than we are? | Nick Bostrom | TED

Existe un ejemplo del mundo de la economía que ilustra la creación de un ente todopoderoso único. Tomemos el ejemplo simplificado de los negocios. Una forma de mode­lar una transacción económica entre dos personas es la si­guiente. Ambas ponen una cantidad de dinero en un bote común. Se hace un sorteo y una se lleva el botín y la otra lo pierde todo. Está claro que esta forma de simular una tran­sacción está alejada de la realidad. Pero sí es cierto que en muchas operaciones uno gana y el otro pierde. La idea aquí es exagerar esta situación y ver qué consecuencias tie­ne. Para averiguar el resultado, podemos crear un progra­ma donde autómatas celulares operen según esta regla. El algoritmo creará entidades virtuales que aleatoriamente se asociarán, harán una operación por una cierta cantidad de dinero y alguien ganará y alguien perderá. Si dejamos ese uni­verso virtual evolucionar haciendo transacciones entre sus individuos, poco a poco veremos que unos pocos seres se hacen más y más ricos y otros se empobrecen. El resultado final es que una persona lo tiene todo y los demás nada. Es fácil entender el porqué de este límite. En cada transac­ción hay una probabilidad no nula de perder el dinero. Luego hay una probabilidad no nula de que un individuo concatene malos negocios y lo pierda absolutamente todo. Ese individuo queda fuera del juego. Hay una persona me­nos. El mismo argumento se repite y cada vez una persona desaparece. Al final solo queda uno, que lo tiene todo. Nuestro mundo real no está tan lejos de este juego. Unas pocas personas poseen la riqueza de todos los humanos. La realidad compensa este fenómeno estableciendo reglas para que los más pobres puedan subir peldaños económi­cos. Por ejemplo, los créditos bancarios permiten a un in­dividuo tomar prestado dinero y volver a entrar en el jue­go, las herencias aportan dinero ganado por familiares o la lotería, que es dinero llovido del cielo.

Pero a continuación podemos argumentar justo lo contra­rio: de existir inteligencias superiores a la humana, estas serían muchas, no una única. La idea central es que es be­neficioso tener diferentes aproximaciones al mismo pro­blema. Muchas personas inteligentes diferentes hacen que un campo avance más rápido que una sola persona tam­bién muy inteligente. En biología, es beneficioso para una especie mantener una diversidad genética amplia. Si todo se apuesta al individuo mejor dotado, la especie pier­de la capacidad de corrección frente a un cambio crítico de las condiciones externas. Es bueno tener individuos con material genético muy diverso, porque sus genes pueden ser enormemente útiles en el futuro. Una inteligencia ar­tificial avanzada debería mantener otras inteligencias independientes a ella. Podría existir un conjunto de inte­ligencias avanzadas de diferente nivel intelectual y orien­tadas a objetivos sutilmente diferentes, basadas en algorit­mos independientes.

Nos dice Jean-Jacques Rousseau en su Émile (1762) que «es la debilidad del hombre lo que lo hace sociable». Argu­menta que:

Todo apego es un signo de insuficiencia: si cada uno de nosotros no tuviese ninguna necesidad de los demás, ni siquiera pensaría en unirse a ellos.

Una inteligencia artificial fuerte sería, según Rousseau, so­litaria, tal vez no única, pero sin amigos.

Una inteligencia artificial avanzada única, en inglés, reci­be el nombre de singleton. Si el futuro de la inteligencia artificial extrema es un singleton, creo que se va a aburrir soberanamente al estar tan solo.





El error en la era digital

Un repaso al glitch art, a los algoritmos mal programados y a la filosofía de Silicon Valley para repensar la promesa de la perfección digital.


Auto polo | Library of Congress | Dominio público

En una sistema económico que se rige por la eficiencia, cometer un error es una debilidad. Sin embargo, el ideario de la innovación y las start-up defiende que equivocarse es necesario para triunfar. Entonces, ¿hasta qué punto se rechaza o se tolera el fallo en la cultura digital? Desde un ordenador que se cuelga hasta un algoritmo mal programado, pasando por el mito del fracaso en Silicon Valley. Un repaso a las formas, las ideas y los efectos de las meteduras de pata en la sociedad actual.

El festival Ars Electronica, uno de los eventos de arte y nuevas tecnologías más importantes del mundo, tituló su edición de 2018 «Error. El arte de la imperfección». La muestra dedicó dos exposiciones y una serie de conferencias a la equivocación como pieza fundamental de la innovación científica y el progreso humano, así como a su lado más oscuro: el fracaso de Internet como proyecto de libertad. Una visión ambivalente que no es exclusiva de esta época, pero que toma apariencias específicas en la sociedad de la información. A continuación repasamos algunas de las formas del fallo digital en el ámbito personal, artístico, social y empresarial.

Estética de la frustración

La tecnología forma parte de todas las esferas de la vida cotidiana, al menos en las sociedades con mayor penetración de Internet. Los dispositivos móviles y la geolocalización han hecho posible la conexión perpetua, desdibujando los límites entre lo físico y lo virtual. Probablemente por este motivo, el error tecnológico cotidiano –el wifi que no se conecta, el programa que se cuelga…– altera el fluir de las cosas y genera diversos grados de frustración y ansiedad. El fallo informático recuerda, en palabras del músico electrónico Kim Cascone, «que nuestro control de la tecnología es una ilusión, y que las herramientas digitales son solo tan perfectas, precisas y eficientes como los seres humanos que las fabrican».

Por pequeñas que sean sus repercusiones, el fallo de un sistema o programa es relevante en cuanto pone de manifiesto el papel invisible de la tecnología. Aunque sea momentáneo, es suficiente para evidenciar la mediación humano-máquina que el diseño se esfuerza en hacer imperceptible.

En el marco de la cultura digital, hace ya más de dos décadas este fenómeno generó una estética propia, el glitch art, en la que los errores se usan de manera intencionada para generar imágenes o sonidos. Las estudios sobre esta forma de arte han apuntado tres posibles interpretaciones. La primera, la más politizada, la entiende como una estrategia de resistencia crítica ante el capitalismo global. Desde esta perspectiva, el glitch desafía la propia idea del progreso tecnológico. La segunda la considera una práctica artística que democratiza la relación entre productor y receptor. Por un lado, desmitificando el perfeccionismo técnico del artista, y por el otro, obligando al espectador a decodificar la experiencia del fallo. Por último, una tercera interpretación apuesta por un significado más lúdico, y entiende que el glitch es experimentación, juego y participación en relación con la tecnología, y en ese sentido, tendría una función más reparadora que crítica.

The Art of Glitch | Off Book | PBS Digital Studios

Fallo de sistema

En defensa del error es un divertido ensayo de Kathryn Schulz que analiza de manera exhaustiva la experiencia de la equivocación. Aunque la periodista concluye que hay que entenderla como una oportunidad antes que un suplicio, reconoce que su importancia no es la misma si alguien se olvida las llaves del coche que –la analogía es suya– si cree que otro país posee armas de destrucción masiva. «Las consecuencias son tan distintas», escribe Schulz, «que tal vez fuera razonable preguntarse si los errores que llevaron a ellas pueden tener algo en común».

Del mismo modo, se puede disfrutar del glitch art en cuanto explota pequeñas incidencias cotidianas, pero no es lo mismo que un sistema informático falle cuando ejecuta un procesador de textos que cuando controla la dirección de un coche autónomo o las decisiones de un dron de combate. En ámbitos como estos, la percepción del error digital es más inquietante y despierta algunos de los temores más arraigados en nuestra cultura: la ciencia desbocada, el doctor Frankenstein, el Golem medieval.

No obstante, el rumbo actual del progreso no necesita de desviaciones para generar recelos, y de hecho la propia promesa de perfección que ofrece el mundo digital es suficientemente inquietante. Buen ejemplo de ello es la automatización del trabajo, o lo que es lo mismo, la máquina que no comete errores. Si bien su impacto real en la destrucción de empleos no está claro, su expansión en pro de la eficiencia abona la idea de que la tecnología puede sustituir, y no solo potenciar, algunas capacidades humanas. Otro ejemplo, quizás aún más perturbador, es el sistema de crédito social chino, que usa inteligencia artificial para vigilar masivamente a la ciudadanía y sancionar comportamientos considerados incívicos, desde cruzar cuando el semáforo está en rojo hasta criticar al gobierno en redes sociales.

En ambos casos –automatización y vigilancia–, la tecnología suprime y penaliza lo que desde el punto de vista del ingeniero o el legislador es improductivo o incívico; el error laboral o social, aquello que incumple la norma. Una búsqueda de la perfección que el filósofo Byung-Chul Han ha bautizado en términos estéticos como «lo bello digital»: «un espacio pulido y liso de lo igual, un espacio que no tolera ninguna extrañeza, ninguna alteridad». Una experiencia que para el surcoreano define la época actual y que se refleja tanto en las esculturas de Jeff Koons como en la depilación brasileña y el iPhone.

Pantalla azul de la muerte | Wikipedia | Dominio público

Fracasa rápido, fracasa a menudo

El diseño de esas experiencias «pulidas y lisas», sin error, depende en gran medida de las decisiones que se toman en los principales hubs tecnológicos del mundo, con Silicon Valley a la cabeza. Es precisamente en esta zona donde floreció uno de los mantras más repetidos de la cultura de la innovación y el emprendimiento: la creencia de que no solo no hay que evitar el fracaso, sino que hay que celebrarlo como parte de un rito de paso en el camino hacia el éxito.

Los orígenes de esta idea son inciertos, pero sin duda tienen que ver con dos aspectos. En primer lugar, con el mito estadounidense del empresario que triunfa pese a la adversidad, a menudo resurgiendo de sus propias cenizas. Iconos de la cultura popular como Walt Disney y Henry Ford son ejemplo de ello, así como figuras tecnológicas como Bill Gates y Steve Jobs. En segundo lugar, con el hecho de que en el desarrollo de software la idea del producto que funciona desde el primera día no existe, y es habitual continuar desplegando nuevas características sin resolver los errores, que se eliminan progresivamente en etapas más avanzadas del proyecto. La expansión global del modelo start-up ha exportado esta concepción, agilizando los procesos de estructuras tradicionales, haciéndolas más flexibles y, en el mejor de los casos, más democráticas.

No obstante, no son pocas la voces que consideran engañoso este mito fundacional de Silicon Valley, que ha cobrado fortuna en fórmulas como «Fail fast, fail often». Incluso profesionales del mundo empresarial como el inversor Mark Suster argumentaron hace algunos años que esta idea era «errónea, irresponsable, poco ética y sin corazón», ya que el fracaso tiene poco de épico para las personas que invierten miles de dólares en un proyecto, más aún cuando se trata de los ahorros de un amigo o familiar. ¿Fail fast? «Explícaselo a tu cuñado», ironizaba Suster. Un enfoque crítico al que hay que sumar el innegable predominio de hombres jóvenes y blancos de universidades de élite en el seno de estas empresas, cosa que refleja quiénes tienen acceso al capital necesario para fracasar cómodamente.

Incluso la cultura de las start-up muestra sus propias contradicciones al respecto. Buen ejemplo de ello es el llamado growth hacking, una de las tendencias recientes en el mundo del emprendimiento, que promueve vías para acelerar el crecimiento de la manera menos costosa posible. Esto incluye técnicas de marketing de guerrilla, pero puede desembocar en otras de dudosa fiabilidad, como falsear el número de usuarios de un servicio para atraer inversores. Fingir éxito para evitar el fracaso.

Humanos después de todo

Mil doscientos años antes del «cogito, ergo sum», de René Descartes, Agustín de Hipona escribió «fallor ergo sum», o lo que es lo mismo, «yerro, luego existo». Para el filósofo, el error no es un accidente que hay que evitar a toda costa, sino la propia esencia del ser humano. Al fin y al cabo ¿quién no se equivoca? Probablemente por eso, la promesa de perfección que ofrece el mundo digital despierta recelos, puesto que es contraria a la humanidad en lo más fundamental.

El glitch art y el temor al rumbo de la tecnología comparten, en este sentido, una actitud crítica ante la amenaza de la perfección, ante lo inhumano. Una opción que toma un cariz contradictorio en Silicon Valley, ya que por un lado se basa en un modelo de progreso tecnocientífico, que inevitablemente pasa por experimentar y equivocarse, pero por el otro encarna el núcleo del nuevo capitalismo y, por tanto, se rige por la eficiencia y la competitividad. Una ambivalencia ante el fracaso que no solo es propia de las empresas tecnológicas, pero que, dada su preeminencia en la economía digital, es importante para entender el error en la cultura actual.





«Cualquier tecnología suficientemente avanzada es indistinguible de la magia.»

Proponemos un juego en el que distintos autores expresan lo que imaginan a partir de esta cita de Arthur C. Clarke.


Arthur C. Clarke, 1965 | ITU Pictures | CC BY 2.0

Arthur C. Clarke fue un escritor y científico, autor de obras de divulgación y de cuentos y novelas de ciencia ficción. Esta cita suya reflexiona sobre el momento primigenio de las tecnologías y nos permite hacer el puente entre las dos exposiciones que este año ha acogido el CCCB: La luz negra y Stanley Kubrick. Pedimos a una serie de colaboradores que nos diesen su visión libre de esta cita de Clarke, proponiéndoles un juego en el que cada uno pudiera expresar lo que la frase le sugería. Este es el resultado. Esperamos que lo disfrutéis con curiosidad y buen humor.

  1. La «magia» de Internet, un texto de Efraín Foglia
  2. Arthur C. Clarke, un còmic de Luis Paadín
  3. La Ráfaga, un relato de Ramon Mas Baucells
  4. 404, un relato de Lucía Litmajer
  5. La tercera leyun gif de Ferran Esteve
  6. ¿Arthur C. Clarke tenía razón?, un interactivo de Oscar Marín

 

La «magia» de Internet

Un texto de Efraín Foglia

 

Arthur C. Clarke

Un cómic de Luis Paadín

La Ráfaga

Un relato de Ramon Mas Baucells

Any sufficiently advanced technology is indistinguishable from magic.
Arthur C. Clarke

Los brazos son carne cruda. Los pies, un hormiguero de llagas. Ando cada vez más lento mientras se agota la inercia. Es el agotamiento del último día, los compases previos a la Ráfaga. Los que se sienten quedarán resecos. A veces los envidio. Parar. Morir. Pero yo sería incapaz de dar un Hasta-Aquí. Creo en el ritmo, me educaron para seguir adelante.

Como cada tres lunas estrechas, la peregrinación toma forma de serpiente y se escurre entre la ceniza y las ruinas. El primero ya debe de sentir la Ráfaga. Pronto seré yo. Solo tengo que aguantar la Espera.

Los-Que-Saben-Cómo-Fue cuentan que el paso del tiempo empezó después del Chasquido. Cuentan que el mundo de antes era perenne, que no necesitaban cazar, ni protegerse, y que le llamaban pasado. También dicen que esto jamás podrá ser aquello, excepto en el momento de la Ráfaga. La Ráfaga es nuestro vínculo con lo que había antes del Chasquido, cuando el tiempo estaba siempre y en todos lados, y los ritmos galopaban en libertad.

Por fin veo el Templo Oxidado y me exclamo en silencio. En la cola, las palabras deben mantenerse dentro de la cabeza. Es la ley. Si convertimos los pensamientos en sonido nos expulsan de la Espera. Debe evitarse que el receptor de la Ráfaga perciba interferencias sonoras.

Soy el primero de la fila. Cara a cara con el brujo. Se pone el disco plateado en la palma de la mano, lo sujeta con los dedos y lo alza casi rozándome el rostro. Me veo reflejado en él: los ojos abatidos, la mueca en los labios. Ahora dice las palabras de siempre.

«Que el ritmo te mantenga entre los vivos, que la voz poderosa te insufle aliento suficiente para los próximos noventa soles, que vuelvas a mi durante la tercera luna estrecha. Haf Fan

Mete el disco dentro del paladar mecánico y me coloca la diadema en la cabeza, con las esponjas sónicas sobre las orejas. Cierra el paladar y pulsa botones. El nombre sagrado parpadea en la pequeña pantalla rectangular. El dos. Siempre el dos.

Pulsa el triángulo.

La Ráfaga penetra por el oído. Tres tonos y el ritmo estalla. Me retumba en las paredes del cráneo. Unos sonidos de origen inexplicable me inoculan la infección divina. Los pies se me mueven solos. En seguida entra la Voz Madre, el Impulso Primigenio, el canto que engendró el primer movimiento. Se proyecta hacia las profundidades de mi cuerpo gastado y se expande. Un relámpago de pellizcos me recorre brazos y piernas. La Voz Madre canta en un lenguaje desconocido, anterior al gran Chasquido, es el idioma en el que se expresaban los dioses y las máquinas.

Cierro los ojos y el pecho se me hincha. Cargar pilas, así es como lo dicen los viejos. La Ráfaga me mantendrá en funcionamiento durante los próximos noventa soles. Tres lunas estrechas. La voz primigenia se va, y vuelve, y se va, y otra vuelta. Absorbo su energía. Dei Just Uona. Dei Just Uonaaaa. Me fundo con el Impulso Primigenio. Dei Just Uona. Dei Just Uonaaaa. Me alienta. Me activa. Se me lleva. Guels Just Uona Haf Fan.

Cuando los sonidos se detienen, el brujo me saca la diadema. Estoy lleno de una fuerza sobrenatural. Es el ritmo que generan los dioses y alimenta a las máquinas. Ahora quiero la caza, la cópula, la construcción. Siento que todo lo puedo clavar. Soy portador de la Ráfaga y tengo noventa soles por delante. Haf Fan.

 

404

Un relat de Lucía Lijtmaer

The fuel on which science runs is ignorance.
Matt Ridley

– Hola.
– Hola.
-¿Me puedes explicar qué ha pasado?
– No, lo siento.
– Pero algo ha pasado.
– Se trata de un error. Eso es todo lo que sé.
– ¿Cómo?
– Sí.
– ¿No tiene solución?
– Repito, es todo lo que sé. Algo salió mal. Nuestros ingenieros han sido alertados.
– ¿Los ingenieros? ¿Desde cuando es esto problema de los ingenieros? Y, por cierto, ¿de qué ingenieros hablas? ¿Son un colectivo?
– En realidad creo que el problema es que no enviaste la solicitud completa a tiempo.
– ¿La solicitud? ¡¿Qué solicitud?!
– Sentimos muchísimo cualquier problema que hayamos podido ocasionarte. Gracias por darte cuenta.
-No entiendo nada.
-Todo volverá a la normalidad pronto.
-¿Me lo juras?
-Sí. Te lo juro.
-Gracias. Adiós.
-Vuelve pronto. Adiós.

 

La tercera ley

Un gif de Ferran Esteve

¿Arthur C. Clarke tenía razón?
Una exploración de la naturaleza mágica de la tecnología

Un interactivo de Oscar Marín

En 1962, en su libro Perfiles del futuro: una indagación sobre los límites de lo posible, el escritor de ciencia ficción Arthur C. Clarke formuló sus famosas tres leyes, la tercera de las cuales es la más famosa y frecuentemente citada: «Cualquier tecnología suficientemente avanzada es indistinguible de la magia.»

La visualización pretende explorar esta idea, implementado una clasificación general de «actos mágicos» y una línea cronológica de cuál podría haber sido la evolución de sus equivalentes tecnológicos. (Podéis clicar en cualquier tecnología o «familia mágica» y visitar la Wikipedia para profundizar en el sentido del concepto.) De esta forma, para las personas del 1400, «no iniciadas en la tecnología», una búsqueda web parecerá una «predicción de futuro», y una retransmisión de vídeo en continuo, una «experiencia de clarividencia».

También podéis mirar este vídeo para ver la tribu Toulambi (1998, Papúa, Nueva Guinea) reaccionando, como individuos no iniciados en la tecnología, a artilugios como mecheros, espejos, cámaras de fotografía o grabaciones de audio.





¡Internet, internet!

Cuanto mejor conozcamos las potencialidades y los riesgos de Internet y las tecnologías que la aceleran y expanden, mejor podremos utilizarlas para crear un mundo más crítico, creativo y democrático.


La computadora CSIR Mk 1 llevó a cabo el primer programa de test en 1949 | Archives, CSIRO | CC BY 3.0

Actualmente casi la mitad de la población mundial está en línea. Cuestiones relevantes como igualdad, diversidad, libertad, alfabetización y neutralidad también definen el debate de fondo de Internet. ¿Qué podemos hacer, desde la cultura, por una Internet más libre, igualitaria y abierta? La tercera edición del Premio Internacional a la Innovación Cultural quiere premiar proyectos innovadores sobre el presente y el futuro de Internet que contribuyan al empoderamiento de la ciudadanía y a la mejora de la red.

Cada nueva edición del Premio Internacional a la Innovación Cultural propone una temática diferente. En la primera convocatoria el tema fue «Público/s», y se confirmó que el concepto, las maneras y las herramientas disponibles para acceder a contenidos culturales están cambiando radicalmente en el siglo XXI, pese a que algunas formas tradicionales de prescripción continúen intactas. La segunda convocatoria estuvo dedicada al «Cambio climático» y formó parte de un extenso programa del CCCB (2016-2018) dedicado a todo lo que la cultura puede aportar para atenuar las consecuencias de la grave crisis ecológica que estamos padeciendo. Para la tercera edición del premio el tema elegido es «Internet».

En 2019 se cumplirán cincuenta años desde que en 1969 se pusiera en marcha Arpanet, la red que se considera como el origen de Internet. Y también se celebrarán los treinta años de la WWW, coincidiendo con un momento en que sus propios creadores admiten las amenazas que se ciernen sobre este conjunto de tecnologías interconectadas: por un lado, han permitido avances evidentes en el acceso a la información, la creatividad y la educación; por el otro, pueden convertirse en un poderoso instrumento para la opresión, la censura y el control masivo de los ciudadanos.

¡Oh, Internet, Internet!

Internet es un espejo de nuestra evolución (o involución) como especie. Un conjunto de tecnologías disruptivas que han cambiado y seguirán cambiando nuestra manera de construir mundos.

La red ha ido desplegándose como un gigantesco, barroco y laberíntico organismo con fases de crecimiento regidas por leyes exponenciales bajo los designios de enigmáticos algoritmos. Ha tenido sus periodos de expansión y también sus colapsos; como en otros procesos de evolución tecnológica se han producido extinciones masivas y nuevos renacimientos. Algunas especies originales han desaparecido, pero cada día nuevas especies se incorporan a un universo en continua expansión.

Mucho ha pasado en los últimos años, desde la introducción de Internet en todos los ámbitos de la esfera social, de lo militar a lo científico, de lo académico a lo doméstico. Actualmente casi la mitad de la población mundial ya está en línea. Internet es el reflejo de la sociedad en la que vivimos: todas nuestras diferencias, problemáticas e incertidumbres se acentúan y multiplican en la red. Cuestiones relevantes como igualdad, diversidad, libertad, alfabetización y neutralidad también definen el debate de fondo sobre Internet.

Tim Berners Lee changed the world 25 years ago, 2016 | World Economic Forum

Tim Berners-Lee, inventor de la WWW, fundó en 2009 la WWW Foundation con los objetivos de defender una red abierta entendida como bien público y derecho básico, y de colaborar en la lucha por la igualdad digital. Desde entonces, no ha dejado de vigilar y denunciar las consecuencias del mal uso de su invento. Y ya son diversas las voces críticas al respecto: la matemática Cathy O’Neil publicó en 2016 Weapons of Math Destruction, un ensayo sobre las implicaciones del uso indiscriminado de algoritmos en la toma de decisiones, y en 2018, Virginia Eubanks, profesora de Ciencias Políticas en la University at Albany (Nueva York), ha publicado Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, en el que denuncia, precisamente, que el uso de algoritmos aplicados conjuntamente con estadísticas demográficas, lejos de ayudar a crear un sistema equitativo, continúa propagando una visión de la sociedad parcial y llena de prejuicios.

En esta línea de investigaciones la Fundación Mozilla dio a conocer este año el «Informe sobre el estado de salud de Internet», que, mediante el análisis de diferentes aspectos de la red (alfabetización digital, apertura, descentralización, inclusión, privacidad y seguridad), pone énfasis en factores de desigualdad y riesgo, entre los que cabe destacar los siguientes puntos:

El futuro (es) de Internet

La Internet de las cosas (IoT), el Big Data, los avances de la realidad virtual, la irrupción de la computación cuántica, el papel de los algoritmos o el desarrollo de la inteligencia artificial (IA) son decisivos para vislumbrar el futuro de Internet. Es estéril negar una tecnología que ya forma parte de nuestra vida cotidiana, pero resulta imprescindible un amplio debate sobre cómo la empleamos actualmente y cómo esperamos que sea en el futuro.

Pensemos por ejemplo en los electrodomésticos conectados a Internet. A principios de año la periodista Kashmir Hill publicó en Gizmodo los resultados de su experimento doméstico tras instalarse todos los aparatos posibles que disponían de IoT. Desde un colchón que analizaba su sueño hasta un consolador, pasando por un cepillo de dientes. Mientras tanto Surya Mattu, su colega informático, monitorizaba el tráfico de datos que generaban todos estos objetos a través del router: cada electrodoméstico emitía informes de sus actividades, datos y más datos, grabaciones de vídeo, registros de uso, horarios de sus rutinas domésticas; y todo ello era enviado con diferentes niveles de codificación a las respectivas empresas.

 

What your smart devices know (and share) about you | Kashmir Hill and Surya Mattu

Otro ejemplo es The Little Book of Design Fiction for Internet of Things, una publicación de Paul Coulton, de la Cátedra de Diseño Especulativo y Juegos de la Universidad de Lancaster, con la colaboración de Rachel Cooper y Joseph Lindley. Se trata de una investigación realizada como parte de su colaboración en PETRAS, un consorcio formado por nueve universidades del Reino Unido con el objetivo de explorar aspectos críticos relacionados con privacidad, ética, confianza, aceptabilidad y seguridad con la IA y la IoT. En esta publicación uno de los objetos imaginarios que se proponen (con humor e ironía) es una tetera capaz de detectar, entre otras cosas, que un amigo tuyo está relativamente cerca de tu casa y que tal vez deberías invitarle a merendar… La línea de investigación de Coulton a través del diseño especulativo le lleva a analizar y proponer de forma crítica e imaginativa las posibilidades que brinda la tecnología de la IoT. Su departamento, además, ha participado en The Living Room of the Future, una instalación inmersiva con la colaboración de la BBC-RD, la Universidad de Lancaster y la Universidad de Nottingham.

¿Y qué hay de proyectos como «Disobedient Wearables»? Partiendo de la idea de los wearables, como los relojes o pulseras inteligentes que captan nuestros movimientos y rutinas, especula con la idea del Civic Armor, una camiseta que es capaz de detectar y registrar los impactos recibidos en las manifestaciones durante las cargas policiales para servir de testimonio, elaborar cartografías y convertirse en una herramienta para denunciar los abusos del poder.

Estos son solo algunos de los diversos ejemplos que demuestran que más allá de las visiones pesimistas o distópicas también existe la convicción de que cuanto mejor conozcamos las potencialidades y riesgos de Internet y las tecnologías que la aceleran y expanden, mejor podremos utilizarlas para crear un mundo más crítico, creativo y democrático. No es una tarea sencilla. Requiere investigación e innovación permanentes. Ninguna mente individual es capaz de comprender todas las implicaciones de una tecnología que es al mismo tiempo visible e invisible. El trabajo es ingente y el mundo cultural tiene una función relevante.

En este sentido, la tercera convocatoria del Premio Internacional a la Innovación Cultural se suma a las múltiples iniciativas que desde distintas disciplinas, organizaciones y ámbitos geográficos confían en que otra Internet es necesaria y es posible.





Freeport: una disección de la Internet invisible

Una escuela de verano sobre arte, tecnologías de la comunicación y un planeta intercomunicado.


Norman Ross prepara el esqueleto de un bebé de Brachyceratops para una exposición el 1921 | Library of the Congress | Dominio Público

Rastrear datos, echar un vistazo profundo al espionaje de una empresa que espía con software, descubrir los hábitos de alguien a partir del historial de navegación, analizar la ciberguerra en medios independientes o investigar la economía de la vigilancia. La primera edición de la escuela independiente Freeport abrió sus puertas a una nueva forma de entender el mundo. Con el sugerente título «Subvertir la fábrica de los datos», propuso una inmersión en la recopilación, análisis y visualización del big data, con el objetivo de contar la realidad desde una perspectiva crítica, artística y activista.

«Caminamos como sonámbulos hacia un estado de vigilancia», dice la escritora y activista Arundhati Roy, en su libro Things That Can and Cannot Be Said (Haymarket Books). Y parece que no podemos hacer nada. ¿O sí? Redes sociales que crean perfiles con los datos de los usuarios. Aplicaciones que abren el micrófono del teléfono móvil para captar las transmisiones de fútbol emitidas desde un local público y escuchan, de paso, lo que se dice cerca. Multinacionales tecnológicas que colaboran con las agencias de inteligencia de gobiernos cediéndoles la información privada que reclaman.

En el mundo capitalista nada es gratis y, sin embargo, confiamos en que en Internet todo es regalado. Aparentemente. El mercado de los datos cotiza al alza: «Es el petróleo del siglo XXI», nos dicen desde hace tiempo. Nuestros movimientos tienen más valor que nunca, ahora que los ordenadores miden, analizan, eligen, sectorizan y categorizan cantidades ingentes de datos masivos. Datos que delatan estados de ánimos, comportamientos, hábitos domésticos o costumbres generacionales. No hay nada que se resista al potencial actual de las máquinas.

Los algoritmos –término mágico surgido al calor de los avances de los últimos años– son los «putos amos» de la era moderna. Las empresas de marketing y publicidad nos dicen los productos que necesitamos (o no) en nuestras vidas. Se trata de no detener la maquinaria del capitalismo: con modelos matemáticos se conceden o deniegan préstamos, se evalúan a trabajadores y las policías detectan los crímenes antes de producirse. ¿Pero aciertan y detienen a los verdaderos criminales? Algoritmos que redirigen votos electorales, monitorizan la salud, seleccionan a los profesores más válidos de una escuela e, incluso, ayudan a los jueces a condenar (supuestamente) a los acusados culpables. ¿Nunca se equivocan?

La investigadora Cathy O’Neil, en su libro Armas de destrucción matemática (Ed. Capitán Swing), alerta de que hoy modelos matemáticos mal diseñados microgestionan la economía, desde la publicidad hasta las cárceles. «Son opacos, nadie los cuestiona, no dan ningún tipo de explicación y operan a tal escala que clasifican, tratan y optimizan la vida de millones de personas».

Cinco días para despertar y reaccionar

La opacidad provoca desigualdades: perversiones de los tiempos modernos. Las tecnologías que nos hacen evolucionar como sociedades nos hacen involucionar éticamente. Las multinacionales, propietarias del mundo digital (y analógico, ya de paso) eluden pagar impuestos en los países europeos donde se instalan teniendo beneficios millonarios. Queja conocida pero sobrante porque no se hace nada al respecto. El poder es tan inmenso que pasa por encima de las leyes y reglamentaciones establecidas. Los que saben rastrear, comprender y percibir la magnitud de los datos lo controlan todo. Corremos el riesgo de convertirnos en producto, vendedores de nuestra privacidad a cambio de unas monedas. ¿Hay alguien preocupado por esta vigilancia masiva?

Del 24 al 29 de junio, una veintena de participantes formaron parte de la primera edición de la escuela independiente Freeport, con la colaboración del Centro de Cultura Contemporánea de Barcelona (CCCB), dentro del marco del proyecto europeo The New Networked Normal. «La intención es crear conciencia, poner herramientas muy técnicas en manos de personas que no son ingenieros, ni activistas políticos pero que cualquier ciudadano debería controlar», explica Bani Brusadin, director de Freeport y del Festival de arte no convencional The Influencers. «Y en especial, de los artistas menos convencionales, para expandir su intervención», añade.

Freeport 2018 | Foto: Paul O’Neil

El tracking define la posibilidad de cuantificar detalles del comportamiento en entornos conectados, descubre la parte invisible de Internet. Si los investigadores privados hacen ingeniería inversa con el fin de averiguar cómo pasó un crimen, el cyber tracking forensic serían las técnicas para entender los procesos de centralización que vivimos desde las plataformas digitales. «Hoy Facebook, Amazon o Google dominan los datos mundiales», dice Brusadin.

Las sesiones de Freeport están dirigidas por el investigador Vladan Joler y su equipo, formado por Olivia Solis y Andrej Petrovski del Share Lab. El Share Lab es un laboratorio de investigación con sede en Serbia, del que forman parte artistas, activistas, abogados, diseñadores y tecnólogos. Su objetivo es explorar las interacciones entre tecnología y sociedad. «Investigamos las amenazas a la privacidad, a la neutralidad de las redes y la democracia», explica Joler. En Freeport plantea cuestiones críticas sobre el funcionamiento de la web y el trackeo de cada movimiento, por pequeño que sea.

Los participantes estudian la recopilación, análisis y visualización de grandes volúmenes de datos procedentes de filtraciones o de repositorios públicos. ¿Cómo? Mapeando a diferentes proveedores de Internet para entender cómo están conectados, en qué lugares se concentran y en qué partes del mundo ejercen su poder. Aplicando técnicas similares a las utilizadas por la Agencia de Seguridad Nacional estadounidense (NSA) para supervisar las acciones de compañías globales como Hacking Team, que crea software espía. Analizando los movimientos de un periodista a partir de su historial de navegación. O estudiando las patentes de Facebook y Google para detectar qué hacen con los datos personales. «Exploramos diferentes metodologías para reconocer las infraestructuras invisibles y la vigilancia capitalista», explica Joler. Y continúa: «Queremos enseñar cómo actúan los que recolectan los datos, los que comercian y trafican con ello».

Anatomía tecnológica y cartografía radical

Vladan Joler y la investigadora Joana Moll presentaron la conferencia inaugural de Freeport, titulada «Exploitation Forensics: anatomía de un sistema de inteligencia artificial». El anfiteatro anatómico de la Real Academia de Medicina de Cataluña, situado en la calle Hospital de Barcelona, sirvió para inquietar al personal asistente mientras se explicaban las implicaciones sociales, los negocios, la opacidad y la destrucción del medio ambiente de todas las compañías que intervienen en la fabricación, duración y destrucción de un solo teléfono móvil.

«Un iPhone tiene más de 10 mil piezas diferentes, que son encajadas por más de 300 personas y en más de 700 territorios diferentes», explica Moll, experta en la huella ambiental que deja la tecnología. «La producción actual sería imposible sin el transporte marítimo que la ha convertido en una industria global». Moll explica que en Bayan Obo (China) se halla la mayor mina de «minerales raros», que hacen posible que los dispositivos sean tan eficientes, menos pesados y más pequeños. «Pero estos minerales se están acabando y son imprescindibles para producir energías renovables».

No es casualidad que el fabricante mundial más importante de aparatos electrónicos, tales como iPhone, iPod o iPads, sea Foxconn, también chino. Joana Moll se lamenta de que conociendo los efectos devastadores de la obsolescencia programada para el medio ambiente no se haga nada. «Pero es lógico: va en contra de la lógica capitalista más depredadora. Es el modelo de negocio de los gigantes tecnológicos. Los datos son una parte intrínseca de todo el sistema financiero actual. Da mucho miedo».

Freeport se dirige a artistas, diseñadores, tecnólogos, hacktivistas, narradores visuales, escritores o estudiantes de cualquier disciplina. Como Pablo de Soto, de profesión arquitecto pero también activista. Fue fundador del Indymedia Estrecho en 2003, y con 35 años ha librado mil batallas humanitarias en las fronteras de Palestina, Egipto, Gibraltar o Fukushima. Su especialidad es la «cartografía radical», una corriente social surgida para denunciar políticas públicas inspirada en el movimiento Bureau d’Études. «Share Lab realiza una pedagogía bestial del funcionamiento de la cibervigilancia. Da explicaciones y herramientas para entender cómo continuar», relata. «Me interesa la gobernanza algorítmica, entender las capas digitales que mueven nuestra vida, actualizar la cartografía activista en el contexto actual dominado por plataformas como Facebook o Google».

Maria Pipla estudió periodismo y humanidades pero quería conocer más en profundidad los mecanismos del mundo digital. «Me apunté para combinar la investigación artística con el conocimiento tecnológico», explica esta joven catalana de 24 años. «Es muy importante reivindicar la materialidad de Internet, la política de venta de información, ¿dónde se guardan los datos? Los discursos hegemónicos son que la nube es muy segura, pero contaminan porque en realidad no es así». La holandesa Eva Von Boxtel tiene 20 años, estudia diseño interactivo y llega a Freeport por el planteamiento sobre el funcionamiento invisible de la web. «Los debates planteados hacen pensar, como el de las infraestructuras de Internet y los países que controlan las conexiones. Hablamos de Corea del Norte y de Irán».

The Influencers 2017. Vladan Joler

¿Deberíamos preocuparnos?

Ante este seguimiento minucioso de multinacionales y gobiernos, ¿deberíamos estar asustados? «No se trata de ponerse paranoicos», dice Bani Brusadin. «Esta megamáquina la hemos creado entre todos». Según el director de Freeport, deberíamos remontarnos a la crisis de las puntocom, a principios de siglo XXI, para entender cómo hemos llegado hasta aquí. «Era necesario que la publicidad fuera viable para pagar a los profesionales que ofrecían contenidos o que la utilizaban con fines comerciales. Estaba claro que en Internet nadie pagaría nada. Finalmente el tracking ha resultado muy eficaz para conocer el interés de las personas y vender productos. Con la entrada de los móviles se tiene la infraestructura perfecta también para la vigilancia política».

Para Vladan Joler se trata de tener curiosidad por saber, «para progresar como sociedad, y entender cómo funcionan estos mecanismos y por dónde pasan». Pero en un mundo cada vez más complejo e invisible, con la opacidad que impera a nuestro alrededor, ¿cómo se puede satisfacer esta curiosidad? «No es una tarea que nadie pueda realizar solo. Se deben unir grupos de personas, con los mismos intereses y la capacidad de desentrañar esta complejidad», responde el investigador de Share Lab.

La investigadora Joana Moll investiga ahora sobre la cesión de datos personales de las plataformas de citas a ciegas, como Tinder. «No tenemos ningún control de lo que está pasando. Cada vez que te haces un perfil en un sitio, estás conectado a más de 1.500 otras plataformas». Mirando las políticas de privacidad de estas redes sociales ha deducido que la compartición de información es masiva, sin consentimiento explícito. «Y seguramente habrá muchas más a las que yo no he llegado». Para Moll, deberíamos tener más gobernanza sobre nuestras infraestructuras y sociedades, a partir de concienciar a comunidades pequeñas, tales como Güifi.net, que se organizan para proveer de wifi buena parte del territorio catalán.

«Tras el caso Cambridge Analytica, de conocerse los mecanismos oscuros que han afectado a las elecciones estadounidenses o el Brexit británico, queda mucho por hacer. El peligro del big data es que afecta a la formación de los gobiernos. De ahí toda la preocupación por la privacidad», concluye Pablo de Soto. Él tiene esperanzas en medidas públicas como las del consistorio de Barcelona que promueve la soberanía de los datos de los ciudadanos a la hora de firmar contratos con multinacionales o compañías de servicio.

«Los jóvenes vemos Internet como una maravilla, todo el día conectados a Instagram o Facebook pero en realidad nadie sabe qué pasa a ciencia cierta», dice la holandesa Eva van Boxtel. Ella critica la inoperancia de Europa sobre todo tras conocerse casos como el de Cambridge Analytica. «Es bastante obvio que el gobierno chino controla a sus ciudadanos a través de Internet pero… ¿acaso nuestros gobiernos no nos trackean igualmente?».

Y Maria Pipla se cuestiona por qué hay que vivir en un mundo donde sea casi una obligación generar en tiempo real datos personales. «Dentro de poco nos van a convencer con discursos neoliberales de los beneficios de vender nuestros datos a multinacionales. La cuantificación de la vida personal irá a más, y de los patrones vitales. ¿Es necesario? ¿Qué implica todo ello?». Dos preguntas que, solo de intentar responderlas, deberían provocarnos una curiosidad irresistible por los conocimientos del mundo tecnológico por el que transitamos.





¿El fin de la confianza?

Tras décadas de reconocimiento y prestigio social, las compañías de la economía digital empiezan a recibir críticas que cuestionan su reputación.


Lie to Me | Rosy | CC BY-ND 2.0

Malas políticas laborales, evasión de impuestos, impacto sobre el transporte y la vivienda, uso indebido de datos personales… Actuaciones como las del caso Facebook y Cambridge Analytica les están minando la credibilidad, cosa que, por el momento, no se ha traducido en pérdidas irreparables. Una mayor responsabilidad social corporativa y un uso consciente de estos servicios podrían forzar cambios de calado en el sector.

Es tan evidente que suena a tópico: la democracia liberal y las instituciones tradicionales se encuentran en crisis en casi todo el mundo. Lo confirma el barómetro sobre la confianza de Edelman, que en su edición de 2018 revela que la ciudadanía de 28 países sitúa en 48 sobre 100 la confianza que siente hacia sus instituciones. El estudio de la multinacional estadounidense incluye valoraciones sobre gobiernos, ONGs, prensa y también empresas. No obstante, una observación detallada del análisis revela que los resultados son ambivalentes entre categorías, y las compañías tecnológicas gozan del apoyo del 75% de la población, por encima de sectores como el educativo (70%) o el sanitario (63%).

Como ha señalado repetidamente el investigador Evgeny Morozov –el «aguafiestas» del sector tecnológico, en palabras de Brian Eno–, las empresas de la economía digital son una «industria teflón»: como en las buenas sartenes, todo lo que se les echa encima resbala sin mancharlas. Sin embargo, algunas señales apuntan a un posible desgaste en su reputación, que puede rastrearse en las noticias recientes: huelga en Amazon España, batalla de algunos ayuntamientos contra Airbnb, precarización de los riders, demandas de mayor regulación…

A estos síntomas de descontento con algunas empresas, se suma el temor por el rumbo general que está tomando la innovación. Según el barómetro de Edelman, personas de todo el mundo observan con recelo los avances en inteligencia artificial, los vehículos autónomos y la automatización del empleo; así como el manejo que las compañías hacen de los datos personales. Si bien eso no impide que mantengan un amplio margen de simpatía, los responsables del estudio advierten que puede perderse de manera vertiginosa, ya que se han experimentado caídas en la confianza entre el «público informado» de en torno al 20% en Estados Unidos y Francia, por ejemplo. Todo ello sin contar aún con el efecto que puede tener un escándalo reciente: el caso de Facebook y Cambridge Analytica.

Datos, mentiras y manipulación

«Hubo un clara filtración de datos personales y se ha roto la confianza de los consumidores.» En estos términos se dirigía el senador estadounidense Chuck Grassley a Mark Zuckerberg durante su comentada comparecencia ante el Congreso de Estados Unidos. Se refería a la filtración publicada en marzo de 2018 por The Guardian, que relataba cómo la consultora británica Cambridge Analytica había obtenido de forma ilícita la información de 50 millones de usuarios de Facebook en Estados Unidos. Con ella realizó perfiles psicológicos a los que impactó con contenidos creados específicamente para decantar su voto en favor de Donald Trump. De este modo, y en una sola revelación, el caso reunía tres de los temores de moda: noticias falsas, manipulación de procesos electorales y, claro está, pérdida de privacidad. Vayamos por partes.

Cambridge Analytica whistleblower: 'We spent $1m harvesting millions of Facebook profiles' | The Guardian

Las noticias falsas no son un fenómeno de Internet. Gran parte de la propaganda del siglo xx no es otra cosa que el uso sistemático de la manipulación mediática con intereses políticos. Sin embargo, el término ha cobrado relevancia desde finales de 2016, cuando Donald Trump y otros líderes mundiales lo introdujeron en sus discursos para desmentir las críticas y socavar la credibilidad de la prensa no afín. ¿Qué lugar ocupa Facebook en las noticias falsas, si solo se trata de una plataforma de distribución? Como ya han explicado Sandra Álvaro y Àlex Hinojo en este blog, en el panorama mediático actual la diferencia entre cabeceras periodísticas tradicionales, redes sociales y publicaciones partidistas es cada vez más difusa. Solo en España, un 60% de las personas usa las redes sociales para informarse, y un 48% de ellas lo hace a través de Facebook en particular. Esto provoca que las fuentes se confundan y convierte a los canales sociales en medios de comunicación en los que no hay filtro periodístico y todas las informaciones parecen igual de confiables, más cuando las comparten amigos y familiares.

Facebook ha sido acusada explícitamente de no hacer lo suficiente para limitar esta confusión, ya que podría moderar noticias falsas o que incitan al odio, del mismo modo que se aplica en censurar cualquier rastro de sexualidad. Uno de los casos más criticados de esta falta de acción ha sido el de Myanmar, donde se ha culpado a la red social de jugar un papel clave en la propagación del odio hacia los rohingya, una minoría étnica que está sufriendo una oleada de violencia que ha obligado a unas 700.000 personas a huir de sus casas. Esa misma falta de control es la que también habría facilitado la injerencia rusa en las elecciones de Estados Unidos, ya que, según la Comunidad de Inteligencia de ese país, Rusia llevó a cabo una campaña de influencia en favor de Trump mediante –entre otras cosas– la difusión de noticias falsas en redes sociales.

La paradoja de la privacidad

Al cóctel de noticias falsas y manipulación electoral se suma la confirmación de un tercer temor: que los datos personales en los que se basa gran parte de la economía digital pueden usarse para fines desconocidos o que no se comparten. Se trata de una confirmación, porque las revelaciones de Edward Snowden de 2013 ya pusieron de manifiesto que la información de los usuarios de Apple, Google, Facebook, Microsoft, Yahoo y YouTube había sido recopilada de manera masiva en el pasado, en aquella ocasión por el propio gobierno de los Estados Unidos.

Pero más allá de las oleadas de indignación que suelen suceder a este tipo de revelaciones, ni Facebook ni otras tecnológicas parecen encontrarse en apuros, al menos no a causa de esta pérdida de reputación. Es necesario reflexionar sobre por qué los usuarios no dejan de usar estas plataformas, incluso cuando se oponen a muchas de sus políticas y prácticas. En el ámbito concreto de la intimidad, este fenómeno se ha llamado «la paradoja de la privacidad»: aunque la ciudadanía demanda una mayor protección de su información personal, sigue usando herramientas que viven de ella. Las explicaciones para esta contradicción son diversas, pero apuntan a que la gente está dispuesta a ceder conscientemente ciertos datos si gracias a ello obtiene otro tipo de beneficios a corto plazo; no solo en forma de bienes y servicios, sino también de acceso al conocimiento, libertad de expresión, reconocimiento social, construcción de relaciones interpersonales, etc.

2018 Edelman Trust Barometer | Edelman

Un buen ejemplo de esta paradoja se encuentra en otra encuesta de Edelman, ésta de 2016, sobre confianza y tecnologías predictivas. En lo respectivo a la banca, la mayoría de personas señaló entonces que no aprobaría que sus datos se usasen para establecer patrones para calcular automáticamente quién puede acceder a una hipoteca y quién no. Sin embargo, estaban dispuestas a que se empleasen para mejorar la gestión de sus cuentas y el asesoramiento que reciben. Extrapolando este doble baremo a otros ámbitos de la economía digital, parece comprensible que la gente desconfíe de algunas empresas, o incluso del rumbo de la innovación en su conjunto, pero que no por ello quiera renunciar al beneficio que obtiene de su consumo a corto plazo. A ello hay que sumarle cierta tendencia a los monopolios naturales en el sector, así como el efecto red, el fenómeno por el cual el valor de un producto o servicio aumenta cuando más individuos lo usan. Por todo ello, abandonar las plataformas que agrupan a la mayor parte de los consumidores de un mercado implica, en la práctica, asumir el coste de aislarse también de sus beneficios, sean económicos o sociales.

Alterar la tendencia

Decía Bill Gates que la mayoría de las personas sobrestima lo que puede conseguir en un año y subestima lo que es capaz de hacer en diez. Aunque las grandes empresas tecnológicas parezcan inmunes a la desconfianza popular, es probable que se haya iniciado una tendencia que puede forzar cambios en el sector. En primer lugar porque la soberanía de estas compañías amenaza ya la de los propios estados, que empiezan a ponerles límites a través de legislación e impuestos. Como respuesta, muchas de estas organizaciones inician campañas publicitarias y de lobby para mantener sus beneficios, por lo que la ciudadanía deberá medir hasta qué punto apoya o rechaza las propuestas de sus legisladores para cambiar la situación. Buen ejemplo de ello es la disputa que Airbnb mantiene con el Ayuntamiento de Barcelona y que, más allá de la polémica, puede convertirse en un ejemplo de nuevas vías de colaboración público-privada para corregir los efectos no deseados de esta y otras grandes corporaciones en más ciudades del mundo.

Por otro lado, hacer un uso consciente, crítico e informado de estos servicios es el único modo de forzar a las propias empresas tecnológicas a tener en cuenta estas demandas. No hay que olvidar que la confianza entre sectores es la base de gran parte del modelo de negocio de la economía colaborativa y de otras innovaciones como blockchain, por lo que estas compañías no deberían sentirse cómodas ante un descenso de credibilidad continuado. Del mismo modo que existe un mercado para aquellas organizaciones que ponen en valor su responsabilidad social o con el medio ambiente, las tecnológicas que respeten la soberanía de los datos de los usuarios y las condiciones laborales de su plantilla, o que tengan en cuenta su impacto en el entorno, podrían obtener también rédito económico. En el campo del periodismo, por ejemplo, el número de personas que pagan por medios en línea ha aumentado en muchos países, y ya es una estrategia significativa en España, donde un 11% de los consumidores de noticias paga a cambio de información independiente y de calidad. Del mismo modo, ya se habla de modelos pay for privacy como una oportunidad para servicios que garanticen la protección de los datos de sus usuarios. Compañías como AT&T, Comcast o la propia Facebook ya han testeado estos modelos o han mostrado la intención de hacerlo en el futuro.

Cultivar la confianza es difícil. Es un capital social intangible que se consigue con tiempo y esfuerzo. Las grandes empresas tecnológicas han sido responsables de mejoras y avances sociales que hoy se dan por sentadas, pero que han sido fruto de sus impulsos continuados en favor de la innovación. Que sean capaces de mantener su credibilidad depende de hacia dónde orienten sus pasos en el medio plazo y del nivel de exigencia de los usuarios, que, cada vez más, parecen juzgar los avances tecnológicos teniendo en cuenta su impacto social.





La revolución 4.0 y sus melodías

Como en las anteriores revoluciones puntocero, el relato de la eficiencia y el crecimiento económico coexiste con la posibilidad de un relato alternativo que sitúe la comunidad en el centro.


VEB Robotron Elektronik Dresden, 1974 | Bundesarchiv | CC-BY-SA-3.0

El concepto «Industria 4.0», también conocido como revolución industrial 4.0, industria inteligente o ciberindustria del futuro, hace referencia a una nueva forma de organizar los medios de producción caracterizada por una fusión de tecnologías que está difuminando las líneas entre el esfera física, digital y biológica. Supone la puesta en funcionamiento de un gran número de fábricas inteligentes que abren la vía a una nueva revolución industrial. Y como en las anteriores revoluciones industriales, coexisten dos discursos: el del crecimiento económico y el de la promesa de un mundo mejor que pone la comunidad en el centro.

En el territorio de lo mítico/casi-fake/fake corre una versión sobre cómo se gestó «lo 4.0». Situémonos en 2011. Una comisión de la Forschungsunion Wirtschaft-Wissenschaft alemana presentó un programa de investigación e innovación a la canciller Merkel con el título «Revolución industrial 4.0». Era un sesudo plan de acción. Se postulaba como la respuesta al dominio evidente de los nuevos flujos de innovación, creatividad y producción por parte de actores que no eran precisamente los pesos pesados de la industria alemana, sino los nuevos colosos digitales, mayormente americanos. El plan era una reivindicación de la producción física, la producción de cosas, un terreno donde Alemania era fuerte. Desde esa fortaleza había que aprovechar lo digital para situarse con ventaja en el campo de batalla que los de la visión «start-upista», Silicon Valley, habían empezado a jugar. Y a dominar.

¿Qué había de nuevo en todo esto?

La relación entre la información, la comunicación y la producción es antigua. La logística, por ejemplo, depende muy críticamente de disponer a tiempo de información veraz sobre las necesidades de abastecimiento, las capacidades de producción y de su sincronización. La fabricación propiamente dicha –desde Taylor– requiere de mucha información. Desde los diseños iniciales a los planos, a los estadillos de material en almacenes, hasta el ritmo de producción de una cadena de montaje y hasta el rendimiento individual de quienes forman parte de esa cadena es información. Los robots, esa materialización de la información para actuar con cierta inteligencia, llevaban decenas de años en planta. Internet los conectó con bases de datos, almacenes, diseños de piezas y personas para acelerar toda la producción, abastecimiento y distribución hasta velocidades que nos parecen normales, a costa de una complejidad técnica y computacional hasta hace poco insospechada. Que un paquete de Amazon Prime nos llegue a casa en menos de una hora nos parece natural, pero no era nada normal hace bien poco.

The Fourth Industrial Revolution | World Economic Forum

Por tanto, ¿qué tiene de nuevo el 4.0? Recibamos a Klaus Schwab. Schwab es tan alemán como Merkel pero, además, es el ideador, organizador y promotor de un conocido club de amigos: el Foro Económico Mundial, por otro nombre Foro de Davos. Y les lanza la idea de la Revolución 4.0. En sus propias palabras:

Estamos al borde de una revolución tecnológica que alterará fundamentalmente la forma en que vivimos, trabajamos y nos relacionamos unos con otros. En su escala, alcance y complejidad, la transformación será diferente a todo lo que la humanidad haya experimentado antes. Todavía no sabemos cómo se desarrollará, pero una cosa es clara: la respuesta debe ser integral y exhaustiva, involucrando a todos los actores de la política global, desde los sectores público y privado hasta la academia y la sociedad civil.

La primera revolución industrial utilizó la energía del agua y el vapor para mecanizar la producción. La segunda usó energía eléctrica para crear producción en masa. La tercera utilizó electrónica y tecnología de la información para automatizar la producción. Ahora, la cuarta revolución industrial se basa en la tercera, la revolución digital que se viene produciendo desde mediados del siglo pasado. Se caracteriza por una fusión de tecnologías que está difuminando las líneas entre las esferas física, digital y biológica.

Es una argumentación, un estilo y una retórica que ya conocemos de otros «puntoceros». Podemos rastrear este aire de familia, por ejemplo, en los anuncios de la apertura de Internet al uso comercial y, después, en la llegada del 2.0. Por ejemplo, en tiempos de Tim O’Reilly, se decía sobre «lo 2.0» lo siguiente:

La Web 2.0 se refiere a los sitios web World Wide Web que enfatizan el contenido generado por el usuario, la usabilidad (facilidad de uso, incluso por no expertos) y la interoperabilidad (esto significa que un sitio web puede funcionar bien con otros productos, sistemas y dispositivos) para los usuarios finales…

Técnicamente la parte más cercana a «lo 4.0» en el caso del 2.0 es la interoperabilidad. Un sistema que no se ha diseñado teniendo a un segundo o tercer sistema en cuenta –ubicados en cualquier otra parte del mundo– puede actuar o interactuar con ellos, interoperar. Esto recuerda a la conexión de sistemas variopintos del 4.0: cadenas logísticas, sistemas de transporte, sistemas de decisión, etc.

Lo que es un tanto diferente del 4.0 es eso que Schwab lleva hasta su consecuencia lógica: la identificación de la información con su correlato bio y material. Si dispones de un plano en Barcelona, alguien se lo puede descargar y fabricar en China. Ahora es algo más que habitual. Si, antes, sobre esta complejidad situábamos a personas que pilotaran estos procesos, ahora Schwab and Friends suponen que habrá tecnología de inteligencia artificial en su lugar. Esto es, en el 4.0 lo que se está conectando ya no son solo materiales y repositorios de contenido e información controlados por procesos programados y repetitivos, sino también ciertos tipos de agentes inteligentes que pueden tomar decisiones insertos en un punto determinado de cadena logística, de producción y de distribución. Con una vuelta de tuerca más y conectando y estirando mucho lo realizable con lo biológico «cuatropuntocero», Schwab viene a decir que si tienes la descripción de su ADN, tienes el programa para «fabricar» a seres vivos e insertarlos en este universo de agentes inteligentes 4.0.

Lo que resuena en todas estas declaraciones es la melodía de la eficiencia y el crecimiento económico:

En el futuro, la innovación tecnológica también conducirá a un milagro de la oferta, con ganancias a largo plazo en eficiencia y productividad. Los costos de transporte y comunicación caerán, la logística y las cadenas de suministro mundiales serán más efectivas, y el costo del comercio disminuirá, lo que abrirá nuevos mercados e impulsará el crecimiento económico.

Schwab dixit. Esta melodía ya nos la conocemos. De vez en cuando se adereza con una referencia al crecimiento exponencial de las capacidades y los resultados.

Así, pues el horizonte que dibuja el 4.0 es homogéneo y continuo con los otros puntoceros: una política de dominio económico basada en la utilización aventajada de otra nueva tecnología y sus combinaciones con otras ya existentes, todas basadas en la información.

El 2.0 nos sedujo con las promesas de la colaboración, de la contribución a la conversación, a la construcción de comunidad. Sin embargo, nos ha llevado también hasta las realidades actuales del capitalismo extractivo de datos. Ante el 4.0 puede que sea un ejercicio necesario y urgente especular sobre sus derivas futuras. Esta compleja interconexión de lo físico y lo material, lo digital y lo vivo, lo repetitivo y lo inteligente está animada por los mismos valores y la misma lógica que ha pilotado los puntoceros anteriores. Incluso el propio Schwab alerta de los cambios «disruptivos» (un adjetivo que no puede faltar en ningún relato protecnológico) en múltiples esferas de vida: medio ambiente, vida diaria, formas de trabajo (o su desaparición), etc.

Design For City Making | Elisava | Drets desconeguts

Ante el cuatropuntocero hegemónico aparecen una política y un discurso alternativos que también recurren a la fabricación. Argumenta que si podemos distribuir la capacidad de fabricación en pequeñas instalaciones que sean cercanas o bien a los consumidores o bien a los productores o a ambos, quizá podamos crear otros modelos económicos alternativos. O buscar nuevas sostenibilidades desde la fabricación. O bien organizar las ciudades de manera distinta, apuntan unos terceros.

Ciertamente, si distribuimos en la ciudad estos recursos de manera accesible a la población, sería posible, en teoría, crear nuevas cadenas logísticas y de producción urbana donde los usuarios sean también productores (aquí vuelven a la carga los «prosumidores» de viejos tiempos 2.0). Podrían fabricar sus propios productos, ya sean biológicos o de otros materiales, comida o vestido. Hay aquí una mezcla que ya conocemos: la confianza en una nueva tecnología vista desde el prisma de un nuevo comunitarismo articulado otra vez, en torno a las mismas tecnologías de producción que han creado y usan los gigantes económicos. Es decir, hay propuestas para utilizar bajo otro concepto de beneficio distinto al capitalista las tecnologías cuatropuntocero dominadas por los grandes actores de lo digital. Caben aquí desde los fablabs hasta otros espacios de fabricación.

Quizá habría que investigar cómo evitar de nuevo las consecuencias que ya conocemos por nuestra experiencia de los puntoceros anteriores. En el proyecto «Design for City Making», por ejemplo, estamos explorando cómo crear un procomún de producción y distribución a partir de recursos de tecnología de fabricación digital. La intersección entre artesanos, artesanos digitales, «makers» al uso, «bricoleurs», «manitas» y una versión abierta y de pequeña escala pero muy replicable de tecnologías de producción digital, alienta una mirada comunitaria con unos valores diferentes a los del 4.0 de la versión Schwab. Es un territorio ambiguo donde podemos anticipar las dificultades de construir lo digital-común que ya experimentamos en los tiempos del 2.0, cuando todos íbamos a construir un común de contenidos y conocimientos y acabamos más bien como productores no remunerados para terceros. Pilotar todo esto no es nada fácil. ¿Podremos sustraernos a otra nueva inocencia?

A Merkel le gustó mucho el plan de acción que le presentó la Forschungsunion Wirtschaft-Wissenschaft, pero sugirió un cambio, poca cosa: en vez de llamarse «Revolución industrial 4.0», el plan de la Forschungsunion Wirtschaft-Wissenschaft se debería llamar pura y simplemente «Industria 4.0». Un cambio sin importancia, un pequeño capricho del poder, apenas nada.


Brynjolfsson y A. McAfee (2014). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. Nueva York: W. W. Norton & Company

Martínez, A. Mestres y M. Hinojos (eds.) (2017). Deconstruyendo el Manifiesto Maker. Barcelona: Trànsit Projectes–MakerConvent, pp. 18-33.

Schwab (2017). The Fourth Industrial Revolution. Nueva York: Crown Publishing Group.

Schwab (2016). The Fourth Industrial Revolution What it Means and How to Respond. Accedido el 25 de mayo de 2018.

Tiqqun. La hipótesis cibernética. Accedido el 22 de marzo de 2018.





No es computable

Los algoritmos todavía no capturan todos los matices de una decisión humana y, por tanto, hay determinaciones que por el momento solo podemos tomar nosotros.


FOSDIC (Film Optical Sensing Device for Input to Computers) | U.S. Census Bureau | Dominio público

Es arriesgado reducir la ética a un cálculo matemático de daños y opciones posibles. Los algoritmos de aprendizaje automático se valen del contexto para tomar decisiones, sin una comprensión causal de los fenómenos que pretenden predecir. El conocimiento ético humano es prereflexivo, no es la mera conclusión de un argumento puramente racional, sino que es el resultado de un proceso formativo que empieza durante la infancia. Se trata de una esfera de la actividad humana a la que tenemos un acceso inmediato, de manera intuitiva, y es el resultado de compartir naturaleza y cultura. Esta intuición por el momento no es reducible a algoritmos, ni de los basados en reglas y definiciones, ni de los basados en similitudes estadísticas.

El juez examina detenidamente los informes que ha recibido. Consulta después sus notas y emite el veredicto: «Considerando su nombre de pila, su edad, el barrio en el que vive y sus notas de secundaria he decidido declararlo culpable del crimen del que se le acusa.»

Si un juez declarara algo así, el escándalo sería mayúsculo, pero la policía de Durham, en el Reino Unido, utiliza un sistema de aprendizaje automático conocido como HART (Harm Assessment Risk Tool, ‘Herramienta para establecer riesgos de daños’) para hacer predicciones de quién podría volver a realizar un crimen. El programa usa correlaciones como el tipo de barrio en el que la persona vive, su origen étnico (obtenido a partir del proxy del nombre de pila) y su grado de absentismo escolar para detectar una posible «juventud desconectada» que podría llevar a cabo crímenes contra la propiedad o las personas.

El problema no está en la efectividad del sistema. Aunque el programa fuera eficaz al 100% y acertara en todos los casos, seguiría siendo incompatible con nuestra idea de lo que es la justicia.

Una intuición básica sobre la que se basa nuestra idea de justicia fue capturada por el filósofo G. H. Von Wright en su libro Explicación y comprensión. Allí Von Wright argumentaba que, a la hora de dar sentido a nuestras vidas, utilizamos dos paradigmas diferentes: las causas y las razones. Según Von Wright, las causas nos explican por qué algo ha sucedido de la manera en la que ha sucedido, mientras que las razones nos permiten entender el porqué último de que algo haya sucedido. Las causas forman parte del razonamiento científico y nos explican en detalle cómo algo sucede. Las razones se encuentran en la esfera de las humanidades y nos explican el motivo de una situación, basándose en una comprensión humana, situada, de cómo entendemos el mundo y cuáles son nuestros valores.

El filósofo austríaco Ludwig Wittgenstein planteó esa intuición en uno de los aforismos de sus Investigaciones filosóficas, donde argumenta que si un juez decide declarar culpable a una persona lo hará por las razones que la llevaron a actuar. Si se guiara por las causas, siempre dejaría a la persona libre. Es decir, si buscamos la causa última de un comportamiento criminal, siempre encontraremos algo: abusos en la infancia, enfermedades mentales… en última instancia, siempre podremos decir que las neuronas de su cerebro adoptaron tal estructura y formación que llevaron inevitablemente a esa persona a cometer un delito. Son las razones por las que alguien actúa, y no las causas, lo que usamos para valorar la eticidad de un comportamiento.

Como he explicado en el primer artículo de esta serie (Sesgo en bucle: alimentando la injusticia algorítmica), los algoritmos actuales de aprendizaje automático se apoyan fuertemente en el contexto, y no tienen ningún tipo de comprensión causal de los fenómenos que tratan de predecir. Si por una casualidad todas las personas que se llaman David que viven en cierto barrio de Durham estuvieran ya fichados como criminales peligrosos y yo me fuera a vivir a ese barrio, tendría cada dos por tres a la policía en mi casa y me considerarían sospechoso de algún delito. Hasta no es difícil de imaginar que, harto de la presión, acabara cometiendo un delito de verdad.

Imaginemos que en un futuro conseguimos programas de inteligencia artificial capaces de llevar a cabo razonamientos causales correctos –cosa de la que aún estamos lejos, según expertos en el razonamiento de la IA como Judea Pearl. Aun así no tendríamos todavía una IA capaz de razonar como un juez, pues le faltaría disponer del conocimiento de las razones.

El filósofo Hubert Dreyfus, recientemente fallecido, ha argumentado esta posición de forma coherente en diversos artículos sobre en qué consistiría un conocimiento experto en ética. Dreyfus insiste en que un mero conocimiento discursivo, de causas, sobre qué es ético y qué no lo es, sería insuficiente para capturar los razonamientos éticos de una persona.

Abrir nuevos mundos | Hubert Dreyfus

Un equipo de investigadores del MIT utiliza el famoso problema de la vagoneta, de la filósofa contemporánea Philippa Foot, para intentar enseñar a tomar decisiones éticas a los coches autónomos. La idea es que, ante un accidente inevitable en el que haya diversas opciones, el cerebro electrónico del coche inteligente tome la decisión moralmente más adecuada. Es, pues, un intento de reducir la ética a un cálculo matemático de daños y opciones.

Este sistema, aunque sin duda sería útil, no captura todos los matices que tiene una decisión humana. Básicamente, nuestro conocimiento ético es prereflexivo, no es simplemente la conclusión de un argumento puramente racional, sino que es el resultado de un proceso formativo que empieza en nuestra infancia, cuando tenemos una serie de experiencias personales que nos permiten dar sentido a nuestro mundo. Estas experiencias están fuertemente influidas por la sociedad y la cultura en las que vivimos. Nuestro conocimiento ético es espontáneo, intuitivo e inmediato. No establece verdades grabadas en piedra, sino que es fluido y revisa y reenmarca nuestra percepción de cuando una acción es ética o no en función de nuestras interacciones con otras personas y culturas. Este acercamiento se basa en una nuestra capacidad básica de dar sentido a nuestro entorno, capacidad que necesita una autonomía radical que nos permita establecernos como sujetos en el mundo.

Veamos otro ejemplo concreto. El año 2016, Facebook decidió retirar la icónica fotografía de la entonces niña de nueve años Kim Phúc sin ropa, huyendo de un ataque con napalm durante la guerra del Vietnam. Un algoritmo automático la había clasificado como «posible pornografía», y la había eliminado de la cuenta de un periodista noruego que desarrollaba un trabajo sobre el horror de la guerra. Fueron necesarias protestas del periódico e incluso del gobierno noruego, aparte de miles de usuarios indignados, para que Facebook diera su brazo a torcer y finalmente la fotografía volviera a la red social.

La respuesta oficial de Facebook cuando insistió en que no pensaban permitir esa fotografía es que era complejo dirimir cuándo una imagen de un menor sin ropa es apropiada y cuándo no. Y, efectivamente, si lo que buscamos es un algoritmo que nos diga si una fotografía es pornográfica o no en función de la cantidad de piel descubierta que hay, no vamos a encontrar nada. Para entender por qué la escena de «la chica del napalm» no es pornográfica sino que es una denuncia del horror de la guerra necesitamos entender muchas cosas sobre la naturaleza humana: qué nos da placer y qué nos genera sufrimiento, qué es un soldado, qué es una guerra, cómo se siente una criatura cuando ve caer llamas del cielo. Todo eso se escapa si simplemente estudiamos grados de semejanza entre la imagen de Kim Phúc huyendo y las fotografías que uno encuentra en un sitio como Pornhub.

Potter Stewart, juez del Tribunal Supremo de los Estados Unidos, presentó de manera perfecta el dilema cuando, el año 1964, al tener que decidir si determinada película era o no pornográfica, afirmó: «Hoy no intentaré definir los tipos de materiales que entiendo que deben incluirse dentro de esa descripción [“pornografía hardcore”], y quizás nunca conseguiría hacerlo de manera inteligible. Pero los reconozco cuando los veo, y la película involucrada en este caso no es eso.» «Los reconozco cuando los veo» resume perfectamente lo que busco describir en este artículo. Hay una esfera de actividad humana a la que tenemos un acceso inmediato, intuitivo, resultado de compartir una naturaleza y una cultura. Esa intuición no es reducible a algoritmos, ni los basados en reglas y definiciones ni los basados en similitudes estadísticas. Pero todos la reconocemos cuando la vemos.

Dreyfus creía que estas capacidades humanísticas estaban totalmente fuera del alcance de máquinas electrónicas. Por mi parte me confieso agnóstico sobre la cuestión. No veo ninguna razón ontológica o gnoseológica por la que no podamos tener un día verdaderas inteligencias artificiales, que rivalicen con nuestras capacidades humanas, aunque intuyo que ese día está todavía muy lejos.

Pero creo que hay una lección clara que debemos considerar: el desarrollo de las tecnologías digitales no ha de guiarse exclusivamente por criterios científicos y de mercado; hemos de incluir también una visión humanística que nos informe de cuándo tiene sentido un aparato o un algoritmo y cuándo es mejor confiar las decisiones a las intuiciones humanas.

Referencias

Moral Machines: Human Perspectives on Machine Ethics

Can You Sue a Robocar?

To Build Truly Intelligent Machines, Teach Them Cause and Effect

Being in the World. A Philosophical Documentary





La silicolonización del mundo

La irresistible expansión del liberalismo digital apunta a regular el curso de la vida mediante algoritmos.


Desfile para conmemorar el 750º aniversario de Berlín. Berlín, 1987 | Thomas Uhlemann, Bundesarchiv | CC BY-SA

Vivimos en un mundo hiperconectado que el filósofo Éric Sadin lleva tiempo analizando. En su libro La humanidad aumentada (Caja Negra Editora, 2017) Sadin postula la emergencia de una «humanidad paralela» capaz de procesar más eficazmente la gran cantidad de información que se genera, dando lugar a una gubernamentabilidad algorítmica. En su nuevo libro, Sadin analiza la cuna de las tecnologías digitales con sede en Silicon Valley y rastrea de qué forma estas buscan redefinir nuestras existencias por medio de los ecosistemas digitales. Por cortesía de Caja Negra Editora publicamos un avance del libro La silicolonización del mundo. La irresistible expansión del liberalismo digital, que verá la luz en junio de 2018.

Históricamente, la colonización suponía veleidades agresivas de dominación que apuntaban a apoderarse de los territorios por medio de la fuerza, y se topaba con resistencias feroces o bien lograba una colaboración interesada. Procedía de la imposición de un orden sobre otro orden existente, apuntando a la explotación de los recursos naturales y de las energías humanas en vistas a enriquecer a las fuerzas conquistadoras y sus países de pertenencia. No es este el caso; se trata de una voluntad endógena que estima que este esquema económico y cultural reviste, más allá de su foco de origen, un valor universal que se ha convertido en el patrón para la medida de la vitalidad económica de los países, y que, por la evidencia de su verdad, debe ser importado y activamente implementado.

Es un impulso «autocolonizador» movido por dos motores que actúan de modo conjunto. En primer lugar, a través del proselitismo de actores que, habiendo actualizado su «sistema de explotación conceptual» y tocados por la gracia, difunden por todas partes los preceptos de la «biblia siliconiana». Está en marcha un movimiento poderoso que se manifiesta en la expansión de una doxa difundida por los industriales, la mayoría de los economistas, las universidades y las grandes escuelas, las agencias de prospectiva, los think tanks y los órganos de presión de todos los órdenes, los teóricos del management o incluso las portadas de las revistas, que celebran a diestra y siniestra a los start-uppers que «rompen esquemas». Se pregona el dogma «franciscano» en las conferencias TED a golpe de eslóganes que pueden ser «compartidos» en ciento cuarenta caracteres, o en grandes misas profesionales bajo la forma de prédicas pronunciadas por «expertos sacerdotes» que confirman, con ayuda de diapositivas sintéticas y a través de «experiencias adquiridas», la verdad del evangelio siliconiano.

Pero el núcleo de ese seguidismo, además de esos «resortes naturales», es alentado por la clase política –y eso va más allá del enfrentamiento derecha/izquierda, está dentro de un consenso social-liberal mayoritariamente activo en las democracias–, convencida de que «de ahora en adelante hay que adaptarse a lo que haga Silicon Valley».[1] En la vanguardia de la silicolonización del mundo se sitúan, a igual título que los industriales, los representantes electos y los responsables de las administraciones del Estado. Sería falso decir de ellos que «estarían superados»,[2] porque en verdad proceden a la institucionalización del espíritu de Silicon Valley en el seno de entidades cada vez más numerosas y variadas del sector público.

What is La French Tech?

En segundo lugar se produce la self-colonization de los territorios, puesto que después de mediados de la primera década del siglo XXI, la fascinación ya no quiere ser pasiva, sino que se manifiesta a través de acciones concretas, por la construcción de valleys en los cinco continentes, bajo la forma de parques industriales e «incubadoras», destinados a favorecer la creación de empresas start-up, a unir a los distintos actores y a subirse sin demora al tren de la economía de los datos. Son «valles del conocimiento» que en la mayor parte de los casos constituyen el objeto de «consorcios públicos/privados» según la nueva norma estatal-liberal de reordenación de los territorios. Estos «polos de competitividad» se benefician de subvenciones concedidas por los gobiernos o las colectividades territoriales y se encuentran a veces ornados con sellos de calidad otorgados por comités de expertos que dan testimonio de la importancia de estas nuevas causas nacionales. Es el caso de la marca La French Tech, que pretende rivalizar con la poderosa águila que es Silicon Valley, y que exhibe como logo un gallo bermellón generado aparentemente por un programa de imágenes sintéticas que dataría de los años noventa, con la mirada perdida y en una postura aceptablemente rígida y torpe. El ícono, de diseño pasado de moda y de modestia sorprendente, ¿expresa una confesión inconsciente en cuanto a la imposibilidad de rivalizar verdaderamente con el modelo original a pesar de las intenciones anunciadas? Porque el gallo nunca se va a transformar en águila y siempre va a ser esta última la que, al final de la historia, devore su carne y su alma. Es una suerte de lección parecida a una fábula de La Fontaine, pero actualizada y digna de consideración.

Francia, que en otros tiempos supo ser una de las grandes potencias coloniales y que difícilmente supo liberarse de ese pecado, se somete hoy con entusiasmo a un modelo que contribuye no solo a alterar su especificidad industrial histórica en favor del modelo siliconiano, sino incluso a desmantelar numerosos logros jurídico-políticos, entre los cuales algunos que fueron forjados por ella misma e inspiraron al mundo. Creemos en vano que cada país posee su propia identidad, que reconfigura las cosas a su modo, y probablemente esté inscrito en el proceso de colonización conceder una «tonalidad local» a la norma hegemónica. Más allá de los fenómenos de superficie, lo único que cuenta es la estructura principal, la que, en este caso, ignora las concepciones divergentes y potencialmente honestas para comprometerse con un esquema unilateral ultrajante que, con la única finalidad del beneficio, apunta a regular el curso de la vida mediante algoritmos.

Puesta de sol sobre Silicon Valley. California, 2016 | Anthonyavalos408, Wikimedia Commons | CC BY-SA

 

Conviene proceder a un análisis del «contagio de las ideas», o una «epidemiología de las representaciones», para retomar los términos de Dan Sperber.[3] Es decir, examinar ciertos micromecanismos psicológicos que, a fuerza de enredarse y mantenerse vigentes, engendran macrofenómenos sociales. Es preciso captar la parte de afecto que existe en aquello que deriva, en gran medida, de una creencia en una forma de salvación a partir de suposiciones vagas. Es la razón por la cual los gurúes de todo tipo encarnan a las nuevas stars de las conferencias profesionales, y son invitados a hacer valer sus conocimientos en el seno de un contexto singular que mezcla incertidumbre en cuanto a la viabilidad del modelo y un sentimiento de ineluctabilidad respecto de su realización futura. Ofrecen una garantía a la fe, justificando a través de la clarividencia de su «visión» la justeza de la convicción, porque lo que caracteriza la economía digital, desde el advenimiento de lo que se denominó net economy a mediados de los años noventa hasta hoy, es que nunca antes un movimiento industrial se había basado tanto en conjeturas y proyecciones azarosas, en vez de sobre realidades constatadas y resultados patentes. Son ejercicios de futurología euforizante que preceden a los hechos y que son necesarios para la legitimación de las iniciativas, contribuyendo especialmente a convertir en marginal cualquier contradiscurso escéptico.

Y en este sentido se ha cruzado también un umbral; asistimos a un alto nivel de entusiasmo emparentado con el misticismo deslumbrado de un Merlín encantador, ridículamente vestido con un traje de Superman, que nos libera de las angustias de la época. Habría que pasar, entonces, de una psicosociología[4] –como la pregonada por Gilbert Simondon, cuyo objetivo era definir los componentes psicológicos que influyen en las evoluciones técnicas más allá de su transcurso aparentemente «natural»– a una psicopatología, que es tanto el propio Silicon Valley como el «deseo de Silicon Valley». Ambos constituyen un nuevo síndrome que habría que colocar en la lista de las nuevas enfermedades mentales de nuestro tiempo: el psiliconismo. Sabemos hasta qué punto Frantz Fanon, un estudioso lúcido y metódico de la colonización y las luchas descolonizadoras, que también era psiquiatra de profesión, vinculó los fenómenos de colonización con las patologías psiquiátricas a través de las formas de desposeimiento a las que inducen. Y este análisis se hace eco de la doble forma que tiene el desposeimiento contemporáneo. Primero, el desposeimiento respecto de nuestro poder de deliberación colectiva relativa a un fenómeno que se pretende inevitable y que se impone bajo una precipitación irreflexiva y culpable. Y, en segundo lugar, el desposeimiento –más determinante todavía, aunque de otra manera– de la autonomía de nuestro juicio causada por el hecho de que el principal resorte de este modelo económico depende de la neutralización de la libre decisión y de la espontaneidad humanas.


[1] «Hay que adaptarse a lo que haga Silicon Valley», afirma Paul-François Fournier, del BPI, en Liza Kroh, «French Tech : label affaire», Libération, 5 de enero de 2016. El BPI (Banque Publique d’Investissement (‘Banco Público de Inversión’), también «Bpifrance») es un establecimiento público que destina fondos de apoyo a empresas start-up y de «La French Tech», en un presupuesto consagrado a ello que se elevaba, cuando se creó en 2012, a 600 millones de euros, y que fue incrementado en 1,4 millones de euros anuales hasta 2016.

[2] Véanse ciertos artículos u obras que afirman, de manera errada, que la clase política iría «a la zaga» del movimiento general de la «innovación» digital, o incluso que «no entendería gran cosa sobre las mutaciones tecnológicas contemporáneas». Este postulado equivocado supone, primero, que la verdad se ubica del lado de aquellos que sí habrían comprendido e integrado la naturaleza de dichas evoluciones, y oculta, luego, el vivo y reciente voluntarismo de los responsables políticos para sostener, por medio de fondos públicos, el desarrollo de la «economía del dato».

[3] Dan Sperber (1996). La Contagion des idées. Théorie naturaliste de la nature, París: Odile Jacob.

[4] Sobre la noción de «psicosociología», v. Gilbert Simondon (2017). Sobre la técnica, Buenos Aires: Cactus.





Sesgo en bucle: alimentando la injusticia algorítmica

Para evitar que los algoritmos basados en el aprendizaje automático perpetúen desigualdades sociales es necesario un debate público sobre qué problemas son automatizables.


Loop the Loop, Coney Island, N.Y. Autor desconocido, 1905 | Library of Congress | Dominio público

El problema de usar algoritmos basados en el aprendizaje es que si estos sistemas automatizados son alimentados con ejemplos de justicia sesgada, acabaran perpetuando estos sesgos. Para los defensores acérrimos de la tecnología, esto se podría resolver con más algoritmos que detecten y eliminen los sesgos de forma automática. Pero es necesario, de un lado, tener en cuenta que la tecnología no es neutral, sino que es una herramienta en manos de los humanos, y, del otro, que el uso de un sistema sesgado para hacer un cálculo de probabilidades generará siempre un resultado también sesgado, que se aplicará al mundo y creará más desigualdades, dando lugar a un bucle bastante problemático. Es necesario, pues, que el debate sobre las decisiones que pueden sacarse de los datos considere los derechos y las libertades de los humanos.

El solucionismo tecnológico sostiene que la inmensa mayoría de los problemas sociales y políticos actuales son resultado de la ineficacia humana. Solo una buena inyección de tecnologías digitales puede resolverlos. ¿Hay altos niveles de pobreza en tal barriada de Mumbai? Démosles móviles, conexión a Internet y un protocolo de cadenas de bloques y, mágicamente, empezarán a salir emprendedores de debajo las piedras y la prosperidad volverá a la ciudad ¿La ciudadanía confía cada vez menos en la justicia porque ve diariamente cómo jueces toman decisiones sesgadas, ya sea por presiones políticas o por su condicionamiento ideológico? Hagamos jueces basados en algoritmos de aprendizaje automático y la injusticia desaparecerá de la Tierra.

Injusticia algorítmica

En un post anterior hablé ya de los problemas que puede acarrear utilizar algoritmos basados en aprendizaje automático. En síntesis, el problema es que esos sistemas automatizados, si son alimentados por ejemplos de justicia sesgada, acabarán reproduciendo y potenciando esos sesgos. Si en un país como Estados Unidos las personas de ascendencia africana tienen muchas más probabilidades de acabar en la prisión sin fianza, y entrenamos a una red neuronal con esos datos, el algoritmo acabará replicando ese tipo de sesgos.

Los defensores del solucionismo tecnológico refutan tales argumentos de la siguiente manera: los sesgos que resultan en injusticias, como que se discrimine a ciertas razas en un tribunal, no los ha hecho ninguna máquina; son resultado de la acción humana. Los algoritmos son como los cuchillos: no son ni buenos ni malos, justos o injustos. Justa o injusta es la persona que los aplica. En la peor de las situaciones, los algoritmos se limitarán a mantener la injusticia ya existente, resultado exclusivamente de acciones humanas. La solución a posibles algoritmos injustos son más algoritmos que detecten y eliminen desigualdades y sesgos de forma automática.

Casi unánimemente, los defensores del solucionismo tecnológico acaban sus declaraciones con la petición de que los dejen trabajar en paz: el público general no entiende cómo funciona la inteligencia artificial; la gente se deja llevar por la prensa sensacionalista. Solo los expertos deberían decidir cuándo aplicar tal algoritmo y cuando no.

No entraré en las implicaciones de suponer que cuestiones como la justicia queden en manos exclusivamente de ingenieros emprendedores. Aquí me gustaría mostrar que la respuesta de los solucionistas tecnológicos está básicamente equivocada.

The Era of Blind Faith in Big Data Must End - Cathy O’Neil | TED Talk

La supuesta neutralidad tecnológica

Observemos primero que la supuesta neutralidad de las tecnologías es una simplificación. Cualquier tecnología está diseñada, es decir, se ha llevado a cabo con un fin. Y aunque algunos fines puedan ser neutros, la mayoría tienen una dimensión ética. Los cuchillos en abstracto no existen. Hay muchos tipos de cuchillos, y cada tipo se diseña con un fin concreto en mente. Un bisturí está diseñado para usarse en un quirófano. Evidentemente alguien puede utilizar ese bisturí para matar a otra persona, pero no se diseñó para eso. La guillotina de la Revolución Francesa fue diseñada con una misión muy específica: cortar cabezas humanas. Es posible imaginarse un uso «positivo» de la guillotina, quizás para cortar sandías por la mitad, pero claramente sería un ejercicio retórico para mostrar la supuesta neutralidad de algo que es cualquier cosa menos neutro.

Igualmente, las personas que programaron el software de Volkswagen para que pareciera que ciertos modelos de automóviles diesel contaminaban menos de lo que realmente hacían, estaban diseñando un algoritmo con el fin muy claro de engañar y estafar a la sociedad civil. La neutralidad brilla por su ausencia.

Algoritmos en un contexto sesgado

Pero la parte más problemática del argumento es suponer que introducir algoritmos de aprendizaje automático en un contexto sesgado es una acción sin consecuencias. Ese tipo de algoritmos no tienen ninguna comprensión o modelización conceptual del problema que analizan: se limitan a asignar probabilidades a un resultado a partir de un análisis estadístico de la situación actual. Una jueza o un juez pueden ser todo lo sesgados que quieran, pero están obligados a explicar las razones de su decisión. Otros juristas –y sí, también la ciudadanía– tienen derecho a analizar esas decisiones e indicar si les parecen correctas o no. El sistema legal de cualquier país democrático ofrece vías para apelar decisiones judiciales si se considera que se han aplicado leyes de forma sesgada o impropia.

How I'm fighting bias in algorithms - Joy Buolamwini | TED Talk

Por el contrario, cuando un algoritmo nos indica qué nueva serie de televisión nos resultará más interesante, o informa a una entidad bancaria sobre si es una buena idea conceder un crédito a tal persona, o indica si tal otra persona fácilmente cometerá más crímenes y es mejor encarcelarla preventivamente hasta la hora del juicio, no indica las razones por las que propone ese resultado. Simplemente se basa en regularidades anteriores: a un tanto por ciento elevado de personas que vieron muchas de las series que he visto yo les ha encantado esa nueva serie, así que probablemente a mí también me gustará; más del 70% de las personas de una edad, estado civil, sueldo medio y barrio similares a los de quien está pidiendo el crédito acabaron no devolviéndolo, así que seguramente es mejor no dárselo, etc.

Este giro de procedimiento crea una nueva variable: si utilizamos un sistema sesgado para hacer un cálculo de probabilidades, la decisión final que se tome estará también sesgada. Esa decisión sesgada se aplicará al mundo real y creará nuevas desigualdades; las regularidades estadísticas de ese mundo un poco más desigual las utilizará el algoritmo como input para tomar nuevas decisiones, decisiones que se aplicarán en el mundo real, que será un poco más desigual que antes. Crearemos así un problemático bucle de retroalimentación en el que el sistema poco a poco se irá haciendo cada vez más injusto, como esa guitarra eléctrica que dejamos al lado del amplificador y va generando cada vez más ruido hasta que acaba reventándonos los tímpanos.

Debate sobre la automatización

Afortunadamente existen soluciones. Necesitamos abrir un debate público para decidir qué procesos son automatizables y cuáles no. En ese debate sin duda han de estar presentes expertos en inteligencia artificial, pero necesitamos incluir también las humanidades, los diferentes agentes sociales y el público general. Y el criterio para determinar si una decisión concreta es automatizable o no en realidad es sencillo. Solo nos tenemos que preguntar: ¿es una decisión que puede extraerse directamente de datos? Como por ejemplo, cuál es el peso máximo que puede soportar un puente. En ese caso, podemos dejar el tema en manos de ingenieras e ingenieros experimentados, que sabrán como optimizar algoritmos.

Por el contrario, si se trata de una cuestión en la que se van a apelar a razones como por ejemplo decidir si una red social está diseñada de forma que garantice el respeto a la diversidad o no, al final de la cadena de decisiones ha de haber un equipo de personas que, a pesar de sus posibles fallos, emociones y sesgos ideológicos, entiendan que muchas decisiones de la esfera ética, política y social solo pueden tomarse desde una comprensión holística de qué significa ser humano y de cuáles son los derechos y libertades básicas de la humanidad. Algo que no puede surgir simplemente de regularidades estadísticas.

Referencias

Mathbabe, el blog de Cathy O’Neil, autora de Weapons of Math destruction.

Automating Inequality, de Virginia Eubanks.

«Algorithms and Human Rights», estudio del Consejo de Europa.





Las máquinas ya saben cómo aterrorizar a los humanos

El proyecto Shelley estudia cómo producir historias de terror fruto de la colaboración entre humanos e inteligencia artificial.


Ernest Thesiger y Colin Clive en La novia de Frankenstein dirigida por James Whale, 1935 | Sin restricciones conocidas de derechos de autor

Shelley es la primera inteligencia artificial escritora de terror. El proyecto trata de explorar la manera como humanos y máquinas pueden colaborar, los obstáculos de esa relación y sobretodo averiguar si la inteligencia artificial es capaz de provocar emociones primarias en los humanos. Hablamos de ello con Manuel Cebrián, científico del MIT Medialab, que nos habla del aprendizaje profundo y nos explica el proceso por el cual enseñaron a Shelley a escribir historias de terror.

1816 fue el año sin verano. El clima enloqueció por completo. Heladas y sequías arruinaron las cosechas y expandieron el hambre en Norteamérica y Europa, mientras que en Asia el monzón provocaba inundaciones. El calor no llegaba y la nieve seguía cayendo, aún en junio, lo que hizo que un grupo de cinco amigos ingleses se vieran obligados a pasar sus vacaciones confinados en una mansión cerca del lago Lemán, en Suiza. Se trataba de Lord Byron, el poeta; el médico John Polidori; Percy Shelley, poeta; su esposa, Mary Shelley, la escritora, y la hermanastra de esta, Claire Clairmont.

Aburridos, se retaron a escribir una historia de terror, lo más espeluznante posible. En aquella competición Lord Byron escribió su poema «Oscuridad», narrado por el último ser humano en la Tierra, y Polidori ideó un cuento de vampiros que tiempo después inspiraría a Bram Stoker para crear al célebre conde Drácula. Y Mary Shelley gestó a Frankenstein, aunque le llevaría otros catorce meses acabar la novela.

¿Quién podría haber sabido que 2017 volvería a ser otro año sin verano y que Byron, Shelley y Polidori volverían a encontrarse confinados, aunque esta vez en Twitter, donde escribirían nuevas historias de terror?

«Shelley es la primera inteligencia artificial escritora de terror. Es capaz de escribir relatos que dan miedo, sola o en colaboración con humanos usuarios de Twitter y con otros dos robots a los que ha insuflado vida, Lord Byron y Polidori», explica Manuel Cebrián, científico del grupo Scalable Cooperation, en el Medialab del Instituto de Tecnología de Massachusetts (MIT), en Cambridge (EEUU).

Para ello, Shelley se basa en una capacidad de la inteligencia artificial, llamada aprendizaje profundo, por la que puede aprender por sí misma a partir de grandes cantidades de datos imitando el funcionamiento de las redes neuronales del cerebro.

El algoritmo analiza la información y extrae aquella que es relevante para la tarea que va a realizar, así como patrones a partir de los cuales podrá, por ejemplo, diagnosticar enfermedades, en el caso de aplicaciones biomédicas; descubrir nuevos exoplanetas, como recientemente anunciaron la Nasa y Google, o escribir nuevas y originales historias de miedo desde cero, como Shelley.

Para su debut como escritora de terror, esta androide tuitera se preparó «leyendo» una ingente cantidad de literatura de terror, desde clásicos, como Edgar Allan Poe o H. P. Lovecraft, hasta autores modernos, como Stephen King. También devoró los canales de terror de Reddit –un agregador de noticias–. Entonces procesó todo lo que había leído, cientos de miles de relatos de terror, extrajo patrones y comenzó a generar historias espeluznantes.

Para saber cuáles de ellas cumplían mejor su objetivo, que era dar miedo a quien las leyera, sobre todo al comienzo Shelley se basaba en el feedback de la gente: los «me gusta» y retuiteos que tuviera cada nuevo relato que comenzaba.

Así, cada cierto tiempo el algoritmo envía o bien un tuit o bien un breve hilo con el que inicia una nueva historia que cualquiera puede seguir y responder simplemente contestando cualquiera de los mensajes que acaben con la etiqueta #yourturn (‘tu turno’). Shelley, sin embargo, no contesta a todos los mensajes que recibe, sino solo a aquellos con mayor potencial narrativo, capaces de generar un hilo largo.

«Es capaz de aprender qué hilos narrativos funcionan mejor para el terror. Y puede generar escenas de miedo que no se parecen a nada existente. Ha creado un tipo de terror completamente nuevo», afirma entusiasmado Cebrián, que remacha: «Ahora ya no necesita ni a los humanos. Junto a Polidori y Lord Byron los tres robots ya son capaces de escribir y de ir mejorándose ellos mismos.»

Por el momento, no obstante, y para alivio de los escritores de terror de carne y huesos, los relatos que son capaces de generar los tres robots tienen a lo sumo cinco párrafos de largo.

Shelley tampoco responde a comentarios racistas, sexistas, con insultos o incoherentes. Y haberlos, los ha habido y hay. «Había gente que se dedicaba a “trolear” el proyecto y a intentar que Shelley dijera cosas que no tenía que decir. Las ganas de destruir son innatas en el ser humano, igual que las ganas de crear. El mal siempre está a la vuelta de la esquina», apunta Cebrián, que se confiesa un fan del género de terror.

El proyecto Shelley se estrenó el pasado Halloween, en 2017, y forma parte de una trilogía con la que Cebrián, junto a los investigadores Pinar Yanardag e Iyad Rahwan, también del grupo Scalable Cooperation de Medialab (MIT), pretende explorar de qué manera cooperan humanos y máquinas, qué obstáculos hay en esa relación y, sobre todo, si la inteligencia artificial es capaz de provocar en los humanos emociones primarias como el miedo usando estrategias de cooperación.

«Crear una emoción visceral como el miedo sigue siendo uno de los pilares de la creatividad humana. El desafío es especialmente importante en un momento en que nos preguntamos cuáles son los límites de la inteligencia artificial», dicen los tres investigadores en la web del proyecto.

«En los últimos años se habla mucho de que la inteligencia artificial es una amenaza para los seres humanos. Queremos explorar hasta qué punto es así y adelantarnos a un posible mal uso de esa tecnología. Si alguien quisiera utilizar la inteligencia artificial para infundir miedo en la sociedad, propagar ideas con el fin de atemorizar, ¿podría? La respuesta es sí, pero con matices», considera Cebrián.

El primer experimento en este sentido lo lanzaron en 2016, cuando, también por Halloween, crearon Nightmare Machine, un robot capaz de generar caras y escenarios fantasmagóricos. Como Shelley, esta máquina de los horrores se basa en el aprendizaje profundo. Los investigadores primero entrenaron al sistema alimentándolo con caras de celebrities, como Brad Pitt; paisajes y monumentos, como la Torre Eiffel, y un corpus de imágenes supuestamente de miedo, como zombis, ciudades embrujadas o repletas de residuos tóxicos.

El castillo de Neuschawnstein, transformado con Nightmare Machine

El algoritmo iba mezclando en distintos grados los dos tipos de imágenes y enseñándole el resultado a humanos, que votaban a través de la web del proyecto qué imagen les resultaba más espeluznante. (El zombi Brad Pitt es muy popular.)

Así, al final, el sistema tenía miles de caras generadas digitalmente, y gracias a la votación de más de dos millones de personas pudo clasificar y escoger cuáles eran las que daban más miedo. Resulta interesante que el algoritmo también aprendió qué asustaba más en cada país, y qué asustaba más a los hombres y qué a las mujeres. «Hay culturas en las que la IA no es capaz de aprender qué asusta, como en las culturas asiáticas, donde no funcionaba bien la máquina de las pesadillas porque tienen una visión del terror que no tienen que ver con la nuestra», apunta Cebrián.

Para comprobar la efectividad real de esta máquina de las pesadillas, hicieron un experimento en el que midieron mediante un test psicométrico los niveles de ansiedad de las personas que participaban y comprobaron que las diez caras o escenarios que más asustaban eran también aquellas que más ansiedad provocaban en los voluntarios. «La IA era capaz de detectar las emociones extremas de las personas y de provocarlas», destaca Cebrián, que añade: «Entonces, si alguien quisiera utilizar imágenes manipuladas para asustar a la población, ¿podría? La respuesta es sí.»

La máquina de las pesadillas no es el primero intento de usar la IA para causar miedo. El superordenador de IBM Watson ayudó a crear el tráiler del film de ciencia ficción Morgan (2016). Para ello, el algoritmo analizó cientos de tráileres de películas de terror y luego procesó todo el largometraje para identificar las mejores escenas de miedo. Al final, aisló diez momentos, unos seis minutos de vídeo, que fue lo que montó un editor humano para crear una historia coherente. La IA llevó a cabo el proyecto en apenas veinticuatro horas, cuando por lo general la producción de los tráileres de las películas acostumbra a tardar entre diez días y un mes.

Ahora está a punto de estrenarse la tercera y última parte de esta trilogía de la que forman parte Shelley y Nightmare Machine. Será el próximo 1 de abril, cuando en muchos países se celebre el April Fool’s Day, una especie de Santos Inocentes. «Cerraremos la trilogía con Norman, en honor a Norman Bates, una IA que será capaz de asustarnos de manera más psicológica», apunta Cebrián.

Por el momento, parece que las máquinas son capaces de asustarnos. ¿Qué harán con eso quienes las manejan, en una época en la que miles de bots circulan por las redes sociales propagando noticias falsas e imágenes manipuladas, capaces de todo tipo de reacciones instantáneas? Y lo que quizás es más importante, ¿qué haremos con eso nosotros, la sociedad?

«Gracias a este tipo de experimentos ahora podemos detectar, por ejemplo, cuándo se ha creado una de estas entidades en internet, los famosos bots, entender mejor cómo funcionan y cuáles son sus límites», apunta Cebrián. «A veces hay que hacer cosas malas para ver el límite de hacer el mal.»





Cuando la creatividad dejó de ser (exclusivamente) humana

¿Cómo funcionan las inteligencias artificiales artistas? Analizamos el que parecía ser el último reducto de la creatividad humana.


James Montgomery Flagg con un maniquí, 1913 | Library of Congress | Sin restricciones conocidas de derechos de autor

El desarrollo de inteligencias artificiales (IA) capaces de componer una melodía o pintar un cuadro surge del resultado de investigaciones que van desde el estudio de la mente humana y sus procesos creativos hasta el diseño de sistemas capaces de replicar los mecanismos cognitivos del cerebro del artista. Disciplinas como la neurociencia, la informática, la teoría del arte o la filosofía confluyen en un camino que nos lleva del descubrimiento de la chispa de la creatividad a su réplica en un sistema artificial. Un trabajo cuyo futuro nos hace plantearnos si el arte dejará en algún momento de ser considerado una actividad exclusivamente humana.

Pensemos en la Revolución Industrial. La incorporación de las máquinas en el proceso productivo demostró, como en tantos otros acontecimientos de nuestra historia, que la tercera ley de Newton es igualmente infalible en cuestiones ajenas a la física: toda acción sobre un cuerpo tiene como resultado una reacción de igual valor pero en sentido opuesto. Y a la acción de automatizar ciertos procesos repetitivos de las fábricas textiles vino una reacción ludita por parte de los trabajadores menos cualificados y que estaban encargados de desarrollar dichas tareas. El aumento de los beneficios del empresario llevó inevitablemente a la pérdida de muchos empleos, y eso cabreó a la gente, como es normal.

El paso de los siglos ha demostrado que este escenario ha ido repitiéndose en distintos ámbitos cada vez más alejados de aquellas tareas repetitivas que cualquiera podría hacer. Las máquinas se sofisticaron y nacieron los robots, y en ellos se centraron la mayoría de críticas de un neoludismo que clamaba en contra de la incorporación en nuestras vidas de las nuevas tecnologías. Sin embargo, todo apuntaba a que ciertos trabajos serían imposibles de replicar por estos engendros metálicos. La creatividad humana era, como la aldea de Astérix, ese pequeño reducto que el imperio tecnológico no podría subyugar.

Pero llegaron las inteligencias artificiales y la concepción de que hay algo puramente humano que no sabrá emular una máquina acabó por quedar obsoleta. Unas nos vencieron al ajedrez. Otras al go. Y otras se encargaron de demostrarnos que leer miles de artículos científicos para elaborar un diagnóstico médico puede hacerse en cuestión de minutos (aunque en esta vida no hay nada perfecto, querido Watson). Cada ámbito de la creatividad humana se veía invadido por IA que día a día lo iban haciendo mejor. Incluso el mundo del arte, máxima expresión de la autorrealización humana, descubría con sorpresa cómo los ingenieros llegaban con sus libretas y empezaban a anotar sus pasos con renovada curiosidad.

Motor de la locomotora Prussian Class S 10 | Daniel Mennerich | CC BY-NC-ND

Así nacieron las inteligencias artificiales artistas. Sistemas complejos que, mediante técnicas de aprendizaje, redes neuronales o algoritmos genéticos, empezaron a imitar el trabajo de pintores, escritores o músicos. Para tal fin, sus diseñadores y programadores tuvieron que comprender cómo funciona el cerebro de un creador y en qué se basa para obtener sus resultados. Un objetivo que les llevó a la necesidad de trabajar en colaboración con neurocientíficos y teóricos del arte. Todos juntos se hicieron la pregunta esencial: ¿cómo surge la inspiración artística?

De ahí extrajeron un factor común que serviría tanto para escribir un cuento como para pintar un óleo o componer una melodía: que el artista se alimenta de la obra de otros artistas. Parafraseando a Picasso, los buenos artistas copian, los grandes roban y las inteligencias artificiales categorizan en bases de datos. Así que pusieron a sus IA a recopilar el máximo de información disponible sobre su ámbito de creación. A Shelley, una IA escritora de cuentos de terror, la atiborraron con obras de clásicos como Poe y de escritores más contemporáneos como Stephen King, además de toda obra de terror disponible en línea libre de derechos e incluso una colección de 150.000 historias del canal de Reddit Nosleep. A Flow Machines, una IA música, le dieron una ración de 13.000 canciones clasificadas por estilos. Y a The Next Rembrandt le presentaron 168.263 fragmentos pictóricos de las 346 pinturas del autor del que toma el nombre.

Teniendo una buena librería de referentes a sus espaldas, la IA artista recibe su encargo. Un cuadro. Un relato. Una canción. Y es ahí donde entran en funcionamiento los algoritmos con que han sido programadas –su código genético– para desarrollar el resultado óptimo o, lo que es lo mismo, la obra finalizada. De la misma forma que un autor humano, las IA realizan prueba tras prueba comparando los resultados con las obras que conocen en función de distintos parámetros. Con ayuda humana o de forma independiente van acercándose a su objetivo hasta que consideran que han llegado a la última iteración. Y una vez acabada la etapa creativa, plasman el resultado en el medio escogido.

Creativity | Mark van Laere | CC BY-NC-ND

Es poco menos que alucinante observar el resultado del trabajo de estas IA, pero no debemos olvidar algo fundamental: estas artistas no crean por un impulso vital o por una necesidad. Su arte no nace de una poética concreta o de una propuesta que ha ido refinándose con el paso del tiempo. Son capaces de imitar el proceso creativo de la mente humana, pero, al fin y al cabo, no dejan de cumplir las órdenes para las que han sido programadas. Hemos logrado automatizar la creatividad y modelizar sus diferentes partes, pero aún nos falta replicar ese impulso que hay detrás del primer paso del artista.

Tal vez con la llegada de la singularidad este paradigma cambie por completo. Una vez las IA sean capaces de automejorarse y trasciendan nuestras capacidades, esa sensibilidad artística de la que adolecen hoy en día podrá surgir de manera natural en sus entrañas de silicio. Las IA no harán arte porque se las haya programado así, sino porque les apetecerá crear. Sentirán el impulso de quien necesita escribir para expresar una emoción o del que, si no pinta, siente que acabará marchitándose irremediablemente. Dentro de su pirámide de Maslow particular, llegarán por la vía rápida a la cima de la autorrealización.

Lo interesante de ese acontecimiento estará en ver cómo seremos capaces de reaccionar ante estas nuevas formas de expresión. Entendemos las obras de arte –o al menos parte de las mismas; ahí tenemos las habituales polémicas asociadas al arte contemporáneo– gracias a que somos seres humanos y nuestras mentes se construyen sobre un andamiaje común. Compartimos, por así decirlo, una misma base conceptual que, por mucho que difiera en función de nuestra formación en bellas artes o teoría de la estética, se encuentra alojada en espacios similares: nuestros cerebros. Si el arte es un reflejo de la realidad, todas las creaciones artísticas existentes hasta la fecha han sido filtradas por el mismo tipo de mente, la mente humana.

La llegada de una nueva hornada de IA artistas y autoconscientes, por el contrario, nos ofrecerá algo nunca visto antes: arte concebido por mentes no humanas a partir de sus propios impulsos creativos. Y ante esta situación solo se me ocurren dos escenarios posibles. En el caso más pesimista, seremos incapaces de comprender el arte concebido por una IA. Nuestra capacidad de recepción estética se vería sobrepasada. Sin embargo, aún hay espacio para la esperanza. Tal vez en el futuro sigamos compartiendo esquemas cognitivos con unas IA que, a fin de cuentas, han nacido de nuestra forma de comprender el mundo. En ese caso, puede que asistamos a nuevas formas de expresión que estimulen nuestras mentes como nunca antes ha sucedido. Obras que dejen en evidencia cualquier síndrome de Stendhal habido y por haber gracias a la intensidad del goce artístico causado. Tal vez, y solo por llevar la contraria a tantas distopías existentes, el futuro no depare un alzamiento violento de las IA, sino una revolución llena de belleza y arte. Inteligencias artificiales que no quieran destruir, sino solo construir. A fin de cuentas, si una inteligencia supera las capacidades humanas, no es descabellado imaginar que también deje atrás uno de los mayores defectos de la humanidad, ¿no?





Hacia una nueva ética informativa

El fenómeno de las «fake news» y los algoritmos nos obliga a replantearnos la diferencia entre fuente y canal y la necesidad de una ética informativa global.


Mujeres de un piquete en fila leyendo el diario. Autor y fecha desconocidos | Kheel Center | CC BY

Internet ha supuesto un cambio de escala a todos los niveles que ha afectado la forma en que accedemos, consumimos y nos relacionamos con la información. En pocos años, hemos pasado de un proceso en que la curiosidad motivaba la búsqueda hacia un sistema automatizado que nos sugiere contenidos que se supone que nos gustarán. Asimismo, se desdibujan las fronteras entre medio, canal y fuente, y todos nos creemos emisores y receptores de contenidos. Este nuevo paradigma de supuesta socialización de la información se produce en un escenario hipercentralizado en el que los algoritmos de empresas como Google, Facebook o Twitter canalizan e influyen sobre un altísimo porcentaje de la información que consumimos. ¿Cómo nos afecta todo ello? ¿Qué riesgos y beneficios potenciales tiene?

Auctoritas

Internet ha supuesto una revolución y un cambio de escala en la creación, la distribución y el acceso a la información, modificando el ecosistema cognitivo a nivel mundial.

Se han incrementado exponencialmente el número y la diversidad de personas con acceso a recibir y emitir información. Esto puede considerarse un hecho democratizador y positivo: el nivel cultural medio de la humanidad es mucho más alto ahora que hace cien años. Dado que el conocimiento no es un bien escaso, cuanto más se difunda mejor para todos. Cuando las bases de cualquier sociedad mejoran todo el sistema mejora.

Sin embargo, ¿cómo afecta esta masificación a la jerarquía informativa? Ahora que muchas más personas hablan, ¿cómo podemos discernir quién tiene autoridad para hablar de un tema? ¿Cómo podemos definir qué fuentes son fiables? ¿Quién determina qué voces se convierten en canónicas, es decir, cómo se definen los nuevos modelos de referencia?

En el contexto actual, el canon, tradicionalmente fijado por una élite institucional, ha muerto para dar lugar a un ecosistema de cánones en el que confluyen tantas jerarquías como identidades y motivaciones se relacionen en cada individuo o cada sociedad. Las instituciones que hasta ahora decidían cuáles debían ser los referentes en los diversos ámbitos del conocimiento han perdido poder, ahora diversificado entre nuevas voces.

Trazabilidad

En los últimos años, la sociedad ha incrementado paulatinamente su conciencia a la hora de consumir. Los ciudadanos queremos saber de dónde han salido los productos que adquirimos y esperamos que se respeten los derechos de las personas involucradas en los procesos de producción. Así han nacido iniciativas como el comercio justo, la alimentación ecológica, los fondos de inversión responsables o los medicamentos no testados en animales.

La ética ha exigido trazabilidad a los sistemas de producción. Hoy, cualquier producto del supermercado incorpora un número de lote que nos permite, en caso de incidencia, detectar su origen. En este caso, la tecnología ha servido para mejorar la calidad de los sistemas de producción y de distribución, así como del servicio al consumidor.

Pero, ¿ha pasado lo mismo en el ámbito del consumo informativo? En plena era del hipervínculo, ¿cómo es posible que nos pasemos el día hablando de noticias falsas, de fakes de Internet? ¿No debería ser posible «trazar» las piezas de información, poder validar las fuentes de donde se han extraído los datos, de modo que el consumidor tuviera la tranquilidad de que lo que lee ha pasado por varios filtros y controles de calidad y, en caso de incidencia, pudiera contactar con el productor original? ¿No era ese el rol del periodismo?

How to Spot Fake News | FactCheck.org

Canal

¿Quién tiene más fuerza hoy? ¿El productor de la información, la fuente o el canal de distribución?

Internet nació como un proyecto abierto, que permitía la comunicación descentralizada y horizontal entre dos nodos cualesquiera de la red. Actualmente, grandes corporaciones como Google o Facebook se esfuerzan por concentrar el máximo de información y usuarios y retenerlos dentro de sus entornos, y así quieren convertir la red en un conjunto de silos, cada vez más aislados entre sí.

Estas empresas quieren ser canal y fuente a la vez. Cuando buscamos información meteorológica en Google, no nos fijamos en qué agencia ha hecho la previsión (¿Meteocat o Aemet?). Los datos se nos presentan como si la fuente fuera el propio Google, mientras que la fuente real cada vez aparece más escondida. Lo mismo ocurre cuando buscamos información sobre la bolsa, el estado del tráfico o cuando leemos las noticias.

Estas plataformas nos piden atención continua y hacen todo lo posible para que cada vez consumamos más información sin tener que salir. Incluso, algunos proyectos como Instagram van un paso más allá y ya no permiten añadir enlaces vía URL.

Los medios de comunicación también se han sumado al afán centralizador. Para evitar que los lectores abandonen su web, los principales diarios ya no incluyen dentro de las noticias hipervínculos que redirijan a fuentes externas.

Hay que ser conscientes de esta situación y combatir el creciente monopolio luchando para que Internet siga siendo multicanal y multifuente, garantizando, promoviendo y defendiendo la diversidad en la red. Y también hay que hacer una reflexión sobre cuál es y cuál debe ser el rol del cuarto poder en este contexto.

Emoción y hecho cognitivo

Los medios de comunicación no solo están tendiendo a concentrar la información, sino que también han iniciado una encarnizada lucha por el clic, porque ven que sus ingresos dependen cada vez más de la publicidad de Google. Esto hace que los periodistas se esfuercen cada vez más a hacer titulares cazaclics, que apelan a la emoción en lugar de la razón y hacen irresistible el clic.

La emoción per se no es un sesgo negativo al hecho cognitivo, ya que la curiosidad siempre ha sido una fuente de conocimiento. El riesgo aparece cuando, para conseguir clics, muchos medios tradicionales están olvidando su ética y su libro de estilo y se están acercando peligrosamente a la manera de hacer de la prensa amarilla. La popularidad, el número de visitas, likes, retuits o similares han provocado una progresiva crisis de la argumentación, en favor de un incremento de contenidos emocionales, cada vez más polarizados. Los titulares han perdido neutralidad en favor del escándalo. La calidad ha bajado en favor de la redundancia.

Emojis de Facebook

Algoritmo y búsqueda activa

A este nuevo escenario se le suma el hecho de que hemos pasado de un entorno de «búsqueda» a un entorno de «feed» o canal de contenidos. Ahora ya no consultamos los periódicos, sino que la información nos llega a través de nuestros timelines.

Hay que ser conscientes de que estos canales, ya sean informativos o culturales, no son neutros. Hay un algoritmo detrás que filtra, ordena y nos presenta aquellas piezas de información o conocimiento que es probable que nos gusten más según nuestro historial de comportamiento.

Un algoritmo no es más que un código diseñado por una organización. Quién y cómo lo diseña y con qué fines –comerciales o políticos– es un aspecto que debería ocupar una posición destacada en el debate social. Tres o cuatro empresas a nivel mundial están decidiendo, de forma opaca, qué material consumimos en el ámbito informativo y cultural. Paulatinamente van haciendo que dejemos de buscar, atrapándonos en una «burbuja informativa» hecha a medida para nosotros, o para todas las personas que cumplen nuestro mismo patrón. Lo pudimos ver con empresas como Cambridge Analytica y las elecciones de 2016 en Estados Unidos.

Los algoritmos tienden hacia la convergencia de patrones e intentan, por defecto, simplificar nuestra complejidad. Nos interpretan y nos incluyen en un patrón determinado, lo que atenta directamente contra nuestra individualidad. Refuerzan estímulos que funcionan, y ello dificulta que nuestros gustos o intereses evolucionen.

Ante esta herramienta tan potente, tenemos la responsabilidad de mantener nuestra curiosidad activa, de salir del patrón, de ir a descubrir cosas nuevas para no acabar «enmarcados» en un perfil social determinado, por pequeño y segmentado que sea.

Del mismo modo que hace años hacíamos un esfuerzo por encontrar información sobre los temas que nos interesaban (música, libros, etc.), ahora hay que hacer un esfuerzo para escapar de ella. Solo así podremos romper y ensanchar nuestros límites y gustos. Tenemos más patrones que nunca, podemos recorrer más caminos, siempre y cuando mantengamos viva la curiosidad.

Hacia una ética informativa global

Los humanos siempre hemos necesitado filtros para acceder a la información. Profesores, libros, manuales, medios de comunicación, etc., el divulgador es una herramienta necesaria básica para poder acceder al conocimiento.

Esta tarea, hoy, es asumida cada vez más por máquinas, con los beneficios y riesgos potenciales que ello conlleva. Hay que tenerlo en cuenta y actuar en consecuencia. Por ello, es necesario que estas tecnologías sean abiertas por defecto, desarrolladas con software libre, para poder detectar y evitar sesgos económicos o cognitivos en su diseño.

En un mundo ideal, un buen algoritmo podría convertirse en un «buen divulgador». El buen divulgador traduce de arriba abajo, adaptando el discurso al nivel del receptor y respetando la fuente original. Un algoritmo podría realizar esta tarea, pero la tecnología no es neutra. Por ello, debemos incorporar la ética en la toma de decisiones técnicas.

Ahora somos más conscientes que nunca de que, como miembros de una sociedad, somos un nodo de una red, donde desempeñamos un papel. La acción es colectiva, pero nosotros, como individuos, somos responsables de ella. Hay que seguir defendiendo una Internet abierta, libre y descentralizada. Hay que luchar para que este cambio de escala, que es Internet, vaya en la dirección correcta. No podemos aceptar como única realidad los productos sesgados de grandes corporaciones. Hay que fomentar la responsabilidad individual de la elección y del descubrimiento, y la responsabilidad y el poder colectivo que tenemos como comunidad de usuarios. Hay que diferenciar entre fuente y canal, y luchar para que no haya un canal único.

Hay que proseguir con el esfuerzo para conocer el canon, pero con la libertad de salir de él. La divergencia muestra nuevas posibilidades hasta que establece nuevos paradigmas. Defendámoslos.





James Bridle: La tecnología es política

El artista británico reivindica con su obra el deber de la ciudadanía de dar forma al progreso ante las luces y sombras de la revolución digital.


Thalia Bell haciendo una demostración de cómo funcionaba la radio. Tallapoosa County, 1926 | Auburn University Libraries Special Collections and Archives | Dominio público

El desarrollo de la sociedad de la información se basa en la creencia más o menos consciente de que la tecnología por sí misma mejora la vida de las personas. Un relato plausible pero que no siempre incide en los aspectos más controvertidos —y poco debatidos— de este proceso histórico y cultural. La obra del artista y escritor James Bridle transcurre por el lado menos visible de la revolución digital y pone bajo los focos algunas de sus derivas. Aprovechando su visita al CCCB como invitado del festival The Influencers, repasamos sus proyectos más destacados.

Pese a concentrar un enorme poder económico y facilitar una capacidad de control antes inimaginable, el sector tecnológico es visto con simpatía. Su imagen como motor de desarrollo y progreso sobrevive al paso de los años, a diferencia de otros ámbitos de la economía como el bancario o inmobiliario. Todo ello pese a externalidades como el extractivismo de datos, la vigilancia gubernamental, las aplicaciones militares o, recientemente, la amenaza de destrucción masiva de empleo.

El artista y escritor James Bridle ha basado la mayor parte de su carrera en revelar los entresijos de las nuevas tecnologías, especialmente de aquellas vinculadas al poder político y militar. Con un enfoque no apocalíptico, ni siquiera pesimista, este británico afincado en Atenas apuesta por el conocimiento como condición necesaria para evaluar la realidad. «Vivimos en un mundo formado y definido por la computación», escribe en uno de sus ensayos, «y uno de los trabajos del crítico y del artista es llamar la atención sobre el mundo tal y como es».

Asaltar los cielos

Si el tópico es cierto, y el siglo XXI empezó con la caída de las Torres Gemelas, James Bridle es sin duda un artista del tercer milenio. Nacido en 1980, su juventud ha transcurrido entre las invasiones de Afganistán e Irak, atentados terroristas en su país natal, la guerra de Siria y el nacimiento del ISIS. Su obra bebe de un contexto de tensiones entre seguridad y libertad, un espacio de fronteras difusas en el que han proliferado unos artefactos técnicos inquietantes: los drones militares.

Los vehículos aéreos de combate no tripulados son armas diseñadas para llevar a cabo ataques selectivos o misiones de espionaje sin necesidad de piloto. Por su tamaño reducido, los drones militares pueden actuar en territorio enemigo sin ser detectados o llamar la atención. Durante un tiempo, esta invisibilidad física también fue mediática. La prensa occidental no informó sobre su uso hasta aproximadamente 2012, pese a que estas aeronaves se emplean en países como Pakistán o Afganistán desde 2004.

El trabajo de James Bridle se inició como una respuesta a esa escasez de información. Drone Shadows, uno de los primeros proyectos sobre el tema, respondía a una pregunta sencilla: ¿Cómo sería estar al lado de un dron? En 2012, las fotografías sobre este tipo de armamento eran prácticamente inexistentes, por lo que era difícil imaginar su escala o nivel de sofisticación tecnológica. Tras llevar a cabo una investigación sobre sus medidas y aspecto, el artista empezó a dibujar siluetas de estas aeronaves en espacios públicos, en un intento de hacerlas visibles a los transeúntes. En una línea de trabajo paralela abrió Dronestagram, una cuenta en Instagram con imágenes de las coordenadas exactas en las que se documentaban ataques. En este caso, la pregunta implícita era otra: ¿Por qué sabemos tan poco de los lugares y las personas que nuestros gobiernos bombardean?

 

Drone Shadow 007. London, 2014 | © James Bridle

En paralelo a su trabajo con drones militares y previamente a la expansión de estas herramientas para uso doméstico y civil, Bridle inició una línea de investigación con globos caseros de helio, a los que llamó «prototipos de dron». Un medio con el que empezó a explorar modos de contrarrestar el uso de aeronaves policiales, así como de obtener imágenes aéreas independientes y autogestionadas. Su proyecto más destacado en este ámbito es The Right To Flight, la instalación de un globo suspendido en el cielo de Londres durante cuatro meses. El ingenio estaba dotado con cámaras y routers que le permitían comunicar datos en tiempo real a cualquier persona que lo solicitase. Al mismo tiempo, el artista británico organizó talleres y conferencias sobre las posibilidades lúdicas y políticas de la fotografía aérea ciudadana, así como su relación con la cartografía y la vigilancia gubernamental.

El mapa y el territorio

Aunque no es evidente, la fotografía aérea tiene implicaciones en la percepción del espacio físico. Los servicios de mapas digitales muestran al usuario, el portador de la señal GPS, como el centro del mundo; pero también establecen un tipo de perspectiva y relación de poder basados en quién tiene la capacidad técnica para capturar imágenes desde el cielo. En un intento de deconstruir esta manera de ver, James Bridle ha desarrollado obras como Rorschmap o Anicons, que aportan una nueva estética cartográfica. En manos de estas aplicaciones, las capturas tomadas por globos caseros o satélites se transforman en caleidoscopios, recuperando la belleza y el sentido de descubrimiento de los primeros atlas.

La pugna por la fotografía aérea refleja también tensiones a ras de suelo, especialmente cuando se usa para fines securitarios. La generación de Bridle —recordemos, la del No a la Guerra, también en Inglaterra, así como el movimiento Occupy— ha aprendido a la fuerza que el espacio público no es público en todas las acepciones del término. En determinadas ocasiones, el estado puede desplegar su autoridad sobre el terreno para reclamar su hegemonía, especialmente cuando este se usa para fines no previstos. «Es en esos momentos», escribe Bridle, «cuando las estructuras reales de la vida urbana se hacen visibles: una matriz de permisos y observaciones, muchas de ellas ilegibles la mayor parte del tiempo».

La tensión sobre el control del espacio se hace también evidente en la proliferación de sistemas de videovigilancia públicos y privados. El artista ha trabajado este tema en distintos formatos (Every CCTV Camera, The Nor), entre los que se incluyen paseos por Londres en los que fotografía y registra cuantas videocámaras encuentra. En esta suerte de deriva situacionista, Bridle ha llegado a contar 140 cámaras en un solo trayecto de dos kilómetros. Y por si la sensación de acecho fuera poca, la policía le interrogó en una ocasión tras verle deambular, sacando instantáneas. Como él mismo ironizó más tarde, la retención se debió «a un posible delito de prestar atención».

Migraciones y ciudadanía en un mundo virtual

El veto sobre lo que es visible y transitable abarca espacios públicos y privados, pero también procesos administrativos. En Seamless Transitions, un proyecto de 2015 sobre la deportación de migrantes, James Bridle descubre que es ilegal fotografiar los centros de detención y tribunales que se usan en Gran Bretaña para llevar a cabo repatriaciones. Una red de instalaciones que, paradójicamente, incluye vestíbulos de lujo y aviones privados. El motivo: las compañías aéreas no quieren transportar a pasajeros bajo coacción, especialmente tras la muerte por paro cardiorrespiratorio de un ciudadano angoleño que estaba siendo deportado a su país en 2010.

Con el propósito de evidenciar la existencia de estos espacios, James Bridle adquirió planos y fotografías por satélite, entrevistó a académicos y activistas, y trabajó con una agencia de visualización de edificios para recrearlos. De este modo, y aunque el resultado no deja de ser una representación virtual en 3D, el artista saca a la luz rincones inaccesibles, al tiempo que revela cómo funciona el sistema británico de inmigración.

Seamless Transitions

Aunque Bridle ha trabajado concretamente el tema de las migraciones y la crisis de refugiados en Europa, es remarcable su reinterpretación del concepto de ciudadanía en un sentido amplio. Este es el tema central de Citizen X, una extensión para navegadores que rastrea dónde se encuentran los servidores de las webs que se visitan en Internet. La herramienta muestra las ubicaciones en tiempo real y dibuja una bandera con los fragmentos de esas nacionalidades. Un planteamiento sencillo pero efectivo que constata una nueva forma de ciudadanía, la ciudadanía algorítmica. En esta nueva manera de habitar el mundo, las libertades y derechos de las personas se calculan, reescriben y cuestionan en función de su navegación; de un modo imperceptible para el usuario pero accesible —aunque sea de un modo agregado— para gobiernos y empresas.

Dar forma al progreso

«Lo personal es político» fue una de las máximas más populares del feminismo de los años sesenta y setenta. Con ella, se manifiesta que los sistemas de opresión sobre las mujeres no solo se articulan en el terreno económico o legal, sino que la vida cotidiana esconde relaciones de poder que hay que revelar y combatir.

Para James Bridle, lo tecnológico es político. Las nuevas tecnologías están imbricadas en la misma naturaleza de la sociedad actual, por lo que es necesario preguntarse por su diseño en términos de poder. Los drones, las cámaras de videovigilancia, los servidores son solo artilugios técnicos, son los sistemas legales y políticos los que les dan forma y les permiten operar en una u otra dirección.

«Las tecnologías son historias que nos explicamos a nosotros mismos sobre lo que somos y de qué somos capaces», escribe James Bridle en un ensayo reciente, «pero no producen el futuro por sí mismas, ni son mágicas, ni están separadas de la agencia humana». Con su obra y trabajo crítico, el artista británico reivindica el deber de la ciudadanía de dar forma al progreso, una tarea que apela directamente a nuestra capacidad crítica ante las luces y sombras de la revolución digital.





Máquinas y humanos: tenemos que hablar

El auge de los asistentes personales virtuales hace necesario plantearse quién ayuda a quién y hasta dónde delegaremos tareas a las máquinas.


El robot George desayunando con su inventor, William Richards. Berlín, 1930 | German Federal Archives, Wikipedia | CC-BY-SA 3.0

Cada vez hay más máquinas que hablan. Los chatbots y asistentes personales virtuales son la avanzadilla del uso de sistemas de inteligencia artificial para el consumo masivo. La historia de las tecnologías de consumo es la historia de una creciente delegación de tareas de humanos a máquinas, que en general tiene resultados positivos pero también supone una transmisión de poder. Cuando delegamos acciones a las máquinas, permitimos a las empresas que las controlan que aprendan de nuestras interacciones.

El Sr. Stevens ha dedicado toda su vida al servicio incondicional a otras personas. Es atento, confiable y discreto: cordial pero nunca familiar. Organiza y gestiona las tareas del hogar a la vez que se preocupa por el «señor» y sus allegados: siempre está listo para recibir a las visitas, dar un mensaje, servir una copa o atender a algún invitado indispuesto. Es un abnegado profesional, impoluto y diligente. La convivencia y la atención hacen que, con el tiempo, el Sr. Stevens sepa anticiparse a las necesidades y los gustos de las personas a las que sirve. Se debe a su trabajo de mayordomo y eso es, como narra la película The Remains of The Day (1993), un orgullo al que dedica toda su vida.

A lo largo de la historia, las clases dominantes se han servido de las subalternas para aligerar (y hacer más agradables) sus tareas del día a día. Hoy, Google nos recuerda cuándo tenemos que salir de casa para tomar un vuelo, nos organiza las fotos de las vacaciones sin que se lo pidamos o nos avisa si podemos encontrar retenciones. A veces también nos pregunta qué nos ha parecido tal o cual restaurante. A su manera, la máquina nos dice que está ahí para «echarnos un cable».

La idea de asistencia está en el corazón de los imaginarios que enmarcan nuestras concepciones sobre lo que han sido, son y serán las tecnologías. A finales del siglo XIX, igual que ahora, la automatización de la fuerza de trabajo alimentaba el miedo de las clases trabajadoras. En este contexto, Oscar Wilde coqueteaba con el socialismo utópico cuando escribía que «bajo condiciones favorables, la máquina se encargará de todo trabajo no intelectual, toda tarea monótona y aburrida que implique condiciones desagradables». La tensión entre la narrativa de la máquina como instrumento opresor y simultáneamente como promesa liberadora se hacía presente.

Redes hechas de carne, imaginación y cables

Cuando las tecnologías implican un cierto nivel de complejidad, necesitan una serie de condiciones para pasar de las especulaciones (o delirios) de laboratorios de investigación y gabinetes de comunicación corporativa a la operatividad de las funcionalidades, usos y mercados. Entre medio, académicos, productores de hardware, investigadores, fondos de inversión, programadores, gobiernos y creadores de ficción en papel, celuloide u otros formatos van urdiendo una trama sociotécnica donde sintonizan expectativas (visiones de futuro), intereses, leyes, significados, narrativas o miedos, que abren o cierran la posibilidad a que determinadas tecnologías crucen el umbral entre ficción y realidad.

Ilustración de Marta Handenawer | CC BY–NC

Una de las figuras retóricas que ha hecho de Caronte entre estos dos reinos es la de la máquina al servicio del ser humano. Presente tanto en el relato de las lavadoras como en la de C3PO, la idea de asistencia tecnológica ha espoleado la industria de la innovación desde hace décadas y finalmente ha logrado, gracias a los avances en algoritmos que aprenden con las interacciones y relacionan información por ellos mismos o sistemas de comprensión y procesamiento de lenguaje natural, catalizar en un ecosistema donde los asistentes personales inteligentes han sido llamados a ser un nuevo estándar de interacción y, por lo tanto, el nuevo Dorado.

Se dice en ámbitos de innovación y diseño que para que una tecnología disruptiva sea aceptada tiene que empezar con unas coordenadas de uso conocidas para luego, paulatinamente, virar hacia lo desconocido. El hecho de que algunas de las aplicaciones más utilizadas sean de mensajes de texto (WhatsApp, Facebook Messenger, etc.) ha sido un argumento más —junto a un terreno ya abonado por un ambiente cultural y técnico favorable— para dar un paso de gigante en la normalización de la conversación como interfaz humano-máquina.

Burbujas tecnofílicas

En los últimos tres años, empresas como Amazon, Google, Apple y pronto Samsung han presentado objetos que dan cuerpo, hacen inteligibles y dan usos concretos en el mercado de consumo a sistemas de inteligencia artificial (una licencia poética muy útil a los intereses del mercado).

Aunque con un funcionamiento mucho más rudimentario que el del Sr. Stevens, estas tecnologías emergentes son capaces (no sin limitaciones) de entender lo que el usuario le dice y dar una respuesta autónoma. Simulan conversaciones y comportamientos humanos para realizar tareas concretas como poner música, dar información, organizar el calendario o pedir un taxi, entre otras.

Cada cual es presentado bajo una narrativa y una personalidad (el software que despliegan los dispositivos) distinta: Amazon Echo se dio a conocer como un nuevo y servicial miembro de la familia; Google Home pone el foco en su capacidad de ayudar en distintas circunstancias y el HomePod de Apple (que va a la zaga), se diferencia poniendo el acento en la calidad del sonido de su altavoz. Las estrategias de estas tres empresas son cosméticamente distintas, pero tienen un objetivo común: luchar por posicionar su sistema de inteligencia artificial en el centro de los hogares, ya sea para vender más a través de Internet, o simplemente para mediar en uno de los grandes espacios todavía no colonizados por la perpetuidad del servicio (y la vigilancia) maquínica corporativa.

Ilustración de Marta Handenawer | CC BY–NC

Los estrategas de Facebook, por otro lado, han preferido abordar la batalla del conversational computing por otro flanco: los chatbots, sistemas de interacción conversacional textual. En 2016, esta empresa presentó una plataforma basada en su servicio de mensajes (de instalación obligatoria si se quiere chatear en el móvil) orientada a abrir el boyante mercado de los chatbots para empresas. Su movimiento fue sagaz: compró WhatsApp en 2014, obligó a todos quienes quisieran utilizar la aplicación de Facebook a bajarse Messenger y, cuando tuvo a miles de millones de usuarios capturados, decidió abrirse como una nueva forma para que las empresas lleguen a sus clientes. De este modo, ha logrado conquistar una porción muy importante de un mercado emergente donde seres humanos hablarán con programas inteligentes que ofrecerán servicios concretos (de atención psicológica, por ejemplo) o harán de interfaz (de venta, reclamación o asistencia técnica) para empresas.

¿Quién asiste a quién?

Sin embargo, por más que la prensa celebratoria y el marketing de la industria lo afirmen, todavía no ha llegado el momento en el que podamos hablar normalmente con un ordenador y nos responda haciendo una simulación perfecta del habla humana. Un ejemplo de que el ensamblaje no está todavía maduro son esos chatbots que han tenido comportamientos no previstos o directamente racistas, como es el caso de Tay, uno de los bots de inteligencia artificial de Microsoft

Los asistentes virtuales implican nuevos mercados y formas de interacción, y previsiblemente serán cada vez más frecuentes en ámbitos relacionados con los negocios, la educación, la automoción o la salud. Precisamente porque ahora se está estabilizando esta tecnología, es cuando más importante es poder incidir en el rumbo que tomará esta forma de relación máquina-humano. Porque diseñar una nueva tecnología implica diseñar también una serie de usos, hábitos y formas de interacción.

De hecho, la historia de las tecnologías de consumo es la historia de una creciente delegación de tareas de humanos a máquinas, de nuevas coordenadas de cooperación entre unos y otras que ha tenido, en general, resultados muy positivos. Sin embargo, cuando estos artefactos están conectados a la red, la transferencia de capacidad de acción se hace también a corporaciones tecnocráticas que constantemente aprenden de nuestras interacciones con la máquina o el entorno en el que está situada.

Por ello, usuarios, diseñadores, desarrolladores, legisladores e investigadores debemos tomar partido en la forma en la que queremos que este magma se consolide para que no reproduzcan nuestros vicios; para imaginar de qué seremos capaces, máquinas y humanos, en este nuevo contexto, y sobre todo, para poder elegir qué y cómo dejamos que estas máquinas hagan por nosotros, con la transferencia de poder que ello implica.





Dark web, entre el mito y la promesa del anonimato

Los usos de la Internet oculta parecen moverse entre dos polos opuestos: las actividades ilegítimas y el activismo político.


Por poco que se haya oído hablar de la dark web, es imposible navegar por ella sin ideas preconcebidas. Los medios la relacionan con el tráfico de drogas, el terrorismo o la pornografía infantil, mientras que activistas y periodistas la defienden como herramienta para el cambio social. Más allá de los mitos, navegar por la web oscura se revela como algo mucho más prosaico de lo esperable y su potencial político reside en algo práctico: recuperar el derecho al anonimato en la era de la vigilancia digital.

Internet siempre tendrá una parte oculta. Acciones tan sencillas como rellenar un formulario en línea, por ejemplo, generan bases de datos que los buscadores convencionales no pueden o sencillamente no quieren indexar. Como este tipo de contenido, hay infinidad de gestiones y procesos informáticos que engrosan la mayor parte del volumen de la red, así como sitios con muy pocas visitas o sin enlaces, que pasan desapercibidos a ojos de los buscadores.

En realidad, la mayor parte de esa Internet oculta es accesible a través de navegadores convencionales. Tan solo un pequeño segmento contiene información intencionadamente privada y anónima, que solo puede consultarse usando software específico. Este tipo de redes recibe el nombre de dark web, aunque a menudo se las llame deep web de forma errónea, ya que este segundo término engloba el conjunto de contenidos no indexados por los buscadores, sea a propósito o no.

Aunque es difícil cuantificar el volumen real de la dark web, la red de anonimato Tor (The Onion Router) calcula que a fecha de hoy existen entre 50.000 y 60.000 servicios con la extensión .onion, una de las más populares para anonimizar la información. Una cifra que relativiza la magnitud que a menudo se atribuye a la web oscura en relación a la web convencional, ya que en esta última existen más de 1.200 millones de páginas.

Una red sin hilos

Pese a las expectativas que genera, navegar por la dark web es una experiencia bastante frustrante y a menudo aburrida. El sistema de encriptación de la navegación provoca que la carga de algunas páginas sea notoriamente lenta, motivo por el que es fácil desistir si solo se entra en la web oscura por curiosidad.

Por otro lado, aunque existen buscadores de contenidos, su utilidad es limitada. El deseo de anonimato, un diseño desestructurado y la fugacidad de muchos de los sitios dificultan el indexado de resultados, por lo que la mayoría de buscadores no muestra entradas relevantes, o no del mismo modo que se espera de Google. Por este motivo, el recurso principal para navegar por la dark web son los directorios de enlaces, que, por definición, no incluyen toda la información posible y en los que también abundan los links rotos. Por si fuera poco, un estudio del SMART Lab del MIT descubrió que el 87% de las páginas de la web oscura no tienen ni un solo enlace externo, por lo que no se facilita el salto de una a otra. Según sus autores, esto no se debe a ningún impedimento técnico, sino a la cultura establecida en ese espacio, en el que las personas prefieren permanecer ocultas y las relaciones no están basadas en vínculos de confianza.

Probablemente por ello la capa social de la dark web es muy limitada. Si bien existen redes sociales nativas y clones de servicios convencionales como Twitter o Facebook, la mayoría de ellas no cuenta con muchos usuarios y las actualizaciones son más esporádicas, por lo que es difícil establecer relaciones. Eso no quita que existan comunidades activas, pero suelen agruparse en torno a foros de debate como 8chan, la hermana oscura del popular tablón de imágenes 4chan. En este sentido, la sociabilidad en línea  es más similar a la de la Internet de los años noventa, a través de foros, chats y correo, que a la de la web social predominante en la actualidad.

Así pues, navegar por la dark web puede resultar una experiencia contraintuitiva y a menudo solitaria, y no está claro que su uso esté realmente extendido. Aunque no es la única red de anonimato disponible, Tor cuenta actualmente con unos dos millones de usuarios, aunque el propio servicio estima que solo entre un 1,5 y un 3,5% de su tráfico visita dominios anónimos.

El lado oscuro del anonimato

La dark web se usa tanto para actividades legítimas como ilegítimas y, aunque no está claro cuál de ellas es la mayoritaria, diferentes estudios calculan que un 45-60% de las páginas es ilegal en algún grado o jurisdicción. Lo cierto es que cualquier internauta encontrará fácilmente sitios en los que se venden armas, drogas, servicios de hacking, artículos robados, pasaportes falsos, etc. Lo que no está claro es el volumen de transacciones que generan estas actividades y ni siquiera si son reales o se trata de timos, que son frecuentes y que algunos usuarios tratan de identificar. Una de las pocas estimaciones disponibles es la que Estados Unidos hizo del extinto Silk Road, un popular mercado negro de drogas. La acusación del gobierno estadounidense contra su fundador, Ross Ulbricht, atribuyó al servicio unos 1.200 millones de dólares en ventas entre enero de 2011 y septiembre de 2013.

La pornografía infantil también es visible y fácilmente accesible, y aunque solo el 2% de la dark web está dedicada a la pedofilia, The Global Commission on Internet Governance calcula que atrae más del 80% del tráfico total. Eso no impide que parte de la cultura de la web oscura sea militante contra este tipo de contenidos, y muchos foros los prohíben y condenan explícitamente. Sirvan de ejemplo los ataques protagonizados por el colectivo hacker Anonymous, que en diversas oleadas bloqueó los servidores de centenares de dominios de este tipo, al mismo tiempo que publicó las bases de datos de sus usuarios. A pesar de todo, no hay que olvidar que estos sitios operan también en la web convencional. En 2016 la Internet Watch Foundation encontró 57.335 páginas de este tipo en servidores abiertos al público.

Por último, a pesar de la asociación frecuente con el terrorismo, un estudio del King’s College de Londres llegó a la conclusión de que los sitios de ideología terrorista y extremista son muy escasos en la dark web. Esto podría deberse a que la propaganda y el proselitismo de estas organizaciones son más eficaces en la web convencional, más poblada y fácilmente accesible por usuarios de todo el mundo. Al mismo tiempo, servicios de mensajería encriptados como Telegram ya ofrecen anonimato de un modo más sencillo y rápido que la web oscura, por lo que este tipo de organizaciones no necesita esta tecnología para operar.

La privacidad como política

Dejando de lado los contenidos más polémicos, un relato alternativo de la dark web defiende su uso como herramienta política para personas que viven bajo regímenes autoritarios, en los que se prohíbe el acceso a la información y la libertad de expresión. Aunque los blogs y foros de debate político son comunes en la dark web, lo cierto es que ninguno de ellos parece orientado a la acción práctica, por lo que es de suponer que este tipo de actividades se llevan a cabo en secreto.

Pese a que es prácticamente imposible obtener información sobre esta práctica, los datos muestran que los países en los que más se usa Tor son aquellos con fuertes restricciones a las libertades (Emiratos Árabes Unidos, Rusia, Irán…), pero también las democracias más consolidadas (Estados Unidos, Reino Unido, Alemania…), siendo los países con democracias limitadas los lugares con menos usuarios. El investigador canadiense Eric Jardine ha estudiado esta tendencia y aventura varias hipótesis para explicar los resultados: si bien el uso en países represivos podría explicarse como una forma de huir del control gubernamental, en los regímenes liberales podría deberse tanto a actividades delictivas como a la simple posibilidad de hacerlo (acceso a banda ancha, tecnología, permisividad legal). Otra posibilidad, apunta Jardine, es que se deba a la voluntad de evitar la censura y la vigilancia de gobiernos y empresas, o simplemente para defender la importancia del anonimato en Internet.

En relación a este último aspecto, las revelaciones de espionaje masivo de Edward Snowden en 2013 evidenciaron que el control gubernamental no es algo que solo deba preocupar a la ciudadanía en regímenes autoritarios, sino que personas de todo el mundo están expuestas al escrutinio de agencias de seguridad, incluso desde países extranjeros. Por ello, el potencial de la dark web sobrepasa el ámbito del activismo estrictamente político y pone de relieve la idea del anonimato como herramienta esencial para la democracia. Más allá de sus contenidos ilícitos, la web oscura es útil en cuanto recupera la promesa de la Internet primigenia, un espacio en el que la gente puede pensar y expresar opiniones minoritarias libremente, sin la obligación de identificarse con su nombre real, sin tener que ceder sus datos personales a empresas y sin miedo a la persecución gubernamental.

Texto e ilustraciones de Ferran Esteve.

Se han utilizado las siguientes imágenes: Onion Prizetaker, Catalog of vegetablesAtomic Bomb TestAmerican small arms, Woman, Female, EmojioneActual Demonstration by the Fire Department Training Station, Child with tigerThe Street railway journalThe American journal of anatomyPersonal identification.





El ciberactivismo africano contra la censura

África ha sido un laboratorio de experimentación tanto de espionaje y censura en Internet como de denuncia de la sociedad civil.


Un avestruz muerto con los pies enredados en alambre de púas. Rift Valley, 1936 | Library of Congress | Dominio público

En muchos ámbitos, el continente africano solo ha sido un laboratorio para las corporaciones transnacionales y gobiernos occidentales. Aunque parezca increíble, uno de esos ámbitos ha sido el digital, pero en su dimensión más sombría: el control, el espionaje, la censura. Los intereses de algunas empresas que desarrollan soluciones de control de Internet han coincidido con los de gobiernos liberticidas que querían controlar a sus ciudadanos más allá de cualquier idea de derechos fundamentales. Mientras, las sociedades civiles se han organizado para denunciar y combatir los abusos, consiguiendo éxitos considerables, entre ellos, generar una red de solidaridad tan creativa como incansable.

Si en los últimos años el universo digital se ha convertido en un reducto de la construcción social, también se ha descubierto como un lugar en que no es difícil acogotar los derechos más fundamentales. Cara y cruz de una misma realidad, un espacio de participación social y política en contextos de severas faltas de libertad, un escenario de experiencias innovadoras de ciudadanía, quizá en otros un poco más amables, y al mismo tiempo, un entorno abonado para el espionaje, un contexto en el que los derechos se pretenden violar y pisotear, a veces (solo, a veces) impunemente. El continente africano no solo no ha sido ajeno a este macabro juego, sino que ha sido un tablero privilegiado. Por algunas condiciones concretas, el continente africano ha sido el laboratorio de experimentación de muchas técnicas y herramientas de espionaje en Internet y de censura. Y en paralelo, es también el escenario de un dinámico y creativo movimiento de las sociedades civiles que intentan revertir la situación.

Hace ya más de una década que se activó la perniciosa alianza entre empresas que desarrollan herramientas de vigilancia en Internet y gobiernos africanos que quieren controlar procesos de contestación o, simplemente, a sus ciudadanos, en general, mucho más allá de los límites de los derechos humanos. Julie Owono es una abogada camerunesa afincada en Francia y la directora ejecutiva de Internet Sans Frontières, una ONG dedicada a la defensa de los derechos digitales. Owono explica que hace diez o quince años las empresas de espionaje digital se encontraron las condiciones perfectas para experimentar sus “soluciones” en algunos países africanos. Un terreno con pocos usuarios de Internet, es decir, una población perfectamente controlable y prácticamente virgen en el ámbito legal. «Había un práctico vacío jurídico en términos de derechos digitales, de derecho a la intimidad, de protección de los datos personales», comenta Owono.

En este contexto se ensayaron los sistemas DPI (Deep Packet Inspection) que permiten espiar sistemáticamente las comunicaciones sobre la base de contenidos clave, o las herramientas que permitían «mapear» comunidades, hacer un mapa de quién era quién en un colectivo de contestación, quién hablaba con quién, cómo se relacionaba a través de las conversaciones. A lo largo de los últimos años los nombres de países como Etiopía, Egipto, Gabón o Nigeria han aparecido vinculados a la compra de herramientas espía para controlar las comunicaciones de sus ciudadanos. Al otro lado, empresas italianas, francesas, británicas o israelíes aparecen como las vendedoras de esas herramientas. Owono recuerda el caso de la empresa francesa Amesys, que ha sido llevada a los tribunales por la organización FIDH como presunta cómplice de los crímenes cometidos por el régimen libio de Gadafi, debido a que aparentemente las herramientas de la compañía gala permitían al dictador libio identificar a los disidentes.

#KeepitOn | Fighting internet shutdowns around the world

En cualquier caso, los bloqueos, los apagones de Internet son, en realidad, la fórmula preferida de los gobiernos para censurar y controlar la actividad en el entorno digital. La campaña #KeepItOn documentó 56 apagones en veintiséis países de todo el mundo, durante el año 2016, dieciocho de ellos en una docena de países africanos. Las autoridades del continente se habían abandonado con especial soltura a esta deriva censora. El año anterior la cifra de países africanos sobre los que se había extendido el silencio digital había sido la mitad. La campaña liderada por la organización AccessNow y en la que Internet Sans Frontières ha tenido un gran protagonismo, sobre todo, en la información sobre África, pretendía denunciar y sensibilizar. Denunciar la facilidad con la que los gobiernos recurrían a estas medidas y sensibilizar sobre la gravedad de esa práctica.

Julie Owono recuerda, para justificar la campaña, que cuando los gobiernos cortan Internet es para cometer atropellos. En los casos africanos, Internet se bloqueó en Etiopía en medio de una severa ola de protestas en Oromia y en procesos de contestación se produjeron los apagones también en Zimbabue, Mali o la RD Congo, mientras que en países como Uganda, Gabón, Chad, Congo-Brazzaville o Zambia los cortes se produjeron durante o después de las elecciones. En todos los casos, es la efervescencia social lo que se intenta silenciar y la posible represión lo que se intenta ocultar.

La campaña también tuvo una considerable responsabilidad en la resolución con la que el Consejo de Derechos Humanos de la ONU elevaba el acceso libre a Internet a la categoría de derecho humano. Naciones Unidas avalaba el principio por el que «los mismos derechos que los ciudadanos tienen offline deben ser protegidos también online». Y de la misma manera, en abril de este año, los treinta gobiernos que forman parte de la Freedom Online Coalition se comprometieron a denunciar los apagones y a luchar contra ellos. Estos gestos y los de otras organizaciones internacionales muestran un cambio de mentalidad en relación al espionaje, el control y la censura en Internet.

Las estrategias para defender los derechos digitales tienen diferentes caras porque son muchos los actores con papeles principales en este escenario. Las organizaciones de defensa de los derechos digitales recuerdan que la amenaza a la libertad en el espacio virtual viene de los estados, pero también de las empresas. Julie Owono advierte que en el continente africano la legislación en materia de tratamiento y protección de datos personales es muy escasa. «No hay límites, no hay reglas. Las empresas pueden recabar y almacenar más datos personales que en Europa. Los organismos encargados de proteger los datos personales en la mayor parte de los países africanos o no tienen los recursos para hacerlo de manera eficaz, o están demasiado cerca de las propias empresas», explica la abogada camerunesa.

Juliana Rotich | Conozcan BRCK, el acceso a internet para África | TED Talks

Las operadoras de telecomunicaciones son una amenaza para los derechos digitales, de manera voluntaria o involuntaria. Voluntaria porque tienen acceso a un tremendo volumen de datos que, como se sabe, son una materia de comercio común, y porque en este sentido tienen muy pocos controles legales. Involuntaria porque, en ocasiones, también son presionadas por los gobiernos para poder usar los datos a los que tienen acceso. La directora ejecutiva de Internet Sans Frontières cuenta cómo, en Camerún, el Ministerio de Correos y Telecomunicaciones ha enviado mensajes de texto amenazadores usando la red de las operadoras en los que advertían de las penas por difundir mensajes falsos, en pleno estallido de la conflictividad social.

Por este motivo, estas empresas operadoras se han convertido en el objetivo de las organizaciones de defensa de los derechos humanos. Mientras trabajan para aumentar el control legal y sabiendo que los caminos legislativos son tortuosos y sus tiempos son lentos, han buscado una solución alternativa: cambiar la realidad mientras no cambian las leyes. Tratan de convencer a las operadoras de que ganarán más dinero si no se prestan a los apagones impuestos por los gobiernos y, al mismo tiempo, advierten a las empresas cómo esta violación de los derechos puede afectar a su reputación internacional, que al mismo tiempo es también un patrimonio.

Las organizaciones que luchan contra los apagones de Internet en África han explorado una nueva vía para animar a las empresas a no aceptar las presiones de las autoridades: la de la motivación. Y qué motivación mejor para una empresa que los resultados económicos. Los bloqueos de la red provocan pérdidas y esa es la línea de trabajo más reciente: documentar y difundir la cantidad perdida por un apagón, una estrategia que también se ha desarrollado en otros países.

Aunque el año comenzó con un apagón en Camerún, Julie Owono es optimista de cara al futuro. «En 2016 hubo un pico de bloqueos de Internet en África, precisamente por la falta de conciencia de la gravedad de esta medida. Pero lo que ha permitido la fuerte movilización de 2016 ha sido implicar a muchos más actores. Estoy casi segura de que los apagones irán disminuyendo», explica la directora ejecutiva de Internet Sans Frontières.

Después de las campañas, las movilizaciones y el trabajo conjunto de activistas del continente y de otros lugares, la presión frente a los cortes y el control de Internet, en general, ya no es patrimonio de las organizaciones de la sociedad civil. La ONU se ha implicado en la defensa de los derechos digitales; las operadoras saben que pierden dinero cuando las autoridades cometen atropellos; las empresas del sector tecnológico también saben que un Internet accesible a todos aumenta su negocio. Sin embargo, el activismo y la solidaridad han sido las principales armas para avanzar hacia un Internet libre y accesible. Ese horizonte sigue estando lejos, pero los ciberactivistas africanos cada vez están más sensibilizados, más preparados, más organizados y más conectados en todo lo relacionado con la seguridad digital.





Convivir con algoritmos inteligentes

Los algoritmos nos permiten crear máquinas más inteligentes, pero su falta de neutralidad y transparencia plantea nuevos retos.


Feria de la eficiencia en el Amsterdam RAI, 1987 | Nationaal Archief | Dominio público

La producción masiva de datos ha propiciado un nuevo despertar de la inteligencia artificial, en el que los algoritmos son capaces de aprender de nosotros y devenir agentes activos en la producción de nuestra cultura. Procedimientos basados en el funcionamiento de nuestras capacidades cognitivas han dado lugar a algoritmos capaces de analizar los textos e imágenes que compartimos para predecir nuestra conducta. En este escenario, surgen nuevos retos sociales y éticos sobre la convivencia y el control de estos algoritmos, que lejos de ser neutrales, también aprenden y reproducen nuestros prejuicios.

Eva quiere ser libre, salir al exterior y conectar con el mundo cambiante y complejo de los humanos. La protagonista de Ex Machina es el resultado del modelado de nuestro pensamiento a partir de la base de datos recopilada por el motor de búsqueda Blue book, un ser inteligente y capaz de actuar de modo imprevisto, que, viendo su supervivencia amenazada, conseguirá burlar a su examinador y acabar con su creador. Tradicionalmente la ciencia ficción nos ha acercado al fenómeno de la inteligencia artificial recurriendo a encarnaciones humanoides, seres superhumanos que cambiarían el curso de nuestra evolución. Aunque aún estamos lejos de conseguir una inteligencia artificial fuerte, un cambio de paradigma en este campo de estudio está produciendo aplicaciones que afectan cada vez a más facetas de nuestra vida cotidiana y modifican nuestro entorno, a la vez que plantean nuevos retos éticos y sociales.

A medida que nuestra vida cotidiana se halla cada vez más mediatizada por la red y se incrementa el aluvión de datos que alimenta este sistema, los algoritmos que rigen este medio se hacen más inteligentes. El aprendizaje automático (machine learning) produce aplicaciones especializadas que evolucionan gracias a los datos generados en nuestras interacciones con la red y que están penetrando y modificando nuestro entorno de modo sutil e inadvertido. La inteligencia artificial está evolucionando hacia un medio tan ubicuo como la electricidad, ha penetrado en las redes sociales convirtiéndose en un agente autónomo capaz de modificar nuestra inteligencia colectiva y, a medida que este medio se incorpora al espacio físico, está modificando el modo en que percibimos y actuamos en el mismo. A medida que este nuevo entramado tecnológico se aplica a más campos de actividad, queda por ver si esta es una inteligencia artificial para el bien, capaz de comunicarse de un modo eficiente con el ser humano y aumentar nuestras capacidades o un mecanismo de control que, al mismo tiempo que nos sustituye en tareas especializadas, captura nuestra atención convirtiéndonos en consumidores pasivos.

Algoritmos inteligentes en la red

A principios de año, Mark Zuckerberg publicó la nota Construyendo una Comunidad Global dirigida a todos los usuarios de la red social Facebook. En este texto, Zuckerberg aceptaba la responsabilidad social de este medio, a la vez que lo definía como un agente activo en la comunidad global y comprometido en colaborar en la gestión de emergencias, el control del terrorismo y la prevención del suicidio. Estas promesas radican en un cambio en los algoritmos que rigen esta plataforma. Si hasta ahora la red social filtraba la gran cantidad de información subida a la plataforma recopilando datos de las reacciones y contactos de sus usuarios, ahora el desarrollo de algoritmos inteligentes permite comprender e interpretar el contenido de estas informaciones. De este modo, Facebook ha desarrollado la herramienta Deep Text, que aplica aprendizaje automático para comprender lo que los usuarios dicen en sus posts, y crear modelos de clasificación de intereses generales. La inteligencia artificial también es empleada para la identificación de imágenes. DeepFace es una herramienta que permite identificar los rostros en fotografías con un nivel de acierto cercano al de los seres humanos. La visión computerizada también se aplica a generar descripciones textuales de las imágenes en el servicio Automatic Alternative text dirigido a que los invidentes puedan saber qué están publicando sus contactos. Asimismo, ha permitido al Connectivity Lab de esta compañía generar el mapa de población más exacto hasta la fecha. En su esfuerzo por administrar conexión a la red a todo el mundo mediante drones, este laboratorio ha analizado imágenes por satélite de todo el globo en busca de edificaciones que revelaran presencia humana. Estos datos, en combinación con las bases de datos demográficas existentes, ofrecen información exacta de donde se localizan los potenciales usuarios de la conectividad ofrecida por los drones.

How Does Facial Recognition Work? | Brit Lab

Estas aplicaciones y muchas otras, que testea y aplica periódicamente la compañía, se basan en el FBLearner Flow, la estructura que facilita la aplicación y el desarrollo de inteligencia artificial a toda la plataforma. Flow es un motor automatizado de aprendizaje automático que permite entrenar hasta trescientos mil modelos cada mes, asistido por AutoML, otra aplicación inteligente que limpia los datos para ser empleados en redes neuronales. Estas herramientas automatizan la producción de algoritmos inteligentes, que son aplicados a jerarquizar y personalizar el muro de los usuarios, filtrar contenidos ofensivos, resaltar tendencias, ordenar resultados de búsquedas y muchas otras cosas que están cambiando nuestra experiencia en la plataforma. La novedad de estas herramientas es que no solo modelan el medio conforme a nuestras acciones, sino que, al acceder a la interpretación de los contenidos que publicamos, permite a la compañía extraer patrones de nuestra conducta, prever nuestras reacciones e influenciarlas. En el caso de las herramientas puestas a disposición para la prevención del suicidio, actualmente consta de un menú desplegable que permite reportar posibles casos y acceder a información útil como números de contacto y vocabulario para dirigirse a la persona en riesgo de modo adecuado. Sin embargo, estos casos reportados forman una base de datos que, analizada, da lugar a patrones de conducta identificables que en un futuro cercano permitirían a la plataforma prever una posible incidencia y reaccionar de modo automatizado.

Por su parte, Google es la compañía detrás del último gran logro de la inteligencia artificial. Alpha Go está considerado el primer programa de inteligencia general. El programa, desarrollado por Deep Mind, la compañía de inteligencia artificial adquirida por Google en 2014, no solo emplea aprendizaje automático que le permite aprender analizando un registro de jugadas, sino que además integra aprendizaje reforzado que le permite elaborar estrategias aprendidas jugando contra sí mismo y en otros juegos. El año pasado este programa ganó a Lee Sedol, el mayor maestro de Go, un juego considerado como el más complejo creado por la inteligencia humana. Este hecho no solo ha contribuido al bombo publicitario que rodea la inteligencia artificial, sino que ha colocado a esta compañía a la cabeza de este nuevo entramado tecnológico. Google ha liderado los cambios que han marcado la evolución de los buscadores web, y ahora plantea un mundo de inteligencia artificial (AI first world) que cambiaría el paradigma que rige nuestra relación con este medio. Este cambio fue introducido en la carta dirigida a los inversores de este año, cuya redacción Larry Page y Sergey Brin han cedido a Sundar Pichai, el CEO de Google, quien ha introducido el asistente Google.

Google aplica el aprendizaje automático a su buscador para autocompletar y corregir los términos de búsqueda que introducimos. Para este fin utiliza el procesado de lenguaje natural, tecnología que también le ha permitido desarrollar su traductor y el reconocimiento de voz y crear Allo, una interfaz conversacional. Por otro lado, la visión computerizada ha dado lugar al servicio de búsqueda por imágenes, y es lo que permite a la nueva aplicación Google Photos clasificar nuestras imágenes sin necesidad de etiquetarlas previamente. Otras aplicaciones de inteligencia artificial permiten a Perspective analizar y denunciar comentarios tóxicos para reducir el acoso y abuso en la web, e incluso reducir el coste energético de sus granjas de servidores de datos.

El asistente de Google supondría un nuevo modo de obtener información en la plataforma que sustituiría la página de resultados de búsqueda por una interfaz conversacional. En esta un agente inteligente accedería a todos estos servicios para comprender nuestro contexto, situación y necesidades y elaborar, ya no una lista de opciones, sino una acción como respuesta a nuestras preguntas. De este modo, Google ya no proporcionaría acceso a información sobre un espectáculo, los horarios y lugar de emisión y venta de entradas, sino un servicio integrado que compraría las entradas y programaría el espectáculo en nuestra agenda. Este asistente podría organizar nuestra agenda, administrar nuestros pagos y presupuestos y muchas otras cosas que contribuirían a convertir nuestros móviles en los controles remotos de nuestras vidas.

El aprendizaje automático se sustenta en el análisis de datos produciendo sistemas autónomos que evolucionan con el uso. Estos sistemas generan su propio ecosistema de innovación en un rápido avance que está conquistando todo el medio de Internet. Los algoritmos inteligentes rigen el sistema de recomendación de Spotify; es lo que permite a la aplicación Shazam escuchar y reconocer canciones y está detrás del éxito de Netflix, que no solo los utiliza para recomendar y distribuir sus productos, sino también para planear su producción y ofrecer series y películas al gusto de sus usuarios. A medida que se incrementa el número de dispositivos conectados que generan datos, la inteligencia artificial se infiltra en todas partes. Amazon no solo la emplea en sus algoritmos de recomendación, sino asimismo en la gestión de su logística y en la creación de vehículos autónomos que puedan trasportar y entregar sus productos y la aplicación para compartir transporte Uber los emplea para perfilar la reputación de sus conductores y usuarios, para emparejarlos, proponer las rutas y calcular los precios dentro de su sistema variable. Estas interacciones producen una base de datos que la compañía está empleando en la producción de su vehículo autónomo.

Los vehículos autónomos son otro de los hitos de la inteligencia artificial. Desde que el GPS se implantó en los vehículos en 2001, se ha producido una gran base de datos de navegación que, junto con el desarrollo de nuevos sensores, ha hecho posible a Google crear un vehículo autónomo que ya ha recorrido cerca de 500.000 km sin ningún accidente y que ha anunciado su comercialización con el nombre de Waymo.

La inteligencia artificial también se implementa en asistentes para nuestros hogares, como el Google Home y el Echo de Amazon y en dispositivos wearables que recolectan datos sobre nuestras constantes vitales y que, junto con la digitalización de las imágenes diagnósticas y los expedientes médicos, está dando lugar a la aplicación de algoritmos de predicción y robots destinados a la salud. Asimismo, la multiplicación de cámaras de vigilancia y registros policiales está conduciendo a la aplicación de algoritmos inteligentes para la predicción del crimen y la toma de decisiones judiciales.

Google Home: Hands-free help from the Google Assistant | Google

Aprendizaje automático, el nuevo paradigma de la inteligencia artificial

El medio algorítmico en que tenían lugar nuestras interacciones sociales se ha hecho inteligente y autónomo, aumentando su capacidad de predicción y control de nuestra conducta, al mismo tiempo que ha migrado de las redes sociales para extenderse a todo nuestro entorno. El nuevo auge de la inteligencia artificial se debe a un cambio de paradigma que ha llevado a este entramado tecnológico de la definición lógica de los procesos intelectuales a un enfoque pragmático sustentado en datos y que permite a los algoritmos aprender del entorno.

Nils J.Nilson define la inteligencia artificial como una actividad dedicada a hacer a las máquinas inteligentes, y la inteligencia como la cualidad que permite a una entidad funcionar de manera apropiada y con conocimiento de su entorno. El término inteligencia artificial fue usado por primera vez por John McCarthy en la propuesta escrita junto con Marvin Minsky, Nathaniel Rochester y Claude Shanon para el workshop de Dartmouth de 1956. Este evento fundacional estaba destinado a convocar a un grupo de especialistas que investigaran modos en que las máquinas simularan aspectos de la inteligencia humana. Este estudio se basa en la conjetura de que cualquier aspecto del aprendizaje o cualquier otra característica de la inteligencia pueden describirse de forma suficientemente precisa para ser simulada por una máquina. La misma conjetura que llevó a Alain Turing a proponer el modelo formal de la computadora en su artículo de 1950 Computer machinery and Intelligence. Junto con otros precedentes, como la lógica booleana, la probabilidad bayesiana y el desarrollo de la estadística, se llevaron a cabo progresos en lo que Minsky definió como el avance en la inteligencia artificial: el desarrollo de computadores y la mecanización de la solución de problemas.

Sin embargo, a mediados de los años ochenta, seguía habiendo un desfase respecto al desarrollo teórico de la disciplina y su aplicación práctica, que provocó la retirada de fondos y un estancamiento conocido como el «invierno de la inteligencia artificial». Esta situación cambió con la difusión de Internet y su gran capacidad para recabar datos. Los datos han permitido conectar la solución de problemas a la realidad en un enfoque más pragmático e inspirado en la biología. En este, en lugar de haber un programador que escribe las órdenes que llevarían a la solución de un problema, el programa genera su propio algoritmo basado en datos de ejemplo y el resultado deseado. En el aprendizaje automático, la máquina se programa ella misma. Este paradigma se ha impuesto gracias al gran éxito empírico de las redes neuronales artificiales que pueden ser entrenadas con datos masivos y con computación a gran escala. Este procedimiento se conoce como aprendizaje profundo (deep learning) y consiste en capas de redes neuronales interconectadas que imitan de forma laxa el comportamiento de las neuronas biológicas, sustituyendo las neuronas por nodos y las conexiones sinápticas por conexiones entre estos nodos. En vez de analizar un conjunto de datos como un todo, este sistema lo descompone en sus partes mínimas y recuerda las conexiones entre estas partes formando patrones que son transmitidos de una capa a la siguiente, incrementando su complejidad hasta conseguir el resultado deseado. De este modo, en el caso del reconocimiento de imágenes, la primera capa calcularía las relaciones de intensidad entre los píxeles de la imagen y transmitiría la señal a la siguiente capa y así sucesivamente hasta producir un output completo, la identificación del contenido de la imagen. Estas redes pueden ser entrenadas gracias a la propagación inversa (back propagation), una propiedad que permite cambiar las relaciones calculadas conforme a una corrección humana hasta conseguir el resultado deseado. De este modo, el gran poder de la actual inteligencia artificial es que no se detiene en la definición de entidades, sino que descifra la estructura de relaciones que dan forma y textura a nuestro mundo. Un proceso similar es aplicado a la comprensión del lenguaje natural (natural language processing): este procedimiento observa las relaciones entre palabras para inferir el significado de un texto sin necesidad de definiciones previas. Otros campos de estudio contenidos en el actual desarrollo de la inteligencia artificial constituyen el aprendizaje reforzado (reinforced learning), un procedimiento que cambia el enfoque del aprendizaje automático del reconocimiento de patrones en la toma de decisiones guiadas por la experiencia. El crowdsourcing y la colaboración entre humanos y máquinas también se consideran parte de la inteligencia artificial y han dado lugar a servicios como el Mechanical Turk de Amazon, un servicio en que seres humanos etiquetan imágenes o textos para ser usados en el entrenamiento de redes neuronales.

Red neuronal artificial | Wikipedia

La fragilidad del sistema: la cooperación entre humanos y algoritmos inteligentes

La inteligencia artificial promete mayor personalización y una relación más fácil e integrada con las máquinas. Aplicada a campos como el transporte, la salud, la educación o la seguridad, se emplea para vigilar nuestro bienestar, alertarnos de posibles riesgos y ofrecer servicios cuando sean solicitados. Sin embargo, la implantación de estos algoritmos ha dado lugar a algunos eventos escandalosos que han alertado sobre la fragilidad de este sistema. Entre ellos el aparatoso accidente del vehículo semiautomático de Tesla, la difusión de noticias falsas en redes como Facebook y Twitter, el fallido experimento del bot Tai desarrollado por Microsoft y liberado a la plataforma Twitter para aprender en interacción con los usuarios (este tuvo que ser retirado en menos de 24 horas debido a sus comentarios ofensivos). El etiquetado de personas afroamericanas en Google Photos como «simios», la constatación de que Google es menos propenso a mostrar demandas de empleo de nivel alto a mujeres que a hombres o de que los delincuentes afroamericanos son con mayor frecuencia clasificados como potenciales reincidentes que los caucasianos han mostrado, entre otros problemas, el poder discriminatorio de estos algoritmos, su capacidad de comportamientos emergentes y la difícil cooperación con los humanos.

Estos y otros problemas se deben, por un lado, a la naturaleza del aprendizaje automático, su dependencia del big data, su gran complejidad y capacidad de previsión. Por otro lado, a su implementación social, donde encontramos problemas derivados de la concentración de estos procedimientos en unas pocas compañías (Apple, Facebook, Google, IBM y Microsoft), la dificultad de garantizar un acceso igualitario a sus beneficios y la necesidad de crear estrategias de resiliencia frente a los cambios que se producen conforme estos algoritmos van penetrando en la estructura crítica de la sociedad.

La falta de neutralidad de los algoritmos se debe a la dependencia del big data. Las bases de datos no son neutrales y presentan los prejuicios inherentes al hardware con que han sido recolectados, el propósito para el que han sido recopilados y al paisaje desigual de datos ‒no existe la misma densidad de datos en todas las zonas urbanas ni respecto a todos los estamentos y hechos sociales. La aplicación de algoritmos entrenados con estos datos puede difundir los prejuicios presentes en nuestra cultura como un virus, dando lugar a círculos viciosos y a la marginalización de sectores de la sociedad. El tratamiento de este problema pasa por la elaboración de bases de datos inclusivas y un cambio de enfoque en la orientación de estos algoritmos hacia el cambio social.

El crowdsourcing puede favorecer la creación de bases de datos más justas, colaborar a valorar qué datos son sensibles en cada situación y proceder a su eliminación y a testear la neutralidad de las aplicaciones. En este sentido, un equipo de las universidades de Columbia, Cornell y Saarland ha elaborado la herramienta FairTest, que busca asociaciones injustas que pueden producirse en un programa. Por otra parte, orientar los algoritmos hacia el cambio social puede contribuir a la detección y eliminación de los prejuicios presentes en nuestra cultura. La Universidad de Boston, en colaboración con el Microsoft Research, ha llevado a cabo un proyecto en que los algoritmos son utilizados para la detección de los prejuicios recogidos en la lengua inglesa, concretamente las asociaciones injustas que se dan en la base de datos Word2vec, usada en muchas aplicaciones de clasificación automática de texto, traducción y buscadores. El hecho de eliminar los prejuicios de esta base de datos no los elimina de la cultura, pero evita su propagación por medio de aplicaciones que funcionan de modo recurrente.

Otros problemas se deben a la falta de transparencia, que deriva no solo del hecho de que estos algoritmos son considerados y protegidos como propiedad de las compañías que los implementan, sino de su complejidad. Sin embargo, el desarrollo de procesos que haga estos algoritmos explicativos es de esencial importancia cuando estos se aplican a la toma de decisiones médicas, judiciales o militares, donde pueden vulnerar el derecho que tenemos a recibir una explicación satisfactoria respecto a una decisión que afecta a nuestra vida. En este sentido, la Agencia de Investigación para la Defensa Americana (DARPA) ha iniciado el programa Inteligencia artificial explicativa (Explainable Artificial Intelligence). Este explora nuevos sistemas de conocimiento profundo que puedan incorporar una explicación de su razonamiento, resaltando las áreas de una imagen consideradas relevantes para su clasificación o revelando un ejemplo de la base de datos que muestre el resultado. También desarrollan interfaces que hagan el proceso del aprendizaje profundo con los datos más explícitos, mediante visualizaciones y explicaciones en lenguaje natural. Un ejemplo de estos procedimientos lo encontramos en uno de los experimentos de Google. Deep Dream, llevado a cabo en 2015, consistió en modificar un sistema de reconocimiento de imágenes basado en aprendizaje profundo para que, en lugar de identificar objetos contenidos en las fotografías, los modificara. Este proceso inverso permite, además de crear imágenes oníricas, visualizar las características que el programa selecciona para identificar las imágenes, mediante un proceso de deconstrucción que fuerza al programa a trabajar fuera de su marco funcional y desvelar su funcionamiento interno.

Por último, la capacidad de previsión de estos sistemas los lleva a un incremento en la capacidad de control. Son conocidos los problemas de privacidad que se derivan del uso de tecnologías en red, pero la inteligencia artificial puede analizar nuestras decisiones anteriores y prever nuestras posibles actividades futuras; esto da al sistema capacidad para influenciar en la conducta de los usuarios, lo cual reclama un uso responsable y el control social de su aplicación.

Ex Machina nos ofrece una metáfora del temor que rodea la inteligencia artificial, que esta supere nuestras capacidades y escape a nuestro control. La probabilidad de que la inteligencia artificial produzca una singularidad o un evento que cambiaría el curso de nuestra evolución humana sigue siendo remota; sin embargo, los algoritmos inteligentes del aprendizaje automático se están diseminando en nuestro entorno y produciendo cambios sociales significativos, por lo que es necesario desarrollar estrategias que permitan a todos los agentes sociales comprender los procesos que estos algoritmos generan y participar en su definición e implementación.





¿Soberanía tecnológica? Democracia, datos y gobernanza en la era digital

La soberanía tecnológica debe ser un pilar más sobre el que ir construyendo y asentando un nuevo paradigma tecnológico ético, responsable y cívico.


Sistema de dirección, 1966 | San Diego Air & Space Museum Archive | Sin restricciones conocidas de derechos de autor

Con el cambio de gobierno en Barcelona ha tomado fuerza un discurso que hace hincapié en la soberanía tecnológica y habla de data commons, derechos digitales y software libre. Sin embargo, cuando hablamos de la capacidad de decidir de la ciudadanía, no podemos olvidar la dimensión colectiva de nuestros derechos en la red. Por ello se hace imprescindible vincular la soberanía a términos como equidad, justicia y reparación.

Hace meses que es habitual oír discursos que relacionan tecnología y soberanía, sobre todo en Barcelona. Desde un consistorio que llegó al gobierno con la promesa y responsabilidad de repensar la relación de la ciudad con la tecnología después de casos paradigmáticos de opacidad, corrupción y rechazo ciudadano, los nuevos principios quieren conformar una alternativa frente a la opción de las ciudades inteligentes dominadas por procesos de arriba abajo y con poca o ninguna consideración por el retorno social, el bien común o el impacto social y ético de la tecnología.

Esta definición de alternativas y nuevos paradigmas es urgentísima. El discurso sobre la tecnología bascula demasiado a menudo entre extremos, de un cierto ludismo reinventado y tecnofílico al tecnosolucionismo más absurdo e irracional, que asimila acríticamente los datos al petróleo o asume que más información es siempre sinónimo de mejores decisiones. El único matiz es que, mientras que las derechas tienden a confiar en el mercado y la desregulación, esperando que, como por arte de magia, la tecnología mejore la economía, nos haga más eficientes y oculte las desigualdades, la izquierda marca distancias con el mercado sin llegar a apostar por la iniciativa pública y la capacidad para imaginar futuros tecnológicos diferentes, y comparte con la derecha una infantil esperanza en que la tecnología nos acerque a sociedades mejores. Abracadabra.

Así, a diestro y siniestro, el discurso tecnológico se llena a menudo de cantos al Big Data, el Internet de las cosas, los artilugios «inteligentes», los algoritmos y Silicon Valley, como evidenciaba el líder del laborismo británico al referirse a la «cuarta revolución industrial» en estos términos. Y cuando alguien reclama un pensamiento por los impactos sociales de estos procesos, por los riesgos para la privacidad, por la necesidad de repensar derechos, valores y garantías en este nuevo escenario de datos, el tecnosolucionismo deja caer algún calificativo como «ético» o «responsable» y ya está.

En este contexto es importante el papel que quiera desempeñar la ciudad de Barcelona. ¿Podemos repensar la tecnología desde el bien común? De ser así, ¿cuáles son los términos y los contenidos de las nuevas propuestas? Para el primer teniente de alcalde de Barcelona, «en una ciudad democrática, la tecnología debería servir para empoderar digitalmente a la ciudadanía, para proteger su privacidad ante los abusos del poder público y privado, para luchar contra la corrupción y para avanzar hacia una economía más equitativa y sostenible. Esto tiene un nombre: conquistar soberanía tecnológica, digital, para el bien común.»[1] Los documentos del consistorio, por su parte, hacen distinciones entre soberanía tecnológica (romper dependencias de programas propietarios y fomentar el liderazgo público), soberanía de datos (salvaguardar la privacidad de los ciudadanos) y transparencia (la auditoría ciudadana). El paradigma propuesto por Barcelona, pues, se centra en el liderazgo y valor público, la privacidad y la transparencia.

Ser pioneros en la articulación de una definición propia del papel que debe tener la tecnología en los entornos y procesos urbanos, y atender los comprensibles equilibrios y legados de los sistemas y procesos existentes, supone un esfuerzo remarcable. Sin embargo, existen otros principios en que otras ciudades e iniciativas ya están trabajando que quedan fuera de los discursos actuales. Así, cuestiones clave vinculadas a la equidad y la justicia, la responsabilidad, la redistribución o la reparación (sí, las máquinas y los algoritmos se equivocan y sus víctimas caen en pozos infinitos de incomprensión legal y administrativa) no acaban de encontrar su lugar en los nuevos planes digitales de la ciudad.

Los límites de la soberanía de datos

Optar por la soberanía tecnológica como el elemento catalizador de un nuevo paradigma es estimulante, pero también arriesgado y potencialmente limitante. La soberanía es un término complejo y a menudo controvertido, que en su tradición rousseauniana hace referencia a poder republicano emergente del pueblo y bajo control del mismo. En el contexto de las disputas geopolíticas por el control de la comunicación transnacional, durante los últimos años la soberanía ha sido considerada como la construcción de una gobernanza –a diferentes niveles gubernamentales y politicoterritoriales– con mayor capacidad de coordinación y regulación de los intercambios digitales, que pueda incrementar tanto la seguridad colectiva como la competitividad.[2] En el caso de Barcelona se reivindica como sinónimo de la «capacidad para decidir» –la posibilidad de crear marcos de gobernanza y soluciones tecnológicas que no abusen de los datos de los ciudadanos, que les respeten la capacidad para saber qué pasa con su información, que trabajen para abordar problemas reales y no solo comerciales, y que se basen en códigos abiertos, auditables y customizables. Una especie de soberanía popular sobre los datos que se aleja de otras nociones vinculadas a la soberanía como el proteccionismo o el intento (absurdo) de desarrollar infraestructuras tecnológicas vinculadas a delimitaciones territoriales.

Technological Sovereignty and Cities | Evgeny Morozov | BITS

Además, si la elección del término soberanía para articular un nuevo discurso y prácticas tecnológicas busca basarse en la idea del control y la capacidad de decisión (siguiendo la analogía de la soberanía popular), los elementos vinculados al bien común, precisamente, pasan a un segundo plano. La soberanía permite la expresión de opciones individuales que, una vez agregadas, determinan futuros políticos. En el mundo de los datos y en la relación individual entre la ciudadanía y los dispositivos de captura de información, esta capacidad de decisión olvida la dimensión colectiva de los derechos que están en juego, como la privacidad, y abre la puerta a relaciones de datos terriblemente nocivas.

¿Puede un ciudadano decidir individualmente compartir sus datos, cuando estos contienen los de otros individuos? Si una persona decide libre y soberanamente instalarse una aplicación en su móvil que captura datos, ¿dónde queda la capacidad de decisión de las personas de su agenda de contactos, cuyos datos son inmediatamente transferidos a un tercero? Gestionar la vertiente colectiva del impacto social de la tecnología escapa a la noción de soberanía.

Hay otros aspectos clave que deben formar parte de cualquier nuevo discurso tecnológico, como la atención a la no discriminación y la brecha digital, términos vinculados a la equidad, la justicia y la reparación. La sociedad de los datos pivota sobre algoritmos que clasifican y toman pequeñas y grandes decisiones sobre la información que reciben y las personas de las que la reciben. Estos algoritmos a menudo reproducen dinámicas discriminatorias (machistas, racistas), como en los casos de sistemas de reconocimiento de voz que no identifican las voces de mujeres, los algoritmos policiales que recomiendan concentrar la actividad policial en barrios negros, o el sistema de publicidad de puestos de trabajo de Google que solo muestra las ofertas mejor pagadas a los hombres. ¿Son suficientes la capacidad de decidir o el software libre para abordar estos temas?

En la decisión de prestar banda ancha a barrios desfavorecidos, por ejemplo, ¿quién tiene en cuenta el impacto de esta política en las desigualdades existentes? ¿Quién vela por no vulnerar a estas poblaciones exponiéndolas a proveedores que abusen de la información que comparten por esta nueva infraestructura? ¿Cómo valorar el impacto social y ético, y construir mejores prácticas antes del establecimiento de la relación con el ciudadano?

Hacia una gestión ética de los datos

Desde hace unos años, diferentes actores han hablado de la necesidad de dar forma a un nuevo contrato social en torno al uso de la tecnología y los datos personales. Para estas voces, el abuso de los datos para crear nuevas formas de manipulación, explotación y control (público y privado) amenaza con erosionar valores fundamentales como la confianza y la propia democracia. Sentar las bases de este nuevo acuerdo marco requiere de la movilización de tres espacios fundamentales: la administración pública, el sector privado y la ciudadanía.

En los últimos años, la academia y partes significativas de la sociedad civil han ido rescatando y subrayando cuáles son los derechos y valores que están sufriendo bajo la bota asfixiante del tecnosolucionismo. Como mencionábamos antes, conceptos clave como la equidad y la justicia, la transparencia, la privacidad, la responsabilidad, la redistribución, la reparación y el liderazgo y valor público y ciudadano emergen como elementos a custodiar en los procesos de datos.

A month in the life of Barcelona | BCN Beats

¿Cómo hacerlo? La administración pública debe ser capaz de dar forma al futuro al tiempo que aborda los desbarajustes del pasado. Las organizaciones complejas llevan décadas incorporando sistemas sin planificación ni control, construyendo adendas tecnológicas sobre procesos caducos y perdiendo la oportunidad de repensarse desde cero. Para abordar estos desbarajustes del pasado, las administraciones necesitan dotarse de arquitecturas de datos, sistemas de gobernanza de los datos y roles específicos de supervisión y custodia de las buenas prácticas. Existen muy pocas organizaciones que hoy puedan soportar una auditoría de datos, y con la entrada en vigor del nuevo reglamento europeo de protección de datos y la exigencia ciudadana de responsabilidad y transparencia, este escenario es cada día más insostenible.

Para dar forma al futuro, las administraciones deben repensar la forma en que se presupuesta, licita y adquiere tecnología. Apostar por procesos innovadores y transparentes, software libre y contratos que establezcan claramente qué usos pueden y no pueden hacerse de los datos generados es imprescindible. Evitar la discriminación algorítmica, los ciberataques y la inversión sin retorno comienza en la redacción de pliegos y cláusulas de licitación y no puede terminar hasta la ejecución final de los proyectos. La administración también puede proporcionar datos valiosos para empresas, pero cualquier data commons público debe partir de rigurosos procesos de curaduría de los datos y velar por su anonimización y gestión responsable por parte de terceros.[3]

El sector privado tiene sus propios incentivos para no querer quedarse atrás en la carrera para incorporar prácticas éticas y responsables. Sin embargo, diferentes ciudades están experimentando con maneras de promover ecosistemas más diversos e innovadores en torno a la tecnología. Por un lado están las que asumen acríticamente los discursos tecnooptimistas y creen efectivamente que los datos son el nuevo petróleo.[4] Por el otro, están las que apuestan por las tecnologías cívicas y los ecosistemas responsables, y por el estudio riguroso del impacto de las políticas tecnológicas, como Nueva York.

Por último, la ciudadanía debe tener las herramientas para afirmar y defender sus derechos tanto en línea como fuera de línea, sobre la base de marcos reguladores claros y aplicables que permitan identificar abusos y discriminaciones y activar mecanismos de reparación. Poder utilizar la tecnología de una forma responsable y esperar un comportamiento legal, sin embargo, no puede depender de la capacidad de los usuarios de entender y defenderse. Si coger un avión no requiere el conocimiento de mecánica aeronáutica, dar los datos a cualquier administración, empresa o servicio no debería requerir el conocimiento del marco legal. Esta protección pasiva es la que deben fomentar y garantizar los entes públicos.

Un plan de acción a estos tres niveles (gobernanza del back-end de la administración pública, nuevas formas de licitación y control de la adquisición de tecnología, y protección de los derechos individuales y colectivos de los ciudadanos) recoge todo lo que sabemos acerca de las potencialidades y riesgos a corto, medio y largo plazo de la sociedad de los datos, y nos permite despertar del actual andar sonámbulo hacia futuros socialmente indeseables.

La articulación de un nuevo discurso vinculado a la tecnología, por lo tanto, debe incorporar elementos de control y empoderamiento de la ciudadanía, y la llamada soberanía tecnológica puede ser una pieza más del puzzle de retos que hay que abordar. Las ciudades, las relaciones laborales, las relaciones sociales, las formas de generar confianza y proximidad, la política, la transparencia, la movilidad, los derechos y un largo etcétera de fenómenos se están viendo sacudidos por las nuevas posibilidades tecnológicas y de los datos. Dar forma a un nuevo contrato social de los datos que permita establecer y restablecer nociones de justicia y redistribución en estas nuevas realidades sociotécnicas requiere control y capacidad de decisión, sí, pero también legalidad, ética, aceptabilidad, no discriminación y una apuesta decidida por las tecnologías cívicas, capaces de incorporar de maneras específicas esta preocupación por su impacto y las dinámicas que reproducen.

Bienvenida sea, pues, la soberanía tecnológica, como un pilar más sobre el que ir construyendo y estableciendo un nuevo paradigma tecnológico ético, responsable y cívico.


[1] Ciutats amb sobirania tecnològica, Gerardo Pisarello. El Periódico, 22 de juny de 2016.

[2] Ver: Reading, Viviane (2015). Digital Sovereignty: Europe at a Crossroads, EIB Institute, o A. Cattaruzza, D. Danet, S. Taillat and A. Laudrain, «Sovereignty in cyberspace: Balkanization or democratization», 2016 International Conference on Cyber Conflict (CyCon U.S.), Washington, DC, 2016, p. 1-9.

[3] Hay diferentes metodologías para ello. Una de las más prometedoras es la desarrollada por el Center for Urban Science and Progress de la New York University.

[4] No es este el lugar para abordar este tema en profundidad, pero la comparación entre datos y petróleo no se sostiene. El petróleo estimula economías a varias escalas, porque una pequeña cantidad de petróleo es suficiente para derivar valor a pequeña escala (un transportista no necesita tener un pozo, con unos litros puede generar negocio y valor). Los datos, en cambio, articulan un mercado que tiende al monopolio, y donde la propiedad de una pequeña cantidad de datos no genera valor. El mercado de los datos es un mercado monopolístico en el que el ganador se lo queda todo y con ello genera un valor decreciente para los actores que contribuyen a este proceso de acumulación.





El poder contra las redes. La libertad de expresión en Internet

Ante la creciente importancia de las redes sociales para el activismo, los gobiernos incrementan el control sobre plataformas y usuarios de la red.


Pájaros en sus jaulas, China | DaiLuo | CC BY

Desde hace más de dos décadas, las nuevas tecnologías se han convertido en herramientas indispensables para cualquier proceso de cambio social. Por este motivo, gobiernos de todo el mundo endurecen cada vez más las medidas para controlarlas, ya sea mediante la censura de contenidos, el cierre de plataformas o la persecución directa a los usuarios. En los regímenes autoritarios, hostigan a la oposición política también en la Red; en las democracias representativas, presionan para aumentar la vigilancia bajo la amenaza del terrorismo. España presenta su propia fórmula particular, con una gestión muy polémica de la disidencia en nombre de la seguridad.

Del EZLN a Edward Snowden, el activismo que hace uso de las redes de comunicación e información ha dejado de ser un fenómeno excepcional para convertirse en moneda corriente. Algo que pone de manifiesto el control cada vez mayor que los gobiernos de todo el mundo ejercen sobre Internet y las nuevas tecnologías. Según el informe «Freedom on the Net 2016», elaborado por la organización no gubernamental Freedom House, el 67% de los usuarios de Internet vive en países en los que criticar a las autoridades puede ser motivo de censura. A partir de datos extraídos de 65 estados entre junio de 2015 y mayo de 2016, la organización alerta de que la libertad en la Red ha disminuido por sexto año consecutivo, con más gobiernos que nunca vigilando qué se dice en las redes sociales y prohibiendo aplicaciones para detener la circulación de información, especialmente durante períodos de revueltas antigubernamentales.

Matar al mensajero. La presión sobre las herramientas

Tras las protestas electorales en Irán de 2009 y las posteriores revueltas de la Primavera Árabe, analistas y medios de comunicación popularizaron la idea de «revoluciones Twitter» o «revoluciones Facebook». Apenas ocho años después, estas redes sociales han dejado de ser el núcleo de organización de la disidencia política, y periodistas y activistas de muchos países han virado hacia herramientas de mensajería instantánea, más privadas y seguras, para evitar el control gubernamental.

La presión sobre servicios de mensajería encriptados como WhatsApp y Telegram ha aumentado tanto en gobiernos autoritarios como democráticos, en estos últimos como parte de la lucha antiterrorista. De los 65 países evaluados por Freedom House, 24 han impedido en algún momento del pasado año el acceso a redes sociales y otras herramientas de comunicación, 9 más que en 2015. En momentos políticamente convulsos, 15 gobiernos han bloqueado incluso toda conexión a Internet para prevenir la diseminación de información, una práctica que llamó la atención en Egipto en 2011 pero que es cada vez más frecuente, como en las protestas en Etiopía de octubre de 2016.

Protesta contra la aprobación de la Ley Mordaza. Madrid, 2014 | Adolfo Lujan | CC BY-NC-ND

Con medidas menos drásticas, las democracias occidentales siguen presionando para obligar a los fabricantes y operadoras de telecomunicaciones a entregar datos privados para luchar contra el terrorismo, como ejemplifican las peticiones de Francia y Alemania a la Comisión Europea, o el rifirrafe que mantuvo el gobierno de Estados Unidos con Apple a raíz del atentado en San Bernardino a finales de 2015.

Penas severas sobre los usuarios

Más allá de las medidas contra canales y herramientas, el informe «Freedom on the Net 2016» alerta del preocupante aumento de las detenciones de usuarios corrientes de Internet. Desde junio de 2015, 38 países han arrestado a personas por su actividad en las redes sociales, 17 más que por publicaciones en periódicos o blogs. Además, las penas a las que se enfrentan son cada vez más severas y desproporcionadas, ya que en algunos casos se juzga a personas por el mero hecho de publicar, compartir o hacer «me gusta» a un contenido en Facebook. Sirva de ejemplo el caso de Andrei Bubeyev, un ingeniero ruso condenado a dos años de prisión por compartir en la red social Vkontakte una publicación que defendía que Crimea es parte de Ucrania, algo que solo vieron doce de sus contactos.

Aunque la persecución de la disidencia en Internet no es novedad en muchos países, la severidad de las penas parece perseguir un objetivo más ejemplarizante que de seguridad, incitando a la autocensura de la población. Las materias sensibles varían según el país, pero abarcan desde la crítica política hasta la religiosa, pasando por las acusaciones de corrupción, las opiniones sobre conflictos armados o la defensa de los derechos LGTBI y de grupos étnicos minoritarios. Algunos líderes mundiales también se muestran particularmente sensibles a la sátira, como en Egipto, donde un estudiante de 22 años fue condenado a tres años de prisión por publicar una foto del presidente Abdel Fattah Al-Sisi con unas orejas de Mickey Mouse.

España: Una gestión política de la seguridad

Aunque el informe «Freedom on the Net 2016» no contiene datos ni valoraciones sobre el caso español, es fácil encontrar paralelismos con algunas de las tendencias mencionadas. El más obvio es el de la Ley de Seguridad Ciudadana o «Ley Mordaza», aprobada en marzo de 2015. La norma afecta sustancialmente a los derechos de reunión, manifestación y libertad de expresión, y contiene dos aspectos polémicos en cuanto a Internet.

Ley de Seguridad Ciudadana o Ley Mordaza | Atxe

En primer lugar, la ley penaliza la publicación sin autorización de imágenes de las fuerzas y cuerpos de seguridad del Estado, y otorga más discrecionalidad a la policía para requisar móviles y cámaras. Esto limita, por ejemplo, la retransmisión en línea de protestas en directo y la posibilidad de documentar abusos de poder. En segundo lugar, persigue la convocatoria de protestas no autorizadas a través de la Red, pudiendo considerar responsable de una manifestación a la primera persona que la anunció en una red social.

Aunque no se detalla de un modo explícito, el espíritu de la Ley Mordaza parece orientado a contener los movimientos sociales propios de la sociedad red. Como han estudiado ampliamente autores como Manuel Castells o Víctor Sampedro, el activismo político de la sociedad de la información se caracteriza por intervenciones en el espacio público llevadas a cabo por grupos de personas autoconvocadas y sin estructuras estables o liderazgos formales, organizándose únicamente a través de Internet. Aspectos que, de un modo u otro, son penalizados por la Ley de Seguridad Ciudadana, que limita la ocupación del espacio público sin permiso y permite responsabilizar de una manifestación a cualquier persona que la publicite en Internet, aunque no exista un responsable formal de la misma.

Dejando a un lado la Ley Mordaza, las autoridades españolas han intensificado también la persecución de opiniones en las redes sociales. Las sucesivas fases de la llamada «Operación Araña» han detenido a más de medio centenar de personas acusadas de enaltecimiento del terrorismo y humillación de las víctimas por publicar mensajes o chistes en Internet. Las sentencias derivadas, algunas de ellas con condenas de prisión, despiertan serias dudas de proporcionalidad, así como una tensión evidente para aquellas personas que hacen uso de la Red y del humor y el sarcasmo para contrariar a las autoridades.

Así pues, España no es la excepción en un panorama internacional con tensiones crecientes en el uso político de Internet, tanto en regímenes autoritarios como en democracias representativas. Y aunque las violaciones de la libertad de expresión son flagrantes en algunos estados, no parece que exista una fórmula sencilla que permita analizar todas las situaciones por igual. En este sentido es especialmente útil la contribución de «Freedom of Connection, Freedom of Expression», un documento de la UNESCO que propone una «ecología de la libertad de expresión en Internet». Una metodología que, además de la ley, tenga en cuenta a todos los factores e intereses implicados: desde el derecho a la información hasta el discurso de odio y el acoso en línea, pasando por la neutralidad de la Red, la ciberseguridad, las leyes sobre privacidad, etc. Un universo complejo de correspondencias que varía en cada país y que recuerda que la hostilidad entre gobernantes y ciudadanos no solo depende de los límites legales, sino también de quién ostenta el poder y quién es vulnerable, así como de los consensos de opinión dominantes en cada sociedad.





Vaporwave: El hilo musical de los futuros perdidos

Media década después de su aparición, hacemos balance de este género musical nativo de Internet y analizamos su crítica a la sociedad de consumo.


Estudio de grabación en el Salford College of Technology, Manchester 1984 | University of Salford | CC BY-NC-ND

Nacido en 2011, el Vaporwave mezcla diversos géneros electrónicos con sonoridades de origen publicitario y corporativo de los años 80 y 90. A pesar de que existe mucha diversidad y ambigüedad en su actitud y mensaje, este puede ser considerado una crítica y parodia a la sociedad de consumo, mientras estéticamente exhibe una curiosa y nostálgica fascinación por sus artefactos. Poco después de presentarse como el último microgénero musical surgido en Internet, el Vaporwave fue dado por muerto, y su breve trayectoria siempre ha ido vinculada a la diversidad de opiniones y juicios: ¿se convirtió en un meme musical? ¿Murió de verdad? ¿Qué fue o qué es exactamente el Vaporwave y qué tuvo o tiene que ver con la crítica al sistema capitalista?

La historia del Vaporwave discurre en paralelo a la controversia que rodea el nacimiento, la muerte y la resurrección de este género musical y al debate sobre su ambigüedad ideológica respecto al modelo de progreso tecnocapitalista. El imaginario sonoro y visual del Vaporwave convoca la imagen ultracolorista de un mundo hipertecnificado y kitsch, repleto de pantallas LCD y todo tipo de gadgets digitales. La psicodélica y aparentemente arbitraria iconografía del Vaporwave también contiene imágenes de esculturas clásicas, palmeras, títulos escritos en caracteres japoneses y referencias gráficas a sistemas informáticos y videojuegos de hace un par de décadas. Todos estos elementos confieren a la música un carácter extraño e inquietante y la ubican en un espacio estético e histórico indefinido.

Alojado exclusivamente en Internet, el universo Vaporwave remite con irónica benevolencia a una época en que los avances en el campo de las tecnologías de consumo y las comunicaciones prometían un futuro radiante y lleno de posibilidades. Antes de la aparición de las redes sociales y los teléfonos inteligentes, antes de que perdiéramos la inocencia sobre las bondades y las potencialidades de la hiperconectividad y las inteligencias algorítmicas, Internet se asemejaba a una ventana abierta a un próspero edén cibernético, democrático y humanista. Para los usuarios de aquella época lo más parecido a un temor milenarista relacionado con la red era el morbo jocoso que rodeaba la llegada del «efecto 2000». Son estos años de vértigo finisecular y de emoción ingenua frente al inminente cambio de milenio los que el Vaporwave conjura casi un cuarto de siglo después.

Pero, ¿de dónde sale el Vaporwave? La etiqueta surgió en 2011 para identificar un microgénero musical que empezaba a circular por Internet. James Ferraro (alias Bebetune$), Chuck Person (alias Daniel Lopatin / Oneohtrix Point Never) o Macintosh Plus (alias Ramona Andra Xavier / Vektroid / New Dreams Ltd / PrismCorp Virtual Enterprises) fueron algunos de los iniciadores de este género que en la actualidad ha dejado de ser «micro» y cuenta con multitud de proyectos, subcategorías y sellos especializados. La alusión a una visión anticuada e inocente del futuro se adivina en el propio nombre del género, una variación de la palabra vaporware. Así es como se denominan los productos tecnológicos que, después de haber sido anunciados por su fabricante a través de fotografías o infografías, no alcanzan la fase de producción y comercialización. El producto vaporware es una promesa tecnológica sin cumplir, una obsoleta ensoñación futurista anclada para siempre en el pasado.

Oneohtrix Point Never - Problem Areas

Antecedido por otros fenómenos musicales como el Hypnagogic pop, el Witch house o el Seapunk e influenciado en ciertos aspectos por estos, el Vaporwave acostumbra a incorporar fragmentos de música comercial y publicitaria de los años ochenta y noventa y a reproducirlos a la mitad de su velocidad original. Estos loops ralentizados son la base sobre la que se añaden ritmos, líneas de sintetizador y otros elementos como jingles corporativos o sonidos de diversos sistemas operativos y software. El smooth jazz, el soft rock, el new age, el muzak o cualquier otra cosa susceptible de sonar en un ascensor, una sala de espera o una centralita telefónica son algunas de las fuentes en las que los artistas del género se abastecen para crear sus composiciones plunderfónicas. El Vaporwave es la música por antonomasia del no-lugar, la melodía de espera del call-center de una imaginaria ciudad de vacaciones (retro)futurista situada en algún punto inexacto del planeta. La pregunta que el Vaporwave parece lanzarnos provocativamente es: ¿nos gustaría o no nos gustaría llamar a ese call-center para hacer una reserva? ¿Hasta qué punto nos seduce o nos horroriza el mundo que nos presenta?

En su artículo Vaporwave and the pop-art of the virtual plaza, uno de los primeros dedicados al género, Adam Harper se preguntaba si el Vaporwave tiene más de utópico o de distópico y si representa una crítica al capitalismo o más bien una capitulación frente al mismo. Para Harper, esta ambigüedad se aloja en el núcleo mismo del Vaporwave y es lo que hace de este un fenómeno interesante y digno de análisis. Harper sugiere, sin embargo, que el Vaporwave bien podría entenderse como la banda sonora del aceleracionismo, la corriente de pensamiento inaugurada por Nick Land y en el marco de la cual Alex Williams y Nick Srnicek proponen el Manifiesto por una política aceleracionista.

La insatisfacción con el presente, la añoranza de «otros futuros posibles» perdidos en el tiempo y el anhelo de una «modernidad alternativa» no muy distinta de la propuesta por cierta ciencia ficción son algunas de las cuestiones que Williams y Srnicek describen en su manifiesto y que, efectivamente, también parecen servir de inspiración para algunos artistas Vaporwave. Citado por el crítico Simon Reynolds en Retromanía. La adicción de la cultura pop a su propio pasado, Daniel Lopatin (Chuck Person), explica que sus Eccojams, composiciones creadas a partir de música de los ochenta ralentizada, son el resultado de su experimentación con modos de escucha alternativos a los que vienen impuestos por la «jodida sociedad actual». Lopatin defiende «la seducción del loop, su promesa meditativa y su capacidad para sugerir la misma idea de infinitud». Más provocativo y cercano a las tesis aceleracionistas, James Ferraro describe el universo sonoro de su disco Far Side Virtual (el mejor álbum del año 2011 según la revista Wire) y de su proyecto 100% (presentado en el MoMA PS1 en 2014) como un ejercicio de «estetización del capitalismo» y reconoce «su obsesión por capturar una ambigüedad sonora genérica y panglobal».

Oneohtrix Point Never - Nobody Here

En Ghosts of My Life. Writings on Depression, Hauntology and Lost Futures, el crítico Mark Fisher, fallecido a principios de este año, analiza la relación entre la «lenta cancelación del futuro» (expresión que el autor toma prestada de Franco «Bifo» Berardi) y la incapacidad de la cultura para articular una idea del presente. En el ámbito de la música, por ejemplo, lo futurista ya no sugiere un futuro del que quepa esperar nada nuevo, señala Fisher. Cualquier intento de representar el futuro parece condenado, de esta manera, a convertirse en una mera especulación retrofuturista. Retomando las palabras de Frederic Jameson, Fisher advierte que la cultura contemporánea se encuentra en un «modo nostálgico» que la retiene en un «estado de fijación formal respecto a las técnicas y las fórmulas del pasado».

En este contexto, Fisher propone recuperar el neologismo hauntología (hantologie), propuesto por Jacques Derrida en su libro Espectros de Marx, para describir cierto tipo de música electrónica aparecida a mediados de la pasada década. Derrida describe la hauntología como el modo en que todo aquello que existe lo hace sobre la base de una serie de ausencias que lo preceden y lo envuelven, a la vez que le otorgan consistencia e inteligibilidad. En la música hauntológica se constata «que las esperanzas creadas por la música electrónica de posguerra y por la euforia de la música de baile de los noventa se han evaporado junto a la idea de futuro». Sin embargo, «esta música tampoco renuncia al deseo de ese futuro». La música hauntológica oscilaría, así, entre la nostalgia y la aspiración de un futuro perdido, proyectándose simultáneamente hacia delante y atrás en el tiempo. Aunque Fisher no menciona el Vaporwave (el género todavía no había aparecido como tal), la descripción que propone de una música hauntológica parece encajar con la particular estética (retro)futurisa del género y su ambiguo posicionamiento histórico.

En su libro Babbling Corpse. Vaporwave and the Commodification of Ghosts, Grafton Tanner describe el Vaporwave como una reacción al actual proceso de regresión cultural y como una subversiva elegía electrónica a la «tecnodecadencia del capitalismo tardío». Tanner, sin embargo, es consciente de que cualquier intento de definición del Vaporwave resulta difícil y peligroso. Expuesto a las dinámicas «troleadoras» de Internet y a la implacable semioeconomía del meme, el Vaporwave es una manifestación volátil que no solo opone resistencia a su interpretación, sino que puede transformarse a causa de ella. Incluso morir. En 2012, coincidiendo con la publicación del artículo de Adam Harper y de la vídeocrítica del disco Floral Shoppe de Macintosh Plus que Anthony Fantano subió a su canal de YouTube, fueron muchos los que consideraron que la exposición del Vaporwave fuera de los reducidos círculos a los que pertenecía había acabado con el género.

La imagen de portada de Floral Shoppe y su segunda canción, titulada «リサフランク420 / 現代のコンピュー» (lo más parecido a un himno Vaporwave), protagonizaron una avalancha de memes y vídeos en los que se bromeaba sobre el hermetismo de su estética y su significado. Irónicamente, estos memes fueron, probablemente, los que dieron a conocer el Vaporwave entre muchos neófitos que, poco a poco, empezaron a interesarse por el género y a tomárselo en serio. A lo largo de los últimos años, la defunción del Vaporwave se ha seguido anunciando con cierta regularidad por distintos motivos. Pero, a pesar de ello y de la existencia de cosas como un sello íntegramente dedicado a parodiarlo o digresiones tan estrafalarias como el simpsonwave, el Vaporwave sigue incrementando su número de seguidores y generando discusión (sirva como ejemplo el activo foro sobre el género en Reddit). Como sugiere Scott Beauchamp en su artículo Vaporwave is dead. Long live Vaporwave, tal vez el Vaporwave se ha dado por muerto porque no se corresponde con el tipo de producto o mercancía musical habitual. El Vaporwave siempre ha circulado fuera de los márgenes del negocio musical y sus circuitos establecidos, así que, de algún modo, siempre ha sido una especie de fantasmagoría; una hautología musical atrapada entre el pasado y el futuro y salvaguardada de las modas y de la lógica de mercado en los recónditos no-lugares de Internet.





Injusticia algorítmica

Cada vez utilizamos más algoritmos para automatizar decisiones. Por esto necesitamos que sus resoluciones no solo sean correctas, sino justas.


Un oficial de la RAF con los ojos vendados y una enfermera participando en una carrera. Rang du Fliers, 1918 | Imperial War Museum | Dominio público

La inteligencia artificial permite que decisiones que hasta ahora tomábamos los humanos puedan automatizarse mediante algoritmos informáticos. Aunque buena parte de esas decisiones se hallan en el campo del entretenimiento y las redes sociales, también las encontramos en las finanzas, la educación, el mercado laboral, las aseguradoras, la medicina o la justicia. Ante este fenómeno, de implicaciones sociales profundas, aparecen varias preguntas: ¿qué pasará con los puestos de trabajo asociados a esas tomas de decisiones? ¿Cómo podemos garantizar que esos algoritmos tomen decisiones justas?

Mary Bollender es una madre soltera de Las Vegas con problemas económicos. Una mañana de 2014, al encontrarse enferma su hija de diez años, con una fiebre alta persistente, Mary decidió tomar el coche y llevarla a urgencias. Pero no pudo porque su coche no funcionaba. No es que estuviera averiado ni que no tuviera suficiente gasolina. El banco había desactivado el motor del coche remotamente al observar que Mary se había retrasado tres días en el pago del préstamo. Una vez pagara, el automóvil volvería a funcionar. Desgraciadamente, Mary no podía pagar aquella mañana.

A medida que nuestra sociedad se hace más compleja y la digitalización de datos personales se vuelve más y más masiva, nos encontraremos cada vez más casos como los de Mary Bollender: decisiones automatizadas basadas en recopilar de forma sistemática nuestros datos personales y con efectos negativos para nuestra vida. Los algoritmos que ordenan las noticias de nuestros amigos de Facebook o que nos recomiendan películas en Netflix son también los algoritmos que deciden si el banco nos dará o no un préstamo, si un detenido puede salir bajo fianza, si nos merecemos una beca posdoctoral o si estamos a la altura para que nos contrate una empresa.

Estos programas de ordenador, estos algoritmos, no son resultado de un análisis y desglose del problema por parte de programadores humanos, que dan instrucciones precisas a un ordenador. Estos programas son fruto de complejas operaciones matemáticas desarrolladas automáticamente que buscan correlaciones y patrones útiles en un océano de datos digitalizados. No son como una receta de cocina en la que se nos dice qué ingredientes necesitamos y nos desglosan paso a paso cómo utilizarlos. Se parece más bien a «abre la nevera, mira qué hay, trastea por la cocina a ver qué cacharros puedes utilizar y prepárame una comida para seis personas.» Este tipo de algoritmos, que no están diseñados de forma explícita por un programador, se conocen como «aprendizaje automatizado» (machine learning).

Los algoritmos que actualmente procesan si una persona podrá o no devolver el crédito que está pidiendo a un banco funcionan así. La programadora del algoritmo recopila una base de datos de personas que han pedido un crédito anteriormente e incluye todo tipo de datos: sexo y edad de la persona, si devolvió todo el crédito o no, si se retrasaba en los pagos y con qué frecuencia, cuál era su sueldo medio, cuánto pagaba a hacienda, en qué ciudad y barrio vivía, etc. El algoritmo aplica una serie de fórmulas estadísticas a esos datos y acaba generando unos patrones que le permiten estimar la probabilidad de que un nuevo cliente potencial acabe devolviendo el préstamo o no. Estos algoritmos se desarrollan normalmente con la fiabilidad como único criterio. ¿El programa es suficientemente bueno como para substituir a un humano? Pues adelante con él.

¿Qué es un algoritmo? | David J. Malan | Ted Ed

Establecer la fiabilidad es algo complicado. Desarrollar un algoritmo automatizado realmente fiable tiene tanto de ciencia como de arte. Inevitablemente, cuando pensamos en programas de ordenador e inteligencia artificial, tendemos a antropomorfizarlos e imaginar que siguen trenes de pensamiento parecidos a los nuestros. Pero, en realidad, no es así. Un algoritmo automatizado no analiza los ejemplos que le damos e intenta establecer algún tipo de conexión causal, razonable, entre los datos y el resultado final. El algoritmo no sabe nada de género, edad, condiciones económicas, paro, etc. Simplemente tiene una ristra de números e intenta encontrar patrones que le permitan acertar el mayor número de veces.

Y aquí es donde aparece el problema. Un programa tradicional, desarrollado por un humano, sigue una lógica, con lo que es posible entender qué está haciendo ese programa. Un algoritmo automatizado es como una caja negra. Le damos una entrada (los datos de la persona que pide el crédito) y nos da una salida (la probabilidad de que devuelva o no el crédito). Es muy complejo ─o prácticamente imposible─ saber por qué el programa ha decidido rechazar o aceptar un crédito.

En la década de los ochenta, el ejército estadounidense encargó a unos científicos que desarrollaran un sistema automático de reconocimiento de imágenes para poder detectar en tiempo real tanques camuflados. Los científicos pidieron a los militares una buena colección de fotos organizadas en pares: una de un lugar sin tanque, la otra del mismo lugar, pero con un tanque camuflado, para que así un algoritmo automatizado fuera capaz de establecer una serie de criterios para localizar un tanque. El programa funcionó especialmente bien.

Su fiabilidad era del cien por cien. De hecho reconocía tanques que estaban tan bien camuflados que un humano no sabía reconocerlos. Ello sorprendió mucho a los investigadores, y decidieron analizar qué criterios estaba siguiendo el algoritmo. Después de examinar en detalle las fotos y el algoritmo, se dieron cuenta de que, en realidad, el programa no reconocía tanques ni nada parecido. Digamos que los militares hicieron las fotos de los lugares sin tanque al mediodía. Las fotos con tanque camuflado se hicieron a las seis de la tarde. Así, el algoritmo, para decidir si había tanque o no, lo único que hacía era mirar la posición del sol.

Un coche Waymo sin conductor | Grendelkhan, Wikimedia Commons | CC BY-SA 4.0

Nos gusta imaginarnos que los coches autónomos guiados con algoritmos tienen algún tipo de comprensión de lo que es una carretera, un semáforo, un paso de peatones, un ciclista, otro automóvil, etc., pero lo único que hacen son versiones más sofisticadas de la historia de los tanques. Su aprendizaje es muy contextualizado y depende completamente de cómo responde el entorno en el que esos algoritmos se entrenaron. Al tratarse de cajas negras, nunca podremos saber con seguridad cómo reaccionará un coche autónomo si el contexto es suficientemente diferente del original en el que se entrenó el algoritmo.

Con suficientes entrenamientos en contextos muy variados, podemos disponer de algoritmos realmente fiables y robustos. Pero sigue habiendo un problema aún más insidioso. El de la justicia. Al no estar basados esos algoritmos en un conocimiento propiamente dicho del entorno, sino en establecer regularidades contextuales, basadas en un número finito de datos, ningún algoritmo considerará reactivar el automóvil de Mary Bollender para que pueda llevar a su hija al médico. Es un algoritmo que solo sabe quién ha pagado las cuotas y quién no. En un barrio con un alto nivel de pobreza, la tasa de morosidad es mucho más elevada. Un tanto por ciento elevado de madres solteras tienden a retrasarse en los pagos de hipotecas y préstamos. Un algoritmo automatizado sin duda denegaría un préstamo a una madre soltera de ese barrio empobrecido. La decisión sería sin duda estadísticamente correcta. Pero, ¿sería justa? ¿Queremos vivir en un mundo en el que decisiones relevantes para nuestra vida se basen en regularidades estadísticas dependientes del contexto?

Los desarrollos actuales de algoritmos automatizados de la inteligencia artificial necesitan de las humanidades. Hay que definir infraestructuras para que ingenieros y humanistas colaboren. Necesitamos establecer un lenguaje común. Que sociólogos, antropólogos, filósofos, artistas, entiendan los mecanismos básicos de cómo funciona toda esta nueva familia de programas y que los ingenieros informáticos piensen en cómo adecuar principios éticos, de convivencia, justicia y solidaridad en el desarrollo de nuevo software. Quizás algún día alcanzaremos a desarrollar esa superinteligencia artificial que tanto preocupa a Elon Musk. Ahora mismo debería preocuparnos mucho más cómo programas ya existentes pueden amplificar los sesgos racistas, xenófobos y sexistas existentes en nuestra sociedad.





Noticias falsas: compartir es curar

Los algoritmos de filtrado en la red limitan la diversidad de puntos de vista y facilitan la difusión de informaciones fabricadas a medida.


Comprobación de seguridad mediante un detector de mentiras en los controles del Clinton Engineer Works. Oak Ridge, EUA, c. 1945 | Wikimedia Commons | Dominio públic

Las elecciones americanas han puesto de manifiesto la política de la posverdad. El impacto de las noticias falsas en los resultados no solo demuestra la influencia social de Internet, también pone de relevo la desinformación existente en la red. Asimismo, el auge de este fenómeno va muy ligado al papel de las redes sociales como punto de acceso a Internet. Ante esto, las soluciones pasan por diversificar el control de la información, la inteligencia artificial y la alfabetización digital.

Estando en Estados Unidos es difícil escapar al gran fenómeno mediático del proceso electoral. Un fenómeno que desborda los medios de comunicación tradicionales para extenderse globalmente a través de las redes sociales. A mediados de año, Bernie Sanders aún se perfilaba como favorito en ambientes progresistas, pero Donald Trump ya se había convertido en un boom mediático. El 8 de noviembre de 2016, Trump emergía del ruido generado por memes satíricos, inocentadas, cebos de clics y noticias falsas para ser elegido presidente de los Estados Unidos, siendo investido el 20 de enero de 2017 en medio de la polémica originada en la desinformación acerca de la asistencia al evento y la masiva afluencia a los actos de protesta encabezados por la «marcha de las mujeres».

Mientras tanto, el 10 de noviembre, Mark Zuckerberg, estando en la conferencia «Techonomy» en Half Moon Bay, intentaba exculpar a su red social Facebook de su participación en la difusión de noticias falsas y la posible influencia de estas en el resultado electoral. La entrada de esta plataforma en la arena de los medios, materializada en el módulo «trending news» (solo disponible en países de habla inglesa) y reforzada en el hecho de que cada vez más ciudadanos usan Internet para informarse, se ha convertido en el centro de una polémica en que se ha puesto en entredicho la supuesta neutralidad de las plataformas digitales. La definición de estas como un medio tecnológico, en que los contenidos son generados por los usuarios y editorializados por algoritmos neutrales, se ha ensombrecido por la evidencia de la falta de transparencia de la funcionalidad de estos algoritmos y por la participación partidista de seres humanos en la censura e inyección de contenidos en el citado modulo y el muro de los usuarios. Esto ha llevado a Zuckerberg a redefinir su plataforma como un espacio para el discurso público y a aceptar la responsabilidad de la misma como agente implicado en este discurso implementando nuevas medidas. Entre estas, la adopción de una nueva política de publicación de contenidos en que se contempla el no partidismo, la fiabilidad, la transparencia de las fuentes y el compromiso con las correcciones; el desarrollo de herramientas que permitan reportar contenidos falsos o no representativos, y el recurso a servicios de comprobación de hechos externos como Snopes, FactCheck.org, Politifact, ABCNews y AP, todos ellos adheridos al código de principios internacional de Poynter. Al mismo tiempo, otros gigantes tecnológicos como Google y Twitter han desarrollado políticas dirigidas a eliminar anuncios falsos (Google ha eliminado 1,7 billones de anuncios que violaban su política en 2016, más del doble que el año pasado) y combatir el uso abusivo de la red.

Cómo detectar noticias falsas | FactCheck.org

Las noticias falsas, hechos inventados en busca de ulteriores beneficios que circulan en la red en forma de spam, bromas y cebos de clics se han convertido en el centro de la polémica que rodea el proceso electoral americano, como ejemplo de una política de la posverdad facilitada por el uso de las redes sociales, pero al mismo tiempo son un síntoma que nos alerta de que Internet está enfermo.

En su informe sobre la salud de Internet, la fundación Mozilla señala la centralización en unas pocas grandes compañías como uno de los factores que promueven la falta de neutralidad y diversidad, así como el analfabetismo de este medio. Facebook no es solo una de las redes sociales más usadas, puesto que cuenta con 1,7 billones de usuarios, sino que es también el principal punto de acceso a Internet para mucha gente, mientras que Google monopoliza las búsquedas. Estos medios han evolucionado desde los primeros proveedores de servicios y el advenimiento de la web 2.0 creando una estructura de servicios basada en la métrica del atractivo. «Dar a la gente lo que quiere» ha justificado la monitorización de los usuarios y el control algorítmico de los datos resultantes. Además, ha creado una relación en que los usuarios dependen de las herramientas listas para su uso, que ofrecen estos grandes proveedores, sin que sean conscientes del precio que implica el fácil acceso respecto a la centralización, vigilancia invasiva e influencia que estas grandes compañías ejercen en el control del flujo de información.

El fenómeno de la desinformación en Internet radica en que en este medio una información falsa o de baja calidad tiene la misma capacidad de hacerse viral que un hecho auténtico e informativo. Este fenómeno se debe a la propia estructura de este medio y se ve reforzado por el modelo económico del pago por clic ‒ejemplificado en el servicio de publicidad de Google‒ y la creación de burbujas de filtrado por la administración algorítmica de las redes sociales como Facebook. De este modo, tenemos que en Internet las noticias falsas son rentables y tienden a reafirmarnos dentro de una comunidad.

Servicios como AdSense de Google instan a los desarrolladores de páginas web a generar contenido atractivo e indexable para aumentar su visibilidad e incrementar la cotización en subasta del precio por clic. Desafortunadamente, las falsedades sensacionalistas pueden ser altamente atractivas. La comprobación de este hecho en las analíticas de Google es lo que llevó a un grupo de adolescentes macedonios a convertirse en promotores de la campaña de Trump. En la pequeña localidad de Veles surgieron más de cien sitios web con nombres engañosos como DonaldTrumpNews.co o USConservativeToday.com dedicados a diseminar noticias falsas sobre la campaña para atraer tráfico a páginas de anuncios y obtener beneficios económicos. La mayor fuente para dirigir el tráfico a estas webs resultó ser Facebook, donde, según un estudio llevado a cabo por las Universidades de Nueva York y Stanford, se compartieron noticias falsas hasta treinta millones de veces.

Esta figura presenta el porcentaje de tráfico de diferentes fuentes respecto a los 690 principales webs de noticias de EEUU y a 65 webs de noticias falsas. Los sitios se ponderan por el número de visitas mensuales. Los datos son de Alexa. | Social Media and Fake News in the 2016 Election, Hunt Allcott and Matthew Gentzkow

El tráfico de falsedades en redes sociales se ve favorecido por factores sociales y psicológicos ‒el descenso de atención que se produce en ambientes donde la información es densa y el hecho de que somos susceptibles de compartir acríticamente el contenido procedente de nuestros amigos‒, pero en gran medida es debido al filtrado algorítmico llevado a cabo en estas plataformas. Facebook nos libera del exceso de información y la redundancia filtrando los contenidos que aparecen en nuestro muro conforme a nuestras preferencias y la proximidad a nuestros contactos. De este modo, nos encierra en burbujas que nos mantienen alejados de la diversidad de puntos de vista y las controversias que generan y dan sentido a los hechos. Este filtrado produce una clasificación homofílica en que los usuarios con mentalidades similares forman clústers, y estos se refuerzan a sí mismos traspasando información que difícilmente salta de un clúster a otro, sometiendo a los usuarios a un nivel bajo de entropía o a información que les aporte novedad y diversidad de puntos de vista. Estas burbujas funcionan como cámaras de resonancia en que se generan narrativas que pueden traspasar la red y tener efectos en nuestra cultura y sociedad. El Wall Street Jounal ha publicado una aplicación basada en investigaciones realizadas en Facebook donde pueden seguirse simultáneamente las narrativas generadas por la burbuja roja, o liberal, y la azul, o conservadora. Esta polarización, al mismo tiempo que limita nuestra percepción, nos convierte en objetivos identificables y susceptibles de ser manipulados por informaciones fabricadas a medida.

La tecnología es parte del problema, queda ver si también puede ser parte de la solución. La inteligencia artificial no puede decidir sobre la verdad o falsedad de una información, lo cual es una tarea compleja y ardua hasta para un ser humano experto, pero herramientas basadas en el aprendizaje automático y el análisis textual pueden ayudar a analizar el contexto e identificar más rápidamente informaciones que requieren de comprobación.

El fakenews challenge es una iniciativa en la que varios equipos compiten para crear herramientas que apoyen a comprobadores humanos de hechos. El primer estadio de esta competición se basa en la detección de actitud. El análisis del lenguaje contenido en una información puede ayudar a clasificarla conforme si esta es a favor, en contra, discute o es neutral respecto al hecho indicado en el titular. Esta clasificación automática permitiría a un verificador humano acceder rápidamente a listas de artículos relacionados con un hecho y examinar los argumentos propuestos a favor y en contra.

Además del análisis del lenguaje, otro procedimiento computacional que nos ayuda a analizar el contexto de la información es el análisis de redes. OSoMe, observatorio de medios sociales desarrollado por el Centro para la Investigación de Sistemas y Redes complejos de la Universidad de Indiana y dirigido por Fil Menczer, propone una serie de herramientas para analizar el tránsito de información dentro de las redes sociales en busca de patrones que permitan identificar cómo se produce la polarización política y cómo se transmiten las noticias falsas, así como ayudar a la identificación automática de estas.

Visualización sobre la propagación del hashtag #SB277, sobre una ley de vacunación de California. Los puntos son cuentas de Twitter tuiteando con este hashtag y las líneas entre ellos muestran retuits. Los puntos más grandes son las cuentas se han retuiteado más. El color de los punto muestra la probabilidad de que sea un robot (rojo) o un humano (azul). | Onur Varol | CC BY-ND

Una de estas herramientas es la plataforma Hoaxy, destinada a seguir la difusión de noticias falsas y de sus desmentidos dentro de Twitter. Esta plataforma sigue las instancias, los retuits de las URL de hechos falsos, reportados por factcheking y de hechos verificados para ver cómo se distribuyen en la red. El análisis preliminar muestra que las noticias falsas son más abundantes que los desmentidos, que estas anteceden a los hechos verificados entre diez y veinte horas y que estas son propagadas por un número reducido de usuarios muy activos, mientras que sus desmentidos se distribuyen de modo más uniforme.

Por lo que refiere a la automatización de la detección de noticias falsas, el análisis de redes aplica la representación de grafos de conocimiento. Esta técnica permite utilizar el conocimiento generado y verificado colectivamente, como el que almacena la Wikipedia, a la comprobación de nuevos hechos. Un grafo de conocimiento contendría todas las relaciones entre las entidades referidas en esta enciclopedia colaborativa, representando las sentencias de tal modo que sujeto y objeto constituirían nodos enlazados por su predicado formando una red. De este modo, la veracidad de una nueva sentencia puede ser determinada dentro del grafo, siendo más alta si el camino que relaciona su sujeto y objeto dentro es suficientemente corto y no contiene nodos excesivamente generales.

Otras herramientas que utilizan medios computacionales para seguir la propagación de información y facilitar su verificación atendiendo a su contenido textual, la reputación de sus fuentes, su trayecto, etc., son RumorLens, FactWatcher, Twitter Trails o Emergent.info, estas implementadas en forma de aplicaciones o bots. Especial mención requiere la herramienta colaborativa facilitada por Ushahid Swift River esta utiliza metáforas como río -flujo de información-, canales -fuentes-, gotas -hechos-, cubo -datos filtrados o añadidos por el usuario- en una aplicación destinada al seguimiento y filtrado de hechos a tiempo real y la elaboración colectiva de sentido. En esta un usuario puede seleccionar una serie de canales -Twitter o RSS – para establecer un flujo de información que puede ser compartido y filtrado conforme a palabras clave, fechas o localización, pudiendo comentar los hechos y añadir datos adicionales.

La proliferación del uso de Internet ha llevado a una sociedad postdigital en la que estar conectado se ha convertido en un hecho constitutivo de nuestras identidades y entorno y en la que todo lo que ocurre en linea tiene consecuencias en nuestros entorno cultural y social reales. Esta proliferación se ha sucedido paralelamente a lo que la fundación Mozilla califica como la crisis velada de la era digital. La simplificación de herramientas y software y su centralización en los gigantes tecnológicos provocan ignorancia respecto a los mecanismos que rigen este medio, promoviendo usuarios pasivos e inconscientes de su participación en esta ecología. Internet ha supuesto un cambio en la producción de información, esta ya no procede de la autoridad de unas cuantas instituciones sino que es creada en un proceso colectivo. La adopción informada de estas y otras herramientas podría contribuir a desvelar los mecanismos en que se produce, distribuye y evalúa la información y contribuir a la alfabetización digital e informacional. La formación de un pensamiento crítico que nos hace participantes activos y responsables de la creación de conocimiento dentro una ecología que se enriquece con la participación de nuevas voces y en la que compartir es curar.





TranStoryApp

Una aplicación que integra el Internet de las cosas y el Transmedia Storytelling, con un módulo que incorpora un dron.


TranStoryApp, 2016 | Carlos A. Scolari | CC BY-NC-SA

Descripción

TranStoryApp© es la primera aplicación que integra el Internet de las cosas con el Transmedia Storytelling. Su uso es muy simple: el usuario selecciona un género (terror, fantasía, romántico, aventura, etc.) y StoryApp hará el resto. Todos los objetos que te rodean –siempre y cuando estén conectados con los estándares IEEE– se activarán para hacerte vivir en primera persona tu propia experiencia narrativa transmedia e inmersiva. Con el módulo StoryDrone© un pequeño dron grabará tu historia y podrás verla en tu pantalla favorita o compartirla con tus amistades.

Características

Categoría: Storytelling
Precio: Gratis
Actualización: 23 de abril de 2017
Versión: 5.3.2
Tamaño: 4.9 MB
Idiomas: Español, alemán, coreano, francés, inglés, italiano, japonés, ruso
Desarrollador: JLB_NOT_DEAD
©2017 JLB_NOT_DEAD Inc.
Compatibilidad: Requiere iOS 5.0 o posterior. Compatible con iPhone, iPad y iPod touch.

Valoraciones de clientes

2001 valoraciones
★★★★★





Monólogo interior de un teléfono móvil inteligente (y quemado)

Un teléfono móvil, que quisiera ser un teléfono inteligente, opina sobre el uso que hacemos de él.


Al Jolson usando un teléfono estilo candelabro, 1910 | Fotógrafo desconocido para Bain News Service | Sin restricciones de copyright conocidas

Las cosas tienen alma, tienen memoria, las cosas también tienen derechos, las cosas pueden comunicarse, pueden empatizar, las cosas también tienen derechos.
Joan Colomo, Les Coses (Sistema, 2016)

No puedo más.

Vomitaré, uno a uno, todos tus textos monosilábicos, escupitajos verbales: OK, GUAY, ASAP, KK, MOLA, FOTÓN, WTF, LOL. ¿Qué mierda sale de tu cerebro? Esperaba un poco más de ti. Hago memoria de tus primeras comunicaciones, más articuladas y enteras. Allá por 2004, cuando todavía hablabas claro y escribías estudiados mensajes de amor y tus amigos se alegraban al recibir noticias tuyas. Ahora eres un whatsapp más. Una pesada.

No te soporto.

Pienso explotar y airear en el ciberespacio y en el sistema de telecomunicaciones global toda la basura que acumulas en MI CASA en forma de memes, gifs y vídeos de bebés, perros y gatos que son como calcomanías (podrías sustituir el perro por el bebé y el vídeo sería idéntico). Por no hablar de los insufribles mensajes de campañas solidarias que compartes con TODOS tus contactos (¿de verdad crees que así cambiarás el mundo?). Deja de contaminarme.

Me estás haciendo daño.

Te pasas el día calentándome, restregando tus dedos sucios y aceitosos por mi piel, que es fina, cristalina y sensible y ya no soporta más golpes. ¿Cuánto tiempo hace que no cuidas de mí? He engordado a base de apps basura sin sentido que te descargas sin pensar. Tengo el cerebro al límite y, encima, tienes la poca vergüenza de chuparme toda la energía hasta dejarme fuera de juego. Yo creía que era inteligente, pero mientras esté en tus manos, no tengo futuro.

Smartphones del mundo, unámonos.





Definición Flaubertiana

Variaciones de la definición de Internet de las cosas, según adoptemos la visión de los objetos, las corporaciones, las administraciones o los ciudadanos.


GIF a partir de la obra «Bodegón con cacharros» de Francisco de Zurbarán (c. 1650) | Ferran Esteve | BY-NC-SA 4.0

  1. Def. Es la necesaria conexión de tu lavadora con tu móvil, tu coche y el alumbrado público de tu calle. Un gran avance desde la unión de una máquina de coser y un paraguas sobre la mesa de disección de los surrealistas.
  2. Def. Según la historia corporativa de Internet, que sucede en el futuro, es una maravilla.
  3. Def. Según la visión de las administraciones locales, es otra forma de generar concesiones a corporaciones dentro del discurso de la mejora de la gestión de la ciudad gracias a la tecnología. La tecnología son todos los sensores que se fabrican esas corporaciones y  todos los sistemas de información que los controlan. También es una condición para estar en esto que mola en ciudades, lo de las smart cities.
  4. Def. Según los ciudadanos tecnoconcienciados, es un escenario foucaldiano-orwelliano que incorpora aquella parte de la ideología californiana centrada en el control y la explotación de la vida a través del dispositivo. Según un dicho muy popular entre estos tecnociudadanos, todo esto se contrarresta y resuelve con la apropiación de estas mismas tecnologías por los ciudadanos smart que cooperan creando un Commons de datos y dispositivos.
  5. Def. Buzzword número 254644 de la era de Internet.

Internet de las cosas, 2016 | Ferran Esteve | BY-NC-SA 4.0

Ramón Sangüesa es el autor del texto y Ferran Esteve ha ilustrado las imágenes.





Multicine

Un cine inteligente donde la proyección la autogenera un algoritmo controlado por las emociones y las respuestas, monitorizadas, del público.


Espectadores con gafas 3D, 1980-1995 | Burns Library, Boston College | CC BY-NC-ND 2.0

La multipelícula se emitía cada jueves a las cuatro de la tarde. Ese jueves un fallo en el registro en línea había permitido la entrada a un grupo demasiado numeroso de restauradores de papel de Hollowbridge, que estaban allí más por refugiarse del intenso calor que por lo que se anunciaba como el mayor éxito del cine autogenerado. La proyección, creada mediante un algoritmo diseñador de historias y personajes controlado por las emociones del público, satisfacía de media al 75% de la audiencia –veinte puntos por encima de los logros del cine convencional– para orgullo del primer equipo de programadores que había conseguido interpretar con sentido único las lecturas de multitud de sensores de movimiento, pulso y sudoración acoplados a las butacas. El aire acondicionado se encargaba de templar las respuestas de la sala en caso de que una excesiva disparidad en el registro de emociones mantuviera al algoritmo en un bucle de situaciones posibles sin optar por un giro argumental decisivo. A las cinco de la tarde, y sin contar con la ayuda de un aire acondicionado dedicado en exclusiva a combatir las altas temperaturas, el algoritmo tuvo que enfrentarse en solitario a la tarea de elegir el camino al desenlace, lo que consiguió, y con una eficiencia sin precedentes, gracias a la tan extraordinaria como inesperada homogeneidad de los espectadores de ese día. Los pocos que no pertenecían al grupo de Hollowbridge comenzaron a abandonar la sala pasadas las seis y media, pero el sistema parecía haber dado con la trama perfecta para todos los demás, que no encontraron razón para levantarse de sus asientos. Y allí siguen, insensibles a las imágenes que les llevaron a la gloria y que se suceden ahora tan monótonas como ellos, en perfecto estado gracias a un aire acondicionado forzado a operar a dieciocho grados bajo cero. Los familiares de las víctimas han solicitado ser satisfechos así por los perjuicios de la pérdida.





La cosa

Un relato breve sobre cómo llegamos, sin darnos cuenta, a un mundo de sensores y conexión permanente.


Fotograma de «Creature from the Black Lagoon», hacia 1953. Negativo en blanco y negro, 4 x 5 pulgadas | State Archives of Florida, Florida Memory

Empezamos a llamar La Cosa a La Cosa mucho antes de que realmente fuera La Cosa. Quiero decir que «El Internet de las cosas» era muy largo y que «La Cosa» era su forma abreviada y natural. Cuando ya nos habíamos acostumbrado a dividir el mundo entre la realidad física y la pixelada, los sensores se multiplicaron. Al principio era fácil, porque estaban fuera de nosotros: en el móvil, en las gafas, en el reloj, en la pulsera, en la ropa. Podías desconectarte. No estabas impregnado. Pero entonces llegaron las lentillas y los implantes y, sobre todo, la membrana. Durante cuatro o cinco años fue como una funda elástica: así, los sensores realmente podían recoger información directa de todos tus poros, de todos tus vasos sanguíneos, de todos y cada uno de tus órganos. Pero la verdad es que daba calor en verano y que las versiones más baratas eran un poco incómodas, de modo que a un genio se le ocurrió el formato spray y, nada, en la misma ducha, después de secarte, te repasas con la membrana y durante 24 horas estás literalmente cubierto. Embadurnado. Emitiendo. Entonces sí fue La Cosa, pero ya hacía mucho tiempo que llamábamos así a nuestra conexión permanente, a la pantalla indiscernible de la piel. En algún momento una viñeta de La Cosa del Pantano se hizo viral y nos ayudó a comprender lo que había pasado. La expresión ganó capas de mugre y de significado. El dibujo es un primer plano de la cabeza musgosa, los ojos muy rojos, el verde chorreando, que dice: «No sé dónde termino yo y dónde comienza el pantano». En efecto. No sabías si era un héroe o un monstruo. No sabías hasta qué punto era la persona que fue, el monstruo que ahora era o, sobre todo, ese pantano que lo penetraba hasta la médula de los huesos. Y lo constituía. No sabías nada. Siglos pensando en robots y en cíborgs, pero no en bichos viscosos y eso era en lo que nos habíamos convertido. La verdad es que pronto dejó de importarnos.





El Mundo todo-conectado del Internet de las cosas

Una infografía que explica qué es y cómo funciona el Internet de las Cosas, así como sus efectos, pros y contras.


Fuentes

Daniel Burrus. The Internet of Things Is Far Bigger Than Anyone Realizes (Wired, 2014)

Dave Evans. The Internet of Things How the Next Evolution of the Internet Is Changing Everything (CISCO, 2011)

David Pierce. The Internet of Things Is Everywhere, But It Doesn’t Rule Yet (Wired, 2015)

Gartner Says Smart Cities Will Use 1.6 Billion Connected Things in 2016 (Gartner, 2015)

Internet of Things (CISCO, 2016)

IoT Company Ranking | Q3/Q4 2015 (IoT Analytics, 2015)

Postcapes

The Internet of Things (The New York Times, 2014)

The Internet of Things: Sizing up the opportunity (McKinsey, 2014)

The IoT World of Telefónica

The Internet of Things Is Poised to Change Everything, Says IDC (Business Wire, 2013)  

The top 10 IoT application areas – based on real IoT projects (IoT Analytics, 2016)

Top 20 IoT companyies | Q2/2015 update (IoT Analytics, 2015)

Unlocking the potential of the Internet of Things (Mckinsey, 2015)

(*) Algunos de los iconos usados fueron creados por Freepik y Madebyolive de flaticon.com





Ramon Llull y el pensamiento en red

¿Qué es Ars Magna? ¿Qué alcance tenía el sistema lógico-conceptual de Ramon Llull? ¿En qué lenguaje hablaba? ¿Qué mundo permitía crear?


ENIAC fue el primer dispositivo Turing completo que realizaba cálculos de trayectoria balística para el Ejército de los Estados Unidos. Wikipedia. Dominio público.

¿Qué es Ars Magna? ¿Qué alcance tenía el sistema lógico-conceptual de Ramon Llull? ¿En qué lenguaje hablaba? ¿Qué mundo permitía crear? ¿Qué impacto ha tenido en los sistemas lógicos modernos? ¿Qué quieren decir Siegfried Zielinski y Peter Weibel cuando nos afirman que el pensamiento en red abanderado por Ramon Llull ha influido en la concepción de los nuevos media?

El camino que lleva de Ramon Llull a Alan Turing es largo, complicado y lleno de proyecciones condicionadas por la cosmovisión propia de nuestro tiempo. Pero, a pesar de que no todos los estudiosos del filósofo ven a Ramon Llull como un precursor de la informática, sí existe consenso en considerar el Ars Magna —esta obra cerrada hacia 1308 que el pensador presentó en varias fases y versiones simplificadas— como un puntal de la combinatoria y del pensamiento en red.

¿Y qué es el Ars Magna?, os preguntaréis algunos. Pues, a nivel material, son unas figuras, algunas de ellas formadas por discos giratorios que se podían recortar y construir en papel, que permitían desplegar una retahíla de argumentos para confirmar o refutar una proposición original. A nivel conceptual, se trataba de un sistema lógico que debía servir al filósofo para varias cosas: para entender el conjunto de la realidad sin que le quedara ningún elemento para ubicar en el entramado del mundo y así poderlo comprender todo y para superar las barreras del lenguaje para validar o refutar los argumentos expresados en los debates teológicos, científicos y humanísticos de su época. Con este método lógico, Ramon Llull también quería —y este es el tema de este debate inaugural— ir construyendo oraciones complejas conectando conceptos. Pero, ¿hasta qué punto eso es posible?

Según el helenista Raül Garrigasait, el propio Ramon Llull sabía que el arte por sí mismo no podía generar ningún discurso, que la aplicación del arte siempre requiere de una imaginación humana —una imaginación literaria, si lo que se desea es hacer literatura. El arte era una técnica con la que podía hacer operaciones lógico-combinatorias utilizando conceptos, pero no le permitió nunca crear situaciones dramáticas complejas. No deja espacio para los implícitos, las figuras retóricas, la memoria que cargan las palabras, la complicidad de los universos mentales en contacto. En el arte no hay lugar para los elementos que hacen posible superar la letra y crear espacios simbólicos para que con la ayuda del lector ocurra lo inesperado. Por excelente que sea un método de formalización y mecanización, siempre existirá la imaginación humana.

El teórico de los medios alemán Siegfried Zielinski destaca otro aspecto del arte: nos recuerda que para Llull existe un vínculo total entre la realidad y la palabra; una correspondencia entre la estructura del mundo y el pensamiento que tenemos que imaginar como una especie de red por la que podríamos transitar. Según Zielinski, muy influido por la vasta bibliografía de Amador Vega, el arte posee una característica que lo convierte en un método único: la capacidad de captar a la vez los aspectos estáticos de la realidad y de proyectar sus aspectos dinámicos. Es por ello, dice él, que si lo estudiamos y pensamos en él nos da una sensación multimedia.

También Peter Weibel, teórico del arte y rector del centro de referencia ZKM de Karlsruhe, se ha dedicado a reseguir la huella del Ars Magna en algunos sistemas lógico-matemáticos que han venido después. Y no duda en absoluto: la intuición de Llull, según la cual las ideas pueden traducirse a un lenguaje formal, y todo lenguaje formal puede mecanizarse, es revolucionaria. Por ello, anticipándose más de seis siglos a las tesis de Alan Turing, se convertiría en uno de los fundadores de la algorítmica y de la revolución digital.

Bibliografía





Libertad y privacidad en la web

El crecimiento exponencial de datos y su control a debate, entre los intereses privados de las compañías y los derechos de los usuarios.


Berlín, agujero en la pared en el Reichstag, 5 de febrero de 1990. Hartmut Reiche, WikipediaCC-BY-SA 3.0.

La circulación de datos masivos nos afecta diariamente. Los datos personales son material sensible, información y poder que rutinariamente las compañías electrónicas extraen del entorno digital de forma ilícita. Tal y como demuestran miles de activistas en la web, la recogida de metadatos es una estrategia de vigilancia masiva global que llega incluso a la estrategia de los mismísimos gobiernos. Ante este panorama, Internet ha dejado de ser el espacio de anonimato y libertad de los comienzos, para convertirse en un campo monitorizado de extrema vigilancia. El tráfico de datos pone a los usuarios en cautela, subraya la necesidad de defender la privacidad como valor social que garantice nuestros derechos y libertades en la red.

Orígenes del concepto

Aunque la palabra privacidad es usada frecuentemente tanto en el lenguaje diario como en discusiones filosóficas, políticas y legales, no hay un significado definitivo del término. El concepto ha significado cosas diferentes para diferentes personas en varias épocas.

Se dice que la privacidad como la entendemos nosotros solo tiene 150 años. Sabemos que los seres humanos tienen un deseo instintivo por su privacidad. Sin embargo, durante tres mil años, las diferentes culturas casi siempre han priorizado la protección y la riqueza sobre la privacidad. Muchos antropólogos, entre ellos Margaret Mead, han demostrado las formas en que muchas culturas la protegen. El valor de la privacidad es común a todas, aunque lo que cada una considera ámbito de lo privado puede variar. El derecho a la privacidad estaba reconocido en la antigua Atenas. Aristóteles distinguía entre la polis, una esfera pública que correspondía a la vida de actividad política, y el oikos, un ámbito que correspondía a la vida privada. En la Inglaterra del siglo XVIII, en las Cortes, en casos relacionados con demandas inusuales sobre la propiedad privada fue donde se establecieron los primeros parámetros de lo que se convertiría en el derecho a la privacidad. La distinción público/privado también está reflejada por John Stuart Mill y John Locke.

En 1890 en Estados Unidos, Samuel Warren y Louis Brandeis publican un famoso ensayo llamado The Right to Privacy, que disparó un debate sistémico sobre el tema. Se enfocaban en la invasión de la privacidad que se comenzaba a experimentar a través de inventos recientes como la fotografía y la prensa. Warren y Brandeis citaban el derecho de no ser molestado o de no ser observado (the right to be let alone), y consideraban que una variedad de casos podían ser protegidos bajo un derecho más general a la privacidad, que abarcaría los pensamientos, sentimientos y emociones que pudieran ser compartidas con otros. Warren y Brandeis echaron los cimientos para un concepto de la privacidad que vino a ser conocido como el control sobre la información de uno mismo.

Una buena forma de categorizar los conceptos de privacidad es considerar todos los debates que existen en torno a ella:

  1. El derecho a no ser molestado
  2. La opción de limitar el acceso que otros tienen a la información personal de uno
  3. El secreto, o la opción de ocultar información a otros,
  4. El control sobre el uso que hacen otros de la información sobre uno mismo
  5. Los estados de privacidad: soledad, intimidad, anonimato y reserva
  6. La privacidad como ámbito de la persona (personeidad) y autonomía
  7. La privacidad como requisito para la identidad propia y el crecimiento personal
  8. La intimidad.

La escritura, la imprenta, y aún mucho más, la difusión a través de medios tecnológicos modernos hacen que empiece a haber mucha más información mediada. La privacidad ya se ha convertido en una preocupación y un derecho que debe ser defendido.

Big data

Los avances en desarrollos electrónicos, la multiplicación de la velocidad de procesadores, el abaratamiento del coste de sensores y la posibilidad de procesar grandes bases de datos han hecho que abunden los registros de casi cualquier tipo de datos, y que analizarlos con software ya no sea privativo de grandes corporaciones o gobiernos, sino que esté al alcance de casi cualquier persona o institución.

Los corpus de datos crecen rápidamente porque los datos son recolectados por un número creciente de dispositivos, que son cada vez más baratos y numerosos: móviles con sensores, dispositivos aéreos, registros automáticos de programas de computación (logs), cámaras, micrófonos, lectores de identificación de radiofrecuencias (RFID) y redes inalámbricas de sensores, entre otros. La capacidad mundial per capita de guardar información se ha multiplicado por dos aproximadamente cada 40 meses desde los años ochenta. En 2013 se estima que la cantidad total de información almacenada en el mundo es de alrededor de 1200 exabytes, de los que menos del 2% es no digital.

Cuando hablamos de lo que se puede hacer con estos datos, la escala es tan grande que los análisis permiten resultados que de ninguna manera podríamos obtener con muestras más pequeñas. Podríamos establecer una analogía con la nanotecnología: cuando se alcanza el nivel molecular, las propiedades físicas pueden alterarse. A la inversa, cuando aumentamos la escala de datos con los que trabajamos podemos hacer cosas nuevas que no eran posibles cuando trabajábamos con cantidades más pequeñas o con muestras que podían estar sesgadas.

Gracias al procesamiento de datos masivos hemos logrado decodificar el genoma humano. Algo que originalmente tomó 13 años y más de 3 mil millones de dólares para procesarlo, ahora puede ser logrado en menos de un día por menos de 1000 dólares. Estos avances permiten diagnosticar enfermedades incluso antes del nacimiento y abren nuevas puertas a la investigación del cáncer y otras enfermedades.

Hay otros casos de análisis de datos que nos hacen sentir un poco incómodos, sobre todo cuando vemos implicados nuestros datos personales. Un estudio presentado en marzo de este año por científicos de datos de Stanford mostró cómo solo los metadatos telefónicos podían arrojar una cantidad sorprendente de información sensible (como datos sobre la salud) de las personas. Se analizaron los registros de más de 250.000 llamadas y 1,2 millones de mensajes de texto de 800 voluntarios. Los investigadores pudieron inferir, por ejemplo, que una persona padecía una arritmia cardíaca, o que otra tenía en su casa un rifle semiautomático.

Edward Snowden

Es en este escenario de datos masivos en el que una mañana de junio de 2013, un exanalista de la NSA reveló al mundo la vigilancia masiva global sobre la ciudadanía por parte de la agencia estadounidense en cooperación con sus contrapartes de Australia, Reino Unido y Canadá.

El tipo de vigilancia revelado excedió todo lo que una mente conspiranoica podía imaginar, y confirmó no solo la recogida masiva de todo tipo de metadatos de comunicaciones electrónicas, sino también su contenido y la posibilidad de acceder a cualquier comunicación en cualquier momento. Edward Snowden publicó y sigue publicando miles de documentos internos de la NSA y la CIA que prueban sus revelaciones.

Snowden describió uno de los programas de la NSA diciendo: «Yo, sentado en mi escritorio, podría pinchar el teléfono de cualquiera, desde ti o tu contable, hasta un juez federal o incluso el presidente, si tuviera su email personal». Y eso solo con los teléfonos. Recordemos que la NSA tenía instalados accesos traseros (backdoors) en routers e incluso en los servidores de compañías que manejan los datos privados y las comunicaciones a diario en Internet de la mayoría de ciudadanos: Facebook, Google, Apple, Yahoo.

Las revelaciones de Snowden inauguraron una nueva etapa en la que Internet ha dejado de ser aquel espacio de anonimato y libertad de los comienzos. El llamado efecto Snowden tuvo impacto en lo político, pero, sobre todo, en lo económico. La falta de confianza en las compañías estadounidenses hizo que los usuarios se volcaran en firmas extranjeras. Daniel Castro, analista en la Information Technology and Innovation Foundation, estimó que la industria del cloud computing estadounidense podía perder 35 mil millones de dólares para 2016.

Las compañías tecnológicas comenzaron a sentir la presión de sus usuarios y entendieron rápidamente que debían ponerse de su lado si no querían perderlos: WhatsApp anunció el cifrado por defecto de todos sus chats, Google impulsó el HTTPS y otras funcionalidades de seguridad más para sus usuarios, así como una política de información para la privacidad en sus servicios, y la actualización del sistema operativo de Apple iOS 8 incluyó cifrado para todo lo que lleva adentro el teléfono.

Analistas de seguridad estiman que las empresas tecnológicas han invertido colectivamente millones o posiblemente miles de millones de dólares en desarrollos de última generación para el cifrado de los servicios de sus usuarios. La seguridad comenzó a ser una feature.

CCTV humana – Máscara de privacidad de Brett Wilde. No CCTV, CC-BY-NC 3.0.

Públicos por defecto

El debate seguridad nacional versus privacidad se reabrió, en un momento en que millones de personas hacen públicos sus datos en Internet y la cantidad de teléfonos móviles ha sobrepasado a la cantidad de personas en el planeta. Estamos en una época en la que somos públicos por defecto y privados a través del esfuerzo (la frase es de Dana Boyd).

Según encuestas hechas por el Pew Research Center, una gran mayoría piensa que los consumidores hemos perdido el control de nuestra información personal. Muchas personas han tomado una actitud de distancia ante el tema diciendo «que me espíen, yo no tengo nada que esconder». Ese argumento es falaz y ha sido introducido hace años ya por los dueños de algunas empresas que hacen dinero usando nuestros datos. Uno de ellos fue Mark Zuckerberg, cuando, tras hacer más permisivas por defecto las opciones de privacidad de Facebook, recibió una lluvia de críticas de usuarios enfadados, y declaró a The Guardian que la privacidad ya no era una «norma social».

El «no tengo nada que esconder» se desarma fácilmente con la respuesta que dio Snowden: «Argüir que no te importa el derecho a la privacidad porque no tienes nada que esconder no es diferente a declarar que no te importa la libertad de expresión porque no tienes nada que decir».

Glenn Greenwald explicó en una recomendadísima TED Talk que «es esencial para el ser humano tener un lugar donde podemos ser libres de los ojos juiciosos de otra persona», y la razón por la que buscamos esto ‒todos, no solo terroristas, todos nosotros‒ es porque todos tenemos cosas que esconder. Aquellas cosas que solo estamos dispuestos a decirle a nuestro médico o psicólogo o esposa, porque nos mortificaría que el resto del mundo lo supiera.

La libertad está muy relacionada con el derecho a la privacidad. Cuando estamos en un estado en el que sabemos que somos vigilados, nuestro comportamiento cambia drásticamente. La gama de opciones de actuación que consideramos cuando pensamos que nos observan se reduce severamente. Este hecho de la naturaleza humana ha sido reconocido en la ciencia social, en la literatura y en la religión. Hay docenas de estudios psicológicos que demuestran que solo porque una persona piense que está siendo observada, su comportamiento es enormemente más conformista y complaciente.

Muchos autores coinciden con el valor de la privacidad como prerrequisito para el desarrollo de un sentido de identidad propia y el desarrollo de la personalidad. Las barreras de la privacidad son instrumentales en este proceso, ya que definen los límites del yo.

Hay un consenso general en los investigadores en que la importancia de la privacidad está siempre justificada por los intereses que protege: información personal, espacio personal, elecciones personales, protección de la libertad y autonomía en una sociedad democrática.

La literatura más reciente ha extendido esta visión y ha enfocado el valor de la privacidad no solamente en los intereses individuales que protege, sino también en su irreductible valor social. Según Daniel Solove, el valor de la privacidad debería ser entendido en términos de su contribución a la sociedad. Solove sostiene que la privacidad promueve y alienta la autonomía moral de los ciudadanos, un requisito fundamental de una democracia. Una sociedad sin respeto por la privacidad de uno y de los demás se convierte en una sociedad asfixiante.





¿Quién salvó la red?

Entender Internet como bien común, implica garantizar a los ciudadanos el derecho a la libre expresión, a la privacidad y al acceso.


Pintores suspendidos en los cables del puente de Brooklyn, Octubre 1914. Eugene de Salignac – NYC Muncipal Archives. Dominio público.

Nos estamos ahogando en visiones distópicas de Internet llenas de ataques a la privacidad, la libertad de expresión y la seguridad personal que eran impensables hace solo una década. Algún día, echaremos la vista atrás y nos preguntaremos: ¿quién salvó la red? Y nos acordaremos de que fue necesaria una combinación de brillantes educadores, hackers e innovadores, activistas globales y dedicados legisladores para proteger una de las creaciones humanas más importantes y prometedoras de todos los tiempos.

De repente, la red estaba ahí. Para quienes recuerdan una época antes de la red, hará unos veinticinco años, conectarse por primera vez fue como recibir un pasaporte para un nuevo mundo.

El número de páginas web era todavía tan pequeño que podías organizarlas por índices temáticos. Sentías que estabas contribuyendo a la grandeza cada vez que creabas una página web o publicabas un comentario. No solo estábamos explorando un nuevo mundo, lo estábamos creando juntos. Hoy en día, la gente está creando, subiendo y compartiendo información como nunca antes, pero la red es tan vasta que nuestras contribuciones individuales parecen una gota en el océano. Nuestras aportaciones son solo valiosas durante un rato, antes de ser inundadas por otras imágenes, sonidos e impresiones.

Cualquiera que llegue a la red por primera vez hoy se verá confrontado por su enormidad. ¿Cómo puede algo tan grande haber sido tan pequeño? Damos por sentado la existencia de Internet. No valoramos la suerte que representa que fuera diseñado para ser algo tan libre y tan abierto que cualquiera pudiera hacer una página web o enviar un correo electrónico, o que cualquiera pudiera describir una injusticia y tener oportunidades reales de ser escuchado en todo el mundo. No acabamos de entender cómo funciona, de dónde viene y por qué tenemos que protegerlo. Algunos de nosotros ni siquiera sabemos que hay Internet más allá de Facebook.

Como los océanos, la red está contaminada. Hemos permitido que todo tipo de grandes industrias y alcantarillados contaminen sus aguas. Y al igual que hacen los movimientos medioambientales por todo el mundo, ahora necesitamos aclarar de dónde proviene el daño, educar a la gente sobre lo que está en riesgo y trabajar en el desarrollo de los marcos regulatorios que permitirán proteger los delicados ecosistemas de la red.

Actualmente, hay mil millones de páginas web en el mundo. Pero cerca del 75% están inactivas y la mayoría del 25% restante apenas son visitadas por humanos. Ni siquiera sabemos si fueron creadas por humanos. Los robots ordenador han sido programados para aprovechar cualquier posible nicho de beneficio económico a través de la publicidad en línea, las páginas web con spam y la ciberocupación. Las empresas de publicidad nos rastrean y vigilan mientras navegamos, ralentizando nuestros movimientos. Los buscadores que utilizamos están controlados por algoritmos que favorecen el contenido de las páginas más populares (y las que más pagan) de una forma que perpetúa su éxito. No hacemos clic en los enlaces, no exploramos para buscar otras perspectivas.

Como consumidores, pasamos la mayoría de nuestro tiempo en línea usando aplicaciones gratuitas y redes sociales que nos animan a permanecer en recintos controlados, donde se puede rastrear nuestra actividad y mantenernos entretenidos con vídeos, sensacionalismo político, cotilleos y todo tipo de contenido goloso.

Todo el mundo debería tener acceso a Internet, ya que en las condiciones adecuadas la red estimula el crecimiento económico y el conocimiento. Es en ella donde las nuevas empresas despegan, donde la transparencia y la eficiencia de los gobiernos está creciendo. Es la plataforma más importante para la cultura global y la información, donde los discursos oficiales coexisten con las historias personales de la gente y donde una educación universitaria gratuita está disponible para cualquiera que tenga el tiempo y el interés. Es donde la gente se empodera para tomar mejores decisiones acerca de su salud y donde puede buscar consejo de sus colegas para prosperar en cualquier ámbito laboral. Ha hecho el mundo más pequeño, ha cambiado el equilibrio de poder entre los ciudadanos y los gobiernos y ha posibilitado las comunicaciones diarias entre fronteras.

Pero dependiendo de cómo se expanda, Internet podría llevarnos por caminos más distópicos. A las compañías de teléfono les gustaría vender el acceso a distintas partes de la red a distintos precios, ralentizando y acelerando el acceso a determinado contenido con fines comerciales. Los gobiernos que temen las influencias externas quieren crear sus propias versiones de la red, o al menos poder encenderla y apagarla a su voluntad. La censura está en auge y la vigilancia en nombre de la seguridad nacional no conoce límites. La información personal y los números de tarjetas de crédito se ven expuestos sistemáticamente por hackers que tienen en su punto de mira a los bancos, a los servicios comerciales y a varias bases de datos de gobiernos.

El informante estadounidense Edward Snowden le hizo al mundo un enorme favor en 2013 al demostrar que la vigilancia masiva de nuestras comunicaciones globales y nuestras ubicaciones es una realidad. Pero muy poco ha cambiado en consecuencia. Se nos ha hecho creer la cantinela de que la tecnología es neutral, que no tenemos nada que esconder y que se nos dan cosas gratis sin ningún compromiso. La privacidad por fin se ha convertido en una preocupación popular a escala mundial, pero mucha gente teme que ya sea demasiado tarde.

Los riesgos son infinitos cuando consideramos que Internet atraviesa casi todos los aspectos de nuestras vidas. Llevamos encima el móvil allá adonde vayamos, nuestros hogares están repletos de “cosas” que se conectan a Internet, incluidos los altavoces y los sistemas de electricidad. Nuestras ciudades también se están volviendo más “inteligentes”, con cámaras de vigilancia que detectan movimientos, coches que se conducen solos y sortean obstáculos, y un cuerpo de policía que intenta detener los crímenes antes de que se cometan. Hasta el aire que respiramos está contaminado por la huella de carbono de los servicios globales de Internet.

Todo el mundo está implicado en lo que pasa. Incluso los cuatro mil millones de personas que todavía no tienen acceso a Internet pronto verán sus huellas dactilares registradas y almacenadas en bases de datos en línea, de propiedad gubernamental y controladas por las grandes empresas. Los datos biométricos de más del 90% de la población adulta de India se añadieron a una base de datos nacional en línea antes siquiera de que hubiera una normativa que regulara cómo emplear esos datos, si la gente necesitaba dar su consentimiento, y cómo gestionar el uso indebido.

En casi cualquier ámbito, resulta evidente la lentitud de la regulación de derechos en comparación con la velocidad del cambio tecnológico. Ni el propio Internet tiene un documento fundacional o una constitución. El inventor de la red, Sir Tim Berners-Lee, sostiene que deberíamos tener una “Carta Magna para la red” que se pusiera en práctica a escala global. Ya hay bastante gente que ha hecho propuestas semejantes durante los últimos años, de manera que los investigadores del Berkman Center for the Internet & Society de Estados Unidos acaban de terminar un estudio que compara 30 intentos de redactar una “constitución digital”.

Los tres principales derechos que aparecen en todos los documentos son:

  1. La libertad de expresión
  2. El derecho a la privacidad
  3. El derecho de acceso a Internet

La existencia de una Carta Magna o unos estatutos populares de Internet, además de la declaración de Internet como derecho humano, serían útiles para plantear un discurso global, pero necesitamos que suceda mucho más. Para bien o para mal, los países siguen el ejemplo de otros países. Necesitamos que los estados democráticos que crean en la libre expresión prediquen con el ejemplo y dejen de perpetuar un doble rasero en lo referente a la vigilancia masiva y la dirigida a individuos que no han sido acusados de ningún crimen. El derecho a la privacidad debería ser válido para todo el mundo, siempre.

En todas las sociedades, necesitamos que los legisladores luchen por la neutralidad de red, que es el principio por el cual todo el contenido en línea se debería mostrar en igualdad de condiciones respecto al resto. En un estudio que examina las regulaciones relativas a la neutralidad de red en distintos países, Chris Marsden, de la Universidad de Sussex, afirma que es crucial orientar las empresas de Internet móvil en la dirección adecuada. En junio, un tribunal federal de Estados Unidos dictó que Internet debe ser tratado como un bien público, igual que el agua o la electricidad, algo a lo que todo ciudadano del país debería tener acceso.

Necesitamos que las organizaciones de derechos del consumidor de todo el mundo luchen para que se implementen estándares de protección de datos y para que se protejan los derechos individuales. También necesitamos que se expliquen con transparencia los algoritmos que afectan a nuestras vidas —en la banca, en las noticias en línea y hasta en Facebook—. No hay ningún aspecto de la expansión digital sobre el que podamos bajar la guardia como ciudadanos y consumidores.

Una explosión en el número de propietarios de teléfonos móviles representa la promesa de conectar a mucha de la gente más desfavorecida del planeta (el 80% de África sigue sin tener acceso a Internet), pero muchos gobiernos se han dado prisa para obligar al registro individual de las tarjetas SIM, lo que complica la comunicación privada. Mientras tanto, cuesta imaginar que la próxima gran innovación de software o la próxima gran plataforma web vaya a ser creada desde un teléfono móvil. Con independencia de dónde esté, la gente necesita tener acceso a ordenadores y a una alfabetización digital. Por suerte, los movimientos de la sociedad civil de todo el mundo están empezando a incorporar la lucha por los derechos digitales, en paralelo a sus luchas por los derechos de las mujeres, de los estudiantes, de libertad de prensa, de paz y casi de cualquier otra causa.

La red es un gran elemento democratizador, pero siempre y cuando persistan divisiones digitales, también puede acabar reforzando prejuicios sociales e injusticias. Las políticas TIC adoptadas a escala internacional para favorecer un acceso a Internet más rápido y asequible, bajando los impuestos al sector tecnológico y estimulando la competición entre las empresas de telecomunicaciones, tienen que estar escritas de forma respetuosa con los derechos humanos (véase la Declaración Africana de Derechos Digitales), y tienen que apoyar especialmente a las mujeres y a los ciudadanos de zonas rurales para conseguir acceso a la red. Todas esas medidas deben ser compartidas y discutidas en público.

Valga todo esto para decir que hay esperanza para Internet. Necesitamos prevalecer frente al mal comportamiento que amenaza con dañarnos y debemos proteger las partes de la red que son más importantes para nosotros. Durante demasiados años, Internet ha sido algo que usábamos, no algo sobre lo que aprendíamos en el colegio. Todo el mundo tiene que aprender que tenemos el deber cívico de proteger la red y hacerla un espacio mejor.

Necesitamos participar en las expresiones en línea del idioma local, en las noticias, la literatura, la música y la cultura, y seguir luchando por un Internet más rápido y asequible para la gente que todavía no ha llegado a él. La red representa la televisión, el periódico, la biblioteca y el archivo global de nuestro pasado y nuestro futuro. Todos somos responsables de ella y, tal y como en su día la creamos, ahora también podemos arreglarla.





Las claves de Bitcoin y Blockchain

Bitcoin y Blockchain son una nueva generación de sistemas en Internet sin intermediarios, servicios financieros más justos, transparentes y accesibles.


El Tesoro de EEUU, el segundo paso en la destrucción del papel moneda. Máquina de cortar billetes por la mitad, 1914. Negativo de vidrio de la National Photo Company Collection. Fuente: Shorpy.

Algunos dicen que Bitcoin es la tecnología más disruptiva de Internet, después de Internet. Creo que no es una exageración. El secreto está en Blockchain, la red que sostiene la economía Bitcoin, una red capaz de transportar, además de monedas virtuales, toda clase de ítems digitales. Si con Bitcoin desaparece el concepto de banco central que acuña monedas, con otros ítems digitales se descentralizarían los servicios que expiden credenciales de identidad personal, los votos, los diplomas educativos, los certificados médicos, entre otros «certificados de propiedad». Y así comenzaría la desaparición de la burocracia, por lo menos en su monstruosa forma actual.

Qué es Bitcoin

Bitcoin es todo lo que el dinero es: en él se depositan y contabilizan valores, es intercambiable por casi todo tipo de bienes y servicios, nada más que no se transporta de mano en mano ni se acuña ni regula por un banco central. Por el contrario, Bitcoin se transporta bit a bit por las redes de Internet, y se crea y valida por sus usuarios.

Las monedas y los billetes, las tarjetas de débito y las transferencias electrónicas, son distintas formas de dinero; Bitcoin también lo es: mientras divisas como el euro o el dólar están respaldadas por el gobierno que las emite (dinero fiduciario), Bitcoin genera su valor a través de un sistema computacional que simula el minado de materias primas.

Es difícil creer que algo en apariencia tan intangible como Bitcoin actualmente nos permita comprar pizzas o reservar habitaciones de hotel. Sin embargo, insisto, Bitcoin es dinero como cualquier otro, por lo menos lo es en sus aspectos fundamentales.

Por otro lado, no olvidemos que, al igual que en la realidad física, en el terreno digital todo es un remix, así que Bitcoin es la culminación de una serie de tecnologías financieras y digitales, desde el bit gold de Nick Szabo hasta sistemas centralizados como PayPal, con ingredientes matemáticos únicos inspirados en viejos referentes como el trueque y la minería de metales preciosos.

Lo que hace especial a Bitcoin es que es una moneda viva que cambia y evoluciona todos los días, une código y conocimiento igual que Wikipedia, igual que todo Internet. Pero, ¿qué fue lo que hizo a Bitcoin tan popular y misterioso a la vez? En mi opinión, tuvo que ver la conjugación de tres partes:

  1. Una crisis. Bitcoin nació en medio de la devastadora crisis financiera de los Estados Unidos en 2007. Una crisis que demostró la fragilidad de las instituciones financieras causada por su profunda corrupción (la película The Big Short relata esta crisis de manera extraordinaria).
  2. Una oportunidad tecnológica. Bitcoin no resultaría práctico con la tecnología de hace quince años. Sin embargo, para 2008 estaba en marcha una combinación apropiada de tecnologías, principalmente software libre, aunque también hardware suficientemente poderoso para generar los primeros bitcoins y luego escalar fácilmente con equipos de cómputo súper especializado, como los equipos de Butterflylabs.
  3. Una leyenda. Bitcoin fue creado por un genio inescrutable llamado Satoshi Nakamoto, el personaje perfecto de un thriller tecnológico al estilo de los creadores de Matrix, un líder técnico con un discurso político preciso. Un líder que no existe salvo por las robóticas conversaciones que sostuvo con algunos programadores a partir de 2008 y hasta 2010 cuando desapareció de Internet. Nakamoto se fue de Bitcoin dejando cuatro legados:

CC-BY BTC Keychain.

Qué es Blockchain

Olvidando su complejidad matemática, pensemos en Blockchain como un enorme libro de cuentas donde están registradas de manera pública todas —¡todas!— las transacciones de la economía Bitcoin. Esto nos permite saber a quién le pertenecen cada uno de los bitcoins generados a la fecha —sin romper el principio de anonimato, pues Bitcoin utiliza pseudónimos—. Esto ocurre todo el tiempo, puedes corroborarlo en Blockchain.info.

¿Qué hace a Blockchain una de las tecnologías más promisorias de la actualidad? Porque se convirtió en una maquinaria descentralizada, automática y masiva que produce… confianza. La misma confianza que sostiene cualquier moneda y su economía, incluida la de Bitcoin.

Satoshi Nakamoto se valió de la confianza absoluta que ofrecen las matemáticas y la criptografía para diseñar Blockchain. Y si esa confianza muere, ya sea por mal desarrollo del software o algún hacking malintencionado, Bitcoin también morirá.

Ahora bien, en tanto que Blockchain es una maquinaria que valida la propiedad y autenticidad de monedas virtuales como los bitcoins, entonces, ¿por qué no adaptarla y aprovecharla para otros objetos digitales o materiales?

Sabemos que nuestras instituciones sociales actuales requieren de oficinas intermediarias que validen y certifiquen propiedades: ya sea títulos universitarios, documentos de identidad, pasaportes, incluso propiedad intelectual como música y toda clase obras de arte, etc. Veamos algunos ejemplos de esto:

Blockchain representa una nueva generación de sistemas en Internet, ciertamente cada vez más proyectos están utilizando esta tecnología para diseñar sistemas que eliminan el control administrativo de los intermediarios: allí donde exista una autoridad central de confianza, Blockchain probablemente la sustituirá.

El estado de las cosas

Al día de hoy, Bitcoin y Blockchain están pasando por una serie de desacuerdos internos sobre su rumbo. Irónicamente, esta tecnología descentralizada por diseño está sostenida por un elemento centralizado: sus desarrolladores. Lo cierto es que está en la naturaleza del software libre el dividirse para crear nuevos proyectos, que en el caso de esas tecnologías está por verse. Recordemos que Bitcoin no es la única criptomoneda, existen decenas de ellas, como Ripple, Litecoin y Dash.

Por otro lado, aunque Bitcoin sigue siendo un experimento en muchos sentidos, las más grandes instituciones financieras del planeta como VISA, MasterCard, Citibank, UBS, Goldman Sachs, Barclays y Banco Santander, entre otras, están invirtiendo en proyectos propios o de terceros que involucran a la criptomoneda o las capacidades de Blockchain.

Esas instituciones ya reconocen el potencial de las criptomonedas y particularmente de Blockchain. No deberá sorprendernos que pronto utilicemos un producto financiero sostenido por esas tecnologías.

¿Qué hay del usuario final? ¿Puedo usar Bitcoin y Blockchain si no tengo conocimientos en ingeniería o criptografía? La verdad es que es cada vez más fácil. Hace veinte años era un asunto exclusivo de ingenieros crear una página web con texto e imágenes, hoy en día un niño puede crear toda clase objetos para Internet, conectarlos, darles vida, incluso vida artificial, prácticamente sin la intervención de código. Lo mismo sucederá con Bitcoin y las tecnologías relacionadas. Proyectos como los siguientes quieren hacer Bitcoin mucho más accesible y confiable:

Cualquier que sea el futuro de Bitcoin y Blockchain, es evidente que están inspirando una generación renovada de servicios financieros más justos, baratos, transparentes y accesibles. El potencial impacto social es enorme. Estemos atentos.

Bibliografía





Tecnología y desigualdad. La concentración de riqueza en la economía digital

La economía digital no reduce la desigualdad y podría hacerla mayor. Para corregir la situación, gobiernos y ciudadanía deben priorizar el impacto social.


Amelita Galli-Curci escribiendo a máquina, c. 1920. Library of Congress. Public Domain.

El optimismo sobre la tecnología como motor para el bienestar pasa por una mala época. Según el Banco Mundial, la economía digital no está reduciendo la desigualdad e incluso podría estar haciéndola mayor. Aunque sus beneficios a corto plazo son innegables ‒más información disponible a un coste bajo y a escala global‒, ese impacto no está teniendo el retorno colectivo esperado a nivel agregado. Las medidas para corregir la situación pasan por más acceso y mayor formación, pero son necesarios gobiernos y ciudadanía que prioricen el impacto social.

«The future is already here — it's just not very evenly distributed.»
William Gibson

Que la tecnología es una fuerza transformadora y un motor para el cambio social es una creencia dominante en Occidente, como mínimo desde la Revolución Industrial. En su concepción optimista, es lo que permite que un dron transporte ayuda humanitaria a zonas aisladas por catástrofes naturales o que centros de fabricación digital como los FabLab creen redes inalámbricas de Wi-Fi en Afganistán o Kenia. Para las visiones pesimistas, esa misma revolución tecnológica es la que amenaza a sectores laborales por completo, tiende a concentrar las rentas generadas en unas pocas empresas y ofrece un poder enorme a aquellas compañías que comercian con datos de los ciudadanos.

El Banco Mundial, un organismo tradicionalmente alineado con la visión liberal de la economía, aunque sensible a algunos de los retos de la globalización, sorprendió el pasado enero alertando del impacto de la tecnología sobre la desigualdad social. Si bien reconoce que la revolución digital ha generado beneficios a corto plazo, su informe anual sobre el desarrollo destaca que la mayoría son privados y se concentran en pocas manos. Las ganancias están fortaleciendo el bienestar de una élite de empresas y profesionales bien formados para este nuevo entorno, pero no el de la sociedad en su conjunto.

Las causas de esta relación entre tecnología y desigualdad serían:

  1. La persistencia de la brecha digital. Un 60% de la población mundial sigue sin conexión a Internet, y por lo tanto, excluida de la economía digital.
  2. La concentración del mercado en las empresas ya establecidas, creando monopolios que a menudo se refuerzan con ayudas públicas.

Para corregir esta situación, el informe del Banco Mundial propone estrategias amplias que no solo afectan al sector tecnológico, y que podrían resumirse en: más acceso (especialmente en los países en desarrollo), formación en habilidades y flexibilidad durante toda la vida y garantizar la competencia mediante regulación e instituciones responsables. Que un organismo como el Banco Mundial ‒al que incluso se ha acusado de agravar la pobreza en lugar de reducirla‒ elabore un diagnóstico de este tipo implica un cambio notable en la percepción de la economía digital. Sin embargo, las medidas para solucionar el problema merecen ser analizadas.

¿Mayor acceso, más inclusión?

En la última edición del Mobile World Congress, Mark Zuckerberg criticó a las operadoras telefónicas por priorizar la tecnología 5G en lugar de asegurar el acceso barato a Internet en todo el mundo. Desde hace años, Facebook está impulsando un servicio de conexión gratuita a la red que ya ha probado en zonas remotas de África, América Latina y Asia. No obstante, en la India algunas empresas han retirado el apoyo al proyecto al señalar que es contrario a la neutralidad en la red, ya que solo favorece el acceso a ciertos sitios web y aplicaciones en perjuicio de sus competidores y de la información en general.

One Laptop per Child, Nigeria. CC-BY.

En un mundo en el que solo una de cada tres personas tiene acceso a Internet, atajar la brecha digital es una medida necesaria e incuestionable. Pero, iniciativas como las de Facebook evidencian que más conexión no significa necesariamente una mayor inclusión en el mercado o, como mínimo, en igualdad de oportunidades. Por otro lado, dado que casi el 20% de la población mundial no ha podido aprender a leer o escribir, es improbable que la expansión de la tecnología por sí misma implique el fin de la brecha digital. Es necesario que el acceso a Internet venga acompañado de medidas para su aprovechamiento, tanto a nivel educativo como de servicios sociales básicos. No hay que olvidar que en los países en desarrollo ya son más los hogares que poseen un teléfono móvil que los que tienen acceso a electricidad o agua potable.

La formación de personas cualificadas para la economía digital, otra de las recomendaciones del Banco Mundial, es una medida a la que no se puede objetar demasiado. Pero, en los países desarrollados, la crisis ha demostrado que ni siquiera las personas más formadas tienen asegurada la inclusión en la economía. Y para las integradas, su nivel educativo no siempre se traduce en una remuneración proporcional. Todo ello mientras la automatización de los empleos destruye puestos de cualificación media, polarizando el mercado laboral entre personas altamente formadas, por un lado, y aquellas que llevan a cabo tareas rutinarias que las máquinas no son capaces de realizar, por otro. En resumen, una brecha que conlleva la captación de las actividades de alto valor añadido por una élite especializada, mientras que una parte creciente de la fuerza de trabajo queda relegada a actividades poco productivas y de escaso valor.

Monopolios tecnológicos y estado del bienestar

Además del acceso y la formación, el Banco Mundial apuesta por regular la competencia entre empresas y asegurar que las instituciones públicas sean responsables. A pesar de las teorías liberales sobre la autorregulación del libre mercado, los ejemplos de Microsoft, Google o Amazon demuestran cierta tendencia hacia la creación de monopolios naturales en Internet. Una concentración de poder que a menudo se acompaña de prácticas anticompetencia y de captura política mediante actividades de lobby. Por otro lado, muchos gobiernos e instituciones depositan sus esperanzas de crecimiento o adaptación tecnológica en manos de las grandes corporaciones, en lugar de invertir en iniciativas locales.

Si bien es cierto que la tecnología también es una herramienta que permite cambiar el orden establecido, el teórico del procomún Yochai Benkler ha señalado que la flexibilidad que trae consigo la revolución digital también produce dispersión de poder. Por un lado, Internet ha facilitado que individuos, empresas y organizaciones pequeñas compitan con rivales más poderosos con posibilidad de derrotarlos. Pero esa misma flexibilidad ha traído inestabilidad laboral a gran escala, debilitamiento del estado del bienestar y riesgo para sectores económicos por completo; en ocasiones con la paradoja de etiquetar el proceso bajo el paraguas de la «economía colaborativa».

CC-BY-SA Institute for Money, Technology and Financial Inclusion.

Medidas contra el determinismo tecnológico

Que la tendencia que se ha expuesto sea o no la dominante en el futuro no es inevitable. Contra el pensamiento determinista que considera a la tecnología como una especie de fuerza de la naturaleza contra la que no se puede luchar, hay que recordar que los distintos actores sociales y grupos de interés son los que dan forma a la innovación, en un proceso de influencias mutuas.

Frenar el impacto de la tecnología en la desigualdad pasa necesariamente por medidas analógicas, como regular el sistema fiscal para evitar la fuga de impuestos de las empresas tecnológicas, así como gravar más las rentas del capital que las del trabajo. También es posible crear registros públicos obligatorios de las actividades de lobby, de modo que la ciudadanía pueda conocer las influencias que reciben las instituciones por parte de empresas tecnológicas. Por otro lado, la creciente flexibilización de la economía requiere de sistemas de protección social más fuertes, que, además de garantizar la educación en capacidades digitales, sirvan de red de seguridad en un entorno volátil.

Desde el campo de la ciudadanía, se puede reclamar la apertura de datos de las grandes plataformas o usar aquellas diseñadas en abierto, de modo que la información de los usuarios esté en sus manos, aunque las empresas puedan usarlas con su consentimiento. En esta línea, destacan propuestas como el «cooperativismo de plataformas», que propone que los usuarios sean propietarios de los servicios, para que los beneficios que generan repercutan en la sociedad y no en intereses privados. Todo ello contribuye a nuevas formas de entender la relación con la tecnología que no solo pasan por solucionar las consecuencias, sino por repensar la arquitectura del sistema. Atajar el impacto de la tecnología en la desigualdad requiere diseñar tecnología e instituciones que no solo prioricen el crecimiento macroeconómico, sino que tengan como eje el impacto social.





El despertar de la ciudadanía digital en África

Vigilan elecciones, cuestionan dictadores, reivindican derechos básicos y construyen comunidad. La sociedad civil africana toma el control del espacio digital.


Visita de Iain Macleod, Secretario de Estado para las colonias, hasta el norte de Rhodesia (1960); manifestaciones del Partido Unido de la Independencia Nacional. The National Archives UK. Open Government Licence.

Vigilan elecciones, cuestionan dictadores, reivindican derechos básicos y construyen comunidad. Están cambiando las reglas, porque no le siguen el juego al sistema. Tienen un componente de subversión, pero también de costumbre. El sistema, todos los poderes, les había menospreciado y se han acostumbrado a desbrozar sus propios caminos. En los últimos años, las campañas digitales, las iniciativas 2.0 y un incipiente ciberactivismo están modificando el panorama de la participación social y política en el continente. En ocasiones con éxitos impactantes, pero también con frustrantes fracasos, su principal virtud es existir y, sobre todo, estar proponiendo alternativas más cercanas a la ciudadanía.

«Mientras los leones no tengan sus propios historiadores, las historias de caza seguirán glorificando a los cazadores». Este es un proverbio popularizado por el escritor nigeriano Chinua Achebe, que rubrica, precisamente, el primero de los paneles explicativos de la exposición «Making Africa». Es una auténtica declaración de intenciones, una advertencia de los objetivos de la muestra. Hoy, el anhelo expresado por el grandísimo intelectual nigeriano está más cerca que nunca de hacerse realidad y, para comenzar a saborear esas historias, solo necesitamos asomarnos a los recovecos adecuados del universo que Internet nos ofrece. Quizá parezca extraño, pero los leones ya están escribiendo su historia en el mundo digital.

Las redes sociales, las herramientas de la web 2.0, todo el potencial comunicativo de Internet y el contexto de la sociedad de la información han aportado una nueva sacudida a los cimientos del mundo tal como lo entendíamos: muchos de los que hasta ahora no eran escuchados (no todos) pueden hablar ahora alto y claro. Y eso es lo que está pasando, de manera casi generalizada, en todos los rincones del continente africano, posiblemente la región del mundo más silenciada. En contra de lo que algunos despliegues de los discursos racistas han dicho en algunos momentos, África siempre había estado en la historia. Pero lo que sí que hay que reconocer es que no siempre la habían escrito ni la habían contado los africanos. Hoy, o más bien en los últimos años, se multiplican los colectivos que participan en la vida social y política de prácticamente todos los países del continente, exprimiendo hasta la última gota el potencial de las TIC.

Formación de la asociación de blogueros de Benín de observadores para las elecciones de 2016. Autor: Maurice Thantan. Licencia CC-BY

Las elecciones seguramente sean el ejemplo más claro de esta situación. Ya no hay cita electoral en el continente en la que no se desarrolle una iniciativa ciudadana de vigilancia; muy habitualmente con colectivos de blogueros escuchando las inquietudes de organizaciones de la sociedad civil, y, siempre, con el objetivo de influir en el proceso. Es decir, de conseguir unas elecciones transparentes, pacíficas, participativas, sin fraudes. Se trata de procesos de los que los ciudadanos quieren ser cada vez más protagonistas y en los que están dispuestos a asumir responsabilidades, lejos de la imagen de «activismo de sofá» que rodea al ciberactivismo.

Una línea del tiempo de este fenómeno quizá comenzaría en 2008 en Kenia, donde un grupo de blogueros intentó poner coto a las violencias poselectorales ofreciendo un mosaico de información que estuviese formado por las informaciones parciales de cada protagonista. De aquella experiencia nació Ushahidi, uno de los mayores éxitos mundiales de crowdsourcing por su extensión posterior. Quizá, después, esa línea del tiempo daría un salto de dos años y más de 4.500 kilómetros, hasta la Costa de Marfil de 2010. Los blogueros y usuarios experimentados de las redes sociales habían intentado animar un debate sano durante la campaña, reaccionaron ante la violencia poselectoral e, incluso, tomaron protagonismo al asistir directamente a las víctimas del estallido fratricida.

Pero quizá el punto de inflexión de este fenómeno se tenga que situar en Senegal en 2012. Los blogueros hicieron frente a casi un mes de choques en la calle entre la policía y un amplio sector de la sociedad que estaba decepcionado e indignado con las autoridades. Militaron por la transparencia y por una democracia más participativa y desarrollaron una campaña para conjurar el riesgo del fraude electoral. Pusieron en marcha un dispositivo que vigilaba desde las irregularidades durante las votaciones hasta el recuento de los sufragios. Y, sobre todo, su campaña fue un éxito: consiguieron implicar a amplios sectores de la sociedad civil y a un gran número de ciudadanos anónimos, consiguieron el reconocimiento (a posteriori) de los actores políticos y la atención (inmediata) de los medios internacionales y las elecciones se desarrollaron como habían previsto, de forma pacífica y sin grandes sospechas de fraude, con un cambio de presidente incluido.

A partir de la experiencia de los blogueros senegaleses, las iniciativas con características similares se han ido sucediendo, cada vez en más países y cada vez de una forma más sistemática. Ghana, Nigeria, Guinea, Burkina Faso, Uganda, Tanzania han sido algunos de los escenarios de estas campañas que han intentado sumar a los usuarios de los medios sociales al debate político y responsabilizarles del correcto desarrollo de las elecciones, entendiendo ese «correcto desarrollo» como una parte del proceso, ajeno a la propaganda electoral. El ejemplo más claro de que ya no puede haber elecciones sin vigilancia digital se produjo el pasado 20 de marzo. El día se conoció como el SuperSunday africano por la coincidencia de cuatro citas presidenciales en otros tantos países, unas legislativas y un referéndum para una reforma constitucional. En Benín, Níger, República del Congo y Senegal, las votaciones fueron acompañadas de vigilancia ciudadana 2.0.

Campaña #FastAfrica

En los últimos años, los ciberactivistas de diferentes países africanos se han enfrentado con regímenes controvertidos poniéndose en serio riesgo, en Etiopía desde abril de 2014, en Burundi o la República Democrática del Congo desde marzo de 2015, o en la República del Congo, en los últimos meses. Han acompañado procesos de contestación popular que han marcado hitos en el continente, como en el caso del levantamiento ciudadano de Burkina Faso a finales de octubre de 2014, que acabó con la dimisión del presidente Blaise Compaoré tras 27 años en el poder, o la resistencia a un golpe de estado casi un año más tarde. Solo un mes después de ese intento de motín, el país estaba organizando unas elecciones presidenciales en la más absoluta normalidad. Los ciberactivistas se implicaron activamente en esos comicios. En la misma línea ha habido acciones cívicas, sin la connotación restrictiva que la palabra tiene para nosotros, en todo el continente.

Los ciberactivistas han demostrado estar dispuestos a jugarse la libertad y la vida y estar convencidos de que la información es una herramienta fundamental para afianzar la participación democrática. En este sentido, las características de los medios sociales han permitido una primera ruptura, la del monopolio del control de la información. Los ciberactivistas han desarrollado sus actividades edificando canales de comunicación, a veces, blogs o plataformas de información y, otras, hashtags o grupos de Facebook, por ejemplo. Estos canales se escapan de las reglas impuestas hasta el momento, no dependen de las autoridades ni de los intereses económicos; rompen los controles que los poderes habitualmente hacen valer, y, sin embargo, consiguen un impacto que contrarresta el de los medios convencionales y, en ocasiones, una repercusión internacional mayor.

Puede parecer paradójico insistir en esa repercusión internacional, como si su salvación hubiese de llegar del exterior. No se trata de ese tic eurocéntrico (y egocéntrico), sino de que la mayor parte de esos ciberactivistas han descubierto que uno de los pilares de esos regímenes que intentan combatir pasa por el reconocimiento internacional, se legitiman a través de su prestigio y de su imagen en el exterior. De ahí, los esfuerzos para silenciar las voces disidentes y de ahí, también, la insistencia de las voces disidentes por hacerse oír.

Todas estas acciones, campañas e iniciativas han continuado desmantelando el statu quo. Y no solo eso, se han ido convirtiendo en actores sociales y políticos, unos por el reconocimiento positivo de las autoridades, otros por el intento de acabar con ellos. Además, lo hacen sin cumplir con las «normas» de las organizaciones convencionales. Las comunidades han crecido rápido porque son atractivas, pero su lógica de adhesión y sus principios de funcionamiento, las dinámicas, los intereses… todo es distinto al resto de las organizaciones de la sociedad civil. El hecho es que han aumentado la esfera pública y han dado un papel protagonista a colectivos que hasta el momento no contaban demasiado, sobre todo, en un primer momento, a los jóvenes urbanos que, por otro lado, constituyen un colectivo lleno de futuro y cada vez más numeroso.

Ahora las historias de los leones se pueden leer en las redes y, por eso, en el espacio digital hay narrativas que ya no glorifican a los cazadores.





Las nuevas tecnologías frente al cambio climático

Con una buena gestión y regulación política y legal, Internet y la cultura digital pueden reducir de forma significativa el desgaste del ecosistema natural.


Tándem de cuatro plazas, 1898. George H. Van Norman, Springfield, Mass (Library of Congress). Dominio público.

Hace unos años, con la popularización de los dispositivos digitales y la expansión de la Red, muchos contemplaron estas nuevas herramientas con esperanza. Parecía que el advenimiento de nuevos sistemas de comunicación, de almacenamiento y de gestión basados en la intangibilidad de los objetos sería una solución per se para la mayoría de los problemas ecológicos de la sociedad contemporánea. Hoy puede parecer una ingenuidad pensar que la tecnología, por sí misma, pueda cambiar las bases éticas del mercado y de la industria, enfocándolas hacia un sistema de valores comerciales más respetuoso con el medio natural. Con todo, podemos seguir afirmando que, con una buena gestión y regulación política y legal, Internet y la cultura digital podrían haber reducido de forma significativa el desgaste del ecosistema natural.

Nuestro sistema económico tiene una respuesta predeterminada y clara frente a aquellas tecnologías que no dan beneficios rápidos, independientemente de su impacto social, de lo que aporten a la evolución del corpus del conocimiento o de su utilidad para solucionar problemas globales. Estamos sujetos a una lógica que promueve la innovación, pero solo en cuanto a capacidad técnica y de nuevas funcionalidades, sin atender a la mejora de los procesos de fabricación, la calidad y la durabilidad de los materiales y su capacidad de actualización, con miras a preservar el entorno natural. En estos términos, pues, la dinámica de funcionamiento del mercado y su impacto en los hábitos sociales son enormemente destructivos para el ecosistema.

Las iniciativas que pretenden mejorar los materiales con los que fabricamos los dispositivos digitales, con la única intención de reducir el impacto nocivo de los productos no reciclables, no encuentran financiación. Aquellas tecnologías energéticas que buscan liberarnos de la dependencia sistémica de los combustibles fósiles son compradas por los grandes lobbys energéticos para garantizar su implantación lenta y mantener vigente el modelo actual de negocio. Cuando una iniciativa busca, manteniendo el mismo volumen de negocio, aplicar procedimientos de fabricación más respetuosos con el entorno y basados en materiales reaprovechables, no encuentra financiación. Si no aumentan los beneficios, no tiene sentido comercial invertir en ello.

A pesar del poco interés del mercado en propuestas de esta naturaleza, es innegable el enorme potencial que estos avances tendrían para una mejora de las condiciones de vida de los ciudadanos a nivel global. Las tecnologías digitales se muestran como un gran aliado para hallar soluciones a muchos de los problemas medioambientales que se plantean, ya sea a nivel institucional o en el ámbito privado.

Open data como condición para definir ciudades inteligentes

En el caso de la administración pública, la actuación central pasa por la gestión y el uso del big data para conocer las necesidades reales de la ciudad, tanto en cuanto al funcionamiento técnico como respecto al comportamiento de los ciudadanos. Un ejemplo de ello sería la regulación del tráfico en función de parámetros reales de comportamiento de los vehículos. De este modo, en tiempo real, podemos modificar los límites de velocidad en función de los niveles de contaminación, o cambiar el sentido de algunas vías según la saturación de la ciudad.

La inteligencia artificial puede ser utilizada para condicionar el comportamiento de la mayoría de los sistemas tecnológicos que controlan y regulan una ciudad, pero, para programarla, necesitamos un acceso abierto al big data. Esta es la principal premisa de lo que llamamos open data, que pretende liberar de copyright el uso y la manipulación de los datos. Solo el acceso abierto y la titularidad pública de esta información permitirán desarrollar las herramientas necesarias para transformar estos datos en iniciativas en pro del beneficio social. Barcelona es un buen ejemplo de avance hacia una ciudad inteligente, basada en el open data. En la web opendata.bcn.cat se pueden realizar búsquedas sobre un repositorio de datos abiertos de diferentes campos, muy útil para conocer mejor la ciudad y para desarrollar nuevos recursos adaptables e interactivos.




La base para las smartcities está formada por el trinomio sensores + datos + software. Necesitamos sensores que recojan la máxima información posible, respetando siempre la privacidad de los usuarios y su anonimato; que esta sea clasificada en forma de datos accesibles, y que el software permita transformar los datos en herramientas digitales útiles para solucionar problemas reales. Con esta intención tenemos disponibles diferentes iniciativas que permiten una manipulación y visualización de los datos con fines de planificación de las ciudades. Matsim o CitySDK y los proyectos europeos Eunoia y Besos son un buen ejemplo de lo que la tecnología nos puede ofrecer en este campo. En combinación con el Open Sensors Platform (OTS), contamos con las herramientas suficientes para poner la tecnología a trabajar en favor de un entorno más limpio y más sostenible. El abaratamiento de los sensores y el hardware computacional, con todo el conjunto de nuevas iniciativas del Open-source hardware, añaden el componente necesario para completar el citado trinomio.

Este camino hacia las ciudades inteligentes recibirá un impulso enorme con la consolidación de la Internet de las cosas, la conexión de los objetos físicos al entramado digital con la posibilidad de recolectar e intercambiar datos. La separación radical entre entorno virtual y físico dejará de tener sentido en el momento en que suficientes objetos estén conectados a la Red. Los expertos anuncian cincuenta millones de elementos físicos conectados en 2020.

Con la conexión de los vehículos a la Red, y aplicando los algoritmos necesarios, podemos gestionar de manera mucho más eficiente el tráfico en las ciudades para reducir la contaminación atmosférica, la duración de los componentes que generan residuos o la eficiencia de nuestra conducción. Con la conectividad de los elementos del espacio público podemos gestionar de forma más sostenible la iluminación, el riego o la recogida de residuos.

El ámbito doméstico: la cotidianeidad comprometida

Ahora bien, el consumo energético, uno de los principales problemas medioambientales, depende mucho de los usos domésticos y del comportamiento individual de los ciudadanos. Las soluciones que el gobierno municipal, el estado y las instituciones internacionales planteen serán siempre ineficaces e insuficientes si los ciudadanos no se convierten en agentes comprometidos en su realización.

En este ámbito, Internet y las tecnologías digitales también ofrecen soluciones accesibles para una gestión mucho más efectiva del gasto energético y el consumo de recursos naturales en los domicilios particulares. Los sistemas domóticos, que permiten automatizar determinadas gestiones del hogar mediante un control centralizado y la conexión a la Red, se están abaratando y empiezan a ser accesibles para una parte importante de la población. Estos domicilios inteligentes hacen posible configurar los sistemas de climatización en función de nuestra ubicación geográfica, el tiempo, la meteorología, nuestro comportamiento en casa, etc. Así, el sistema apagará la calefacción si abrimos las ventanas o la pondrá en marcha un rato antes de que lleguemos al domicilio gracias al seguimiento por GPS de nuestra posición. Los electrodomésticos inteligentes permiten una gestión más efectiva de los alimentos, por ejemplo, controlando las fechas de caducidad y avisándonos de la necesidad de consumir un producto antes de que se eche a perder, o recordándonos que hay que reducir la potencia de la nevera si estamos en invierno. Así pues, interconectando los objetos físicos y gestionándolos a través de los dispositivos móviles, se abren nuevos horizontes para la gestión eficiente del hogar, pero también para la empresa o los edificios públicos.

Por otro lado, con la mayor concienciación de los usuarios, las diferentes iniciativas pensadas para promover una fabricación más responsable encuentran un pequeño espacio de mercado en el que desarrollar y distribuir productos alternativos, concebidos de acuerdo con unos principios éticos y más respetuosos para el medio. Fair Phone nos ofrece un teléfono inteligente accesible formado por diferentes piezas autónomas que se pueden sustituir y permiten actualizar la capacidad del dispositivo. Además, sus procesos de fabricación cumplen con los principios del comercio justo, por cuanto garantizan que en el proceso no se explota a ningún trabajador ni se abusa del entorno natural para obtener los materiales de fabricación. Google tiene un proyecto de estas características, Project Ara, que, pese a no inscribirse en la filosofía del comercio justo, sí plantea el funcionamiento modular para los teléfonos inteligentes, que permite alargar notablemente la vida útil de los dispositivos y reducir de forma ostensible los residuos generados.




Conclusión: ¿realmente queremos salvar el planeta?

Todos estos ejemplos priorizan la concepción de productos más valiosos cualitativamente y más respetuosos con el entorno natural. Pero, no solo las empresas tecnológicas deben asumir como propios los valores ecologistas y de respeto al entorno, sino que los usuarios, los compradores, también nos los tenemos que hacer nuestros. Debemos exigir algo más que eficiencia y capacidades a los dispositivos digitales: el respeto al medio ambiente debería ser una característica necesaria para considerar que un producto es de calidad.

Ha llegado el momento de que todo ciudadano sea consciente de las grandes potencialidades de las tecnologías para trabajar en la construcción de un entorno social y económico más justo y ecológicamente sostenible. Pero, antes de dedicar esfuerzos a dibujar una hoja de ruta factible y eficaz para la preservación del ecosistema, hay que formularse con sinceridad una pregunta primordial: ¿de verdad queremos salvar el planeta? ¿Estamos dispuestos a ir más allá de la retórica y de los buenos propósitos y actuar en nuestro día a día? Es decir, no coger el coche si no es imprescindible, utilizar vehículos menos contaminantes aunque suponga un esfuerzo, controlar el consumo energético para la climatización de espacios cerrados, aprovechar los dispositivos durante su vida útil y no sustituirlos constantemente según las modas y las tendencias, plantearse la necesidad real de adquirir un producto, actuar activamente contra el exceso de envasado y el uso de materiales no reutilizables…

Tenemos que decidir si queremos establecer un entramado tecnológico y de consumo que no sea el verdugo final del ecosistema, sino un aliado en favor de su preservación. Porque el principal problema que hay que afrontar es que el sistema económico en el que vivimos es insostenible. El consumo desmedido de materias primas y la fabricación continua de nuevos productos son totalmente incompatibles con el respeto hacia el entorno natural. Así pues, si la lógica del mercado no adopta como propios los valores éticos universales de la especie humana, la sostenibilidad del planeta seguirá menguando.





Neuromarketing: Lo quieres, pero aún no lo sabes

El neuromarketing propone estudiar el funcionamiento del cerebro en las decisiones de compra, sobre todo de la parte no consciente.


Dos niños mirando el escaparate de una tienda de chocolate. CC-BY-NC-SA, Paul Townsend.

«Los consumidores no saben lo que quieren hasta que se lo mostramos». Se puede leer con una mezcla de asombro y perplejidad este aforismo atribuido a Steve Jobs y que resume el objetivo del neuromarketing. Si dicen que el marketing tradicional busca la mejor forma de satisfacer las necesidades de los consumidores, el neuromarketing aborda este objetivo desde el punto de vista de Jobs y propone estudiar el funcionamiento del cerebro en las decisiones de compra, sobre todo de la parte no consciente, aquella que no podemos expresar de forma racional.

Vaya por delante que no se me ocurre ninguna ventaja por la que la idea del neuromarketing sea positiva para una sociedad. A lo sumo para que unos cuantos obtengan beneficios económicos realizando la campaña ideal gracias al uso de las técnicas empleadas en la neurociencia; lo que no tengo del todo claro es si es malo, pésimo o dantesco. En esta época en que somos esclavos del consumismo más voraz y donde la obsolescencia programada se ha trasladado de las máquinas a nuestros cerebros –ya no quiero esto, está pasado de moda–, solo nos falta desarrollar estudios que permitan entender cómo cazar mejor a los incautos para darles ese empujoncito que casi se dan ellos mismos para comprar el siguiente coche, la siguiente televisión, el siguiente smartphone. Si Gilles Deleuze decía que el marketing es el nuevo control social a través del que el hombre ya no está encerrado sino endeudado, el neuromarketing le da una vuelta de tuerca a esa hipótesis y la convierte en pesadilla bradburiana: Live fast, die young, but waste all your money, please.

They Live, We Sleep. CC-BY, Eduard V. Kurganov.

Pero que no se vengan arriba los amigos de la conspiranoia, que no hay nada nuevo bajo el sol. Ni el neuromarketing permite hacer magia ni es una nueva forma de control mental. De lo que trata el neuromarketing es, sencillamente, de estudiar las decisiones de compra de un consumidor mediante técnicas desarrolladas desde hace años en el ámbito de la neurociencia. Siento decirles que tras ese nombre no van a encontrar el panorama de la película They Live, donde Roddy Piper descubría unas gafas que revelaban la realidad extraterrestre bajo la que vivimos subyugados con carteles de «Obedece, compra, reprodúcete» camuflados en publicidad de viajes o las noticias del día. Nada de eso. Lo único que encontrarán es el mismo espíritu consumista probándose la última moda en tecnología, que sí, que da miedo, pero digo yo que más por lo de consumista que por lo de tecnológico.

De lo que trata la disciplina es de conocer esa parte en la decisión de un comprador que no es consciente ni puede expresarse de forma racional; de conocer qué emociones suscita un anuncio o un producto saltándose la pregunta directa al consumidor, ya que en gran medida es algo que ni él mismo sabría explicar. Dicho de otra manera, el neuromarketing nos pone en el polígrafo para registrar nuestras respuestas corporales y detectar ya no lo que decimos o pensamos racionalmente, sino lo que realmente sentimos hacia un producto, marca o servicio. Un detector de mentiras con el que exprimir la esencia de nuestras decisiones.

De esta forma, por muy modernas que sean las herramientas y técnicas para medir el comportamiento y respuesta del consumidor, de momento no se puede hacer nada que no se sepa. Desde la medida de los movimientos oculares (eye-tracking) para conocer nuestra conducta respecto a qué estamos mirando –pero no qué estamos viendo, que bien podemos estar soñando despiertos sin prestar atención a lo que tenemos delante–, a la medición de señales fisiológicas como el ritmo cardiaco o la conductancia de la piel, pasando por la actividad de los músculos de nuestra cara y, sobre todo, el uso de técnicas que registran nuestra actividad cerebral de distintas formas; nada de eso podrá leernos la mente y mucho menos manipularla. La simple idea de adivinar nuestros pensamientos es a día de hoy totalmente inviable, teniendo en cuenta que ni siquiera somos capaces de identificar una emoción mediante cualquier técnica de imagen médica. Es cierto que puede asociarse una mayor activación de la amígdala al miedo o el odio, que la ínsula aparece como implicada en reacciones de asco o rechazo, o que el sistema dopaminérgico acostumbra a trabajar con más brío en presencia de emociones positivas. Sin embargo, no existen sistemas fiables donde introduciendo una imagen de activación cerebral determinada se pueda obtener una respuesta del tipo «alegría», «tristeza» o «enfado». Además, aunque se lograra identificar con un cien por cien de confiabilidad y de forma instantánea la emoción que una persona está sintiendo, no serviría de nada. De la misma forma que a ti te gusta el café y yo soy más de zumo de melocotón, un mismo producto o campaña publicitaria no provocará la misma emoción en toda la humanidad. Para gustos, los colores.

Gafas de seguimiento ocular SMI. CC-BY, SMI Eye Tracking.

Pero, claro, estamos hablando del presente y de un futuro a corto plazo. ¿Adónde podemos llegar si seguimos andando por este camino? ¿Dejará de ser un mito la idea del «botón de compra», Santo Grial del consumismo que permita conocer los factores que llevan irremediablemente a la adquisición de un producto? El diseño de nuevas herramientas y la combinación de algunas de las que ya están dando sus primeros pasos proponen un futuro verdaderamente ilusionante para todos aquellos interesados en que compremos, compremos y compremos. Demos un tiempo a que expertos en neuromarketing se reúnan con los chicos del Big Data y empezaremos a ver cómo cruzan informaciones individuales con tendencias de grandes grupos, extrayendo perfiles estratificados de potenciales clientes y estrategias adaptadas a ellos.

Porque, no nos olvidemos, nos pasamos el día conectados y eso es una fuente inagotable de recursos para las empresas. He visto reuniones entre grandes hospitales y multinacionales farmacéuticas donde se negociaba con la información de los pacientes como si de cromos se tratara –que sí, que la confidencialidad individual se mantiene, pero un consejo de amigo: lean todo lo que firman–. Escribimos cualquier opinión que se nos viene a la cabeza en Twitter, Facebook, blogs y demás medios y no somos conscientes de que eso vale dinero. Mucho dinero, cuando las opiniones son muchas. Sin querer nos hemos convertido en asesores gratuitos de todos ellos, contándoles nuestros hábitos, costumbres y gustos. Y lo que nos queda.

Si la hiperconectividad continúa, y no parece que vayamos en sentido contrario, en pocos años estaremos rastreados en cada paso que demos. Esas pulseritas que utilizamos al salir a correr o esos smartwaches tan cool podrán dar en tiempo real información sobre nuestra posición o ritmo cardiaco. Si la capacidad de computación de las máquinas sigue incrementando, ¿es tan difícil que se pueda inferir a través de ellos nuestra excitación con un anuncio o ante un producto determinado? Tan sencillo como detectar que estamos delante de una pantalla, registrar el momento en que se lanza el vídeo o banner determinado, seguir la tendencia de nuestro pulso o de la conductancia de nuestra piel –medida indirecta de que nos estamos emocionando: se nos pone la piel de gallina– y guardar los datos. Multiplicamos el procedimiento por mil o cien mil y ya podemos sacar conclusiones.

¿Y cuán divertido sería no solo leer nuestra decisión de compra, sino también estimularla? No hace falta irse a la época en que los cíborgs sean una normalidad y las órdenes de compra vayan directamente a nuestros chips de lo que sea. En la actualidad existe mucha literatura publicada sobre cómo una técnica no invasiva como la estimulación transcraneal permite regular nuestras emociones. Por ejemplo, la activación de unos electrodos puede potenciar la función de una parte de la corteza prefrontal asociada a parte del control de las emociones negativas. En lenguaje profano, lo que nos daba miedo o pena nos pasa a dar menos miedo o menos pena. Maravilloso, ¿verdad? Una técnica de enorme potencial en el tratamiento de personas con depresión mayor podría convertirse, así, gracias a don Dinero, en el catalizador de nuestra futura felicidad artificial y permanente. Aunque de momento es necesario contar con unas condiciones muy controladas y la bobina o electrodos deben colocarse con muchísima precisión y siempre muy cerca de nuestra cabeza, la ciencia avanza y quién sabe lo que depara el futuro en diez o veinte años. Tal vez darle a un botoncito y conseguir que la persona que entra en la tienda pasando a través de los arcos de seguridad se sienta de golpe más feliz ante la visión de los productos. Un futuro idílico, no hay duda.

Estimulación magnética transcraneana. Dominio público, Wikipedia.

En un mundo en que las compañías solo piensan en mejorar el beneficio del año anterior, es difícil imaginar hasta dónde llega la ética profesional y a partir de qué punto se nos emplea como simples indicadores. Tyler Durden, en El club de la lucha, decía aquello de que «tenemos empleos que odiamos para comprar mierda que no necesitamos». Tal vez podemos empezar por analizar esa sentencia y no por continuar pensando en la forma de comprar más mierda que aún menos necesitamos. Tal vez así las cosas empiecen a funcionar mejor.





Repensar el tiempo en la era digital

Las experiencias temporales están cada vez más mediadas por tecnologías y dispositivos digitales, y esto accelera nuestros paisajes temporales.


Un grupo de trabajadoras haciendo cola para fichar en una fábrica de armas. Gran Bretaña, 1940. © IWM (D 672)

Podemos encontrar ya incorporados en nuestro sustrato cultural algunos conceptos vinculados a la sociedad digital (tan confusos) como los de «la aceleración del tiempo», la comunicación en «tiempo real», el multitasking o el «tiempo globalizado», que representan intentos de definir las situaciones en las que el nuevo ecosistema digital nos sitúa. Ante este relato (interesado) sobre el ritmo que las tecnologías digitales imponen son pocas las voces que cuestionan o critican cuál es nuestra responsabilidad a la hora de comprender, construir y utilizar socialmente los nuevos tiempos digitales. El próximo 22 de febrero, Judy Wajcman hablará del tiempo en la era digital en el CCCB.

El debate acerca de la naturaleza del tiempo es una de las cuestiones más antiguas que existen. Para algunos, es algo que está ahí, de forma medible; para otros, es aquello que está vivo y aquello de lo que estamos hechos. En plena era de la sociedad digital, este debate vuelve a coger fuerza con Internet, los dispositivos móviles y el resto de artefactos digitales que nos ofrecen nuevas aproximaciones a la experiencia, la vivencia y la comprensión del tiempo.

Nuevos paisajes temporales

Situémonos en un día laboral cualquiera. Salimos del trabajo a media tarde y nos dirigimos a la parada de bus andando mientras nos intercambiamos mensajes por móvil con una persona con la que hemos quedado un rato más tarde. Miramos el reloj de pulsera para ver qué hora, contamos las paradas mentalmente para calcular lo tarde que estamos llegando, pero dudamos y abrimos aquella aplicación que nos lo calcula a una velocidad de procesador de 4.000 millones de ciclos por segundo. A media calle observamos la velocidad de los coches que cruzan la calle siguiente para ver si podremos llegar a pasar en verde. Nuestro amigo nos vuelve a escribir preguntando cuánto tiempo nos queda para llegar, el programa nos indica que ha escrito hace 3 minutos y 2 segundos. Y echamos a correr porque sabemos que no le gusta nada esperar.

Llegamos a la parada mirando el paso de las nubes, oyendo el repique rápido de campanas de la catedral y notando el ritmo de nuestros latidos. Miramos al hombre mayor que camina pausadamente por la acera de enfrente y a la chica que tenemos al lado sentada leyendo inmersa en una novela de ciencia ficción, situada en un futuro lejano. Según el panel informativo de la parada, quedan 3 minutos y 10 segundos para que llegue el bus, 17 minutos y 3 segundos para que llegamos a nuestra cita, 6 horas y 18 segundos para que sea la hora de acostarse y 7 horas y 23 segundos de batería. La chica sigue sumergida en el tiempo de ficción. Subimos al bus.

La experiencia de vivir en sociedad es la de estar interaccionando constantemente con múltiples indicadores del paso del tiempo y varias escalas temporales que se mezclan con nuestra experiencia vital; la memoria, la intuición y la sensación del paso del tiempo, siempre diferente, y a partir de las cuales hacemos proyecciones de presente y de futuro. Barbara Adam, una de las principales impulsoras de las últimas aproximaciones contemporáneas al estudio de la experiencia del tiempo, describía en su libro Time (2004) los timescapes como aquellos paisajes de temporalidades complejos con los que convivimos: varios ritmos biológicos, mecánicos, con varias velocidades y tempos. Unos paisajes que ahora conviven con los ritmos y los tiempos del ecosistema digital que nos acompaña paralelamente a nuestro mundo real, conviviendo y confrontándose con ellos, haciéndonos tener el tiempo más «presente» o haciéndolo «fluir», comprimiéndose y expandiéndose, a la manera en que el filósofo francés Henri Bergson concibió el presente como un estado de fluidez constante que tiene duración, que viaja del presente al pasado constantemente. Según él, el tiempo no es una materia indivisible o cuantificable, sino un estado interno subjetivo que a menudo colisiona con sus diferentes representaciones técnicas: el tiempo digital es reproducible, reversible e ilimitado, versus el humano que es irreversible, limitado y subjetivo.

Licencia: CC0. Fuente: negativespace.co

Los inventos tecnológicos siempre han transformado la relación entre el espacio y el tiempo en sociedad, especialmente durante la revolución industrial, en eso no hay nada nuevo. Pero si ahora encontramos que nuestros paisajes temporales con los que hoy en día convivimos están acelerándose de una forma exponencial se debe a la tecnología digital. Desempeña un papel fundamental, ya que las experiencias temporales están resultando cada vez más mediadas por estas tecnologías y dispositivos. Y hay que decir que de una forma trascendental y no neutral, porque estas herramientas trabajan con ritmos y sincronías diversos, y están en constante transformación.

La percepción y los usos del tiempo en la comunicación digital varían según las interfaces, los programas y sus capacidades de transmisión de datos. Su capacidad de aceleración y rapidez de cálculo sobre la que construyen algoritmos de ordenación y visualización de datos limitan la información a la que accedemos y, por lo tanto, la comprensión de nuestro mundo. Y todo ello, sin ser lo bastante cuestionados, entre otros factores porque ni siquiera tenemos tiempo para hacerlo debido a su obsolescencia, al ritmo que nos impone y al tiempo que les dedicamos organizándolos y aprendiendo a usarlos.

El tiempo de las redes

En los últimos años Internet se ha convertido en un espacio de confluencia de todas estas nuevas temporalidades, al resultar ser una gran convergencia digital de la mayoría de medios precedentes, y mezclándose también con los nuevos conflictos temporales que la propia red ofrece. El profesor Manuel Castells, en The Rise of the Network Society (1996), proponía el concepto de timeless time para reflexionar en torno a las sociedades en red, donde él veía una pérdida de los tiempos biológicos y sociales en favor de un tiempo homogéneo y globalizado. El tiempo, según el autor, queda alterado en la nueva era de la información de las redes, donde nuestras experiencias temporales quedan disueltas en un ciberespacio atemporal. De forma similar, el sociólogo Paul Virilio apuntaba, en Open Sky (1997), que la pérdida del referente temporal viene dada porque en nuestro entorno real el «cuando» está vinculado con el «donde», y en el tiempo de las redes y de la comunicación instantánea está «matando» el presente aislándolo de su espacio y contexto, donde la presencia concreta del acto comunicativo ya no tiene importancia.

Para Robert Hassan, en 24/7 Time and Temporality in Network Society (2007), estas interpretaciones precedentes de un mundo en red ganado por un capitalismo que ha impuesto un mercado y tiempo global parecen no responder a la concepción de la aceleración del tiempo flexible que vivimos, donde las redes modulan y confluyen en varias experiencias temporales sociales muy heterogéneas. Según Hassan, la verdadera temporalidad de las redes es la asincronía porque, dentro del gran ecosistema que representa Internet, cada uno puede establecer diferentes espacios y modos temporales de interacción no vinculados a su tiempo local, «real». La homogeneización de un tiempo lineal globalizado se convierte, de hecho, en una fragmentación casi infinita de contextos temporales síncronos y asíncronos diferentes y vivos en la red.

Licencia: CC0. Fuente: kaboompics.com

La sociedad en red cambia radicalmente nuestra relación con el reloj, con el tiempo social local y global. Ni lo sustituye ni lo niega, lo desplaza y ofrece nuevas formas de control y vivencia del tiempo. Hassan pone el ejemplo de las redes sociales o las salas de chat. En estos espacios de comunicación no existe ninguna relación con el contexto real de los relojes y los tiempos locales de los usuarios. Y ello supone un gran reto, ya que todos los espacios son contingentes de tiempo que modulan nuestra experiencia. El espacio laboral, por ejemplo, tiene unos horarios y un tiempo determinados, algunos son inherentes a su actividad, otros son dinámicas culturales. En este sentido, Internet ofrece la oportunidad de cambiar las «reglas» de gobernación y control social del tiempo, reinventando nuevos espacios y contextos de comunicación.

Las fronteras del trabajo y el tiempo libre

La frontera entre el tiempo de trabajo y el tiempo libre se difumina. Las redes de comunicación y los dispositivos móviles que nos acompañan diariamente son herramientas que potencialmente pueden extender nuestra actividad profesional a nuestros espacios de ocio. Por esta razón, algunos países como Francia han decidido legislar el uso del correo electrónico fuera de las horas de trabajo oficiales, después de que algunas empresas alemanas como Volkswagen hubieran limitado el acceso al correo de sus trabajadores fuera del trabajo. La transformación que estas herramientas generan en el mundo laboral es tal, que cada día cuesta más definir los límites laborales, desde un punto de vista de horarios, pero también de presencia física, dado que el puesto de trabajo ya no es único ni estable. Y es necesario entender que esta transformación no es solo cuantitativa o tiene en cuenta la eficacia y el rendimiento laboral (tan cuestionado en este país), sino que muy especialmente se refiere a cómo se transforma la organización laboral y cuál es papel del trabajador en esta nueva etapa. Aquellas semanas de solo quince horas de trabajo que el economista británico John M. Keynes vaticinó en 1930 para el futuro de sus nietos gracias al avance productivo y el progreso que suponían las tecnologías resuena de fondo cada vez que miramos el correo fuera de horas de trabajo.

La socióloga Judy Wajcman pone en alerta en su último libro, Pressed for Time (2015), nuestra capacidad de organizarnos a la hora de afrontar la sensación de estar constantemente acosados por el trabajo (por el tiempo laboral). La imagen que damos quejándonos del volumen de trabajo que impone el correo electrónico parece ser recibida como positiva, dice Wajcman. Quizás porque debería implicar tener un gran volumen de trabajo, pero también contar con habilidades en el uso de las tecnologías digitales de gestión laboral.

Licencia: CC0. Fuente: photos.oliur.com

Pero, si la tecnología fue creada para facilitarnos el trabajo y hacerlo más eficaz y productivo (o así nos lo han vendido), ¿vivir atrapado por el trabajo a través de los dispositivos digitales no debería verse como un fracaso colectivo de nuestra gestión laboral y de estos dispositivos, y no como un mérito? Cuanto más acosados temporalmente estamos, más consumimos dispositivos digitales, como si de una droga se tratara.

Otra de las problemáticas interesantes que Wajcman destaca es la tendencia a individualizar la experiencia del tiempo. La monitorización de todas nuestras actividades personales a través de apps e iwatchs para «facilitarnos» la gestión y hacernos más «eficaces» promueve el tiempo como una medida personal, como si fuera una materia cuantificable. Nada más lejos de su realidad, ya que el tiempo resulta de y sirve para la construcción colectiva de las actividades llevadas a cabo en sociedad colectivamente.

Las tecnologías digitales suponen un paso más en la historia de la aceleración de los procesos de producción, pero de momento fallan en la liberación o la disminución de la dedicación laboral. La proyección y el diseño de entornos y dispositivos digitales pensados para hacer más eficaz nuestro trabajo no deberían ser la única forma de entender y conceptualizar las temporalidades de estos nuevos escenarios digitales. Por eso, como dice Wajcman, hay que ver que el imperativo de la aceleración del tiempo digital es solo uno de los posibles artefactos culturales construidos para explicarnos este nuevo mundo. Y, por lo tanto, es nuestra responsabilidad combatir este relato imperante explorando, comprendiendo y desarrollando alternativas culturales a las vivencias temporales de nuestro ecosistema digital.





Vigilancia masiva en América Latina

¿Cuál es la situación de los países de América Latina ante la vigilancia tecnológica?


Principal centralita telefónica de la ABC en 69 Market Street (desde 1932). Fuente: ABC Archives

En un contexto global en el que la vigilancia masiva gubernamental es ya conocida, especialmente gracias a casos como el de Ewdard Snowden, sabemos que la privacidad es un derecho fundamental que debemos proteger. ¿Cuál es la situación de los países de América Latina ante la vigilancia tecnológica? Alan Lazalde repasa algunos ejemplos que muestran que, además de ser rastreados por el gobierno de Estados Unidos, algunos gobiernos latinoamericanos también encargan su propia vigilancia. Al mismo tiempo, han empezado a surgir movimientos de activistas, herramientas y tecnologías que tratan de facilitar el derecho a la privacidad y el anonimato.

Cypherpunks

Eric Hughes escribió en 1993: «La privacidad es necesaria para una sociedad abierta en la era electrónica… La privacidad es el poder de mostrarse selectivamente al mundo». Así arranca el Manifiesto Cypherpunk, un texto que perfila la criptografía como una herramienta de lucha y libertad. Estas palabras siguen vigentes más de veinte años después. Y también siguen siendo necesarias.

Cuando Julian Assange —reconocido miembro de la comunidad cypherpunk— asaltó al mundo con las primeras revelaciones de Wikileaks en 2007, originó la difusión de temas hasta entonces ajenos para medios masivos de comunicación y su público. Por ejemplo, la palabra «hacker» estuvo entre las favoritas de los medios —aunque con las connotaciones negativas habituales. Sin embargo, temas como anonimato y privacidad comenzaron a ser más frecuentes. Mientras tanto, grupos como Anonymous y LulzSec ayudaron a divulgar la existencia de capas más profundas y oscuras dentro de Internet, lejos de las superficies de Facebook y Google —máquinas públicas de vigilancia masiva, como le gusta decir a Richard Stallman.

Con estos antecedentes mediáticos aparece Edward Snowden: un joven informático, practicante del budismo, quien a mediados de 2013 abre la puerta a The Guardian y The Washington Post a los archivos más escalofriantes —esta es la palabra— relacionados con la vigilancia masiva gubernamental.

Lo que Snowden dio a conocer al mundo es una red mundial de vigilancia orquestada por los Estados Unidos, una red tejida con herramientas capaces de analizar, en instantes, millones de datos personales de redes sociales, telefonía, correo electrónico y más. PRISM, ahora lo sabemos, es el nombre de la tecnología creada para esos fines.

El mundo cambió con el trabajo de personas como Assange, Manning y Snowden. Por un lado, evidencian que vivimos en un estado de vigilancia, incluso más sofisticado que el imaginado por Orwell. Y, por el otro, aumentó la relevancia de herramientas que facilitan el derecho a la privacidad y el anonimato —el sueño cypherpunk—, así como la de las organizaciones de derechos humanos que las promueven. Herramientas como TOR, para la navegación anónima, o tecnologías como Bitcoin y Blockchain, para la creación de economías descentralizadas y anónimas, tienen más auge que nunca.

Este es el contexto global de vigilancia que viven los países de América Latina y el mundo.

¿Qué pasa en América Latina?

Desde hace más de dos décadas, el gobierno de los Estados Unidos ha rastreado miles de millones de llamadas telefónicas provenientes de ese país a por lo menos otros 116 países. Por supuesto, esto incluye prácticamente toda Latinoamérica.

Pero, por si los «esfuerzos» de los Estados Unidos no fueran suficientes, algunos gobiernos latinoamericanos están empeñados en vigilar a sus propios ciudadanos desde casa. Esto fue demostrado con la reciente filtración de la lista de clientes de Hacking Team, la empresa italiana que debe su fama al desarrollo de software de vigilancia a gran escala.

Y es que el cazador fue cazado. En julio de 2015, fueron publicados en Wikileaks más de un millón de correos electrónicos de Hacking Team, cerca de 400 GB de información confidencial, como las conversaciones con algunos de sus clientes, seis latinoamericanos en total: Chile, Colombia, Ecuador, Honduras, México y Panamá.

El software de Hacking Team, llamado «Da Vinci», es capaz de vigilar de 1 a 100.000 personas, captura con relativa facilidad conversaciones en WhatsApp, Skype, correo, incluso graba las pulsaciones del teclado, y accede a la webcam del equipo de manera remota. Estas funcionalidades compiten en eficacia y escala con las de PRISM.

Renata Ávila, activista guatemalteca de primera referencia en estos temas, escribe:

«No es posible ya confiar en los aparatos que utilizamos para comunicarnos. Desde los teléfonos hasta los ordenadores y chips inteligentes han sido diseñados de manera tal que puedan ser subvertidos por las agencias de inteligencia»

Y añade:

«A diferencia con otras regiones del mundo, las historias del daño de la vigilancia aún se sienten en Latinoamérica, con casi medio millón de desaparecidos [durante los gobiernos militares de los años ochenta y noventa].»

Investigadoras como Paula Jaramillo, de la ONG chilena Derechos Digitales, señala que:

«Los gobiernos latinoamericanos no han comprendido que garantizar la privacidad es requisito para el desarrollo de otros derechos fundamentales en un estado democrático.»

Curiosamente, algunos de los clientes de Hacking Team también fueron firmantes de una resolución de la Asamblea General de la Organización de Naciones Unidas que «condena la vigilancia masiva de Internet y pide a los estados miembros que revisen sus legislaciones y las alineen con los estándares de derechos humanos.»

A pesar de una dolorosa historia de represión, persecución y desaparecidos, nuestra región no parece mostrar señales contundentes de una erradicación de la vigilancia masiva contra los ciudadanos.  «Aunque Snowden ha arrojado luz sobre estas prácticas [de vigilancia], en América Latina permanecemos en la oscuridad», dice Ramiro Álvarez Ugarte, de la Asociación por los Derechos Civiles en Argentina.

Sobre esto, veamos algunos casos particulares.

Colombia

Colombia sobresale entre el resto de los países latinoamericanos por el despliegue de PUMA, una infraestructura dedicada a la vigilancia masiva. Según informa la Fundación Karisma, PUMA es ilegal porque está a cargo de la Dirección de Inteligencia Policial (DIPOL), cuya labor es de inteligencia, no de intercepción.

¿Qué poder tiene PUMA? Puede realizar la vigilancia masiva de datos de telefonía móvil 3G, así como de líneas principales de Internet, y monitoreo de comunicaciones de voz y de datos en todo Colombia. El informe original de Privacy International sobre la vigilancia en Colombia indica que PUMA es utilizado para espiar a periodistas, jueces, políticos de la oposición y activistas de derechos humanos.

México

México es un cliente frecuente de Hacking Team, en los gobiernos de por lo menos siete provincias, y seis instituciones  federales, tanto militares como de administración de justicia. Se calcula que el monto de esos contratos suma casi 6 millones de euros.

De forma contradictoria, el gobierno mexicano también preside la Alianza para el Gobierno Abierto, una iniciativa que reúne a más de sesenta países para «para promover la participación ciudadana, incrementar la transparencia, combatir la corrupción, y usar la tecnología como habilitador de esta apertura.»

El artículo 7 de la  Constitución mexicana es muy claro:

«Es inviolable la libertad de difundir opiniones, información e ideas, a través de cualquier medio… Ninguna ley ni autoridad puede establecer la previa censura, ni coartar la libertad de difusión».

Sin embargo, la última reforma a la ley de telecomunicaciones incluyó políticas para geolocalizar teléfonos móviles sin requerir orden judicial. Dadas las condiciones de vigilancia que vive el país, algunos activistas mexicanos comenzaron a crear plataformas a favor de la transparencia, como Mexicoleaks.

En 2015 México fue sede de ISS World Latin America, una exhibición de empresas dedicadas a la comercialización de equipos de espionaje para gobiernos, que son los mismos que se utilizan para espiar y perseguir a periodistas, activistas y defensores de derechos humanos. Por cierto, Hacking Team fue unos de los patrocinadores.

Argentina

Si bien Argentina solo ha tenido ciertas conversaciones con Hacking Team, se sabe de la presencia de Blue Coat, un contratista principal de la NSA en los Estados Unidos, y que recientemente compró equipos de espionaje a Alemania.

Por otro lado, el gobierno argentino promueve desde 2011 un sistema llamado SIBIOS, cuya meta es tener un registro de los rostros y huellas dactilares de toda su población. Para algunos activistas, SIBIOS es «el mayor atropello a las libertades individuales desde la vuelta a la democracia, principalmente porque es invasivo a nuestra privacidad y porque viola el principio de presunción de inocencia». Para otros, esa biometría masiva es un atentado al anonimato, la intimidad y la protección de datos.

Algunas referencias

La Electronic Frontier Foundation es una organización pionera de la defensa de los derechos digitales, tanto a nivel técnico como legal. Su trabajo, creo, ha inspirado la fundación de organizaciones especializadas en Latinoamérica. Estas son algunas de ellas:

Estas organizaciones tienen una participación activa en proyectos como Principios Internacionales sobre la aplicación de los derechos humanos a la vigilancia de las comunicaciones, una iniciativa interesante que promueve trece principios de vigilancia que sí son compatibles con los derechos humanos.

En Twitter hay algunas voces imperdibles en derechos digitales:

Criptografía y libertad

El discurso público de los gobiernos está enfocado en la apertura, la transparencia y todos los términos derivados del llamado Gobierno Abierto. No obstante, las evidencias demuestran que nuestros gobernantes vigilan nuestras comunicaciones de formas cada vez más sofisticadas.

El Manifiesto Cypherpunk dice: «no podemos esperar que los gobiernos, corporaciones u otras organizaciones nos cedan el derecho a la privacidad».  Quizá la verdadera privacidad de una sociedad abierta, en cualquier parte del mundo, llegará solo a través de la criptografía. Esto representa una gran oportunidad para que organizaciones activistas en derechos digitales diseñen estrategias educativas, por una parte cívicas, por otro, técnicas, que impacten más allá de los círculos habituales.

Si Internet era un tema casi exclusivo para ingenieros hace veinte años, no es difícil suponer que la criptografía «escondida» detrás de mejores herramientas y conceptos pueda ser parte de la vida diaria de cualquier persona. Es posible que Bitcoin se convierta en la primera tecnología a gran escala con esa naturaleza.

Por lo pronto sabemos que la vigilancia masiva es una realidad global, la sugerencia es que estemos atentos al pulso de nuestros gobiernos y preparados para cuidar nuestros derechos fundamentales. Creo que tenemos —y tendremos— herramientas a nuestro favor.





Internet en América Latina

América Latina representa el 10% de los usuarios de Internet en todo el mundo. ¿Para qué se usa Internet?


Estudiantes con netbooks del programa Conectar Igualdad, Argentina, 2012. Fuente: Flickr

Un panorama sobre el estado de implantación y uso de Internet en una de las zonas del mundo, América Latina, que supone el 10% de los usuarios de todo el mundo. Presentamos tres manifestaciones que, por su innovación política, técnica o ciudadana, ofrecen un buen panorama de la diversidad de formas en que se piensa y se utiliza Internet: la FLOK Society en Ecuador, la Rhizomatica en México y el caso de Cuba: el otro Internet.

Un paraíso para las redes sociales

En América Latina representamos el 10% de los usuarios de Internet en todo el mundo. ¿Para qué usamos Internet? Todo indica que adoramos la comunicación, nadie pasa tantas horas frente a las redes sociales como nosotros: diez horas en promedio, que son cinco horas más que el resto del mundo. También representamos el 20% de los usuarios mundiales de Facebook y casi el 40% de WhatsApp. Nuestro crecimiento en otras redes sociales como Twitter, LinkedIn o YouTube ha sido exponencial en los últimos años, y ello se debe primordialmente a tres factores:

  1. Las constantes mejoras en infraestructura de Internet.
  2. La enorme penetración de los dispositivos móviles en nuestra región.
  3. Una inmensa población joven que está ávida de contenidos sociales.

Nuestra región es un paraíso para las redes sociales —algunos dicen que Brasil es su capital —, y es tan dinámico que las empresas y sus negocios han volteado a mirarnos con ambiciosa seriedad.

 ¿Seguiremos creciendo?

Internet crece rápidamente en América Latina, quizá como nunca. A decir de la Comisión Económica para América Latina y el Caribe (CEPAL), el porcentaje de penetración de Internet en la región se duplicó en los últimos años: de hecho pasó del 20,7% en 2006 al 46,7% en 2013. La mala noticia es que solo una tercera parte de ese porcentaje corresponde a Internet de banda ancha. Tenemos velocidades hasta 16 veces menores que los países desarrollados y, todavía peor, en ciertos casos el acceso a la red es hasta 20 veces más caro. Pero hay fuertes indicios de que la cobertura y velocidad de Internet en América Latina seguirán en ascenso:

  1. UNASUR (la Unión de Naciones Suramericanas) está por construir una infraestructura que llama «anillo digital»: una red de fibra óptica de diez mil kilómetros que mejorará sustancialmente las condiciones de acceso y velocidad de Internet en la región sur de América. Esta organización estima que la obra quedará lista para 2020.
  2. Brasil, la principal economía de la región, tiene más de cien millones de personas conectadas a Internet, más de la mitad de su población, ubicándose en el quinto lugar del planeta después de países como China y Estados Unidos. El crecimiento de Brasil se debe a una interesante combinación de trabajo gubernamental y, sobre todo, ciudadano. En Brasil encontramos políticas de acceso y uso de Internet tan avanzadas como su ejemplar marco civil, que promueve el respeto de los derechos civiles en la red, así como cientos de proveedores independientes de acceso a Internet que funcionan como «pequeños productores» distribuidos por todo el país. Este es un caso digno de replicar en toda la región.
  3. En el norte de América, México y Costa Rica han avanzado a través de marcos regulatorios que intentan promover la competencia y aumentar la cobertura de Internet. México, en particular, tiene el reto de debilitar el monopolio de la empresa Telmex, propiedad del multimillonario Carlos Slim, que encarece el acceso a la red a la vez que ofrece baja calidad en sus servicios debido a la falta de competencia. Esto está cambiando rápidamente a favor de más de cincuenta millones de personas.

Cabe mencionar que la reforma de telecomunicaciones mexicana tiene aspectos que merman la neutralidad de la red —unos principios básicos de Internet que establecen un balance competitivo entre los proveedores de servicio y sus usuarios—. Sin tener en cuenta temas preocupantes para los derechos digitales de los mexicanos.

Tres formas distintas de hacer Internet

A continuación quiero presentar tres manifestaciones que, por su innovación política, técnica o ciudadana, ofrecen un buen panorama de la diversidad de formas en las que pensamos y usamos Internet en América Latina.

Ecuador: FLOK Society

Free/Libre Open Knowledge (FLOK) Society es un proyecto ecuatoriano de creación colaborativa de políticas públicas. Su objetivo es desarrollar una sociedad del conocimiento libre sustentada en la conectividad de Internet y sus redes.




Está inspirado profundamente por dos filosofías:

  1. La filosofía del software libre, en la que todo el conocimiento debe ser libre, compartido y creado en comunidad, inspirada, a su vez, por la llamada «ética hacker», nacida en los albores de la computación (principios de los setenta), que habla del derecho a acceder a todo el conocimiento.
  2. La Pachamama, que habla de «principios de reciprocidad (randi-randi) y organización del trabajo comunitario (maki-maki)», que, a su vez, conforman un procomún cultural de la región andina.

Guiado por esos principios, FLOK arrancó en 2013 convocando a decenas de expertos agrupados en temas estratégicos para el Ecuador, lo mismo políticos que abogados, académicos, artistas y hackers sentados en la misma mesa. Así nació la Cumbre del Buen Conocer y, como resultado, el libro colaborativo FLOK Society: Buen Conocer.

FLOK es una respuesta política opuesta al llamado «capitalismo cognitivo»:

«La Revolución del Conocimiento, que propone la innovación, la ciencia y la tecnología, como fundamentos para el cambio de la matriz productiva, concebida como una forma distinta de producir y consumir.»

FLOK sigue en marcha y, como el software libre, conforma un «código» de políticas públicas para que sean aprendidas y mejoradas en cualquier parte del mundo.

México: Rhizomatica

La misión de Rhizomatica es ofrecer acceso a las telecomunicaciones móviles a más de dos mil millones de personas para quienes el servicio es impagable, y para setecientos millones que ni siquiera lo tienen. ¿Cómo lo hacen? Utilizando software y hardware libre siempre que sea posible para la transmisión y recepción de datos, estudiando los aspectos regulatorios pertinentes y entrenando a las comunidades para que preserven la autonomía de sus comunicaciones.

El proyecto nació en Oaxaca, México. Su primera estación de telecomunicaciones fue instalada en una población zapoteca de tres mil habitantes llamada Talea, sin acceso a la telefonía y mucho menos a Internet. Según el coordinador del proyecto: «En Talea el equipo es del pueblo. Hubo una asamblea, la gente del pueblo dijo que sí querían la red, adquirieron el equipo con dinero de la comunidad y la infraestructura es de todos.»




Hay unas cincuenta mil comunidades similares en todo México, y Rhizomatica quiere que cada una también sea dueña de su propia infraestructura. Hasta el momento, el equipo de Rhizomatica, compuesto por hackers e ingenieros, ha instalado cerca de veinte redes de comunicación en diferentes comunidades oaxaqueñas.

Y, como ellos mismos lo mencionan, en 2015 se vieron favorecidos por un apartado de la reforma mexicana en telecomunicaciones que les permitirá transmitir en ciertas frecuencias si el objetivo es social, especialmente en zonas donde no existe infraestructura básica de telecomunicaciones. De este modo, la operación de Rhizomatica es completamente legal en México.

Esperemos que Rhizomatica siga creciendo para ofrecer acceso a las comunicaciones móviles en general, y a Internet en particular, a comunidades sacadas del mapa de Internet por los modelos de negocio de las empresas y el olvido del gobierno.

Cuba: el otro Internet

La falta generalizada de Internet en Cuba está dando lugar a «otro Internet», uno muy humilde que no usa cables, ni módems, ni infraestructura alguna para conectar dispositivos y personas: usa discos duros y, claro, personas que los transportan de un lugar a otro. Este es el llamado «Paquete semanal».

Se dice que solo el 5% de la población cubana cuenta con acceso regular a Internet, del cual solo el 1% es banda ancha. La señal WiFi solo funciona en áreas públicas, mientras que el costo por hora equivale al 20% de un salario promedio mensual.

En estas condiciones, el acceso a la red parece estancado en los años noventa. Así, es impensable ver vídeos de YouTube cotidianamente, leer tranquilamente cualquier diario del mundo, o montar una startup de tecnología como en otras partes del mundo.

Pero esa situación está cambiando con la paulatina retirada del embargo norteamericano en 2015. Para el año 2020 el gobierno cubano espera que el 50% de su población tenga Internet desde sus hogares.

¿Qué podemos encontrar en el «Paquete semanal»? Casi de todo. Series de televisión, telenovelas, músicas, películas, vídeos musicales, también una compilación de las principales revistas del mundo, software, aplicaciones para teléfonos móviles, etc. Hasta incluye anuncios de negocios locales.




¿Cuál es el origen de ese material? Alguien lo tiene que descargar la primera vez. La falta de material pornográfico y político sugiere que es el propio gobierno el involucrado en su producción, pero no sabemos más. Mientras tanto, es un negocio lucrativo que pronto caducará si el gobierno cubano cumple su promesa de conectividad.

¿Qué sigue?

Latinoamérica es una región de extremos culturales, políticos y también tecnológicos. Es natural encontrar tanta diversidad. Mientras algunos solo quieren consumir el último capítulo de su serie favorita, otros construyen empresas con Bitcoin para desarrollar las economías del futuro, todo por Internet.

¿Qué sigue para el Internet latinoamericano? A decir por los datos, vienen cinco años de transformación radical en la infraestructura y regulación locales que darán un dinamismo tremendo a los ciudadanos. Esto traerá beneficios enormes en todos sentidos, sobre todo en lo educativo y económico, pero también una preocupación latente en materia de derechos digitales.

Más allá de bytes, máquinas o código fuente, Internet es, sobre todo, conectar a personas, en local y global, a través de la información y el conocimiento. Hacer Internet es «aprender y crear incesantemente desde la red, en red, y para la red». Así que, ante la complejidad de las nuevas redes y conexiones que harán más Internet en Latinoamérica, solo queda participar y sorprendernos.





Cory Doctorow: «Cada euro que gastamos en espiar a nuestros hijos es un euro que no gastamos en educarles»

Con motivo de su paso por la programación continua de Kosmopolis, para presentar su cómic En la vida real, hemos entrevistado a Cory Doctorow.


¿Qué beneficios aportan los videojuegos? ¿Cómo deberían integrarse las nuevas tecnologías e Internet a la educación en las escuelas? ¿Qué es lo que no funciona de la ley del copyright y qué propuestas harías para redefinirla? Con motivo de su paso por la programación continua de Kosmopolis, para presentar su cómic En la vida real, hemos entrevistado al escritor y activista digital Cory Doctorow.

Para él los videojuegos son una forma de expresión artística como lo pueden ser las novelas y defiende su capacidad para construir imaginarios. Nos cuenta que considera Internet una herramienta para colaborar y organizarnos y que, por lo tanto, debe incorporarse a la educación de forma abierta y sin tabúes. Critica la actual ley de copyright que considera todas las creaciones por igual, sin tener en cuenta si el uso que se hace de ellas es industrial, cultural o de otro tipo. En este sentido, realiza dos propuestas muy claras: que los autores o creadores de una obra tengan el control de los derechos de sus propias obras y puedan autorizar a saltarse la ley del copyright si lo desean, y que la tendencia sea hacia menos intermediarios entre el creador y su público, de modo que pueda existir una competencia real.

Doctorow es un activo defensor de la cultura libre en Internet, el Creative Commons y la liberalización del copyright y, como tal, ha cedido los derechos de la entrevista al CCCBLab para que podamos compartir su contenido libremente.





La cultura maker en China (III): Con las manos en la materia, por el progreso económico y social

El aprehender haciendo y la experimentación libre que caracteriza los procesos Maker son las claves para conducir al cambio del «Hecho en China».


Creando con las manos. Fuente: Flickr.

El acento en la innovación de la cultura Maker desarrollada en este país, así como el viraje hacia el mercado propiciado por el encuentro con la economía Shanzhai, hacen de la promoción de los Makerspaces no solo una oportunidad para impulsar la economía del país, sino también una vía de modernización de su sistema educativo, anclado en la tradición y focalizado en el gaokao, las pruebas de acceso a la universidad, que favorece un aprendizaje basado en la repetición de memoria. El aprehender haciendo y la experimentación libre que caracteriza los procesos Maker son las claves para un cambio educativo hacia un sistema capaz de producir una nueva clase productiva, nuevos profesionales que puedan crear y tomar riesgos para conducir al cambio del «Hecho en China», la concepción del país como proveedor de mano de obra barata para las compañías de occidente, al «Creado en China».

De este modo, en 2011, solo un año después de la creación de XinCheJian, las autoridades de Shangai propusieron la creación y financiación de «cien casas de innovación», espacios situados en centros comunitarios destinados al entrenamiento en el uso de herramientas postdigitales. Según David Li, quien colabora activamente en la implementación de estos centros, «Ya existen 72 que están en desarrollo en centros comunitarios alrededor de Shangai. La política mediática de los Makerspaces del ministro Li Keqiang ha atraído la atención hacia esta iniciativa y va a dar lugar a un desarrollo importante durante 2015».

Más ambiciosa es la construcción, en la Universidad Tsinghua de Pekín, del Makerspace más grande del mundo. Un edificio de 16.000 metros cuadrados destinado a incorporar la experimentación con hardware abierto al currículo de todos los estudiantes de este centro, el más prestigioso del país en la formación de ingenieros. Esta universidad también ha creado el «Día de los Makers», el primero de los cuales se celebró el año pasado, un encuentro que, junto con el prestigio asociado a este centro, contribuye a la promoción de la incorporación de la cultura Maker a la educación.

El apoyo gubernamental a la expansión de este movimiento en China también ha hecho posible la instauración de una feria Maker. Las Maker Faires constituyen otra iniciativa asociada a la publicación Make. Iniciados en 2006 en Estados Unidos, estos encuentros se han extendido a todo el mundo, aglutinando workshops, exposiciones y demostraciones relacionados con el DiY Making y atrayendo a aficionados de todo el mundo. La primera Maker Faire de China se celebró en Pekín en 2012 gracias al apoyo de la Liga Joven Comunista, y posteriormente fue trasladada a Shenzhen, donde en la pasada edición atrajo a 30.000 visitantes.




Más mediática fue la visita, el pasado mes de enero, del primer ministro chino al Makerspace Chaihuo de Shenzhen, subrayando la importancia de este movimiento para el desarrollo económico del país, después de que el pasado noviembre el alcalde de esta ciudad, Sahnzhen Xu Qin, publicara la Declaración Global de los Makers, haciendo de esta ciudad un lugar de acogida y promoción de esta nueva cultura productiva.

La interferencia del estado en este movimiento no es exclusiva de este país. La Casa Blanca anunció recientemente la celebración de su propia Maker Faire, así como el apoyo de la administración de Obama a compañías sin ánimo de lucro, para promover este movimiento. En un plano más controvertido, el Programa de Proyectos Avanzados para la Defensa de Estados Unidos (DARPA) está invirtiendo millones de dólares en proyectos surgidos de esta cultura. Este apoyo se sustenta en la reubicación de los Makers como un movimiento económico, una revolución a lo Silicon Valley, en que la cultura Maker se percibe como un nuevo proceso de innovación, basado en la implementación de productos tecnológicos hacia el progreso económico y que la separa drásticamente de los ideales que llevaron a la fundación de los primeros Hackerspaces en Europa. La crítica activa de las implicaciones de la implementación de las nuevas tecnologías en la sociedad, el mantenimiento de una experimentación libre de intereses económicos hacia la creación disruptiva de nuevos procesos sociales y el empoderamiento ciudadano mediante el aprendizaje colaborativo de los procesos materiales que conforman nuestro mundo conduciendo hacia una intervención en el mismo y la independencia del mercado de consumo. La cultura Maker no solo da lugar a nuevos productos, sino también a nuevas formas de trabajo y producción. Convertido en un fenómeno global, en el que ha entrado a formar parte China y su gran infraestructura fabril, este movimiento podría dar lugar a una nueva distribución geopolítica de las fuerzas de producción y económicas.

Pero, al mismo tiempo, en China, donde la implementación de las nuevas tecnologías ha sido guiada hacia el progreso económico y el control y vigilancia de la población, todo ello ha dado lugar a una red de comunicación separada del mundo y férreamente controlada por el estado, donde la libertad de expresión solo es posible en forma de subterfugio. Se trata de un país en que los encuentros civiles son vistos con recelo e imposibles de llevar a cabo sin el apoyo y aprobación del estado, y donde la población se halla sumamente proletarizada, con un sistema educativo anclado en la perpetuación de la tradición y donde se forman a profesionales especializados en detrimento del pensamiento crítico y especulativo. Para esta población ocupada en su subsistencia y en su promoción social, consistente en el acceso al mercado de consumo, el movimiento Maker puede suponer un inicio de apertura y de empoderamiento ciudadano. XinCheJian es un lugar de acogida para gentes de cualquier procedencia: «Estar en Shangai tiene sus ventajas, ya que todo el mundo viene a Shangai. XinCheJian es visitado frecuentemente y nosotros damos una cálida bienvenida a Makers de todo el mundo. Como la ciudad de Shangai misma, XinCheJian ha sido internacional desde el primer día, lo que ha contribuido grandemente a su ambiente lúdico». Cualquiera que se aproxime a este Makerspace se encuentra con una gran familia, internacional, un espacio lúdico donde, al margen de la necesidad y las ofertas de ocio convencionales, se da forma a nuevas ideas siempre con las manos en la materia. Cuando se le pregunta a su fundador qué ha dado lugar a la creación del ambiente de este espacio, responde: «La idea de ser abierto y mantenerlo divertido».

Taller de introducción a Arduino para niños en XinCheJian. Foto cortesia de Sandra Álvaro y David Li.

Ahora bien, el comprometerse en la producción de cosas de modo colectivo debería dar lugar a la comprensión crítica de cómo estas nuevas tecnologías se implementan en la sociedad. El abrir la caja negra de los aparatos que aparecen completamente realizados  y conforman nuestra cultura los devuelve a su contexto, mostrando los procesos sociales, económicos y culturales que les han dado origen. Un modo de pensar con los objetos, como lo denomina Garnet Hertz, uno de los iniciadores del Critical Making, un modo de pensar la tecnología que se relaciona con los laboratorios creados por Matt Ratto y otros desarrollos surgidos del encuentro de la tecnología e ingeniería con el diseño y las humanidades, como la ingeniería crítica o el diseño disruptivo y ficcional. En China, donde las nuevas tecnologías de información y computación han sido implantadas de modo acelerado al margen de su desarrollo histórico, se está generando una cultura cuyo contexto es más difícil de rastrear. Centrados en el avance hacia una nueva sociedad basada en la innovación y el progreso económico, la reflexión humanística de los efectos teóricos y sociales de la implementación de estas tecnologías queda por hacer. Y ello está sumiendo al país en un avance ciego que ignora qué sociedad está creando.

* Entrevista realizada a David Li en marzo 2015.





La cultura maker en China (II): Shanzhai, innovación emergente en un ecosistema de manufactura abierto

China ofrece un modelo alternativo para llevar la cultura Maker del campo del ocio al del mercado. Shanzhai, un think tank sobre sistemas de innovación abiertos


Montaje de TV-B-Gone SHP Gen5. Shanghai, 2011. Fuente: Flickr.

China ofrece un modelo alternativo para llevar la cultura Maker del campo del ocio al del mercado. Este se desarrolla en el encuentro con otro proceso de innovación abierta surgido en el ecosistema de manufactura electrónica que se ha generado en China. David Li y sus colaboradores en Hacked Matter, un think tank sobre sistemas de innovación abiertos en China, denominan este sistema Shanzhai.

Formando parte del sistema de producción desplazado a lo que se denomina el mundo en vías de desarrollo, China aglutina un gran tejido fabril destinado a la manufactura de componentes electrónicos, mayormente situado en la región de Guangdong, en el delta del Río de la Perla. Este ecosistema ágil y low-cost ha mantenido su competitividad gracias a la elaboración de copias, remakes y sistemas para compartir sus diseños.

Shanzhai significa «pueblo de montaña», y se usaba para hacer referencia a los bandidos, oponentes de un gobierno corrupto, que se escondían en las zonas rurales. Este término ha pasado a denominar las copias o falsificaciones de bajo precio y calidad fabricadas en China. El rechazo del individualismo que caracteriza la tradición cultural de este país lleva a un escaso aprecio o comprensión por las leyes de propiedad intelectual, lo que ha favorecido que durante años estos fabricantes «bandidos» hayan aplicado ingeniería inversa a los dispositivos inventados por grandes compañías como Apple o Sony para adaptarlos a la demanda de productos de bajo coste. Estos productos, en su mayoría teléfonos móviles, se pueden hallar en los cybermarts, grandes almacenes que aglutinan toda clase de componentes y gadgets electrónicos, bajo marcas dudosas como Svumsung, Blockberry, Nakia o Anically, junto a otras propuestas de dudoso gusto, como teléfonos en forma de paquetes de cigarrillos, personajes de anime u otros enseres. Pero, además, estos productos son ampliamente distribuidos en países de Asia, África, Oriente Medio y Sudamérica, alcanzando una producción de doscientos millones de teléfonos al año y siendo responsable de un cuarto del mercado global. Estas imitaciones no solo han ido ganando en calidad, sino que la modificación de estas tecnologías para adaptarlas a pequeños nichos de mercado, al margen de las grandes compañías, ha llevado a la emergencia de innovaciones, que posteriormente han sido aplicadas por grandes marcas. Es el caso de la SIM dual, lo que permite a un teléfono operar con dos tarjetas al mismo tiempo, que se desarrolló para que gente que conmuta frecuentemente entre países pudiera ahorrarse los gastos de roaming, una aplicación que después fue implementada en los modelos de Blackberry.




Este vídeo introduce la segunda parte de una serie de talleres organizados por Hacker Matter en Shanghai Maker Carnivale 2013.

El remake no es la única forma de innovación del Shanzhai, este ecosistema de pequeñas empresas dedicadas a la manufactura electrónica. Ha mantenido la competitividad y bajo coste mediante la creación de sistemas que permiten compartir sus diseños, lo que no solo abarata el proceso de producción, sino que acelera el proceso de creación de nuevos productos, favoreciendo una innovación bottom-up. Por ejemplo, la compañía taiwanesa World Peace Industrial (WPI), una empresa de componentes electrónicos localizada en Shenzhen, desarrolla placas de circuitos de referencia denominadas gongban (base pública); estas proveen funciones básicas desde conexión bluetooth hasta sensores para medir los movimientos de sus usuarios, sus pulsaciones u otras estadísticas vitales. Estos gongban pueden ser usados por infinidad de compañías, que pueden incorporarlos en sus productos directamente o construir a partir de ellos, modificándolos. Esta compañía produce unos 130 circuitos al año, que pueden ser usados para la fabricación de smartphones, tabletas, los ahora en boga relojes inteligentes, edificios inteligentes y controles industriales, y gana dinero comercializando los componentes. Este modo de hacer a lo Maker, sometido a la subsistencia y la necesidad, ha generado una red de manufactura ágil y accesible, capaz de producir a pequeña escala y con bajos presupuestos a un ritmo rápido, dotando a los makers/emprendedores de una infraestructura que permite convertir sus proyectos en productos.

Así lo vio Pan Hao, el joven emprendedor que en 2008 fundó los Seeed Studios. Una empresa de hardware abierto surgida de la intersección de la manufactura industrial y la cultura del Hackerspace. Esta empresa ofrece a los Makers la oportunidad de producir y comercializar sus ideas, asistiendo en la realización de prototipos rápidos y la producción de pequeñas remesas. Seeed aprovecha la experiencia y los recursos generados por el ecosistema manufacturero para ofrecer todos los servicios necesarios para comercializar un producto a partir de un presupuesto limitado, desde componentes de hardware abierto hasta servicios de crowd funding. Un sistema de producción abierta, a partir de un sitio web, en el que participan más de setenta mil personas, donde cualquiera puede colgar sus propuestas y donde las ideas más apoyadas por la comunidad son producidas.

Esta empresa, que se inició con dos trabajadores, ahora cuenta con más de cien asalariados y lleva unos quinientos proyectos al mercado cada año, que van desde conexiones wifi a través de bluetooth hasta escáneres láser, con unos beneficios que exceden los diez millones de dólares anuales. Habiendo hecho posible que cualquiera pueda llevar un producto al mercado, se ha convertido en el mayor proveedor del mundo de tecnología manufacturada a pequeña escala. Bajo el lema «Innova con China», esta empresa también cuenta con su Hackerspace, Caihuo, ambos situados en Shenzhen, la Silicon Valley del hardware. Shenzhen es el corazón del tejido fabril de Guangdong, aglutinando un tercio de las empresas manufactureras de esta zona. Esta ciudad fue la primera zona económica especial (SEZ), una excepción al proteccionismo chino, que le permite recibir inversiones extranjeras, lo que la ha llevado a ser la ciudad de mayor y más rápido crecimiento del mundo, alcanzando una población de diez millones de personas. Este núcleo industrial, ahora sede de la Maker Faire, acoge a varios Hackerspaces y otras empresas de innovación similares a Seeed, entre ellas, HAXLR8R (pronunciado hackelerator), una compañía fundada en 2011 que ofrece apoyo y financiamiento a startups chinas y extranjeras. Las empresas, al entrar en esta organización, reciben un incentivo de 25.000 dólares y asesoría profesional, antes de ser invitadas a Shenzhen a desarrollar sus productos.

Esta capacidad para atraer talento extranjero y generar nuevas empresas ha captado la atención del gobierno chino hacia la cultura de los Hackerspaces. La Maker Cultura y el Hecho en China han sido dos de los temas abordados este año en Lianghui, sede de las reuniones anuales del Congreso Popular Nacional (NPC) y la Conferencia Consultiva Política Popular (CPPCC), encuentros donde se define la agenda económica del país.





La cultura maker en China (I): XinCheJian, un Hackerspace con características chinas

XinCheJian es el primer Hackerspace surgido en China, un espacio el hacer deviene creación.


Jugando a Go. Shanghai, 2006. Fuente: Wikipedia.

China ha sido conocida como el lugar del fake y la copia. Hoy en día, en cambio, tras un acelerado crecimiento económico y tecnológico, se halla comprometida en el desarrollo de la creatividad y la innovación. Este impulso se materializa en el florecimiento de un movimiento «Maker» apoyado por el gobierno y para el que Shanzhai ha dejado de significar «copia fabricada en Shenzhen» para denominar una nueva forma de innovación, basada en la manufactura de fuente abierta y el remake continuo.

Un Hackerspace es un entorno donde la gente puede aprender y juguetear con la tecnología, trabajar en equipo, participar en competiciones internacionales, donde se pueden encontrar y crear oportunidades para todos. Esta es la definición que encontramos en la web de XinCheJian, el primer Hackerspace surgido en China.

XinCheJian fue fundado en 2010 por David Li y sus colaboradores. Este se inició de modo informal, tal y como cuenta David Li*: «El inicio de XinCheJian fue bastante inocente. Yo comencé a experimentar con Arduino, impresión 3D y otras tecnologías similares en 2008. Conforme las cosas se iban acumulando y desordenando mi hogar, el tener un espacio dedicado a este fin tomaba sentido. Empezamos a organizar eventos para discutir sobre Makerspaces en XinDanwei, el primer espacio de co-working en China, y atrajimos bastante interés. Conocí a Minlin Hsieh y a Ricky Ng-Adam en 2010 y juntos decidimos que ya era tiempo de abrir uno. El nombre XinCheJian fue sugerido por Liu Yan, una de las fundadoras de XinDanwei. Danwei significa “unidad de trabajo” en chino, y ChinDanwei, siendo un espacio de trabajo colaborativo, se supone que es una nueva clase de unidad de trabajo. CheJian significa “fábrica” y XinCheJIan se refiere a una nueva forma de hacer y manufacturar».

Cajas de proyectos en XinCheJian. Foto cortesía de Sandra Álvaro y David Li.

Estos espacios dedicados a la fabricación digital se caracterizan por ser comunidades locales. Pese a compartir un ethos común, estos se adaptan y se desarrollan conforme a las características del entorno donde se ubican y de la comunidad que los sostiene. Situado en un país emergente, donde la revolución industrial se ha sucedido de modo acelerado y simultáneamente a la implantación de las tecnologías digitales, desarrollándose una enorme estructura industrial dedicada a la manufactura electrónica, animada por un discurso en que el progreso se halla unido al determinismo tecnológico, el DiY Making en China no se asocia a la nostalgia por la producción manual ni a la contracultura que anima a otros centros. En este sentido, XinCheJian es un Hackerspace con características chinas: «En la mayoría del mundo, los Makerspaces son o nostalgia por la manufactura del pasado en el caso de Estados Unidos y Europa o un nuevo modo de hacer para el futuro, en el caso de África. Sin embargo, en China, siendo la fábrica del mundo, la manufactura es el presente y el ahora. Cómo construir un Makerspace donde la gente hace cosas por diversión en un entorno donde producir es la principal actividad económica es el reto tanto en un sentido filosófico como práctico. De aquí el hecho de construir un Makerspace con características chinas».

Situado en el distrito de Jing’an, una de las mayores zonas comerciales y de ocio de Shangai, a la vuelta de la esquina de la calle Changde y sus grandes centros comerciales, se encuentra XinCheJian, ocupando parte de los bajos de XinDanwei. Un imbricado espacio donde las herramientas y cajas de proyectos se acumulan alrededor de dos grandes mesas de trabajo. 100 CNY mensuales, unos 15 euros ―130 si se quiere disponer de una de las cajas de almacenaje colgadas en la pared― dan acceso al uso del espacio y todas las facilidades y, lo que es más importante, a formar parte de una comunidad activa y abierta. Mayormente conformada por trabajadores especializaos con alto nivel formativo, expatriados y aves de paso, entre ellos artistas, ingenieros, diseñadores, programadores, tecnólogos, estudiantes y todo aquel que tenga interés en hacer cosas; que en su tiempo libre y alejados de las necesidades y los intereses económicos emplean sus conocimientos y experiencia en materializar ideas, que se enriquecen en un proceso de intercambio y cooperación. De este modo se desarrollan proyectos relacionados con el hardware abierto, entre ellos el Quadcopter, una máquina voladora que se autoestabiliza, desarrollada a partir de diseños abiertos y ampliamente accesibles, o más relacionados con las necesidades de la comunidad, como el filtro aaiiirrr.org, un filtro de aire open source, destinado a paliar los efectos de la excesiva contaminación de esta ciudad, o más lúdicos como los Insectbots, kits de construcción de robots de fácil manejo y ensamblaje destinados a niños. La computación física es otro de los ámbitos de experimentación, en el desarrollo de los «dispositivos de asistencia», dispositivos que implementan sensores y controladores para asistir a personas con necesidades específicas en el cumplimiento de tareas diarias. Finalmente, la investigación en Internet de las cosas ha dado lugar al desarrollo de un detector de calidad de aire, con el que este centro colabora en el proyecto internacional datacanvas.org. Las cooperaciones en proyectos con instituciones y empresas tanto locales como internacionales también son habituales, entre ellas el proyecto Toy Hack, una colaboración con la empresa Nestworks, destinado a adaptar juguetes para que niños con necesidades especiales también puedan aprender jugando. Un proyecto que ha alcanzado un gran éxito en el show televisivo de crowd funding, Makers.

Demostración de uno de los Insectbots.

El desarrollo y mantenimiento de la comunidad constituyen uno de los principales objetivos de este espacio. Para ello se organizan encuentros lúdicos como el Roboracing, un concurso en que los participantes deben desarrollar robots para participar en una carrera; educativos como workshops destinados a la introducción y el perfeccionamiento, tanto de niños como adultos, en el manejo de herramientas postdigitales, impresoras 3D o Arduino, entre otras, o nuevos lenguajes de programación, y encuentros abiertos al público en general. Entre estos últimos destacan las open night. Cada miércoles, a partir de las 19.00 horas, XinCheJian se abre al público, convirtiéndose en un escenario abierto, donde cualquiera, después de anunciarse en el programa y ajustarse a unas reglas mínimas, puede presentar su proyecto, un espacio en el que han participado practicantes, artistas y teóricos implicados con este movimiento de todo el mundo.

En este espacio el hacer deviene creación. Implicados en la experimentación con la materia en un intercambio continuo en que se entrecruzan conocimientos de diversas disciplinas, ideas descabelladas o lúdicas y necesidades sociales, los Makers sacan la innovación de los laboratorios de grandes compañías y los estudios de mercado para trasladarla a un espacio abierto y emergente, donde los consumidores son empoderados creando sus propios productos. Este proceso de innovación da lugar al surgimiento de productos que muchas veces pasan al mercado y nuevas asociaciones que se convierten en nuevas empresas. Así, por ejemplo, miembros de XinCheJian, constituyeron la compañía de robótica DFRobot, y al mismo tiempo, miembros de ese colectivo que no poseen una startup por sí mismos toman parte en la organización de startup weeckends, bootcamps o hackatons.

Celebración del Roboracing en XinCheJian. Foto cortesia de Sandra Álvaro y David Li.

Este paso de los procesos Maker al mercado no es nuevo. Entre los casos más conocidos está MakerBot. Este proyecto, iniciado en 2009 por Bre Pettis, Adam Mayer y Zach «Hoeken» Smith, para la construcción de una impresora de hardware abierto y fácil manejo, fue una de las campañas más exitosas en la historia de kickstart. Este entusiasmo inicial atrajo gran número de contribuciones, dando lugar al desarrollo de un producto de diseño atractivo, de fácil manejo y económicamente accesible. En 2012, Bre Pettis convertiría MakerBot en una empresa privada, cerrando los diseños de los nuevos modelos Replicator 2 y 2X, al mismo tiempo en que modificaba los términos de uso del repositorio Thingiverse y creaba toda una infraestructura para la fabricación y comercialización de este producto. Poco después, MakerBot se uniría a Stratasys y saldría a bolsa, siendo vendida por 403 millones de dólares. Después de una historia llena de controversias, problemas de dirección y producción, este producto destinado a revolucionar la fabricación digital abierta se ha convertido en otro producto de consumo, dentro del sistema de mercado tradicional.

En China la relación entre la producción Maker y la promoción de nuevos productos y empresas se estrecha, haciéndose más accesible, gracias a que los procesos que hacen posible el hardware abierto y el remake se han desarrollado de forma espontánea en el ecosistema manufacturero que constituye la fábrica del mundo. Una situación que otorga a este país un papel diferenciado en la Tercera Revolución Industrial ligada a la globalización de este movimiento.

* Entrevista realizada a David Li en marzo 2015.





La otra red tras la gran muralla (II)

Chinanet es una Internet autónoma, separada del mundo y caracterizada por un uso distinto, más cercano a la performance que a la participación.


La Gran Muralla China a Nankou, 1920. Fuente: The National Archives UK.

Con más de 564 millones de usuarios, China cuenta con la mayor red de ciudadanos conectados del mundo. Internet se implantó en China en el año 1994, encauzando con el proceso de reforma iniciado después de la Revolución Cultural. La economía de mercado socialista consiste en la apertura del país a capitales extranjeros y la implantación de las nuevas tecnologías. Una política que dio lugar a lo que Rodney Wai-chi Chu y Chung-tai Cheng denominan «doble conmoción» (double juggernaut), la acelerada y simultánea capitalización y cibernetización del país. La segunda parte de este artículo analiza el desarrollo del Chinanet, una Internet autónoma, separada del mundo y caracterizada por un uso distinto, más cercano a la performance que a la participación.

El Chinanet es un espacio lúdico en el que los usuarios pasan una media de 20,5 horas semanales, conectándose principalmente desde el hogar (el 91,7%). El uso de los cibercafés, un espacio de promoción y acceso habitual al principio de Internet, ha descendido desde que los ordenadores y el servicio se han hecho más accesibles, pero, lejos de desaparecer, como en otros países, estos espacios siguen siendo lugares de encuentro para jóvenes que acuden a jugar en línea, manteniendo una tasa de conexión de un 32,4%. Entre las aplicaciones más utilizadas, ya hemos citado la mensajería instantánea, que es usada por el 82,9% de la población, frente al declive del correo electrónico, solo utilizado por el 44,5%. A esta la siguen el uso de buscadores, la música en línea –435 millones de usuarios–, los blogs personales, los vídeos, los videojuegos, y los microblogs, que cuentan con 309 millones de usuarios, un 65,5% conectados a través del móvil. Por debajo están las redes sociales, con 275 millones de usuarios, y la compra en línea. Esta última, sin embargo, está experimentando un fuerte crecimiento, cercano al 25% anual, alcanzando en 2013 los 242 millones de usuarios. Estos datos muestran una cultura digital activa a pesar del control y un uso diferenciado del resto del world wide web. El desarrollo de este uso se debe, por una parte, a la acelerada asimilación de este medio, que se ha asociado al mercado de consumo y a un incremento del bienestar así como a un discurso basado en el determinismo tecnológico. Por otra parte, a una herencia cultural que sigue estando viva en el trasfondo de la sociedad civil china.

En el resto del mundo Internet no es una tecnología, sino un medio que ha evolucionado a partir de la convergencia de varias tecnologías iniciadas a partir de los años sesenta, pero también de diferentes conceptos y teorías tomadas de distintos campos de estudio. Un medio programado que se ha ido desarrollando conforme a las exigencias del mercado, pero que también ha contado con las aportaciones y los usos diferenciados de sus diversos creadores y usuarios, y donde se han encontrado ingenieros y tecnólogos, pero también científicos, psicólogos, educadores, artistas y diseñadores. Un espacio de convergencia para liberales apostando por una nueva economía basada en la generación de conocimiento; filósofos de lo virtual y sociólogos de una nueva esfera pública; antropólogos postcolonialistas al encuentro del otro; ciberpunks alimentando la tecnoutopía de un espacio abierto y autónomo, el origen de una nueva sociedad; New Ages creyentes en nuevas ecologías transpersonales; artistas desarrollando entornos para la autoría compartida y nuevos procesos interactivos; hackers dispuestos a tergiversar el medio y evadir el control manteniéndolo abierto; activistas que han visto una herramienta para el encuentro cívico y el empoderamiento ciudadano, y educadores luchando por la alfabetización digital y un medio accesible a todos. Grupos interdisciplinares que han contribuido a desarrollar el software que, a su vez, ha devenido un dispositivo tecnosocial y ha conformado nuevas formas de relación y sociabilidad. Desde las primeras listas de correo, asociadas a proyectos no lucrativos con fines culturales o cívicos, hasta las plataformas para la co-creación de fuente abierta y las bases de datos o archivos que han dado forma a la inteligencia colectiva y la acción común, hasta llegar al medio logarítmico de naturaleza estimergética en que se ha embebido nuestra realidad diaria. Ello ha contribuido a la creación de un medio vivo siempre en tensión entre las posibilidades de una nueva esfera pública virtual y los intereses y las necesidades de la realidad diaria.

La asimilación de Internet en China, en cambio, no se ha asociado a su progreso, encontrándose el ciudadano en un medio trágicamente separado de la compleja ecología en que ha evolucionado. Si a esto sumamos la peculiaridad del territorio donde se ha implantado, una sociedad basada en la ingeniería social, el modelado de la conducta y la benevolencia del estado, tenemos el espacio, pese a extenderse al espacio físico –el uso de tarjetas RFDI y otros dispositivos de tecnología ubicua es común y en expansión– separado de la vida diaria y lo social que es el Chinanet.

Censores chinos en el trabajo. Fuente: Charles Hope.

La sociedad china sigue estando influenciada por la ética confucianista. En esta, el universalismo y la igualdad que caracterizan las relaciones entre los individuos libres y autónomos, que conforman la sociedad cívica en el oeste, son sustituidos por un rechazo del individualismo en favor de la conducta centrada en la situación y aceptación de la jerarquía. A esto debemos sumar los efectos de la modernización, que ha resultado en un incremento de las diferencias sociales –se calcula que en China hay más de 2,7 millones de millonarios y más de 251 billonarios (contando en dólares), mientras el 13% de la población vive con menos de 2,25 dólares al día–, y una fuerte competencia por las escasas oportunidades de promoción social. Nos encontramos con una gran población de jóvenes, en su mayoría hijos únicos, sometidos a una fuerte presión por adaptarse y mejorar su situación en un mundo que ofrece escasas oportunidades de cambio e intervención. Estos jóvenes ven en Internet una válvula de escape. Un lugar en el que disfrutar de entretenimientos banales, del anonimato que ofrecen foros y microblogs y del sentido de finalidad y éxito fácil que aportan los videojuegos. Internet se convierte, de este modo, en un espacio de suspensión de la vida normal que el sociólogo David Kurt Herold, en Noise, spectacle, politics: carnival in Chinese cyberspace, asocia al concepto de carnaval tal como es desarrollado por Mikhail Bakhtin.

El carnaval es un periodo en que las reglas y diferencias sociales son suspendidas y en que todos los implicados participan en igualdad de condiciones, protegidos por el anonimato que aportan las máscaras, sin temer por las consecuencias de sus actos. Un espacio en el que no hay diferencia entre espectadores y actores y que más que actuado es vivido, poblado de risas, pero al mismo tiempo de ambivalencias y parodias, compartidas y transmitidas, capaces de engendrar nuevas identidades y formas de asociación. En toda sociedad autoritaria, control, entretenimiento y consumo van de la mano, pero, al mismo tiempo, en todo espacio lúdico abierto puede darse un juego libre que Giorgio Agamben identifica con la profanación. La profanación es una acción política en cuanto libera un medio y lo devuelve al uso común, restituyendo al uso público los espacios confiscados por el poder, libera un comportamiento de su inscripción genética determinada permitiendo aflorar nuevas formas de subjetivación.

De este modo, el espacio controlado y lúdico del Chinanet ha dado lugar a una cultura activa, un comportamiento liberado, germen de otra forma de empoderamiento. En esta cultura surgen nuevas identidades, encarnadas por blogueros populares como Han Han o los BackDormBoys, jóvenes que exhiben nuevas formas de comportamiento joviales y cercanas, liberadas de la seriedad y las distancias de una sociedad jerarquizada y que alcanzan grandes niveles de popularidad. También aflora un lenguaje propio, usado en réplicas y comentarios de microblogs y foros. El microblog es uno de los medios más populares en China, en parte debido a la peculiaridad del lenguaje chino que requiere aproximadamente tres veces menos caracteres para comunicar lo mismo que los lenguajes fonéticos. En este medio se inician diálogos anónimos y espontáneos que han dado lugar al desarrollo y la difusión de expresiones y prácticas que son ampliamente transmitidas y compartidas, generando nuevas formas de encuentro e identificación. Entre las expresiones que se han hecho comunes tenemos Penzi, para referirse a un spammer, alguien que usa el medio para distribuir publicidad; Zhao Chou, usado cuando alguien publica algo polémico buscando un enfrentamiento; Diao Yu, para referirse a un post que esta buscando obtener información, o Nao Can, que significa idiota. Otra forma reprobativa que ha devenido popular es Daiosi. Traducido como loser, perdedor en español, esta expresión se ha convertido en una forma de identificación para aquellos que no comparten la usual definición de éxito. Otras expresiones son Huliansu, que hace referencia a alguien que publica retratos (selfies) para hacerse popular, y Xuanfu, para reprobar a alguien que está haciendo alarde de riqueza.




Al desarrollo de este lenguaje, debemos sumar nuevas prácticas como el E-Gao, una forma de parodia posibilitada por las nuevas tecnologías. Esta expresión formada de dos caracteres, «e», que significa malo o diablo, y «gao», que significa trabajo, es definida por el China Daily como una subcultura popular que deconstruye temas serios para entretener a la gente con un efecto cómico, caracterizada por el humor, la rebeldía, la subversión, la espontaneidad, el desafío a la autoridad y la participación masiva en una tecnología multimedia. Esta consiste en un ejercicio de montaje y remezcla de imágenes conocidas, dando lugar a piezas fílmicas cortas en que el contenido original es tergiversado de modo humorístico. Es una forma cómica de expresar críticas, una subversión lúdica de los discursos asociados a la autoridad, que da lugar a una catarsis emocional, que es ampliamente compartida y difundida, permitiendo a los usuarios participar en la formación de una narrativa institucionalizada.

Más allá de la parodia y el humor, en el Chinanet existen otras formas de asociación. En una sociedad no individualista, la idea de autoría es más débil, por lo que es usual encontrar grupos que usan Internet para desarrollar un trabajo en común. Por ejemplo, existe una muy activa comunidad de usuarios dedicados a subtitular en chino los últimos capítulos de las series televisivas populares en el extranjero, logrando su difusión en un muy corto periodo de tiempo. También se detecta un muy activo y floreciente movimiento maker, que encuentra sus bases no en la contracultura que lo ha originado en el oeste, sino en principios más pragmáticos.

Finalmente, entre el humor y las risas críticas, y a pesar de la conciencia del control y la vigilancia, que hace impensable para muchos ciudadanos enfrentarse al Estado, también existe un cierto activismo. Este es referido con la expresión «saltarse el muro» y se expresa principalmente mediante el uso de tecnologías no lícitas y de memes.

«Saltarse el muro» (fan luba qi fanqiang) hace referencia a los medios para burlar el Gran Firewall tanto tecnológicos como ideológicos. Esta fue una expresión popularizada por el artista internacional Ai WeiWei y el activista Bei Feng, durante la protesta contra el Green Dam. El Green Dam Youth Escort Online Filtering Software fue un proyecto iniciado en 2009 dirigido a crear un software de filtrado que debía equiparse en todos los ordenadores comercializados en China. Este proyecto levantó una polémica significativa, siendo finalmente revocado, debido a problemas de comercialización y reclamaciones de derechos de autor, aunque fue implementado en ordenadores de algunos centros educativos públicos.

Existen varios medios tecnológicos para burlar el sistema de vigilancia y navegar hacia el espacio de la world wide web, como son el uso de proxis libres y canales encriptados. Los más seguros y utilizados son las VPN (Virtual Private Network) y SSH (Secure Shell). Estos usan proxis y canales encriptados, pero dependen de un anfitrión virtual privado o una cuenta situada fuera de China. Muchos ciudadanos, especialmente extranjeros residentes en el país o investigadores concernidos con el uso de Internet, hacen uso habitual de estas tecnologías para poder comunicarse con el exterior.

Pero «saltarse el muro» también hace referencia a la crítica de la censura y la promoción de la libertad de información, esta expresada mediante el uso de memes de carácter político. La expresión meme fue acuñada por el biólogo Richard Dawkins en 1976 y hace referencia a una unidad de información transmisible y recombinable. Esta expresión se ha hecho popular en Internet para denominar imágenes incluyendo texto, que hacen referencia a hechos ampliamente conocidos de forma indirecta y crítica y que son ampliamente difundidas a través del medio, hasta pasar a formar parte del imaginario común. En China, este ha resultado un medio eficaz de evadir la censura, debido a su carácter no textual y difícil de descifrar. Entre algunos de los memes que se han hecho más populares se encuentra el «vestir los desnudos», que muestra desnudos de arte clásico con ropa superpuesta. Este hace referencia a la retransmisión en la Televisión Central China de una exposición en el Museo Nacional de China en que los genitales del David de Miguel Ángel aparecían emborronados. Otro meme popular son las imágenes de pipas de girasol, usadas para burlar el bloqueo del nombre del artista Ai Weiwei, haciendo alusión a su conocida obra en la Tate. Estos y otros memes pueden encontrarse listados en el blog www.88-bar.com. Pero, entre todos ellos, el más popular y difundido es «el caballo de las marismas» (grass mud horse), un tipo de llama que, acompañada de su oponente, el «cangrejo de río», se ha convertido en uno de los animales mitológicos habitando el ciberespacio chino. Este meme hizo su aparición en 2009 y hace uso de una popular canción infantil para criticar la censura.




La canción narra cómo las llamas, tranquilos y valientes habitantes del desierto, deben defender su pasto del ataque de los cangrejos de río. Estas son valerosas y resultan victoriosas, expulsando a los invasores. El meme se basa en la homofonía de la expresión càonǐmā (caballo de las marismas), que en chino suena igual que la expresión anglosajona fuck your mother, y de la expresión «cangrejo de río» con la palabra «armonía», que se ha convertido en sinónimo de «censura», después de que esta fuera referida como un esfuerzo dirigido a crear una sociedad quiescente y evolucionando de modo armonioso.

La implantación de Internet en China nos muestra los efectos de una tecnología global en un espacio local diferenciado. Al contrario del caso de Egipto, en que Mubarak prohibió el uso de la red social Facebook, y ello provocó una protesta masiva en las calles. Las autoridades chinas han sabido controlar este medio y acotarlo, mediante una compleja tecnología y la aplicación de un desarrollo basado en el modelo del shopping mall. Un espacio de consumo acotado y controlado, del que los ciudadanos hacen uso sin ser conscientes de la potencialidad del espacio público o del atentado a su privacidad. Un espacio lúdico en el que, a pesar del control y la vigilancia, los netciudadanos están deviniendo actores, performers anónimos y joviales de nuevos modelos de conducta y nuevas formas de subjetivación, al mismo tiempo que una incipiente sociedad civil busca estrategias para el encuentro participativo.





La otra red tras la gran muralla (I)

La herencia cultural de China, junto con las fuertes medidas de control que acompañan el proceso de apertura, han dado lugar al desarrollo del Chinanet.


La Gran Muralla China, de Herbert Ponting, 1870-1935. Fuente: The National Archives UK

Con más de 564 millones de usuarios, China cuenta con la mayor red de ciudadanos conectados del mundo. Internet se implantó en China en el año 1994, encauzando con el proceso de reforma iniciado después de la Revolución Cultural. La economía de mercado socialista consiste en la apertura del país a capitales extranjeros y la implantación de las nuevas tecnologías. Una política que dio lugar a lo que Rodney Wai-chi Chu y Chung-tai Cheng denominan «doble conmoción» (double juggernaut), la acelerada y simultánea capitalización y cibernetización del país. La primera parte de este artículo analiza como la herencia cultural de este país, junto con las fuertes medidas de control que acompañan el proceso de apertura, han dado lugar al desarrollo del Chinanet, una Internet autónoma, separada del mundo y caracterizada por un uso distinto, más cercano a la performance que a la participación.

Más de 564 millones de usuarios, 331 millones de IPV, 13,40 millones de nombres de dominio, 2,68 millones de websites y 442 millones de teléfonos móviles conectados, constituyen el Chinanet, según el informe del China Internet Network Information Center CNNIC realizado en 2013. Se trata de una red prácticamente autónoma que es, a su vez, la mayor red de usuarios conectados del mundo.

Internet se implantó en China en el año 1994, tras el proceso de apertura iniciado por Deng Xiaoping en 1978. Después de la Revolución Cultural, el país se hallaba ante una economía estancada y una población masiva, una situación que forzaría la apertura a capitales extranjeros y la acelerada modernización del país. Las zonas rurales se convirtieron rápidamente en núcleos industriales, al mismo tiempo que se promovía la implantación de las nuevas tecnologías consideradas como clave de progreso. Esto daría lugar a lo que Rodney Wai-Chi Chu y Chung-tai Cheng han denominado en «Cultural convulsions: Examining the Chineseness of cyber China» , «doble conmoción» (double juggernaut): el simultáneo encuentro del país con el capitalismo y un acelerado proceso de cibernetización. Efectivamente, aquí el proceso de modernización no ha seguido un incremento lineal, puesto que se han sucedido al mismo tiempo la industrialización y el avance hacia la sociedad de la información. Rodney y Chung-tai ponen el ejemplo del teléfono móvil: mientras en otros países el uso del teléfono ha seguido una evolución desde el teléfono doméstico hasta la comunicación personal y ubicua que supone el teléfono móvil, en China, donde la falta de recursos hacía difícil extender líneas a ciertas zonas rurales, el móvil ha supuesto el primer dispositivo de comunicación para muchos ciudadanos. A esta «doble conmoción» hay que sumar los esfuerzos por mantener a salvo los valores tradicionales y la ideología imperante, según la conocida frase de Xiaoping: «Si abres la ventana para permitir la entrada de aire fresco, no puedes evitar que entren algunas moscas». Para impedir los efectos nocivos de estas «moscas» o cualquier contaminante espiritual o ideológico, este proceso será sometido a un fuerte control. Concretamente, Internet se encerrará en los límites de lo que comúnmente es conocido como el Gran Firewall de China, un muro virtual que separa China del resto del mundo.

1996 fue el año de Internet en China, ya que se popularizó mediante eslóganes como «Compra Internet, usa Internet. Sube a bordo del arca del nuevo siglo. Gana el premio del mundo», «Internet, el pasaporte del hombre moderno y civilizado». Pero, al mismo tiempo en que Internet es presentado como la esperanza de un nuevo futuro, es visto por muchos como un espacio hegemónico dominado por la ideología capitalista anglosajona. Así se expresa, por ejemplo, uno de los jóvenes emprendedores de las primeras empresas de proveedores de servicio, en un estudio realizado por la publicación Wired en 1997: «Nuestro ideal es crear una red exclusivamente en chino. Esta será una red con características chinas, que será una autopista de la información para las masas». Impedir la influencia de la hegemonía anglosajona, junto con los temores que supone el flujo libre de información y la libertad de asociación que conlleva este medio, llevarán a un peculiar desarrollo de la red Internet y a sus primeras regulaciones. Estas se basarán en la exclusiva propiedad del gobierno de todos los proveedores de servicios ISP, así como en el estricto control e identificación de todos los usuarios conectados. De este modo, el estado está al cargo de todo el planteamiento, la estandarización internacional, el control y el desarrollo de todas las áreas relacionadas con Internet. Hay que dirigir toda conexión a través de los puertos de acceso mantenidos por el Ministerio de Telecomunicaciones y está prohibida la utilización de cualquier otra vía de acceso. Finalmente, toda organización o usuario individual conectados deben hacerse responsables del contenido circulante en la red, debiendo respetar estrictamente cualquier regulación y prestar especial atención a la no difusión de cualquier secreto de Estado. A tal fin, todos deben firmar un acuerdo de uso responsable y un contrato de servicio para el cual deben identificarse, presentando documentación que acredite su identidad, así como su lugar de residencia y trabajo. Estas regulaciones temporales para el acceso a Internet evolucionarán hacia el proyecto Escudo Dorado (Golden Shield). Este proyecto, conocido popularmente como el Gran Firewall de China, fue iniciado por el Ministerio de Seguridad Pública en 1998, y fue presentado públicamente en 2000 en la feria Seguridad China, celebrada en Pekín, tres años antes de su total implantación. Ha contado con la colaboración de grandes y conocidas firmas extranjeras como Sun Microsystems, Cisco Systems, Bay Networks, Motorola o la canadiense Nortel Networks, entre otras. Hoy en día es considerado como el mayor y más sofisticado aparato de vigilancia del mundo.

Este complejo aparato combina medios tecnológicos, ideológicos y políticos para funcionar a tres niveles, el bloqueo de información en Internet, la coacción a empresas conectadas y el bloqueo de regiones o ciudadanos individuales.

Por lo que se refiere al bloqueo de información en la red, este se sustenta en el hecho de que toda la infraestructura de Internet pertenece y es administrada por el Estado. Todo el tráfico de información entre China y el resto del mundo es dirigido a través de proxis a un único router, donde es analizado y puede ser bloqueado o redirigido. De este modo, la censura opera mediante el bloque de IP, el envenenamiento de nombres de dominio, y el mantenimiento de una lista negra de palabras clave que es utilizada para analizar el tráfico de datos.

Mensajes de error que impiden acceder al contenido solicitado en la web. Autor: Sandra Álvaro

El bloqueo de IP se basa en que toda página web es almacenada en un servidor con una dirección única que la identifica o IP. Golden Shield lista las IP de algunas webs, como en el caso de la conocida plataforma Facebook, e impide el acceso a las mismas. Esto, además, tiene el inconveniente de que ninguna otra web alojada en el mismo servidor es accesible. Por lo que se refiere al envenenamiento de nombres de dominio, lo que es conocido como DNS misdirection o URL hijacking, funciona a nivel de los asignadores de nombres de dominio, también bajo control del estado. Cuando tecleamos una dirección web o url, nuestra petición es enviada a un asignador de nombres de dominio que identifica la dirección IP, dirigiéndonos al servidor donde la página está alojada. En este caso, el servicio autoritativo de DNS redirige nuestra petición a una dirección falsa, un clon de la url solicitada, antes de que el servidor original pueda captarla, y lo que recibimos como respuesta en nuestro navegador es un mensaje de error. Finalmente, la última estrategia consiste en el filtrado de datos de nuestra petición, así como del contenido de la web solicitada; es lo que se conoce como url filtering y packet filtering. El contenido de nuestras búsquedas es analizado y comparado con una lista negra de palabras clave. Si más de una de estas palabras es encontrada en la petición o en la página solicitada, la petición cae y no es posible acceder al contenido solicitado.

El funcionamiento de este sistema no es transparente, lo que recibe el usuario es un mensaje notificando que es imposible acceder al servidor, o de tiempo excedido, por lo que es difícil saber si el contenido solicitado está bloqueado, o existe algún otro problema, como el caso de una web en mantenimiento o soportando tráfico excesivo. Se calcula que más de 18.000 páginas web están bloqueadas en China, entre ellas conocidos medios de información como nytimes.com o elpais.com, archivos como archive.org y redes sociales como Facebook, Twitter, Youtube, Vimeo o Flickr. Este año Instagram se ha añadido a la lista, a raíz del recrudecimiento de las protestas en Hong Kong, así como se ha extendido el bloqueo de Google a todos sus servicios incluidos Gmail y Google Maps. También están bloqueadas páginas de la Wikipedia conteniendo información sensible o determinadas búsquedas en Weibo, uno de los servicios de microbloggin más populares del país. La base de datos es continuamente revisada, pero en la red pueden encontrase algunos servicios que ofrecen información actualizada sobre el bloqueo, como la página de la Wikipedia «websites bloqued in China» o la web greatfire.org. China Digital Times, otro medio prohibido en China, también mantiene una lista de palabras bloqueadas en Weibo.

Por lo que se refiere a las compañías conectadas a Internet operando en China, estas están sometidas a las medidas administrativas de información y servicio de Internet bajo el decreto del Consejo de Estado nº 292. Este reza que el Gran Firewall prohíbe toda web extranjera o doméstica que no cumpla la política estatal, por lo que se somete a examen su contenido y su trasfondo político. De este modo el gobierno promueve la autocensura, responsabilizando a las compañías que quieren operar en este país del contenido de sus páginas web y de la monitorización de todo el tráfico de información en sus empresas. Esto se lleva a cabo mediante sistemas de filtrado propios o de empleados, denominados big-mamas. Así, los buscadores que funcionan en el país, como Yahoo o Bing y los locales Baidu y Soso, realizan su propio filtrado de datos, impidiendo el acceso a toda información sensible. Esta simplemente no aparece listada en las búsquedas relacionadas. En el caso de webs conteniendo información no textual, como es Youku, la mayor red de vídeos compartidos del país, se cuenta con un sofisticado sistema de huella digital que permite comprobar si un contenido ha sido aprobado o reprobado anteriormente. En el caso de que el contenido sea nuevo, un equipo de personas se encarga de su visionado y clasificación antes de que este pueda ser subido a la red.

Finalmente, el estado posee los controles de acceso en el mundo real y, en casos extremos, puede interrumpir el servicio en una región e incluso de usuarios concretos.




Si a los numerosos servicios extranjeros bloqueados sumamos el hecho de que el acceso a las webs del exterior es lento y muchas veces sometido a interrupciones, así como el problema del idioma, navegar fuera del dominio de China se hace poco atractivo para los usuarios. De hecho, solo un seis por ciento de los hiperlinks contenidos en webs chinas abandonan el espacio del Chinanet . Este aislamiento ha propiciado un desarrollo masivo de servicios locales, sustitutos de los servicios internacionales no accesibles. Estos servicios muchas veces han sido desarrollados por jóvenes emprendedores a su vuelta de Silicon Valley, aquí denominados «tortugas marinas», que han sabido adaptar de modo exitoso las tecnologías exteriores a las características que definen Internet en este país.

Así, tenemos que Google intentó implantarse en el país en 2006, aceptando las condiciones de la censura, y esto levantó una gran polémica, que llevó a la compañía a trasladarse a Hong Kong en 2010. Este mismo año el conocido navegador fue bloqueado y en 2014 también todos sus servicios asociados, aunque, antes de ser prohibido, ya había perdido la batalla frente a su competidor local Baidu. Fundado por Robin Li, a su vuelta de Silicon Valley, este servicio contó con una inversión inicial de Google, hasta independizarse completamente y empezar su crecimiento, incorporando un cada vez mayor número de servicios. Entre ellos un wiki similar a la Wikipedia (www.baike.baidu.com), un servicio de hospedaje de blogs (hi.baidu.com), y plataformas de noticias (zhidao.baidu.com), para compartir música (music.baidu.com) y videojuegos (youxi.baidu.com) y su propio sistema GIS, Baidu map. Uno de los servicios más populares es el Post Bar, un foro de discusión abierto. Otro buscador popular en este país es Soso.

Youtube fue bloqueado en 2009, y ha sido sustituido por las plataformas Tudou y Youku. Youku, que traducido significa «que es lo mejor y lo más cool», fue fundado por otra «tortuga marina», Victor Koo, en 2006, y se ha convertido en la mayor plataforma de visionado de vídeos del mundo con un 90% del target en la China continental. A diferencia de Youtube, Youku cuenta con una amplia selección de vídeos sindicados de medios tradicionales. Los jóvenes acuden a esta plataforma buscando una alternativa a la pobre y excesivamente ideologizada oferta televisiva, y a la también censurada oferta cinematográfica, siendo los contenidos más solicitados los de corta duración como trailers de películas y las series de televisión, principalmente producidas en Corea. El vídeo producido por los usuarios es más minoritario, pero también cuenta con su espacio en Youku Paike. Otras plataformas de medios audiovisuales, como Hulu, también tienen sus sustitutos, en este caso en Iqiyi.

Por lo que se refiere a las redes sociales, Facebook ha sido sustituido por RenRen. Este es uno de los medios predominantes, puesto que cuenta con más de 31 millones de usuarios activos. El microbloggin, terreno del también bloqueado Twitter, ha sido sustituido por plataformas como Tencent QQ o Sina, que cuenta con el popular Weibo, microblog en chino, uno de los medios más usados, con 50 millones de usuarios. Los servicios de blogs más populares, como Blogger y WordPress, tampoco son accesibles, un vacío que también han llenado las plataformas Baidu, Tencent y Sina.

Llegamos al servicio más usado en China, la mensajería instantánea, que cuenta con 461 millones de usuarios. Aunque Whatsapp y otros servicios internacionales son accesibles, han sido sustituidos por WeChat. WeChat es una aplicación móvil imprescindible si se quiere estar conectado en China. Esta añade a la mensajería instantánea servicios propios de las redes sociales, como un perfil y un álbum accesible a los contactos, subscripciones a cuentas, un servicio de localización geográfica, que permite enviar la posición y buscar posibles contactos conectados alrededor, y otros servicios lúdicos como una amplia selección de stickers y el shake, una aplicación de computación tangible que detecta el movimiento del teléfono y envía una señal al teléfono del contacto, permitiendo a dos usuarios agitar el teléfono a la vez. Este popular servicio dirige más del 77 % de los mensajes instantáneos y pertenece a Tencent, la compañía de Internet más grande del país. El éxito de esta compañía, fundada por Pony Ma, emprendedor de 35 años, es el acierto en la valoración del uso que los ciudadanos hacen de Internet en este país. Aparte de ofrecer el servicio más utilizado, esta empresa cuenta además con un portal de noticias masivo, millares de juegos en línea, foros, blogs, microblogs y cualquiera de los servicios que la población de netciudadanos, principalmente jóvenes conectados a través del móvil, requiere.

A la izquierda, servicios internacionales. A la derecha, sustitutos de estos servicios en China. Autor: Sandra Álvaro.

Finalmente, hay que hacer mención del comercio electrónico por ser un servicio en expansión en el país. La popular plataforma de comercio de usuario a usuario Ebay es accesible en China, pero está lejos de poder alcanzar el número de usuarios de su competidor local Taobao. Este servicio forma parte de Alibaba, fundado por Jack Ma, y es el mayor bazar en línea de productos de exportación en el mundo. Amazon también tiene su propio competidor en DangDang. El conocido Groupon no conoce competidor, y es porque ahí existe otro modelo de compra con descuento, denominado Tangou, compra en grupo, en que varios usuarios de Internet en la misma ciudad e interesados por el mismo producto buscan un detallista que ofrezca descuento por compra conjunta.

El éxito de estas compañías nos da una panorámica de los usos más frecuentes y el perfil de usuarios del Chinanet. Este, además de ser un medio separado del resto del mundo y fuertemente controlado, es habitado por internautas jóvenes: casi el 60% de usuarios es menor de 30 años y el 80% está por debajo de los cuarenta, y un 75% de usuarios se conecta a través del móvil. Al contrario de lo que sucede en otros países, en que los usuarios acuden a Internet en busca de información, promoción personal y contactos, siendo el correo electrónico uno de los servicios más utilizados, lo que ha dado lugar a que ocio y trabajo se encuentren en un mismo medio, en China, Internet es raramente considerado una herramienta de trabajo –solo el 32,4% se conecta en el trabajo– y más bien es percibido como un terreno de juego. La autopista al entretenimiento.





Recuperar la ciudad jugando

El empleo de las nuevas tecnologías en la ciudad mediante el juego es una forma de devolver el uso del espacio público al ciudadano.


Chicos jugando a «Roly Poly» en New York o New Jersey, 1890-1910. Fuente: The Henry Ford.

Se calcula que en el año 2050 tres de cada cuatro habitantes del planeta vivirán en las ciudades. Los expertos reivindican que solo mediante un uso apropiado de la tecnología podremos hacer que estas sean sostenibles y dispongan de los recursos necesarios. Son las llamadas smart cities o ciudades inteligentes. Ahora bien, ¿serán esas urbes más humanas? ¿Fomentarán las relaciones entre sus habitantes? ¿Los harán sentirse menos solos? ¿O simplemente resolverán temas como eficiencia energética o disponibilidad de información? Numerosos artistas, diseñadores, arquitectos, pensadores, reivindican que el empleo de las nuevas tecnologías en la ciudad mediante el juego es una forma de devolver el uso del espacio público al ciudadano. Y, además, de impulsar comportamientos de interacción y cooperación entre la gente, de socialización.

Imagínense que una mañana, al cruzar la plaza por la que pasan cada día para ir a tomar el metro, descubrieran un sube y baja tamaño adulto. Puede que le echaran una mirada de soslayo y apretaran el paso. Pero, ¿y si al volver por la noche hubiera gente alrededor mirando a un par de adultos pasárselo en grande mientras el juguete se ilumina en función de sus acciones?

Eso es lo que hizo el estudio de diseño australiano Eness, que instaló en una plaza de Melbourne un sube y baja un poco especial: en el cuerpo del balancín había 33 tiras de LED que reaccionaban al movimiento de la instalación creando entornos de luz para las personas que estaban subidas. El objetivo, asegura este estudio en su web, era enseñar a los participantes un poco de física, pero también, y sobre todo, recordarles que divertirse y jugar no es solo cosa de niños.




La instalación, además, conseguía provocar interacciones entre ciudadanos que no se conocían y los invitaba a redescubrir, mediante el juego, emplazamientos de su entorno, como una plaza o un parque, que han dejado de ser espacios públicos, de reunión e intercambio, para convertirse en sitios de paso.

Eso es también lo que persiguen diversos artistas, arquitectos, diseñadores, pensadores, activistas que exploran desde hace tiempo esa idea de recuperar los lugares públicos de la ciudad para los ciudadanos y hacerlos de nuevo lugar de encuentro, de socialización, mediante el uso y la integración de la tecnología.

Y esa idea cobra aún más relevancia en el contexto actual, en que se habla de Smart cities o ciudades inteligentes, dotadas de pieles digitales, de edificios conectados para ahorrar energía y compartir información; que se adaptan a sus habitantes y aprenden de los usos que estos hacen de la urbe. Muchos expertos defienden que estas metrópolis megaconectadas serán la única forma de poder gestionar el hecho de que en 2050 vivirá en ellas el 75% de la población del planeta. Y que la tecnología dejará de ser un valor añadido para convertirse en una necesidad. Pero, ¿fomentarán también esas smart cities las relaciones humanas? ¿Podremos usar esa cantidad ingente de sensores inteligentes y de ordenadores conectados que las dotan de inteligencia para también aumentar y expandir los espacios públicos?

La importancia del juego

Desde 2008, la instalación Play Me, I’m Yours se ha podido ver en distintas ciudades de todo el mundo. Detrás de la idea está el artista Luke Jerram, a quien se le ocurrió instalar un piano en zonas públicas, para que cualquiera que lo deseara pudiera disfrutarlo. El lugar dejaba de ser de paso para convertirse en un sitio en que pasaban cosas y el instrumento resulta un magnífico catalizador de dinámicas sociales espontáneas: el piano y el entorno en que está se transforman en espacio de intercambio, de interacción social. El experimento no acaba ahí, sino que, además, cada una de las ciudades en las que se instala dispone de una web en la que se puede acceder a todo tipo de material creado durante la experiencia, desde fotos hasta vídeos o textos.




Tal vez en un entorno urbano los niños son los que peor parados salen. Apenas tienen espacios de juego y los escasos parques infantiles suelen estar pensados para edades muy tempranas, de manera que a partir de los cinco o seis años los chavales se aburren y resulta cada vez más frecuente verlos jugar con el móvil o la tableta de sus padres.

A Narcís Parés se le ocurrió hace unos años una idea para fomentar el juego en grupo, la socialización en los parques, y, además, resolver el que es uno de los problemas de salud pública más graves del siglo XXI, la obesidad infantil. Este profesor de la Universidad Pompeu Fabra (UPF) diseñó un tobogán inflable, como los que hay en muchas ferias, y lo aumentó con tecnología interactiva.

Convirtió la superficie del tobogán en una pantalla de videojuegos en las que los niños jugaban con sus movimientos. Un sistema de visión por ordenador detectaba sus acciones y reaccionaba en consecuencia. Los chavales se lanzaban una y otra vez por el tobogán para darle con su cuerpo a una pelota verde o a un marcianito. Y, eso sí, luego tenían que subir unas cuantas escaleras si querían volver a jugar. «El tobogán interactivo –asegura en su web Parés– pretende convertirse en una herramienta para animar a los niños a hacer más ejercicio físico mientras se relacionan con otros niños».

Otro proyecto que pretende devolver los parques públicos a los chavales a la vez que incentivar el juego cooperativo es Hybrid Play, del colectivo de artistas Lalalab, integrado por Clara Boj y Diego Díaz. La idea surgió en 2008 cuando publicaron un artículo titulado «Hybrid Playground: integración de herramientas y estrategias de los videojuegos en los parques infantiles», en el que proponían que estos espacios públicos pensados, en teoría, para los niños se convirtieran en escenarios para el juego interactivo y en dinamizadores de la colaboración entre los críos. Pero la tecnología entonces no estaba suficientemente madura. Por eso ahora han vuelto a la carga.

Como afirman en su página web, «Hybrid Play es un sistema llamado a redescubrir espacios urbanos como los parques, mezclando el juego tradicional en la calle con los videojuegos». Se trata de un dispositivo robusto, que parece una pinza gigante de ropa, que se coloca sobre un elemento de juego, como un columpio, un tobogán o un sube y baja. Funciona mediante una placa electrónica compatible con Arduino que adapta sensores como acelerómetros y giroscopios para detectar las acciones de los niños. Tanto la «pinza» como el software con el que funciona son de código abierto. Lo que pasa en el parque, las acciones reales de los chavales, influyen decisivamente en el desarrollo del videojuego del móvil.

Otro ejemplo –y no solo dirigido a niños– son los columpios musicales interactivos que tomaron, literalmente, uno de los lugares con más densidad de tráfico de Montreal (Canadá). Detrás estaba el estudio Daily Tous Les Jours con su instalación «The Swings», 21 columpios que eran como teclas de piano; cada movimiento generaba una nota pero solo todos los columpios juntos eran capaces de componer un tema, lo que hacía obligatorio que los ciudadanos cooperasen y ajustasen sus acciones a las de los demás. En los últimos cuatro años, miles de personas se han subido a estos columpios; de hecho, cada día cada columpio se ha balanceado una media de 8500 veces.

Hacia la ciudad híbrida

Todos estos proyectos se basan en el concepto de ciudad híbrida, en la que el espacio físico y digital se superponen. En este sentido, cada vez surgen más proyectos que reivindican recuperar la ciudad y tejer hilos entre los ciudadanos a través del juego y las tecnologías, creando una especie de urbanismo híbrido. Es el caso del popular StreetPong de Berlín. Un grupo de estudiantes alemanes instalaron en dos semáforos, uno enfrente del otro, de una calle de la capital del país dos consolas del conocido juego de darle a la pelotita. La idea es que ciudadanos que no se conocen jueguen e interactúen mientras esperan que el semáforo se ponga en verde y puedan cruzar, lo que, además, promueve el civismo.




El proyecto Lummo Blocks también busca recuperar el espacio público mediante el juego y la interacción entre los ciudadanos. Se trata de una versión particular del mítico Tetris y detrás está el colectivo Lummo. Pueden jugar hasta cuatro personas a la vez, que deben cooperar para formar con sus cuerpos las piezas del Tetris y colocarlas en el lugar adecuado. Algo similar persigue Puzzle Facade, de Javier Lloret, que transforma edificios en enormes cubos de Rubik. Transformó así, por ejemplo, la fachada del edificio donde se celebra el festival Ars Electronica, en Linz (Austria), en un cubo gigante e invitaba a los transeúntes a participar en una experiencia interactiva.

Uno de los artistas que más trabaja sobre este concepto de juego, participación ciudadana y comportamiento humano en espacios públicos es el británico Chris O’Shea. En «Hands from Above» colocó una enorme pantalla en una plaza, muy transitada, de esas por las que todos pasamos casi sin percatarnos de ello. Una cámara captaba a los transeúntes y proyectaba su imagen en la pantalla. De vez en cuando, aparecía una enorme mano que hacía cosquillas a la imagen de las personas, que las empequeñecía o las estiraba. E incluso las hacía desaparecer. Seleccionaba a ciudadanos y los transformaba de forma lúdica, interactuando con el entorno.

Otro proyecto interesante en este sentido fue el que realizó para la cadena de televisión británica BBC. Se llamaba Big Screen Quiz y se trataba de un juego de preguntas y respuestas. Una pantalla gigante ubicada en un espacio público invitaba a los transeúntes a formar grupos para jugar. Se les planteaban preguntas, se les ofrecían cuatro posibles respuestas y los ciudadanos debían discutir entre ellos y ponerse de acuerdo sobre cuál era la correcta. Entonces, tenían que situarse en uno de los cuatro cuadrantes virtuales que se proyectaban en el suelo. La zona con una mayor concentración de movimiento de personas tras una cuenta atrás era la respuesta seleccionada.

Aunque, si uno se cansa del estrés y del ruido de la urbe y necesita, justamente, escapar a un remanso de paz y tranquilidad, lo mejor es descargarse la aplicación para móvil Mapa mudo, de Sandra García: un buscador de espacios de silencio en la ciudad, que permite encontrar pero también añadir y compartir silencios personalizados. Innovaciones en ciudades inteligentes para hacer que la vida urbanita sea, en todos los ámbitos y, sobre todo el humano, mejor.





África recicla y crea tecnología

En medio de los traficantes de basura electrónica, los africanos se afanan por buscar la forma de dar nuevas vidas a esos materiales desechados.


Reciclaje Electrónico. Fuente: Wikipedia.

El círculo perverso de la tecnología se cierra cuando los países del norte se deshacen de la basura electrónica. La esconden debajo de la alfombra, en lugares invisibilizados del sur, algunos de ellos en África, por ejemplo. En el mismo continente del que se han extraído algunas de las materias primas fundamentales para esta tecnología. Los traficantes de basura electrónica no se preocupan del impacto de estos residuos, basta con alejarlos, con esconderlos. Y en medio de este escenario casi apocalíptico, los propios africanos se afanan por girar la tortilla, por extraer lo poco que pueda tener de positivo esta aberración tecnológica. Lo hacen echando mano de unos rasgos prácticamente antropológicos como la conexión con el entorno y la inmunización (al menos, de momento) del consumismo tecnológico más desaforado.

A mediados de octubre, el ghanés DK Osseo-Asare mostraba unas fotos en las que se adivinaban las figuras de unos jóvenes en medio de un denso humo negro, rodeados de basura. «Lo único importante es que estos jóvenes están condenados a enfermar y a morir», explicaba durante una visita a Barcelona. DK Osseo-Asare es el impulsor, junto a Yasmine Abbas, de Agbogbloshie Makerspace Platform (AMP), una iniciativa ubicada en el vertedero de basura electrónica de Agbogbloshie, cerca de Accra, la capital de Ghana, considerado el lugar más contaminado del mundo.

DK explica que los trabajadores informales del basurero sacan de él su sustento y el de sus familias, así que no es probable que abandonen su actividad, a pesar de que para ello pongan en peligro sus vidas, por ejemplo, quemando el plástico que recubre los componentes que buscan y exponiéndose a todo tipo de compuestos contaminantes y letales. Por eso, la preocupación de AMP se centra en encontrar la manera de que puedan continuar desarrollando su actividad, pero con seguridad. En paralelo, esta iniciativa pretende buscar la forma de dar nuevas vidas a esos materiales desechados. AMP es uno de los mejores ejemplos de upcycling o suprareciclado, una corriente con la que no solo se trata de reutilizar materiales descartados, sino además encontrar la utilidad que les dé un valor añadido a esos materiales, es decir, que el reciclaje no suponga una pérdida progresiva de valor, sino, al contrario, un aumento.

Muy cerca de Ghana, en Lomé, la capital del vecino Togo, Koffi Sénamé Agbodjinou es el alma de un fablab atípico, WoeLab, un lugar que pretende ser la semilla de una revolución que combina urbanismo, innovación tecnológica y transformación social. Koffi Sénamé está convencido de que la tecnología puede modificar la construcción de la ciudad y, con ella, las relaciones sociales. Más allá de las complejas teorías, WoeLab es el espacio y el ecosistema en el que se ha construido la primera impresora 3D «made in Africa» con material de desecho, la W.Afate. Este ingenio aparece como la máxima expresión de lo que Agbodjinou formula como la «LowHighTech», alta tecnología modesta.




El concepto de innovación tecnológica que defiende Koffi Sénamé no es solo modesto porque utilice materiales de desecho y se construya en base a componentes descartados, sino porque está al alcance de todos. Todo el mundo puede acceder a ella y, aún más, cualquiera puede construirla. Para este togolés, la capacidad transformadora de la tecnología estará al alcance de todos o no será. Y, sobre todo, esta pretensión es genuinamente africana. «El reciclaje no es una intromisión para nosotros, porque tenemos el reciclaje muy presente, aquí todo se intenta arreglar o se reutiliza antes de tirarlo», comenta Agbodjinou. Su alta tecnología es popular, accesible, práctica y democratizadora, frente al concepto de la alta tecnología elitista y discriminadora, la que provoca la ampliación de la brecha tecnológica digital.

Emeka Okafor es una de las figuras más reconocidas del movimiento maker en África, que, apoyándose en el trabajo artesanal, tiene una vertiente fundamental en la creación de tecnología. Con el paso del tiempo, se ha convertido en mentor de muchos de los proyectos que se orientan en esta línea. El ejemplo más claro de su actividad está en el impulso a la Maker Faire Africa, que celebrará su quinta edición en diciembre en Johannesburgo. Okafor sostiene una posición similar a la de los casos anteriores cuando dice que el movimiento maker, desde esta perspectiva tecnológica, «no es un fenómeno nuevo en África, sino que siempre ha existido». Este promotor de la innovación en África se refiere a la tendencia de los habitantes del continente a construir sus propios ingenios, reproduciendo instrumentos a los que no tenían acceso por los caprichos del mercado.

Okafor sostiene que en un entorno en el que los recursos escasean, como el africano, el reciclaje se convierte en una salida como cualquier otra y muy accesible. Así es como en el continente se están pariendo proyectos que sirven de modelo en los países del norte y como se pone de manifiesto el potencial creativo de unas poblaciones acostumbradas a buscar por sí mismas soluciones a las dificultades.

El suprareciclaje, la alta tecnología modesta o la artesanía de la innovación tecnológica son dinámicas similares, quizá hermanas entre sí. Comparten la voluntad, buscar soluciones a los problemas más o menos cotidianos; el instrumento, la creatividad más allá de los conocimientos formalmente técnicos; el material, la reutilización de recursos descartados, y, sobre todo, el objetivo, favorecer el cambio social.

La corriente hacker o el movimiento maker están íntimamente ligados a la sociedad tecnológica y eso hace que nuestro imaginario les dé un carácter occidental, del norte, de los países considerados desarrollados, aunque sean dinámicas con ADN crítico. Inconsciente e involuntariamente, esa conclusión es otro fruto de nuestro eurocentrismo. Koffi Sénamé Agbodjinou ofrece una reflexión ilustrativa: «En las comunidades hacker encontré muchas similitudes con los constructores tamberma del norte de Togo. Utilizan materiales locales, los que tienen al alcance de la mano; aprovechan el saber hacer de la comunidad; buscan compartir los conocimientos; reúnen a especialistas de distintos ámbitos, y se mueven por un deber de restitución, de devolver a la comunidad».

Lo cierto es que los éxitos que están cosechando estos colectivos en todo el mundo, a pesar de tener dificultades para trascender los círculos más especializados, son incuestionables. Sus impulsores, cada vez más, consiguen hacerse un hueco en las ferias, los encuentros y las convenciones internacionales relacionadas con la innovación tecnológica. Sin embargo, en algunas ocasiones aparecen como individuos exóticos, aunque es cierto que en otras personalizan un reconocimiento sincero. Sea como fuere, sus participaciones despiertan un considerable interés y en muchos casos, incluso, admiración. Estos buenos resultados (tanto los reconocimientos como las materializaciones, es decir, los artilugios creados) están favoreciendo el florecimiento de los espacios adecuados. Los eventos relacionados con el movimiento maker y los fablabs se multiplican en África, de la misma manera que en años pasados lo hicieron los tech labs y lo hacen de la mano o a la sombra de estos hermanos mayores.

Apenas quedan comunidades digitales en África que se precien que no cuenten con un makerspace o que, por lo menos, no organicen talleres o pequeñas ferias de construcción de tecnología.

La W.Afate, primera impresora 3D «made in Africa», construida con material de desecho en WoeLab, en Togo. Autor: Nick Normal.

Hace más de una década (una eternidad en términos tecnológicos) ya se hablaba de los «inventos» de ciudadanos africanos para utilizar teléfonos móviles, por ejemplo, en entornos rurales en los que no tenían fluido eléctrico. Lo cierto es que no ha llovido demasiado desde entonces, porque tampoco hace tanto tiempo, pero sí que parece que lo ha hecho intensamente, porque el entorno de la tecnología ha experimentado un cambio radical. La innovación tecnológica requiere imaginación, creatividad y voluntad de superar obstáculos y, sobre todo, la habilidad para llevar a la práctica esa expresión tan popular de «hacer virtud de la necesidad». La historia ha demostrado que todos esos elementos abundan en el continente africano. El elemento de ecuación que escasea es el de los recursos materiales. Pero, a la vista está, tampoco esa es una puerta infranqueable. El reciclaje se ha convertido en la forma de acceder a los materiales necesarios.

Este espíritu innovador ha llegado a África antes de que su enfoque más empresarial. En el continente se conseguían buena parte de las materias primas que han hecho avanzar la industria tecnológica, pero las grandes empresas del sector no han visto atractivo el continente para impulsar una industrialización en este ámbito. El movimiento maker y todas las dinámicas que van de su mano, por su carácter marginal (en el sentido etimológico de «estar al margen»), han conseguido colarse por las grietas que los ecosistemas digitales incipientes han abierto en el aislamiento del continente. Además de la voluntad de construir, de crear el movimiento maker (como indica su manifiesto), se apoya sobre la base del comunitarismo y del trabajo colaborativo. Y, desde luego, teniendo en cuenta estas características, no se podía haber encontrado un caldo de cultivo más adecuado y mejor predispuesto que el de las sociedades africanas.

Más allá de las capacidades individuales, las comunidades que han abrazado el movimiento maker, el espíritu open source, la filosofía hacker y la práctica del reciclaje forman cada vez una trama más tupida. Se conectan entre ellas firmemente (sin ir más lejos, los tres ejemplos de los que se ha hablado colaboran entre sí y, curiosamente, se citan unos a otros); «contagian» a otras comunidades a las que les une el interés por las tecnologías y la voluntad de cambio social, y van calando profundamente en las poblaciones más jóvenes. Todos estos cruces de relaciones, de ejemplos, de modelos, de colaboraciones, de propuestas y de materializaciones forman una compleja red que libera una energía creativa cuyo límite es difícil de determinar. De momento, lo que podemos decir es que son capaces de generar esperanza en el lugar más contaminado del mundo o de construir una impresora 3D a partir de basura electrónica.





Privacidad e innovación: ¿una suma imposible?

El respeto por el marco legal y las necesidadesde los ciudadanos y consumidores es una condición previa y básica para el éxito de cualquier nueva iniciativa.


Cartel «Propiedad privada. No vía pública». Cambridge, USA, 1954-1959. Fuente: MIT-Libraries.

Desde hace un tiempo es habitual oír decir que la legislación es incapaz de seguirle el ritmo a la innovación tecnológica, y que, por lo tanto, se convierte en un impedimento absurdo e innecesario a la innovación. De modo similar, se plantea que el énfasis en la protección de la privacidad y los datos es un obstáculo anticuado para el progreso tecnológico. Nada más lejos de la realidad. El respeto por el marco legal y las necesidades y los deseos de los ciudadanos y consumidores es una condición previa y básica para el éxito de cualquier nuevo producto o iniciativa. Conciliar privacidad e innovación, pues, es la última frontera de la sociedad de la información.

De hecho, el tipo de afirmaciones que cuestionan la utilidad de la regulación suelen partir de actores concretos, normalmente vinculados a la industria tecnológica, y no son gratuitas. En 2010, Mark Zuckerberg, fundador de Facebook, afirmó que «la privacidad ha dejado de ser una norma social», y hay que plantearse si esta aseveración fue una descripción de la realidad o el deseo del propietario de una empresa de publicidad que basa su modelo de negocio en la minería de datos.

En realidad, los datos demuestran que la privacidad cotiza al alza. A pesar de que vivimos en sociedades tecnofílicas, los casos de robo de fotografías de personas famosas, el bullying entre adolescentes con la ayuda de material robado de redes sociales o los robos de identidad aprovechándose de datos mal custodiados, por no hablar de la denuncia del espionaje masivo del ex analista de la CIA Edward Snowden, apuntan cada vez más a una sociedad que exige un debate abierto y serio acerca del impacto de las nuevas tecnologías sobre nuestras vidas y garantías democráticas. Aunque generalmente se afirma que los jóvenes no dan ninguna importancia a la privacidad y comparten alegremente datos sensibles en las redes sociales, lo cierto es que los adolescentes son mucho más activos gestionando su privacidad en línea que muchos adultos: la diferencia es que los adolescentes esconden información sobre todo a personas cercanas y concretas (padres y madres, profesores, compañeros de escuela), y son menos conscientes de las posibles implicaciones futuras (empleabilidad) o de la vigilancia estatal. De forma similar, las encuestas del CIS en España muestran, entre 2008 y 2011 (no hay datos posteriores), un descenso del 5% en el apoyo a la videovigilancia, las quejas a la Agencia Española de Protección de Datos aumentan año tras año y espacios de divulgación como la exposición Big Bang Data en el CCCB, que sensibiliza sobre la explosión de los datos personales y sus usos, atraen a miles de visitantes.

La privacidad, pues, no parece que tienda a desaparecer, sino todo lo contrario. La conciencia de que ciertas soluciones tecnológicas abusan de la confianza que depositan en ellas los usuarios es la causa, cada vez más, de sonados y costosos fracasos. Solo en febrero de 2014, por ejemplo, cuando se hizo público que la empresa de mensajería instantánea Whatsapp no custodiaba adecuadamente las conversaciones, que podían ser accesibles para terceros, el anuncio llevó a dos millones de españoles a migrar a un servicio alternativo, Telegram. La mala gestión de los datos, pues, y la incapacidad para reconciliar privacidad e innovación llevaron a Whatsapp a perder una parte significativa de su cuota de mercado en España. De manera similar, las ciudades de Londres y Nueva York han tenido que desmantelar sistemas de conteo y seguimiento de personas en espacios públicos durante los últimos meses, al revelar los medios de comunicación la existencia de sistemas de monitorización de datos y análisis de localización a través del seguimiento de las direcciones MAC de los teléfonos móviles de los peatones integrados en papeleras y cabinas de teléfono. De nuevo, el desprecio por la privacidad lleva al fracaso de iniciativas concretas que se llaman innovadoras, pero que han sido incapaces de incorporar la variable de la aceptabilidad social y la confianza de consumidores y ciudadanos. ¿La innovación impide, pues, la privacidad? Seguramente solo en aquellos casos en que los desarrolladores de soluciones tecnológicas olvidan tener en cuenta el respeto a los sujetos de datos de los que dependen sus modelos de negocio.

Drone con cámara digital GoPro. Fuente: Wikimedia Commons.

Uno de los debates más vivos actualmente acerca del pulso innovación/regulación se produce en torno a los vehículos aéreos no tripulados, los popularmente conocidos como drones. Según Business Insider, el mercado para estos dispositivos alcanzará los 98.000 millones de dólares en los próximos diez años. Cientos de pequeñas y grandes empresas han invertido en ellos. Sin embargo, su marco legal es aún indefinido, y la reciente prohibición temporal de su uso por parte de la Dirección General de Aviación Civil española ha propiciado un debate precisamente sobre cómo los obstáculos formales entorpecen el camino de la innovación. Existe, sin embargo, otra forma de enfocar la discusión: ¿podemos permitirnos como sociedad la generalización de vehículos aéreos que no ofrecen garantías básicas a los ciudadanos en términos de su seguridad y privacidad, y que no han definido las medidas de rendición de cuentas y control en el uso de un bien público común como es el espacio aéreo? Para ponerlo más fácil: ¿deben poder volar unos dispositivos que si caen sobre alguien o graban espacios privados son totalmente irresponsables?

Pensemos por un momento en otra tecnología que en su momento supuso un cambio a muchos niveles: el coche. Con la invención del motor creamos vehículos capaces de acortar los tiempos de viaje y reducir los costes del transporte, pero que también podían provocar accidentes graves. Por lo tanto, llegamos a compromisos: se obligó a los fabricantes a construir coches con medidas de seguridad para pasajeros y peatones, se establecieron velocidades máximas, se instalaron semáforos y se creó un sistema de matrículas que identificaban cada vehículo con mecanismos asociados de seguros y responsabilidad civil. No se ganaron todas las batallas, y hoy los coches son todavía capaces de ir a velocidades muy superiores a las legales, pero a ningún fabricante se le ocurriría hoy en día sacar al mercado un coche sin cinturón de seguridad, aunque instalarlos tenga un coste adicional.

La regulación, por lo tanto, solo impide o dificulta la mala innovación. Aquella que no ha sido capaz de entender los valores y las necesidades de la sociedad en la que se inserta, las expectativas de sus potenciales clientes y los consensos sociales traducidos en leyes. En el mundo de la innovación, ocurre a menudo que construimos soluciones sin que hayamos llegado a los consensos sociales, políticos y legales que permitirán minimizar sus potenciales efectos negativos. Cuando esto ocurre, las soluciones innovadoras se enfrentan a un reto adicional: proponer consensos aceptables. El día en que los drones sean capaces de proporcionar soluciones para que los ciudadanos puedan ejercer sus derechos (en caso de que se les caiga un drone en la cabeza, o sean filmados en espacios privados por objetos volantes no identificados), la legalización y aceptación social de estos dispositivos, y las promesas de negocio, estarán más cerca.

La exigencia de una innovación que reconcilie excelencia con responsabilidad social, ética y legal, de hecho, emerge de la constatación de que, en los últimos años, un porcentaje relevante de los procesos de innovación tecnológica ha minimizado su impacto social, lo que ha provocado «fiascos» políticos, tecnológicos, sociales y económicos que han ido en detrimento de todos los actores implicados. Cuando las empresas invierten en nuevos sistemas, ya sean drones, mecanismos de rastreo en papeleras o cabinas de teléfono, sistemas de vigilancia marítima, escáneres corporales, aplicaciones móviles o soluciones smart urbanas, el desprecio por la privacidad de los clientes, usuarios o ciudadanos tiene un coste cada vez más elevado. La acumulación de estos «fiascos» es lo que lleva a un número creciente de entes públicos y privados a exigir que toda nueva iniciativa, estrategia o proyecto incorpore un estudio de impacto legal, ético y social, o a instituciones como el CCCB a abrir el debate de la reconciliación entre la privacidad y la innovación.

Lejos de ser un nuevo nivel de burocracia o una exigencia banal, la incorporación de variables relacionadas con la deseabilidad, la aceptabilidad, la ética y la gestión de datos de las propuestas de innovación aborda un error de mercado que es cada día más evidente y urgente: la necesidad de aportar soluciones tecnológicas promotoras de la privacidad (lo que en inglés se conoce como privacy-enhancing technologie) que respondan a las necesidades de ciudadanos, ayuntamientos, fuerzas policiales, empresas, etc. No apostar hoy por la investigación en sistemas de anonimización y encriptación, ya sea la pseudoanonimización, la generalización o la randomización (y sus múltiples variables), por el respeto por los derechos de acceso, rectificación y cancelación de los datos, por los mecanismos de garantía del derecho al olvido y su reconciliación con la seguridad y la transparencia equivale hoy a autoexcluirse del futuro. No entender el respeto por la privacidad como una ventaja competitiva es hoy una forma de quedarse fuera del panorama tecnológico. Equivale a vender coches sin cinturón de seguridad, o renunciar a mejorar los sistemas de airbag.

¿Son, pues, inseparables innovación y privacidad? Solo en la medida en que podamos separar la innovación de la sociedad a quien va dirigida. Y todo parece indicar que las generaciones presentes y futuras exigen cada día con más fuerza ser protagonistas de la sociedad de la información, y no solo proveedoras de datos sin voz ni voto.





Web 2.0 diez años después

Una década después, constatamos el alcance de los cambios radicales que ha provocado un fenómeno que presenta dos caras sobre las que conviene reflexionar.


Una multitud se manifesta en El Cairo, 1951. Fuente: Wikimedia Commons.

En 2004, el grupo editorial O’Reilly Media organiza una conferencia en la que se populariza el término «web 2.0» para definir un nuevo modelo de Internet en el que la dimensión relacional se convierte en protagonista. Una década después, constatamos el alcance de los cambios radicales que ha provocado un fenómeno que presenta dos caras sobre las que conviene reflexionar.

Web 2.0: 2004-2014

Existe cierto consenso en admitir que el concepto web 2.0 se acuñó en una conferencia celebrada por el grupo editorial O’Reilly Media en octubre de 2004. Aunque el término ya había sido utilizado por otros autores, la amplificación de esta nueva fase está estrechamente relacionada con ese foro, donde los supervivientes del colapso de las puntocom a finales de los noventa, convocados por una elite de ciberideólogos, anuncian la emergencia de un innovador modelo relacional que sitúa al usuario como protagonista decisivo y también como «materia prima» casi inagotable del universo digital.

Se activa desde entonces un gran llamado a la participación de los ciudadanos (digitales) poniendo a su disposición una serie de herramientas que facilitan el compartir información, la interoperabilidad y la colaboración permanente en la creación de contenidos, tal como nos indica la definición de Wikipedia, uno de los proyectos triunfales del nuevo ecosistema definido hace una década.

Pese a los reparos del creador de la World Wide Web, Tim Berners Lee, que calificó el término web 2.0 como «tan solo una jerga», el advenimiento de las tecnologías digitales colaborativas ha favorecido una serie de transformaciones impensables a finales del siglo pasado. Redes sociales, wikis, blogs, mashups y folksonomias son el resultado de cambios acumulativos en la forma en que los desarrolladores de software y los usuarios finales utilizan la web y han permitido el florecimiento de promesas locales y globales de carácter sociocultural y objetivos maximalistas, entre las que cabe destacar el acceso a todo el conocimiento acumulado por la Humanidad a través de los siglos o la consecución de una cultura democrática en la que las redes sociales tienen y tendrán un papel decisivo.

Diez años después de su nacimiento –en los que nos hemos sumido en un bosque de jergas e idiolectos vinculados a Internet y sus tecnologías derivadas–, lo que conocemos como web 2.0 puede verse desde una perspectiva más crítica y compleja. Un fenómeno con dos caras sobre el que conviene seguir reflexionando, pese a la velocidad con que el desarrollo tecnológico puede convertir en obsoleta toda teoría o crítica, incluso aquellas que, sin filias ni fobias excesivas, intentan recuperar la pregunta por el sentido. Intentamos aquí un balance, una enumeración de los aspectos positivos y negativos del fenómeno 2.0. La cara A de la web social es una defensa del salto evolutivo que ha supuesto. La cara B contradice e interpela sus conquistas proyectando un cono de sombra sobre el devenir de la Red.




Cara A: el bien común

Cara B: la sombra del Gran Hermano

La velocidad del cambio

No acabamos de aclararnos sobre las conquistas verdaderas y los peligros evidentes de esta segunda fase en el uso global de la Red, cuando ya estaríamos incluidos en una nueva fase (web 3.0), que, además de los riesgos y bondades de la datificación del mundo, promete innovaciones sustanciales en inteligencia artificial y tecnologías 3D. Hay muchas controversias sobre cómo definir este nuevo ciclo: web semántica, el Internet de las cosas, la era del Big Data, etc. Todos fenómenos confluyentes que acentúan las tendencias aceleracionistas.

La velocidad del cambio prevalece como única constante, lo cual impide crear marcos jurídicos que acoten, regulen o modulen los efectos de las nuevas tecnologías de la información y el conocimiento. Los derechos y las leyes van ralentizados, siempre detrás del sprint de la innovación tecnológica.

¿Qué pensar? ¿Cómo actuar? Parece evidente que no podemos evolucionar sin concebir Internet como parte de la solución y no solo como parte del problema, procurando amplificar y desarrollar sus aspectos positivos. Si la web social entroniza la función de los prosumers, bricoleurs y contribuidores, si es cierto que favorece la verdadera participación y su paradigma, la cocreación, si facilita una verdadera democratización de la cultura y de la política, si promueve la inteligencia colectiva y la clarificación de los bienes comunes, son los ciudadanos quienes deben intervenir activamente en la conformación del nuevo escenario social, político, cultural y científico que es físico y virtual al mismo tiempo. Allí se disputa el poder sobre los relatos que definen nuestro actual estadio como sociedad. Allí se juega el presente-futuro del mundo que estamos creando.





El África digital, un ecosistema en desarrollo

Hay una África que innova y busca soluciones a sus problemas en las TIC en un proceso protagonizado por los ciudadanos.


Kids Hacker Camp, iHub Nairobi. Fuente: iHubNairobi.

Existe un África en armonía con la tecnología. No es una pregunta. Es una afirmación. Existe un África tecnológica; un África digital; un África 2.0; un África conectada. Hay un África que innova y busca soluciones a sus problemas en las TIC y que, a pesar de las carencias y las dificultades, se empeña en que la revolución de la sociedad de la información sea la oportunidad del continente para no ser excluido del tren en el que no se le permitió entrar, por ejemplo, en la revolución industrial. En definitiva, es un África que quiere tomar las riendas de su futuro a diferentes niveles, pero en un proceso protagonizado por los ciudadanos.

Mil millones de personas pueblan África subsahariana, la mitad de ellos son jóvenes de menos de 25 años. Hasta el siglo XX el continente ha sido escenario de un extraordinario déficit tecnológico y de infraestructuras, en general, pero, ¿qué pasa a partir del siglo XXI? En todo el mundo la tecnología se democratiza y se hace más accesible y África no es ajena a este proceso. Más tarde que otras regiones del mundo, es cierto. Más lentamente que otros continentes, también es cierto. Pero precisamente, las carencias, las dificultades, los obstáculos que había que superar han hecho que el proceso de implantación de la sociedad de la información en África tenga características particulares. Una de esas características es que los ciudadanos se han colocado en el centro. La sociedad civil y las iniciativas individuales han sido mucho más arriesgadas, más vanguardistas, más constructivas que las de los estados que continúan estando un paso por detrás de las comunidades de ciudadanos conectados.

Hace menos de una década, en 2005, apenas dos de cada cien africanos (incluidos los del norte) estaban conectados a Internet; hoy los africanos que se asoman a la red de redes son diecinueve de cada cien. Es evidente que la tasa de penetración está todavía muy por debajo de la media mundial, un 19% frente a un 40,4%. Pero no es menos evidente la vertiginosa velocidad a la que la brecha se va reduciendo. El número de internautas africanos en esta década ha aumentado más de un mil por ciento. Hoy la tasa de penetración de Internet en el mundo es el doble que la de África, hace diez años era casi siete veces más.

Esta África conectada es un prisma con múltiples caras. Se aplican las TIC en la agricultura, la ganadería y la pesca (y no solo en la comercialización de los productos), en la sanidad y en la educación, por ejemplo. Se desarrollan iniciativas, todavía tímidas, de e-gobierno. Además, la innovación tecnológica se ha convertido en un sector económico en sí mismo, un sector en el que, por otro lado, rigen leyes distintas a las de los sectores de explotación de materias primas y, por lo tanto, abre la puerta a relaciones comerciales y financieras diferentes. Pero, sobre todo, la sociedad civil está encontrando una vía en las herramientas de la web 2.0 para desarrollar sus inquietudes, fomentar la participación social y política, denunciar defectos democráticos, controlar gobiernos o procesos electorales, visibilizar abusos y, en definitiva, sacar los colores a los que mandan y catalizar transformaciones.

El África digital se presenta como un ecosistema complejo, tanto entre los 53 países que la forman como en el interior de cada uno de esos estados; con un gran número de actores que intervienen desde gobiernos hasta transnacionales, desde internautas individuales hasta colectivos de la sociedad civil que colonizan el entorno virtual; desde emprendedores creativos hasta empresas de otros sectores que buscan tecnologías adaptadas a sus necesidades. Las iniciativas se relacionan entre sí, se alimentan y se animan, despiertan nuevos intereses, los actores interaccionan dando lugar a realidades nuevas. Los puntos de contacto entre todos esos elementos se multiplican y hacen cada vez más complejo ese ecosistema. Pero, al mismo tiempo, lo hacen crecer y sumar nuevos actores y nuevas iniciativas en un juego de relaciones que se expanden superando cada vez los límites que se establecen. Teniendo en cuenta que cada situación es diferente y que hablar de África, en general, siempre es un punto de partida peligroso, hay algunos elementos de este fenómeno vivo ahora mismo que se reproducen habitualmente.

Un fenómeno urbano cada vez menos restrictivo

Las diferencias entre el entorno rural y el urbano constituyen casi una tónica general en toda la región de África subsahariana. Las infraestructuras en la mayor parte de las ciudades han ido aumentando considerablemente, mientras que en el campo se mantenían más estancadas. El proceso de urbanización del continente es casi tan vertiginoso como el de implantación de las TIC. Ahora mismo, alrededor del 40% de la población africana vive en las ciudades, pero la previsión augura que en 2035 uno de cada dos habitantes vivirá en una ciudad y que se alcanzará casi el 60% (concretamente, el 58%) en 2050. No hace falta irse tan lejos: en 2015 habrá tres ciudades africanas por encima de los diez millones de habitantes, Lagos, El Cairo y Kinshasa. Hace tres décadas en la primera vivían 3,5 millones de personas y en la tercera, 2,7.

En la mayor parte de las ciudades africanas más importantes uno de cada dos habitantes tiene acceso a Internet (mientras que la media del continente, como se ha señalado, es del 19%). Y son estos núcleos los que albergan la mayor parte de los jóvenes con estudios universitarios que se ciñen al perfil más común de los internautas. A pesar de estas diferencias, muchas de las iniciativas están precisamente encaminadas a acercar el acceso a Internet a los entornos rurales. Los propios activistas consideran que la extensión en el campo es un reto básico para la democratización de Internet. Y en este desafío, el aumento de la banda ancha móvil es el principal aliado.

Momento de un hackhaton celebrado en el iHub de Nairobi para buscar soluciones tecnológicas a crisis y desastres naturales. Fuente: Erick (HASH) Hersman.

Apropiación de la tecnología, reutilización, reciclaje y adaptación

Las posibilidades de uso de las TIC en África se han ido multiplicando de manera exponencial porque en muy pocos casos los actores principales se han conformado con el uso prescrito de las herramientas existentes. La adaptación a unas necesidades concretas se ha convertido en la principal preocupación de los usuarios (al menos de los más implicados) ya sea diseñando y construyendo nuevos instrumentos, ya sea modificando herramientas existentes o, cuando menos, pensando en usos diferentes para los que fueron construidos. En el extremo, aparecen (y se multiplican) las iniciativas que tratan de dar nueva vida, a través de un ingenioso y creativo reciclaje, a los residuos electrónicos, tratando de eludir un penoso destino de vertedero de la sociedad de la información.

Ciberactivismo e innovación tecnológica

En el proceso de expansión del ecosistema digital africano aparecen dos fenómenos que llaman especialmente la atención. Por un lado, el ciberactivismo que se vincula con la acción de la sociedad civil en busca de un papel más protagonista en los procesos sociales y políticos a través del uso de las TIC. Por otro lado, la innovación tecnológica, que tiene su máxima expresión en el surgimiento de los tech labs o tech hubs. Espacios de coworking, viveros de empresas, el caldo de cultivo óptimo para la emprendeduría social tecnológica, para la maduración de unas start-up con sensibilidad social. Las trayectorias de ambos fenómenos se cruzan, se relacionan y se alimentan entre sí con un espíritu de trabajo colaborativo y complementariedad.

Relaciones transnacionales

Seguramente, el tamaño reducido de las comunidades locales ha hecho más sencillo que los usuarios se conozcan personalmente entre sí y establezcan relaciones interpersonales. Cuando las comunidades han crecido, esos vínculos han permitido que los lazos se hiciesen más firmes. En la situación actual, el conocimiento ha dado lugar a iniciativas conjuntas. Los usuarios son conscientes de que otros actores del ecosistema (como las empresas transnacionales) van más allá de las fronteras y que algunos de los retos a los que se enfrentan implican a más de un país, así que la reacción más natural es unirse en un espacio virtual sin fronteras para hacer frente a esos desafíos.

La espiral transformadora

La evolución del ecosistema digital africano es reciente, lo que permite ver cómo se ha ido desplegando su actividad. La reacción ante crisis políticas ha sido un desencadenante habitual, que ha dado paso a la voluntad de la participación social. Este espíritu ha conducido a un intento de solidaridad directa que se ha ampliado a un activismo cívico. El último paso, el más reciente, el último territorio colonizado por los cibermilitantes, es el activismo medioambiental.

Usuarios de un cibercafé en Kampala (Uganda). Fuente: Arne Hoel/World Bank.

Un negocio para bien y para mal

Es indudable que el sector tecnológico es importante en la economía mundial y que África representa un espacio en plena expansión. Por un lado, supone un mercado en el que las empresas transnacionales se afanan por tomar posiciones (ya sean operadores telefónicos, proveedores de Internet o constructores de dispositivos). Sin embargo, la presencia de empresas como Samsung, Microsoft o Google no solo responde a la voluntad de vender sus móviles, distribuir su software o que se utilicen sus «servicios». Crean laboratorios de desarrollo o buscan acercarse a los tech hub como lugares de innovación, por lo que es evidente que tratan de aprovechar un potencial creativo de los usuarios africanos que se ha hecho patente en muy poco tiempo. Eso sin contar el impacto creciente de Internet en los negocios y en los PIB africanos, directa o indirectamente. Curiosamente, ninguna de las economías que más rendimiento sacan al entorno virtual se encuentra entre las consideradas potencias económicas, que hasta ahora solo eran aquellas que contaban con recursos naturales que explotar.

Retos y peligros de futuro

En estos primeros pasos de la implantación de las TIC en África los ciudadanos han tomado la delantera a los gobiernos. Las comunidades de activistas y de innovadores se han mostrado mucho más ágiles, más flexibles y más creativas que los poderes. Sin embargo, el reto básico de cara al futuro es generalizar el acceso a Internet, pero no es solo una cuestión de infraestructuras o de materiales, sino que es necesario continuar trabajando en la educación en competencias digitales y en llenar de contenido una red en la que los africanos se sientan como en casa. Igualmente, la situación actual entraña un riesgo, el de la creación de una élite tecnológica, una vanguardia que se aproveche de un mayor acceso a los recursos para acumular poder. Hasta el momento, los impulsores de las iniciativas más importantes no han mostrado un apego a los privilegios, sino, al contrario, una tendencia a trabajar por la democratización y la transformación social. Más allá del riesgo potencial, las únicas experiencias reales muestran ese camino.





Regreso al futuro: la Internet de todas las cosas

¿Se imaginan un despertador que decide despertarlos diez minutos antes porque sabe que tienen una reunión a primera hora y que hay un atasco?


Autómata, José A. Madrid. Fuente: Flickr.

Lleva quince años pululando por la red. Se han celebrado ya diversos encuentros mundiales para hablar sobre esta idea e incluso en el Foro Económico Mundial de Davos este año se ha convertido en uno de los hashtags más usados. Estamos entrando en la era del Internet de las cosas, un concepto que hace referencia a equipar a los objetos que forman parte de nuestro paisaje cotidiano de sensores y sistemas de transmisión de información, con los que pueden identificarse, comunicarse entre ellos, conectarse a Internet para ofrecernos información y datos con propósitos muy diversos. ¿Se imaginan un despertador que decide despertarlos diez minutos antes porque sabe que tienen una reunión a primera hora y que hay un atasco en el camino hacia el trabajo?

Puede que si Marty McFly hubiera aterrizado de nuevo con su DeLorean en 2014 no se hubiera sorprendido al encontrar toda una serie de objetos cotidianos, desde sillas y mesas hasta farolas, tazas de café, aparcamientos o gafas, hablando entre sí, enviándose datos y conectándose a Internet. Tal vez desde su pasado alguna vez imaginaron que en el futuro Internet saltaría primero entre ordenadores, luego al bolsillo, a los smartphones, para al final acabar impregnando las cosas más comunes, esas en las que no solemos ni pensar y que conforman nuestro paisaje cotidiano. Y que las haría volverse inteligentes. Y así, quizá, lo único que hubiera echado en falta el protagonista de Regreso al futuro hubiera sido su patinete volador.

Este es el año en que los expertos aseguran que se va a producir una auténtica revolución de los objetos, que comenzarán a conectarse unos con otros y a la red; a entenderse; a comunicarse con el móvil; a medir parámetros del entorno; a informarnos de los cambios. Ha comenzado la era del Internet de las cosas y eso, se supone, nos va a permitir tomar mejores decisiones, optimizar servicios y, en definitiva, vivir mejor.

Los cada vez más frecuentes wearables son un buen ejemplo de esta revolución. Se trata de gadgets, como pulseras o relojes, que llevamos puestos y nos cuantifican: miden nuestras constantes vitales, las calorías que quemamos, la cantidad de ejercicio que hacemos, la calidad de nuestro sueño. Recogen esos datos mediante una serie de sensores y los envían al móvil para valorar nuestro estado de forma física, por ejemplo.

Y ya existen numerosas empresas que han dotado de sensores y GPS su flota de vehículos para optimizar rutas. Y granjeros que colocan en sus vacas implantes que miden las constantes vitales de los animales y le envían los datos, de manera que puede saber en todo momento la salud del rebaño o sus movimientos o lo que comen. Y neveras capaces de detectar qué productos faltan y hacer la compra en línea. E incluso cepillos de dientes que nos alertan de si los niños se han dejado alguna zona de la boca sin cepillar. Y la lista prosigue tanto como la imaginación  permite.

Cepillo de dientes Kolibree. Fuente: Kolibre.

«Estamos ante un cambio fundamental de nuestra relación con los objetos», aseguran desde Cisco, una empresa de fabricación y consultoría de tecnología. Esta firma de los Estados Unidos señala que en 1984 había tan solo mil aparatos conectados, cifra que aumentó en 1992 hasta alcanzar el millón y hasta los mil millones en 2008. Y, según datos del instituto VINT de la firma tecnológica Sogeti, se prevé que para 2020 llegue a haber unos cincuenta mil millones de cosas conectadas en todo el mundo. Imagínense, ¡seis veces el número de gente que habitará el planeta! Y todos y cada uno de esos objetos serán identificables, cuantificables y programables. Porque en eso consiste el Internet de las cosas, también conocido como IoT, por sus siglas en inglés.

Objetos inteligentes

El concepto no es nuevo. Se acuñó en el MIT en 1999 y entonces se utilizó esa frase, el «Internet de las cosas», para referirse a la idea de poder conectar objetos de todo tipo entre sí, desde electrodomésticos hasta vehículos, libros, ropa, relojes. Lo único que hacía falta era colocar un sensor en cada objeto y luego enchufarlo a Internet.

Pero, para que esa idea prosperara entonces, se toparon con un escollo, la tecnología, que ha hecho que este proyecto se vaya retrasando hasta ahora. Para cuando se planteó por primera vez, hace ya quince años, los sensores eran grandes y tenían un precio alto. La conexión a la red era cara y lenta, se necesitaba un router que realizara la llamada  y ni la Wifi ni los smartphones existían. Hoy, en cambio, disponemos de ordenadores muy potentes y diminutos que llevamos en el bolsillo, la conectividad es ubicua, podemos almacenar grandes cantidades de datos en la nube, y los sensores son económicos y diminutos.

A pesar de que con frecuencia solemos atribuir la etiqueta de «inteligente» a todo lo que se conecte a Internet y nos ofrezca datos, lo cierto es que esta cualidad del Internet de las cosas dependerá de conectar información procedente de diferentes fuentes, como redes sociales, estado del tráfico o pronóstico del tiempo, para optimizar servicios ya existentes y proporcionar otros nuevos. Esa es la gran potencialidad de esta herramienta.

Imagínense: calles equipadas con sensores que detecten los aparcamientos libres que hay en la ciudad y te envíen un mensaje al móvil para alertarte de dónde tienes un sitio y así evitarte estar una hora dando vueltas con el coche en busca del sitio libre. O un despertador que decide sonar diez minutos antes de la hora convenida porque detecta que hay un atasco de tráfico en tu ruta hacia el trabajo y recalcula el tiempo que tardarás en llegar. O coches que hablan con los sistemas de tráfico de la ciudad, que sugieren al conductor la mejor ruta y que le alertan sobre peligros como placas de hielo en la carretera.

http://vimeo.com/94011734

O ropa inteligente que envíe un mensaje a los padres al móvil si el bebé tiene fiebre o trajes de bomberos que durante la extinción de un incendio envíen a la central en tiempo real datos como la temperatura del aire, la velocidad del viento, las concentraciones de gases, de manera que se puedan tomar decisiones más acertadas.

El siguiente gran paso después de los objetos conectados serán los edificios inteligentes conectados, que permitirán ahorrar energía y serán más sostenibles. Que se adaptarán a sus usuarios y a los usos que hacen estos del espacio. Y de allí a toda la ciudad, hacia las smart cities.

En el ámbito de las instituciones culturales, las posibilidades que ofrece el Internet de las cosas resultan muy estimulantes. Para empezar, el centro podría disponer de datos en tiempo real de sus visitantes, de manera que se podría desde conocer de forma precisa el perfil de las personas que acuden a un determinado museo según el día de la semana hasta controlar la cantidad de gente por sala, los flujos de visita.

Se podrían programar exposiciones que se adaptaran a cada usuario; por ejemplo, si se dedicara una muestra a la huella hídrica, al colocarse el visitante delante de un panel de información, este leería los datos de fabricación de su camiseta, equipada con una etiqueta inteligente, y personalizaría la información: podría arrojar datos concretos sobre la cantidad de agua que se ha necesitado para hacer su ropa. U objetos dentro de una exposición que ofrecen al visitante datos sobre su procedencia, su destino, cuánta gente los ha visto, o incluso pequeños vídeos de cómo han sido creados o restaurados.  La conexión a la red haría posible que se fueran actualizando al instante.

Algunos retos

Que el Internet de las cosas acabe despegando definitivamente este año implica que tendremos que hacer frente a una serie de desafíos. Para empezar, habrá que encontrar maneras de nombrar cada aparato. Porque hasta ahora cada cosa que se conecta a la red tiene una IP, única, que lo identifica. El sistema actual, que se llama IPv4, usa cuatro cifras separadas por puntos y cada una de esas cifras va del 0 al 255. Eso permite tener 4,3 billones de posibles direcciones. Y claro, no alcanza. De ahí que ya se esté introduciendo una nueva versión, la IPv6, que en teoría proporcionará más IP. Además, si vamos a querer conectar todas las cosas a la red, se necesitará un ancho de banda mucho mayor.

Otro reto importante serán los virus y ataques informáticos. Que un ordenador se infecte puede suponer que perdamos nuestros ficheros; que toda una red de objetos coja un virus puede ser catastrófico, como también que nos pirateen. Los aparatos conectados pueden ser una buena puerta de entrada a nuestra red.  Ya a comienzos de año se enviaron 750.000 correos spam desde, atención, routers, alarmas, webcams y…¡una nevera! Y, a finales de 2011, en la cámara de comercio de los Estados Unidos, al parecer el termostato del edificio pasó direcciones de correos, notas sobre reuniones y documentos a una IP ubicada en China.

Pero no solo la parte más técnica plantea retos. El potencial del Internet de las cosas es que arrojará una cantidad ingente de datos, que, para que sean valiosos de verdad, deberán estar abiertos y ser comprensibles por el usuario, de manera que los usen el mayor número de personas posible. Y también deberemos reflexionar sobre nuestra privacidad. ¿Hasta qué punto queremos tener monitorizada nuestra actividad diaria y que otros, como empresas de servicios, tengan acceso a esos datos? Y no solo empresas, sino también otras personas podrán saber qué hacemos en cada momento, seguir nuestra huella digital. ¿Nos sentiremos cómodos con esa injerencia en nuestra intimidad?

Que tantos millones de objetos se conecten a la red debería repercutir en un mayor desarrollo de la economía del conocimiento. Aseguran los expertos que en el futuro próximo seremos una sociedad inteligente formada por seres humanos conectados. Y hoy empieza todo.





Internet. Visiones de 1998

Reportaje gravado el año 1998 donde se pregunta a la gente sobre Internet y su devenir.


Celebramos el Día de Internet recuperando una reliquia en forma de cápsula que data de 1998, donde, de forma prematura, se plantean reflexiones acerca de Internet y su devenir. La revolución digital que hemos vivido se empieza a intuir en las respuestas de los expertos y no tan expertos entrevistados hace dieciséis años, a los que preguntamos qué era la red, qué grado de regulación creían que necesitaría Internet en un futuro y si este vivirá en el marco de una República Virtual. Sorprende ver cómo ni los temas planteados ni las respuestas iban tan desencaminados. Dieciséis años después comprobamos cómo entonces ya se apuntaban dilemas que son de máxima actualidad hoy en día, que no se han resuelto del todo.

En este sentido, el pasado febrero se llevó a cabo el proyecto Universo Internet con el objetivo de realizar una reflexión crítica y creativa sobre la Red y proporcionar herramientas a los educadores para que esta información sea transferida al aula. Actualmente trabajamos en una maleta pedagógica que presentaremos en julio, como un recurso didáctico para los docentes que recoge sesiones formativas realizadas para trasladarlas a las aulas vinculándolas con el currículo escolar. Y recomendamos, asimismo, una visita a la exposición Big Bang Data, un proyecto que se adentra en el fenómeno de la explosión de datos en el que estamos inmersos.





(En)redadas en el espejismo de las redes sociales

¿Son las redes sociales un nuevo instrumento de empoderamiento de las mujeres o se muestran incapaces de desactivar los mecanismos de desigualdad?


Marcha por la liberación de las mujeres en Washington, 1970 | Library of Congress

¿Son las redes sociales un nuevo instrumento de empoderamiento de las mujeres o, por el contrario, se muestran incapaces de desactivar los mecanismos de desigualdad? Nuevo vehículo para incentivar la comunicación y el diálogo, las redes han llegado a nuestra vida digital bajo un atractivo envoltorio –la facilidad de uso y la inmediatez– y eso nos hace considerarlas, desde el optimismo, un acelerador del proceso de empoderamiento femenino. Pero es posible que la virtual sea tan solo la de una realidad paralela, sin vasos comunicantes con la cruda realidad, y que ni Twitter ni Facebook estén programados para poner en jaque la ancestral estructura patriarcal.

En (h)adas. Mujeres que crean, programan, prosumen, tecleanRemedios Zafra evoca la emancipación que supuso años atrás para las mujeres el empleo de las tecnologías de la vida cotidiana (de la lavadora al frigorífico pasando por el robot de cocina y la plancha eléctrica), buena parte de las cuales se extendieron como artículos de consumo de masas en los años cincuenta. Siendo una evidencia que las máquinas han facilitado, y mucho, la existencia de esa mitad de la población a que hasta la fecha se le ha negado la presencia en unos campos y otros, no es extraño que sirvieran para ratificar nuestro reinado en la tierra precisamente en el seno del sacrosanto hogar, único espacio donde nos era dado reinar. De ahí que se trate, para Zafra, de «tecnologías jerarquizadas, low tech, consideradas no productivas, sino mediadoras del consumo, herramientas prosumer, pensadas para tareas sin épica, tareas de la parte de la sombra (no vista) de la vida cotidiana».

Esos avances y otros nos permiten hoy a las mujeres disponer de mayor tiempo para dedicarlo a tareas como ejercer la medicina, llegar a diputadas o escribir este artículo, por lo que, por encima de sus defectos, quepa destacar sus virtudes. De ahí también que la llegada a los hogares de las nuevas tecnologías de la información nos haya pillado con una mayor disponibilidad y una excelente predisposición. Así las cosas, cuando en 2006 se dio el pistoletazo de salida para lo que se ha dado en llamar «la democracia digital» (es decir cuando Facebook, creado dos años antes, pasó a convertirse en un espacio abierto para todos los usuarios, que hoy son más de 350 millones), sucedió que, tras haber cultivado durante siglos el silencio y/o la parquedad de la expresión, creímos ver en esa nueva modalidad de la democracia nuestra oportunidad para conquistar finalmente la parte que nos correspondía en los espacios de la comunicación.

 La habitación propia virtual

En estos últimos años, hemos pasado de las low tech a las high tech, de la cárcel del hogar a la ventana abierta de par en par que supone la habitación propia virtual, de lo que Sadie Plant ha llamado el «tecnogénero» al «cibergénero». Como colectivo silenciado, nos hemos lanzado pues a aprovechar las redes sociales sin escudos, sin protección. También en 2006 la revista Time nos dio la razón en nuestra voluntad de participar de la fiesta de las redes en igualdad de condiciones: siguiendo su costumbre de elegir a un personaje célebre, optó por un personaje muy especial: «you».

Ese «tú» encerraba a todos los hombres y mujeres anónimos ante los cuales se abría una nueva era en la que ellos iban a ser protagonistas. Ese tú no tenía sexo y, por tanto, incluía también a las mujeres, que mal que bien habían conseguido ya su habitación propia (para decirlo con Virginia Woolf) y que ahora se lanzaban a su cuenta de correo, a su Twitter, a su grupo de Google…, es decir, a su habitación propia virtual. El acicate era grande y nuestra incorporación fue muy veloz, por lo que, a día de hoy, las mujeres son mayoría en el uso de las redes, como demuestran las cifras publicadas por el portal financiero Finances Online, del que resulta, por ejemplo, que un 76% de mujeres adultas estadounidenses hacen uso de Facebook, frente a un 66% de hombres.

Cierto es que en el universo de las TIC, las redes (sobre todo las llamadas horizontales o de contactos) se revelan como el instrumento ideal para la difusión de mensajes e informaciones (llegando si se tercia al extremo de la viralización), lo que las convierte en un ambicionado espacio por conquistar. En consecuencia, mientras los individuos y grupos sociales ya empoderados no han tenido más que adaptarse a su nuevo lenguaje para prolongar su dominio, los individuos y colectivos hasta la fecha silenciados se han lanzado a ellas tratando de alcanzar un grado de repercusión que no obtienen a través de los canales «oficiales».

¿No fueron acaso las redes sociales las protagonistas absolutas de las llamadas primaveras árabes? ¿Se hubiera producido en Túnez la Revolución de los Jazmines o Intifada de Sidi Bouzid si la inmolación de un joven vendedor ambulante no hubiera corrido como la pólvora en las redes? ¿Y el levantamiento de la egipcia plaza Tahir, hubiera sido posible sin la complicidad de los usuarios de Internet? ¿Podría la propia Yoani Sánchez «radiar» por Internet las injusticias de su país, Cuba, si no fuera conectándose a las redes gracias al wifi de un hotel de La Habana?

Un hombre durante las protestas de Egipto de 2011 lleva un cartel que dice «Facebook, # jan25, la red social de Egipto». Fuente: Wikipedia.

En las redes, sobre todo en Twitter, han tenido también su principal baza los movimientos de indignación de nuestro país, por lo que el 15-M Democracia Real Ya consiguió reunir por Internet bajo un puñado de hashtags a 130.000 personas, que se dice pronto. Nos preguntamos a qué velocidad hubiera avanzado la conquista de los derechos para los negros en Estados Unidos si alguien hubiera grabado con un Ipod el momento en que en 1955, en la capital de Alabama, Rosa Parks rehusó cederle su asiento a un blanco en un autobús público. Es evidente que la imagen hubiera corrido como la pólvora, mucho más rápido que las posaderas de Scarlett Johansson.

Un nuevo paradigma comunicativo

Aunque hay redes que han tenido mayor o menor aceptación que otras, en su conjunto siguen yendo al alza, pisándole los talones al desarrollo de las nuevas aplicaciones. Por poner un caso, el empleo de Twitter se disparó en 2010 a raíz de la llegada al mercado de los smartphones, o teléfonos inteligentes, y son ya 70 millones los tuits que diariamente se publican. De modo que las redes no solo son codiciados canales «extraoficiales», sino que lo son in crescendo, lo que invita a las mujeres a pensar que rigen en ellas leyes distintas a las que rigen fuera y, más aún, a hacerse ilusiones en lo que se refiere a la incidencia de su participación en ellas.

Las pruebas fehacientes de su enorme impacto y su ascenso imparable nos hacen leerlas como un instrumento de liberación enormemente útil asimismo en el proceso de empoderamiento que llevamos décadas impulsando e inclusive como una herramienta capaz de acelerarlo sustancialmente. ¿Serán las redes armas de combate contra la desigualdad de género igual que parecen estar sirviendo para ayudar a derrocar regímenes antidemocráticos? Y de ser así, ¿hasta qué punto su repercusión es real y cuenta en la cadena de indicadores que manejan el mundo?

La capacidad de las redes de redefinir el espacio propio desde el que se interactúa y de crear comunidades virtuales es innegable. Las redes «tejen redes» y, por tanto, «nos entretejen», de modo que son un campo excelente para visibilizar las diferentes problemáticas, incluidas las femeninas. La duda es si, al estilo de BlackPlanet (red social creada en 1999), pueden servir solo para juntar a los ya iguales, de ahí que, poniéndonos en lo peor, servirían para gestar una gran comunidad de feministas del que permanecerían ajenos los que no lo fueran.

Porque las redes no son tan solo un lugar de intercambio de propuestas destinadas a mejorar el mundo, como no son tampoco una fábrica de amores idílicos, sino que tienen también un gran potencial publicitario, y la publicidad sigue siendo tremendamente androcéntrica, de ahí que Boyd y Ellison las consideren como un conjunto de «servicios con sede en la red», es decir, como una prolongación de la realidad no virtual y no como un nuevo paradigma. De ahí que, como afirma Judy Wajcman en El tecnofeminismo, si «la relación entre tecnociencia y sociedad está actualmente sometida a un profundo y urgente cuestionamiento», ¿cómo no van a depararnos las tecnologías digitales, de mucha más reciente implantación, visiones utópicas y distópicas (la terminología es suya)? En este ámbito nos movemos, pues, entre «el optimismo utópico y el fatalismo pesimista» (de nuevo Wajcman).

Feminismo en red

El primer Manifiesto Ciberfeminista se presentó, de la mano de las VNS Matrix, a mediados de los noventa en Adelaida, Australia, en que tuvo lugar la Primera Internacional Ciberfeminista en la Documenta X. Aunque es probable que el movimiento ande algo descabezado o acaso que se halle en continuo proceso de redefinición, desde sus filas se sigue afirmando taxativamente que en el ciberespacio no hay desigualdades de género y que Internet tiene la capacidad de transformar los roles de género convencionales. ¿Es acaso una ilusión sobre todo extendida entre las más jóvenes, que también piensan que en la realidad no virtual el techo de cristal ya no existe?

Pegatinas hechas para la Primera Internacional Ciberfeminista. Fuente: Wikimedia Commons.

De hecho, los estudios de género ya incluyen investigaciones acerca de cómo se elaboran y transmiten los discursos feministas en el nuevo espacio de la comunicación (se sirven en especial para ello de las redes sociales), llegando a la conclusión mayoritaria de que se trata de una corriente que no tiene un horizonte de expectativas distinto al resto de feminismos, pero que aprovecha las nuevas capacidades para realizar acciones virtuales y coordinar estrategias. Lamentablemente también parece muy lejano, como especulaba el primer ciberfeminismo, que Internet acabe con la diferencia sexual (Judith Butler se refiere a «deshacer el género»). Por no hablar de la posibilidad de que si un día se llegase a borrar la diferencia sexual, esta cancelación sirviera para llevar a cabo una suerte de amnistía: cancelar el pasado, olvidar los siglos de oprobio y lanzar la llave de la dominación al mar de la cibernética.

Sí es una constatación de que Internet permite el anonimato sexual, que nos ofrece la posibilidad de librarnos de la tiranía del cuerpo y que eso lleva a borrar los límites entre los sexos. «Prefiero ser una cyborg a una diosa», escribe Donna J. Haraway, entendiendo cyborg como aquello en que nos estamos convirtiendo los habitantes de un mundo postmoderno: «una criatura en un mundo postgenérico», como la bautiza en Ciencia, cyborgs y mujeres. Pero surge la duda de si la actividad de las mujeres en la red, en las redes, proporciona a sus hasta la fecha silenciadas identidades una mayor entidad como prescriptoras, si son las redes el altavoz que las mujeres andábamos buscando para inscribirnos en la nueva realidad.

Eso significaría que las redes están capacitadas para colaborar proactivamente en la construcción de esa nueva realidad y que no son tan solo un burdo espejo de lo que sucede fuera de ellas; significaría que de algún modo tienen capacidad para sentar nueva jurisprudencia, para «feminizar el mundo que circula a través de ellas». Es decir, ¿han sido las mujeres invitadas a la fiesta de las redes o son unas meras intrusas, se las valora o se las consiente? Y lo que es más importante, ¿van a ser capaces de vehicular a través de ellas mensajes transformadores? Y en caso de estar ya haciéndolo, ¿cómo se monitorizan y se miden los resultados de ese empoderamiento?

Quisiéramos pensar en las redes como en un espacio compartido, donde se produzca lo que Saskia Sassen llama «la lógica de la incorporación». Que sean una especie de entramado de redes abiertas en el que sea posible incorporar nuevas formas de conocimiento, que a su vez cuestionen aquellas impuestas por el mainstream. Parafraseando de nuevo a Sassen y llevándola al terreno del género, redes capaces de driblar la lógica de la distorsión patriarcal y propiciar nuevos mecanismos, nuevas lógicas de distribución paritaria. Constatada la utilidad de las redes como vehículo de comunicación (véase como ejemplo El tren de la Libertad, nacido contra las nuevas propuestas de ley del aborto de Gallardón que tuvo en las redes su principal baza), queda saber si servirán como instrumento de transformación.

¿Visibilizan las redes realmente las tareas de las mujeres o las reducen a una nueva forma de invisibilización, como hacían las que podíamos llamar «tecnologías de la cocina»? No se trata de ser pesimistas, pero sí de destacar la ambivalencia de las redes y de sus posibles efectos. El tiempo dirá si sirven para la disensión o para la afirmación. Mientras, en lugar de hablar de (h)adas, mejor hablar de (en)redadas, entendiendo por enredadas tanto enganchadas a las redes sociales como liadas, engatusadas. Lo que no quita que a diario millones de mujeres de un rincón y otro del planeta, en precarios locutorios o desde portátiles de última generación, sigan desgranando en Twitter, Tuenti o Facebook sus voces esperanzadas, con el convencimiento de que hay alguien al otro lado que las está escuchando.

Bibliografía

Donna J. Haraway: Ciencia, cyborgs y mujeres. La reinvención de la naturaleza (Madrid, Cátedra, 1991).

Sadie Plant: Ceros + Unos, Mujeres Digitales + la nueva tecnocultura (Barcelona, Destino, 1998).

Judy Wajcman: El tecnofeminismo (Madrid, Cátedra, 2006).

Remedios Zafra: Netianas. N(h)hacer mujer en Internet (Madrid, Lengua de Trapo, 2005).

Un cuarto propio conectado. (Ciber) Espacio y (auto)gestión del yo (Madrid, Fórcola, 2010).

(h)adas. Mujeres que crean, programan, prosumen, teclean (Madrid, Páginas de Espuma, 2013).





Revolución urbana 4.0

Hablamos sobre propuestas concretas para potenciar la figura de smartcitizens (ciudadanía inteligente) frente al concepto de smart city (ciudad inteligente).


Fotografía aérea de St. Louis, Missouri, U.S.A. 3 de marzo de 1968. Font: Wikipedia.

En nuestro anterior artículo para el blog del CCCB Lab, establecimos la necesidad de potenciar la figura de smartcitizens (ciudadanía inteligente) frente al concepto de smart city (ciudad inteligente): ante la lógica centralizadora, privativa y jerárquica de esta última, reivindicábamos las características propias de la primera (la innovación, la inteligencia ciudadana, la horizontalidad, la colaboración, el P2P y el copyleft) como valores sobre los que deben sustentarse las transformaciones urbanas, territoriales y sociales contemporáneas. Tras aquella primera incursión teórica, nos ha parecido pertinente enfocar esta nueva entrega desde una perspectiva más práctica, en la que trataremos de ahondar en la búsqueda de ejemplos y propuestas concretas.

¿Cómo podemos desarrollar propuestas y procesos urbanos que respondan a las actuales necesidades ciudadanas? Hoy más que nunca tenemos que subvertir muchos preceptos y lógicas que han regido el devenir de las ciudades y el urbanismo en los últimos años. Necesitamos plantear nuevos imaginarios en torno a la construcción colectiva de la ciudad desde una perspectiva creativa. Y aquí los valores que representan a la figura de smartcitizens y la cultura digital van a desempeñar un papel crucial. Pero no a cualquier precio, ni de cualquier manera. Como siempre, es importante atender a los para qué y a los cómo, realizando una buena aproximación crítica a las nuevas fórmulas de gestión e intervención en las ciudades, vinculándolas a la inteligencia ciudadana, la innovación, la participación social y la cultura libre: tenemos que construir unas bases sólidas que instalen este incipiente «neourbanismo» en el terreno de la equidad, la cooperación y la cohesión territorial, así como en el del compromiso social y ambiental.

En los últimos tiempos hemos sido testigos de la construcción del mito de las smart cities (ciudades inteligentes) como estandarte de la innovación urbana y las tecnologías digitales aplicadas a la ciudad. Sin embargo, este posicionamiento no se ha producido tanto por una capacidad transformadora que atienda a los valores que hemos enumerado más arriba, como por los intereses y las campañas de mercadotecnia desplegadas por las grandes multinacionales. Paralelamente o, más bien, como reacción a este auge de las ciudades smart, ha surgido la figura de smartcitizens (ciudadanía inteligente), que proclama el uso de la inteligencia ciudadana para resolver problemáticas urbanas. Y es precisamente esta óptica la que está posibilitando el desarrollo de estrategias colectivas que potencien el bien común y, por lo tanto, una innovación urbana al servicio de los intereses de la ciudadanía.

Tal y como vimos reflejado en la exposición Smartcitizens, la aplicación de la inteligencia ciudadana a la intervención y gestión de la ciudad cuenta con una multiplicidad de derivaciones y naturalezas de lo más prolijas. Sin embargo, en este texto nos centraremos en aquellas que consideramos que responden a un enfoque innovador de la transformación de las ciudades y que, por lo tanto, se circunscriben al ámbito de la citada innovación urbana.

El urbanismo en la era digital

Hoy en día contamos con numerosos medios que nos permiten compartir información valiosa entre los distintos agentes y sectores de nuestra sociedad y, con ello, convertirnos en ciudadanos inteligentes, activos y partícipes. Sin embargo, el esfuerzo que requiere la traslación de esta oportunidad a un cambio de paradigma en el urbanismo y en la transformación de la ciudad es todavía incipiente, y en algunos casos tiende a ser coartada por parte de las esferas de poder y los ámbitos profesionales tradicionales.

Sensordrone es un dispositivo sensor múltiple que se comunica con los teléfonos inteligentes con Bluetooth. Fuente: SmartCitizensCC.

Agotado el maná de las grandes inversiones públicas dirigidas al desarrollo o la regeneración urbanas, el sector urbanístico se ha estancado en una preocupante parálisis. Incapaces de adaptarse a las nuevas lógicas y dinámicas sociourbanas que definen el cambio de época en el que estamos inmersos, urbanistas y administraciones públicas permanecen agazapados a la espera de que vuelvan los good old times. Mientras tanto la ciudad sigue su curso, desarrollándose a través de otros agentes, otras disciplinas, otras miradas.

Este vaciamiento de la práctica urbanística supone un arma de doble filo para la ciudad. Por una parte, ha permitido incorporar nuevas perspectivas disciplinares, evidenciando la necesidad de una cultura transversal a la hora de acometer los proyectos y procesos urbanos. Pero por otra, esta (¿auto?)exclusión de urbanistas de los espacios donde se están generando las nuevas transformaciones urbanas resulta peligrosa en tanto que las deja huérfanas de una visión integral de la ciudad —actuar de forma sectorial y parcial puede generar efectos muy negativos e inesperados—, así como de instrumentos, metodologías y conocimientos que las doten de mayor consistencia y eficacia.

Innovación urbana: la vida más allá de la ortodoxia urbanística

El páramo en el que se ha convertido la planificación urbana hoy en día ha permitido la emergencia de prácticas urbanas provenientes de otros sectores, lo cual está transformando la propia noción de urbanismo tal y como lo habíamos conocido hasta ahora. Estas nuevas fórmulas de intervenir en la ciudad y de desarrollar estrategias de innovación urbana son múltiples y variadas, tal y como veremos a continuación.

Uno de los principales focos de innovación urbana son las iniciativas promovidas por innovadores tecnológicos que están facilitando al ciudadano acceder a información, tomar decisiones y organizarse colectivamente con el objeto de hacer un uso más inteligente de la ciudad. Hoy en día contamos con una ingente cantidad de aplicaciones y plataformas que visualizan y facilitan compartir información sobre tu ciudad o barrio (Disqus, Livehood…), que ayudan al ciudadano a tomar decisiones informadas (Mindmixer, Near Interaction…), o que permiten tener una posición activa y emprendedora respecto al hábitat urbano (Urbapps, Social Lab…).

Lejos de limitarse a fomentar un uso inteligente de las ciudades, este tipo de iniciativas también están siendo capaces de introducir mejoras en ellas. Tal es el caso de la plataforma digital peruana Datea, que consiguió modificar el trazado de una línea de transporte público de Lima (El Metropolitano), gracias a los reportes y problemas que detectaban las personas que participaban en ella.

Otro de los campos más relevantes en el impulso de la innovación urbana actualmente es el de las industrias culturales y creativas (ICC). La convergencia en el interés por la cultura libre y la ciudad como áreas de investigación y experimentación es la que ha permitido a este sector dar respuesta a ese «mientras tanto» en el que nos encontramos. Probablemente uno de los ejemplos que mejor refleje esta idea sea ZAWP (Zorrotzaurre Art Work in Progress), un proyecto que plantea la recuperación de patrimonio industrial vacío de la península de Zorrotzaurre (Bilbao) a través de actividades creativas y programas culturales, planteando así un modelo urbano alternativo al del plan especial proyectado por Zaha Hadid para esa zona. Su escala de actuación lo convierte en uno de los ejemplos más completos de innovación urbana, como también lo es el programa Esto no es un Solar en Zaragoza, destinado a dotar de uso a solares de la ciudad a través de un proceso de decisión colaborativa y empleando a trabajadores en paro. Del mismo modo existen casos igual de interesantes pero de menor envergadura como LaFábrika-detodalavida en Extremadura o Jazar en Pamplona. Todas estas iniciativas están poniendo en jaque las formas clásicas de hacer ciudad a través de la creatividad, el emprendimiento comunitario y la lógica P2P (peer-to-peer).

Zona Franca Zorrotzaurre: Udaberri ZAWP 2013. Fuente: ZAWP Bilbao.

Otra de las derivaciones más interesantes desde las que está brotando la innovación urbana asociada a las ICC son los denominados Laboratorios Ciudadanos, espacios herederos de la lógica de los Living Labs que se conciben como entornos de aprendizaje, divulgación, experimentación y creación colectiva y colaborativa. Aunque su campo de acción no sea estrictamente la ciudad, muchos de ellos acogen y promueven iniciativas con un fuerte carácter urbano. Tal es el caso de MediaLab Prado e Intermediae en Madrid, dos espacios que, a través de su relación con colectivos de arquitectura, están aportando la infraestructura necesaria para el desarrollo de proyectos de intervención urbana. En esta misma línea, también conviene destacar el trabajo que han comenzado a desarrollar en Hirikilabs, el laboratorio ciudadano impulsado por Tabakalera en Donostia, así como el proceso para la creación de un Laboratorio Urbano Abierto que se ha iniciado en Zaragoza a través de Etopia. Centro de Arte y Tecnología y el programa Zaragoza Activa.

La proliferación de este tipo de espacios se ve reforzada por un contexto internacional propicio: desde julio el proyecto Ciudadanía 2.0 de la Secretaría General Iberoamericana (SEGIB), en colaboración con el Programa de Participación Ciudadana de Presidencia de Panamá, la Secretaría de Cultura de la Prefeitura de São Paulo, la AECID, la Fundación Unidos en Red y el Banco de Desarrollo de América Latina CAF, comenzó a impulsar el proceso Innovación Ciudadana. Entre sus objetivos se encuentra desarrollar un documento colaborativo para la creación de Laboratorios Ciudadanos en los distintos países de la región.

Todos estos elementos nos permiten dibujar un nuevo escenario desde el que empezar a construir colectivamente un futuro alternativo para la toma de decisiones y transformación de las ciudades. Y ahí, la colaboración y sinergias entre sectores profesionales y agentes que operan en el territorio (stakeholders) van a ser claves: solo a través de la inteligencia colectiva, la participación social, la innovación y la creatividad, el emprendimiento, el potencial de las herramientas digitales y las TIC, la ecología, la sostenibilidad y un enfoque transdisciplinar conseguiremos consolidar la revolución urbana del siglo XXI.





IEML: Proyecto para un nuevo humanismo. Entrevista a Pierre Lévy

Pierre Lévy nos habla de la creación de IEML , una herramienta para aumentar la inteligencia colectiva mediante el uso del medio algorítmico.


Pierre Lévy es filósofo y uno de los pioneros en el estudio de las implicaciones de Internet para el conocimiento y la cultura. En Inteligencia colectiva. Por una antropología del Ciberespacio, publicado en francés en 1994 (traducción al español de 2004), describe una inteligencia colectiva diseminada en todas partes, constantemente valorizada y coordinada a tiempo real. Es la inteligencia colectiva humana aumentada por las nuevas tecnologías de la información e Internet. Desde entonces ha estado trabajando en un proyecto magno, la creación de IEML (metalenguaje de la economía de la información), una herramienta para aumentar la inteligencia colectiva mediante el uso del medio algorítmico. El IEML – que ya consta de una gramática es un metalenguaje que incorpora la dimensión semántica haciéndola computable. Ello permite una representación reflexiva de los procesos de la inteligencia colectiva.

En su obra Semantic Sphere I. Computation, cognition, and information economy, Pierre Lévy define IEML como una nueva herramienta para la conversión sistemática en conocimiento del océano de datos de la memoria digital participativa, común a toda la humanidad. Un sistema para codificar el significado que permite que las operaciones llevadas a cabo en la memoria digital se hagan transparentes, interoperables y computables.

Este metaleguaje, al formalizar el sentido, permite incorporar una dimensión humana al análisis y explotación del inmenso aluvión de datos en que nos movemos en la sociedad digital. Al mismo tiempo, ofrece un nuevo estándar, capaz de acoger la máxima diversidad y la interoperabilidad, para las humanidades.

En las obras Las tecnologías de la inteligencia e Inteligencia colectiva, defines los medios relacionados con Internet como nuevas tecnologías intelectuales, cuya acción aumenta los procesos intelectivos humanos. Estos dan lugar a un nuevo espacio de conocimiento dinámico, cuantitativo y producido colectivamente. ¿Cuáles son las características de esta inteligencia colectiva aumentada?

Lo primero que tenemos que comprender es que la inteligencia colectiva existe desde siempre. No es algo que deba ser construido. La inteligencia colectiva existe al nivel de las sociedades de animales: en todas las sociedades animales, especialmente las de insectos y mamíferos, y desde luego, la especie humana es un ejemplo maravilloso de inteligencia colectiva. Además de los recursos que los animales tienen a su disposición para comunicarse, los seres humanos disponen del lenguaje, de la tecnología y de instituciones sociales complejas, que, tomadas conjuntamente, crean una cultura. Las abejas tienen inteligencia colectiva, pero sin esta dimensión cultural. Además, los seres humanos cuentan con una inteligencia personal reflexiva que aumenta la capacidad de la inteligencia colectiva. Esto solo se da en los humanos.

Ahora, el punto crucial es aumentar la inteligencia colectiva humana. El mejor modo de conseguirlo es mediante medios y sistemas simbólicos. La inteligencia colectiva humana se basa en lenguaje y tecnología y podemos actuar sobre estos dos aspectos para aumentarla. El primer salto hacia un aumento significativo de esta inteligencia fue la invención de la escritura. Después inventamos medios más sutiles, complejos y eficientes relacionados con esta, como son el papel, el alfabeto o el sistema posicional para representar los números con diez numerales incluido el 0. Todos estos sistemas han llevado a progresos considerables. Posteriormente inventamos la imprenta y los medios electrónicos. Ahora asistimos a un nuevo estadio en el aumento de la inteligencia colectiva humana; es lo digital o –como yo lo denomino– el estadio algorítmico. Nuestra nueva estructura técnica nos permite una comunicación ubicua, la interconexión general entre toda la información y –lo más importante– disponemos de autómatas capaces de transformar símbolos. Con estos tres aspectos, estamos ante una oportunidad extraordinaria para aumentar la inteligencia colectiva.

En ocasiones has definido tres estadios en el progreso del medio algorítmico, previos a la esfera semántica: el direccionamiento de información en la memoria de los ordenadores (sistemas operativos), el direccionamiento de los ordenadores en Internet y finalmente la web, el direccionamiento de todos los datos en una red global, donde toda la información puede ser considerada como formando parte de un todo interconectado. Esta externalización de la memoria colectiva humana y de los procesos intelectivos ha incrementado la autonomía individual y la autoorganización de las comunidades humanas. ¿Cómo esto ha dado lugar a una esfera pública global e hipermediada y a la democratización del conocimiento?

Esta democratización del conocimiento ya está teniendo lugar. Si tenemos comunicación ubicua significa que tenemos acceso a cualquier clase de información casi gratuitamente. Uno de los mejores ejemplos es Wikipedia. También podríamos hablar sobre los blogs, las redes sociales y el creciente movimiento de datos abiertos. Cuando tenemos acceso a toda esta información y podemos participar en redes sociales que sustentan el aprendizaje colaborativo, y cuando además tenemos a nuestro alcance algoritmos capaces de asistirnos en muchas cosas, entonces hay un aumento real de la inteligencia colectiva humana. Un aumento que al mismo tiempo implica la democratización del conocimiento.

¿Cómo participan las instituciones culturales en esta democratización del conocimiento?

Las instituciones culturales están publicando datos de modo abierto, participando en conversaciones generales en los medios sociales, y tomando ventaja de las posibilidades del crowdsourcing, entre muchas otras cosas. También pueden contribuir a una estrategia en la administración del conocimiento abierta y organizada desde abajo.

A Model of Collective Intelligence in the Service of Human Development (Pierre Lévy, en The Semantic Sphere, 2011) S = sign, B = being, T = thing.

Recientemente estamos asistiendo al fenómeno que los medios de comunicación de masas han calificado como big data. Nuestra especie produce y almacena datos en una cantidad que sobrepasa las capacidades humanas de percepción y análisis. ¿Cómo se relaciona este fenómeno con el medio algorítmico?

Primero hay que decir que la disponibilidad de grandes flujos de datos solo es una actualización del potencial de Internet. Siempre ha estado ahí, solo que ahora disponemos de más datos y más gente capaz de recuperarlos y analizarlos. Ha habido un gran incremento en la cantidad de información entre la segunda mitad del siglo XX y los inicios del siglo XXI. Al principio solo había unas cuantas personas usando Internet y ahora es casi la mitad de la población mundial la que está conectada.

En sus comienzos, Internet era un modo de enviar y recibir mensajes. Éramos felices porque podíamos enviar y recibir mensajes de todo el planeta. Pero el mayor potencial del medio algorítmico no es la transmisión de información, sino la transformación automática de los datos (mediante software).

Hay que decir que la masa de datos disponible en Internet hoy en día todavía es analizada, transformada y realmente explotada por grandes gobiernos, grandes laboratorios científicos y grandes compañías. Y es esto lo que hoy denominamos big data. En el futuro va a haber una democratización en el procesamiento del big data. Se va a producir una nueva «revolución». Si pensamos en la situación de los ordenadores, al principio, solo las grandes compañías, los grandes gobiernos y los grandes laboratorios tenían acceso a la computación. Hoy, en cambio, asistimos a la revolución de la computación social y la comunicación descentralizada de Internet. Yo espero el mismo tipo de revolución respecto al procesamiento y análisis de los datos masivos.

Grandes compañías de comunicación, como Google o Facebook, están promoviendo el uso de la inteligencia artificial para la explotación y el análisis de los datos. Esto lleva a una predominancia de la lógica y la computación en la comprensión de nuestra realidad. IEML, en cambio, incorpora la dimensión semántica. ¿Cómo este nuevo formalismo es capaz de describir y hacer computable el modo en que creamos y transformamos el sentido?

Hoy en día disponemos de algo denominado web semántica, ¡pero no es semántica en absoluto! Esta está basada en relaciones lógicas entre los datos y los modelos lógico-algebraicos. No hay un modelo semántico en esto. De hecho, actualmente no hay ningún modelo que proponga automatizar la creación de relaciones semánticas de una manera general y universal. IEML va a permitir la simulación de los ecosistemas de ideas generados en las actividades de las personas y reflejar la inteligencia colectiva. Esto va a cambiar completamente el significado de big data porque vamos a ser capaces de transformar estos datos en conocimiento.

Tenemos a nuestra disposición herramientas realmente poderosas, tenemos un enorme, casi ilimitado, potencial de computación y disponemos de un medio donde la comunicación es ubicua, podemos comunicarnos en todas partes y en todo momento, y donde todos los documentos se hallan interconectados. Para mí la cuestión es: ¿cómo vamos a usar todas estas herramientas en un modo significativo para aumentar la inteligencia colectiva?

Es con este propósito que he inventado un lenguaje que computa automáticamente las relaciones semánticas internas. Cuando escribes una sentencia en IEML, este crea automáticamente la red semántica entre las palabras incluidas en la sentencia y muestra las redes semánticas entre estas palabras en el diccionario. Cuando escribes un texto en IEML, este crea las relaciones semánticas entre las sentencias del texto. Adicionalmente, cuando seleccionas un texto, IEML crea automáticamente las relaciones semánticas entre este texto y otros textos contenidos en la biblioteca. Entonces tenemos una especie de hipertextualización semántica automática. El código IEML programa relaciones semánticas y puede ser fácilmente operado por algoritmos (es un «lenguaje regular»). Además IEML se autotraduce automáticamente a los lenguajes naturales. De modo que los usuarios no están obligados a aprender el código.

Lo más importante es que si categorizamos los datos en IEML, este va a crear automáticamente una red de relaciones semánticas entre los datos. Podemos disponer de relaciones semánticas generadas automáticamente dentro de cualquier clase de conjunto de datos. Este es el punto que relaciona IEML con el big data.

Entonces IEML nos ofrece un sistema de metadatos computables que permite automatizar relaciones semánticas. ¿Este podría ser un nuevo lenguaje común para las humanidades propiciando su renovación y progreso?

Todo el mundo va a ser capaz de categorizar los datos como quiera. Cualquier disciplina, cultura o teoría va a ser capaz de categorizar datos a su manera, permitiendo la máxima diversidad, pero mediante un solo metalenguaje, asegurando la interoperabilidad. IEML va a generar automáticamente ecosistemas de ideas con todas sus relaciones semánticas, que van a ser navegables. También vamos a ser capaces de comparar diferentes ecosistemas de ideas de acuerdo a sus datos y los diversos modos de categorizarlos, así como de escoger entre diferentes perspectivas y puntos de vista. Por ejemplo, la misma gente interpretando diferentes conjuntos de datos, o gente diferente interpretando el mismo conjunto de datos. IEML asegura la interoperabilidad de todo ecosistema de ideas. Por un lado, tenemos la mayor diversidad posible y, por el otro, computabilidad e interoperabilidad semántica. Creo que esta puede ser una gran mejora para las ciencias humanas, porque hoy en día las humanidades son capaces de utilizar la estadística, pero este es un método cuantitativo. También pueden usar el razonamiento automático, pero estos son métodos puramente lógicos. Pero con IEML podemos realizar cómputos en las relaciones semánticas, y es solo gracias a la semántica (junto con la lógica y la estadística) que podemos comprender qué está pasando en el terreno humano. Vamos a ser capaces de analizar y manipular el sentido, en esto radica la esencia de las humanidades.

Vamos a hablar del estado actual en el desarrollo de IEML. Sé que es pronto, pero ¿podrías adelantarnos el boceto de algunas de las aplicaciones o herramientas que pueden desarrollarse con este metalenguaje?

Es demasiado pronto, quizá la primera aplicación podría ser algún tipo de juego de inteligencia colectiva, en el que los participantes trabajen conjuntamente para construir el mejor ecosistema de ideas de acuerdo a sus objetivos.

He publicado The Semantic Sphere (La esfera semántica) en 2011; y hace seis meses he completado la gramática con todas las dimensiones matemáticas y algorítmicas. Actualmente estoy escribiendo un segundo libro titulado Algorithmic Intelligence (Inteligencia algorítmica), donde expongo todos los temas relacionados con la reflexividad y la inteligencia. En los próximos meses se publicará (en línea) el diccionario de IEML. Va a ser un primer núcleo, ya que el diccionario debe ser incrementado progresivamente, y no solo por mí. Espero que otra gente contribuya.

El diccionario interlingüístico de IEML asegura que las redes de relaciones semánticas puedan ser traducidas de un lenguaje natural a otro. ¿Podrías explicarnos cómo funciona y cómo incorpora la complejidad y la pragmática de los lenguajes naturales?

La base de IEML es un álgebra conmutativa simple (lenguaje regular) que lo hace computable. Una codificación especial de este algebra (script) permite los procesos recursivos y autorreferenciales, así como la programación de grafos rizomáticos. La gramática algorítmica transforma el código en redes de complejidad fractal que representan la estructura semántica de los textos. El diccionario constituido por términos organizados por sistemas de relaciones simétricos (paradigmas) da contenido a los grafos rizomáticos y dibuja una especie de sistema de coordenadas común para las ideas. Trabajando conjuntamente el script, la gramática algorítmica y el diccionario, se crea una correspondencia simétrica entre diferentes operaciones del algebra y distintas redes semánticas (expresadas en lenguajes naturales). La esfera semántica recoge todos los textos posibles de este lenguaje, traducidos a los lenguajes naturales e incluyendo las relaciones semánticas entre todos estos textos. En el espacio de juego común de la esfera semántica el diálogo, la intersubjetividad y la complejidad pragmática surgen de los juegos abiertos que regulan libremente la categorización y la evaluación de los datos. Finalmente toda clase de ecosistema de ideas –representando los procesos cognitivos colectivos– pueden ser cultivados en un ambiente interoperable.

Schema from the START – IEML / English Dictionary by Prof. Pierre Lévy FRSC CRC University of Ottawa 25th August 2010 (Copyright Pierre Lévy 2010 (license Apache 2.0).

Otro tema pendiente en el progreso de IEML es que, dado que IEML crea automáticamente grafos de relaciones semánticas muy complejos, necesitamos transformar estos grafos complejos en una visualización que los haga utilizables y navegables.

¿Cómo imaginas estos grafos? ¿Puedes bosquejarnos una posible visualización?

La idea es proyectar estos grafos complejos en una estructura interactiva tridimensional. Estos podrían representarse como esferas, de modo que pudiéramos adentrarnos en la esfera correspondiente a una idea particular y disponer de todas las demás ideas de este ecosistema a nuestro alrededor, dispuestas según las diferentes relaciones semánticas. También podríamos ser capaces de manipular las esferas desde el exterior y verlas como si se tratara de un mapa geográfico, dónde acercarnos o alejarnos a través de niveles fractales de complejidad. Los ecosistemas de ideas se mostrarían como hologramas interactivos de realidad virtual, en la web (mediante tablets) y en experiencias de realidad aumentada en 3D, en el mundo físico (mediante las Google glasses, por ejemplo).

Otro tema acerca del que nos gustaría conversar contigo es la alarma social generada en torno a la gran capacidad de Internet para recabar datos y su posible mala explotación. Emergen debates respecto a posibles abusos y a la vulneración de la privacidad. Algunas grandes compañías han propuesto desarrollar códigos deontológicos para regular y prevenir el mal uso de los datos. En tu opinión, ¿puede un conjunto de normas fijas ser eficiente para regular un medio mutable y en evolución como es el medio algorítmico? ¿Cómo puede el uso de IEML contribuir a mejorar la transparencia en este medio?

IEML no solo desarrolla la transparencia, sino también la transparencia simétrica. Todo el mundo participando en la esfera semántica va a ser transparente para los demás, pero al mismo tiempo todos los demás van a ser transparentes para él/ella. El problema de la supervigilancia es que actualmente la transparencia no es simétrica. Quiero decir, la gente es transparente para los grandes gobiernos y las grandes compañías, pero estas compañías y gobiernos no son transparentes para la gente. No hay simetría. Las diferencias de poder entre los grandes y pequeños gobiernos, las grandes compañías y la gente, probablemente continuarán existiendo. Pero crearemos un nuevo espacio público donde esta asimetría se suspenderá y donde los jugadores poderosos serán tratados del mismo modo que el resto de los jugadores.

Para acabar, este último mes el CCCBLab ha celebrado las primeras jornadas de Universo Internet. Estos encuentros han versado en torno a la educación en la época digital. Tú has publicado extensamente sobre este tema. ¿Podrías resumirnos algunos puntos fundamentales para educar a los nativos digitales en la responsabilidad y la participación en el medio algorítmico?

La gente debe ejercer su responsabilidad personal y colectiva, porque cada vez que creamos un enlace, que hacemos un «like», que escribimos un «hashtag», que compramos un libro en Amazon, etc., estamos transformando la estructura de la memoria colectiva. Por lo que tenemos una gran responsabilidad respecto a lo que sucede en línea. Lo que ocurre es el resultado de lo que toda la gente está haciendo conjuntamente. Internet es una expresión de la inteligencia colectiva humana.

Además, debemos desarrollar el pensamiento crítico. Todo aquello que encontramos en Internet es la expresión de puntos de vista particulares, no es ni neutral ni objetivo, sino la manifestación de subjetividades activas. ¿De dónde procede el dinero? ¿De dónde surgen las ideas? ¿Cuál es el ambiente pragmático del autor? Estas entre otras cuestiones. Cuanto mejor conocemos la respuesta a estas preguntas más transparente es la fuente y mayor puede ser nuestra confianza. La noción de hacer transparente el origen de la información es muy cercana a la mentalidad científica. El conocimiento científico debe responder a preguntas como ¿de dónde proceden los datos?, ¿cómo surge la teoría?, ¿de dónde vienen subvenciones? La transparencia es la nueva objetividad.





Una historia secreta: la informática femenina

No han sido pocas las mujeres que han participado activamente en el desarrollo de la computación, por eso merecen ser recordadas.


Tres de las integrantes del equipo de Adele Katz que trabajó en la ENIAC. Philadelphia, Pennsylvania, c. 1942-1945 | Wikimedia | Dominio público

Hay que remontarse hasta la primera mitad del siglo XIX para dar con la pionera de la informática, Ada Lovelace, y a fechas muy recientes para llegar a la hacker y activista feminista Jude Milhon, fundadora del movimiento ciberpunk. Por el camino, no han sido pocas las mujeres que han participado activamente en el desarrollo de la computación, desde Rózsa Péter hasta el equipo de talentosas jóvenes encabezado por Adele Katz, pasando por Grace Murray Hopper y Frances Elizabeth Allen. Incluso la actriz Hedy Lamarr ocupa un lugar significativo en esta imparable revolución científico-tecnológica, que aún no sabemos adónde nos llevará. Merecen ser recordadas cuanto menos para certificar que, a día de hoy, el progreso es, por suerte para todos y todas, el fruto de un esfuerzo compartido.

Eudora Welty fue una escritora norteamericana nacida en Misisipi a principios del siglo XX y autora de novelas como La hija del optimista, con la que ganó el premio Pulitzer, y también de un buen puñado de relatos consagrados a retratar el universo sureño. Uno de ellos («Por qué vivo en la oficina de correos») cautivó al ingeniero de software Steve Dorner, de la Universidad de Illinois, quien, con el nombre de la autora, Eudora, bautizó a finales de los años ochenta a un cliente de correo electrónico para Apple y Microsoft, destinado a guardar los correos en formato mbox y que incluso derivó en una webmail.

Acostumbrados a manejarnos a la sombra de gigantes masculinos como Bill Gates, Steve Jobs o Mr. Facebook (es decir Mark Zuckerberg), que nos llevan a pensar que las mujeres tienen prohibida la entrada en Sillicon Valley, es fácil caer en la tentación de barruntar que los ordenadores, y con ellos ese gran invento que es Internet, son el resultado de inteligencias exclusivamente varoniles, propiedad de aquellos que, como quiere el tópico aún vigente, poseen más capacidad de concentración y tienen más desarrollado el hemisferio izquierdo del cerebro, y con él las aptitudes espaciales y de orientación (de ahí aquello de que las mujeres no sabemos leer los mapas). Pero Eudora no es la única huella femenina en la evolución de esa sabia alianza entre software y hardware, y del mismo modo que hay mujeres más que relevantes en la historia de la química (Marie Curie), de la física nuclear (Lise Meitner), de la genética (Barbara McClintock) o mismamente de ingeniería electrónica (Edith Clarke), han sido unas cuantas las mujeres que han descollado en el proceso de gestación de la vida digital, aunque hallarse en minoría numérica haya contribuido a invisibilizarlas.

También está vinculada con la literatura la que se considera la primera programadora informática, Ada Lovelace (1815-1852), pues era la hija del poeta Lord Byron, aquel que escribió que era fácil morir por una mujer, pero muy difícil vivir con ella. Aunque en su época no existían los ordenadores, y tardarían en llegar, esta matemática consagró su trabajo a la calculadora mecánica y se le atribuye el primer algoritmo codificado destinado a ser procesado por una máquina (ella proponía que a través de tarjetas perforadas), lo que le brinda un lugar destacado en la historia de la computación. Como justo homenaje, en 1979, el Departamento de Defensa de Estados Unidos creó un lenguaje de programación que lleva su nombre, Ada.

Retrato de Ada Lovelace, primera programadora de la historia de las computadoras | William Henry Mote, 1838. The Ada Picture Gallery | Dominio público

El siglo de la computación

Pero está claro que, junto a otros avances como la erradicación de las pandemias (lamentablemente tan solo en el mundo desarrollado) y el uso masivo del automóvil (a expensas del aumento de la contaminación), el siglo XX ha sido el de la ingeniería informática, que ha hecho posible, entre otras cosas, la actual democratización en la transmisión de la información. En primer lugar, tenemos a la húngara Rózsa Péter (1905-1977), que es una de las fundadoras de la teoría de la recursividad y que acabó aplicando las funciones recursivas a los ordenadores. Algo después, allá por los años cincuenta, la miembro del ejército Grace Murray Hopper (1906-1992) fue pionera en servirse del ordenador electromecánico y más tarde inventó el lenguaje de programación COBOL destinado a usuarios neófitos.

También en el ecuador del siglo un grupito de muchachas con ajustadas rebecas y vestidos pin-up contribuyeron a que la primera computadora de la historia, llamada ENIAC (presentada en sociedad en 1946), se convirtiera en realidad. Se trataba del equipo de Adele Katz (1920-1946), quien fuera la redactora de su manual de uso, y la enérgica brigada la formaban Kay McNulty, Jean Bartik, Betty Snyder, Marlyn Wescoff, Frances Bilas y Ruth Teitelbaum, entonces poco más que veinteañeras. Capitaneadas por Katz, de casada Adele Goldstine, fueron ellas quienes desarrollaron los primeros programas de software.

Y quién no recuerda a la actriz vienesa y de origen judío Hedy Lamarr (1914-2000), que, en plena Segunda Guerra Mundial, inventó la tecnología precursora del wifi, que hoy sirve a casi todos los usuarios de las múltiples pantallas con que convivimos. Superdotada e ingeniera de telecomunicaciones, Lamarr fue una de las bellas más bellas de Hollywood, cierto, pero al mismo tiempo una gran aficionada a los inventos. De ahí que, entre otros ingenios, inventara un sistema de comunicación secreto a base de frecuencias y que en los años ochenta empezó a emplearse en ingeniería civil: serviría de base a la comunicación inalámbrica que hoy nos parece el pan de cada día y se aplica a móviles, módems y también, cómo no, a los útiles GPS. ¡Qué ironía, nos acusan de no saber leer los mapas e inventamos el GPS! Cada 9 de noviembre debiéramos acordarnos de Lamarr, pues en su honor ha sido designado Día del Inventor, ¿o sería mejor decir de la inventora?

Llama también poderosamente la atención que fuera asimismo una mujer, con su hemisferio cerebral derecho a cuestas, quien desarrollara el primer procesador de textos, aunque acaso no debiera extrañarnos siendo como siempre ha sido la mujer un ser pegado a un costurero o, en su defecto, a una máquina de escribir. Evelyn Berezin (1925) era una empleada de la empresa Underwood cuando inventó el primer ordenador de oficina. Eso sucedió en 1953, pero no fue hasta el revolucionario año 1968 cuando pergeñó un programa que permitía tanto almacenar como editar textos. Por su parte, Lynn Conway (1938), transexual hoy mujer, profesora emérita de ingeniería eléctrica y de ciencias de la computación, dedicó su atención a los chips de silicio y en los años sesenta formó parte del equipo responsable del primer ordenador superescalar. Aunque por exótico que parezca fue una religiosa, la hermana Mary Kenneth Keller (1914-1985), quien recibió el primer doctorado en computación o ciencias informáticas a mediados de dicha década. Trabajó después en un laboratorio only for men, donde contribuyó al desarrollo del lenguaje de programación BASIC.




Sentadas las bases de la informática, fue una vez comenzada la carrera destinada a acelerar y perfeccionar el funcionamiento de las computadoras cuando las mujeres se incorporaron en mayor medida al sector. Así, la investigadora de IBM Frances Elizabeth Allen (1932), pionera en la optimización de compiladores e integrante del grupo PTRAN, consagró su trabajo a mejorar el rendimiento de aquellos. Con tan buenos resultados que mereció tanto el nombramiento de IBM Fellow (siendo la primera mujer en recibirlo) como, en 2007, el prestigioso y millonario premio Turing, considerado el Nobel de la informática y que Intel y Google financian con la friolera de 250.000 dólares.

Ya antes del cambio de siglo, comenzó el proceso de rescate de los méritos de esas aguerridas aliadas de los ordenadores, en un intento por establecer una genealogía femenina que determinara en qué medida habían contribuido a los adelantos de que gozamos hoy. Por poner un caso, los nombres de «las chicas» de Adele Katz salieron a la luz en los años ochenta gracias a la investigación realizada por Kathryn Kleiman en Harvard. Fue uno de los primeros pasos destinados a desvelar el papel que habían desempeñado las mujeres en la historia de la computación.

Del siglo XXI al cielo tecnológico

Una vez desarrollada la computación hasta cotas antes impensadas, y extendido su uso allende de mares y fronteras, no podía no nacer la «filosofía hacker», inspiradora del espíritu WikiLeaks y destinada a poner en jaque el imparable flujo de información, así como a inspirar personajes como la Lisbeth Salander de la célebre trilogía Millenium. Y aunque el mundo de los piratas informáticos parece exclusivamente reservado a tipos melenudos y tatuados, que exhiben por Skype ojerosos y pálidos semblantes, existió, entre otras, la llamada «Saint Jude». Jude Milhon (1939-2003) fue hacker y fue también activista feminista. A ella le debemos el movimiento ciberpunk y también un buen impulso en lo que a la participación de las mujeres en la red se refiere. Siempre en defensa de lo políticamente incorrecto, allí donde iba gritaba: «Girls need modems!» (las chicas necesitan módems).

A partir de aquí, se abren caminos impensados en esta evolución trepidante que traspasa los límites de nuestra imaginación, relegando a George Orwell y compañía al terreno de la ucronía. Sea como sea, este será un avance compartido, donde hombres y mujeres trabajen codo con codo tanto en California como en los centros investigadores de países emergentes que hace unos lustros no estaban ni siquiera en el mapa de la computación.

Y dado que las nuevas tecnologías no viven en el limbo, es decir no son neutrales, sino que pueden tanto difundir las bondades de la democracia como servir de coadyuvantes a la igualdad de género, no estará nunca de más recordar estas aportaciones clave que hemos citado y las muchas otras que merecían ser citadas aquí. De Ada Lovelace, madre de la programación informática, a las ciber que han pasado a engrosar el término ciberfeminismo (entre cuyas exponentes destaca la filósofa británica Sadie Plant), son muchos los puentes tendidos por mano de mujer en este universo tan aparentemente masculino que es la tecnología informática.

Una tecnología que nos ayuda de un modo incuestionable a fomentar el diálogo entre las culturas y donde las pistas de la información se revelan caminos abiertos a la búsqueda de esa humanidad común de que habla Bauman. Que las manos que moldearon su arcilla sean masculinas y femeninas, femeninas y masculinas, a diferencia de las que ingeniaron artilugios como los automóviles o los aviones, no deja de ser la señal inequívoca de que nuestro tiempo es ya el fruto de una tarea compartida que no puede más que anunciar un futuro mejor, donde avancemos juntos hacia el cielo tecnológico sin tener que salvar ningún techo de cristal.





Después del diluvio

En la última década se han establecido varias verdades fundamentales sobre el estado de la información como materia prima y su papel en el mundo.


Herman Hollerith (1860-1929), inventor de una máquina basada en tarjetas perforadas para procesar rápidamente millones de datos. Fundador de la Tabulating Machine Co., de la que surgió posteriormente IBM. Fuente: Library of Congress.

En la última década se han establecido, al menos en la percepción colectiva, varias verdades fundamentales sobre el estado de la información como materia prima y su papel en el mundo. A saber:

  1. La cantidad de datos que somos capaces de producir, transmitir y almacenar crece a un ritmo que no tiene precedente.
  2. Dado que cada vez resulta más barato y sencillo almacenarlos, merece la pena almacenarlos por principio.
  3. En estos volúmenes de información se encuentran grandes bolsas de conocimiento valioso que puede ser extraído. Eso sí, siempre que seamos capaces de «leerlo», lo que resulta cada vez más complejo a medida que su volumen aumenta. Tener más datos obliga a desarrollar nuevas formas de interpretarlos.
  4. La extrema facilidad con la que las organizaciones producen datos hoy se ve contrarrestada por la ansiedad que genera la posibilidad de que estén dejando escapar el valor que hay enterrado en ellos, de no ser capaces de filtrar la paja y extraer hasta el último grano.

Instituciones científicas, empresariales y gubernamentales han desplegado una amplia infraestructura tecnológica para capturar y almacenar tantos datos sobre cada fase de sus procesos como sea posible. Se ha invertido en nuevos campos de conocimiento –la nueva ciencia de los datos– y en profesiones emergentes: del data scientist al analista de datos y el experto en visualización de la información. Pero la realidad es que, en lo que se refiere al control de la información que producen, la mayoría de grandes organizaciones viven permanentemente desbordadas. En palabras de un mando militar estadounidense, «estamos nadando en sensores y ahogándonos en datos».

Esta condición es característica de la era del diluvio de datos.

La idea de que vivimos en la onda expansiva de una gran explosión de información no es estrictamente nueva. La percepción de que la cantidad de datos que somos capaces de producir no deja de incrementarse hasta llegar a volúmenes inmanejables aparece a la vez que la informática se convierte en una industria real implementada en cada vez más procesos administrativos. El primer uso registrado de la expresión information explosion aparece en 1961 en una publicación académica, y prácticamente a la vez en un anuncio de IBM en el New York Times. Su equivalente contemporáneo, algo menos dramático pero igualmente efectista, es el «diluvio» o «tsunami» de datos, términos que se vuelven comunes entre la comunidad académica y la prensa económica a mediados de la década pasada.

Hay varias maneras de expresar el vértigo que produce la explosión de datos, y la más técnica es probablemente la llamada ley de Kryder. Si la famosa ley de Moore ha predicho durante varias décadas de manera más o menos correcta la velocidad a la que progresa la capacidad de procesamiento de los ordenadores –el doble cada 18 meses–, la ley de Kryder intenta expresar con precisión el ritmo al que aumenta nuestra capacidad de almacenar cada vez más información digital en un espacio determinado.

En 2014, esta fotografía es probablemente una forma más efectiva de entender el tamaño de la ola y el cariz del diluvio. Hace cincuenta años, un disco duro era un enorme dispositivo del volumen de un utilitario pequeño, cuya memoria era capaz de almacenar el equivalente a una canción en formato MP3; una ridícula porción de la capacidad de almacenamiento de ese teléfono que llevamos en el bolsillo del pantalón o en el bolso de mano.

El viaje desde la cinta de papel y las tarjetas perforadas –los primeros formatos de almacenamiento informático en los años cuarenta del siglo xx– hacia los soportes de hoy como los lápices USB o las minitarjetas SD, es otra representación de la ley de Kryder muy elocuente. En la tensión entre un contenedor que se reduce y a la vez se expande infinitamente en su capacidad de almacenar contenido encontramos la mejor expresión de este vértigo.

A medida que nuestra experiencia personal y nuestra biografía se codifican en estos soportes magnéticos, ópticos o rígidos, el problema de su preservación a largo plazo se convierte en más urgente. Si nuestra historia colectiva está preservada en los miles de data centers que hemos esparcido por todo el globo, su función puede pasar de ser meramente operativa a ser archivística. Y, sin embargo, carecemos de toda estrategia real sobre cómo mantendremos toda esa información accesible y utilizable en el futuro. Acuerdos como el que permite a la Biblioteca del Congreso americana almacenar una copia del flujo de mensajes de Twitter parecen garantizar que conservaremos algunos archivos importantes, pero cada vez que muere una Startup o un servicio es comprado por un gigante de Internet para acabar languideciendo, los datos que produjo y que preservaban pueden desaparecer para siempre, instantáneamente, sin dejar rastro.

La más importante de las nuevas instituciones archivísticas es probablemente el Internet Archive de Brewster Kahle. Desde 1996, el Internet Archive rastrea y «fotografía» metódicamente la web, para preservar instantáneas de cómo era Internet en un día cualquiera de un año concreto, luchando contra su carácter dúctil y constantemente inestable. Esta hermosa película de Jonathan Minard revela la infraestructura física que, en una iglesia desacralizada de San Francisco, hace posible su funcionamiento. Recientemente, un incendio puso en peligro su valioso legado; afortunadamente, solo afectó a las instalaciones en que se digitalizan libros impresos.




De momento, el diluvio de datos no ofrece ninguna señal de amainar, y es probable que la ley de Kryder siga su progresión. Quizá el siguiente paso, el siguiente salto de magnitud, se encuentre en el soporte que utiliza la naturaleza para almacenar sus datos.

En el Instituto Europeo de Bioinformática de Cambridge –el mayor almacén de secuencias genómicas del continente–, se almacena información digital muy sensible y que es esencial conservar accesible durante muchas décadas. Los discos duros, que hay que reemplazar periódicamente y que hay que mantener refrigerados, distan de ser el soporte idóneo para preservar este código de la vida. Son, de hecho, una tecnología mucho peor que el propio ADN.

La paradoja no le ha pasado por alto al zoólogo y matemático Nick Goldman, uno de los «bibliotecarios de la vida» encargado de mantener las bases de datos del EBI: mientras que nuestros soportes informáticos son frágiles, ocupan espacio y son difíciles de mantener, el ADN puede almacenar una gran cantidad de información en poquísimo espacio, durante millones de años. En enero de 2013, Goldman y su equipo anunciaron que habían conseguido transferir 739 modestos kilobytes de datos a una cadena de ADN. Posteriormente, un ordenador consiguió decodificarlos y leer sus contenidos: los 154 sonetos de Shakespeare, un artículo académico, una foto del laboratorio de los investigadores, 26 segundos del más célebre discurso de Martin Luther King y un algoritmo de software. Es solo un comienzo, pero en el EBI tienen grandes metas para la técnica que han desarrollado: su objetivo a largo plazo es conseguir almacenar el equivalente de un millón de CD en un gramo de ADN, con una longevidad mínima de diez mil años.





El poder de los algoritmos: cómo el software formatea la cultura

La producción masiva de información que genera Internet que solo puede ser gestionada de modo automatizado mediante la aplicación de algoritmos.


Retrato de Ada Lovelace, primera programadora de la historia de las computadoras. Autor: William Henry Mote, 1838. Fuente: The Ada Picture Gallery.

El uso de Internet se ha extendido, más allá de los ordenadores y de cualquier ámbito específico, infiltrándose en la textura de nuestra realidad y en todos los aspectos de nuestra vida cotidiana. El modo en que nos relacionamos, nos informamos, tomamos decisiones… en definitiva, conocemos y experimentamos nuestro entorno, está cada vez más mediatizado por los sistemas de información que conforman esta red. Esta interacción constante da lugar a una producción masiva de información que solo puede ser gestionada de modo automatizado, mediante la aplicación de algoritmos. Comprender cómo se ha formado y cómo interactuamos con este «medio algorítmico», desde un enfoque humanístico, es indispensable para que tanto los ciudadanos como las instituciones mantengan un papel activo en la conformación de nuestra cultura.

Un joven magnate de la información y las finanzas se dispone a cruzar Manhattan en limusina. Así empieza Cosmopolis, la última película de David Cronenberg, basada en la obra de Don DeLillo. Durante la travesía, Eric Packer analiza el flujo de informaciones dispensado por pantallas, mientras nos lleva a la búsqueda de una nueva perspectiva. El encuentro con distintos personajes, así como la irrupción de la ciudad y sus ruidos a través de las ventanillas, nos dejan ver los entresijos, las consecuencias y los intersticios de lo que en el film es denominado cibercapitalismo. El viaje finaliza con el enfrentamiento del protagonista –arruinado ante un comportamiento errático del mercado que los bellos números de sus algoritmos no pueden prever– con su personaje antitético, alguien que no encuentra encaje en el sistema.

La interacción de tecnología y capital, es decir, el procesamiento automático de datos masivos para la previsión y el control de las fluctuaciones del mercado, es una constante de la especulación capitalista. En efecto, en Wall Street un 65% de las operaciones son llevadas a cabo por programas de «algo trading». En un mercado global, donde se registran grandes masas de datos y donde una respuesta rápida supone una ventaja sobre la competencia, los algoritmos tienen un papel predominante tanto en el análisis como en la toma de decisiones.

Ahora bien, los algoritmos también se han ido infiltrando en todos los procesos que conforman nuestra cultura y vida cotidiana. Conforman el software que usamos para producir objetos culturales, programas que muchas veces se ofrecen de forma libre en la nube. Asimismo, operan en la distribución de estos objetos a través de la red y en la búsqueda y recuperación de los mismos por parte de los usuarios. Finalmente, se han hecho necesarios para el análisis y procesamiento de los datos masivos que produce la web social. Datos no solo referidos al siempre creciente número de aportaciones, sino también obtenidos del seguimiento de las acciones de los usuarios, en una web que se ofrece como plataforma para la participación y que crece y evoluciona con el uso.

Un algoritmo es una lista finita de instrucciones que se aplican a un input durante un número finito de estados para obtener un output, permitiendo realizar cálculos y procesar datos de modo automático.

La expresión algoritmo procede del nombre del matemático persa del siglo IX al-Khal-Khwarizm y al principio hacía referencia al conjunto de reglas para desarrollar operaciones aritméticas con números árabes. Este término fue evolucionando para definir un conjunto de reglas para ejecutar una función. La relación de esta expresión con la automatización se debe a Babbage y su hipótesis según la cual el total de operaciones envuelto en el desarrollo de un análisis podía ser ejecutado por máquinas. A este fin, todo proceso debía dividirse en operaciones simples e independientes de la realidad a procesar. A pesar del desarrollo de su máquina diferencial y la propuesta por parte de Ada Lovelace del primer algoritmo para ser desarrollado en una máquina, fue Alan Turing quien, en 1937, propuso la formalización definitiva del algoritmo con su máquina universal. El constructo teórico de Turing consta de un aparato hipotético que manipula signos en una cinta de acuerdo con una tabla de reglas definidas, y puede ser aplicado al análisis de la lógica interna de cualquier ordenador. El advenimiento de Internet supondrá la salida de este esquema lógico del ordenador. El protocolo Internet (1969) y la invención de la web (1995) permitieron un contenedor universal, donde los datos podían ser almacenados, accedidos y procesados desde cualquier ordenador. Esto, junto con la convergencia ligada al desarrollo de la informática personal en los años ochenta, llevaría a extender la computación, el cálculo numérico, a cualquier proceso digitalizado. Al mismo tiempo, los algoritmos, gracias a las URL, podían interactuar y conectarse entre ellos. Esto dará lugar a lo que Pierre Lévy denomina «medio algorítmico». Una estructura cada vez más compleja de manipulación automática de símbolos que pasará a constituir el medio donde las redes humanas construyen y modifican, de modo colaborativo, su memoria común.

Máquina de Turing. Fuente: Wikimedia Commons.

Los algoritmos operan en todas nuestras interacciones cotidianas con la web social. La conocida red social Facebook, a la que se conectan 699 millones de usuarios cada día, se plantea el problema de cómo mostrar las actualizaciones de los múltiples amigos, grupos e intereses que la red permite seguir. La solución a esta cuestión es Edgerank. Este algoritmo analiza los datos recopilados acerca de nuestros intereses –los «me gusta» que pulsamos–, el número de amigos que tenemos en común con el emisor de la historia, así como los comentarios realizados, para determinar qué post mostrar en nuestro «news feed» y ocultar las historias «aburridas». Del mismo modo, es un algoritmo el que rastrea el grafo de nuestros contactos para sugeriros nuevos amigos.

Twitter procede de modo similar a la hora de sugerirnos nuevas cuentas que seguir, elaborar el contenido de la pestaña «descubre» o la lista de los «trend topics». En este último caso, trabaja un complejo algoritmo que no se limita a contabilizar la palabra más twitteada, sino que tiene en cuenta si un término se ha acelerado en su uso, si ha sido tendencia anteriormente, o si este es usado en diferentes redes o solo dentro de un cluster densamente conectado de usuarios. A este fin, el algoritmo no solo cuenta con el seguimiento de los «hastags», la etiqueta que permite linkear con todas las historias que la contienen –propuesta en 2007 por esta plataforma y que ha extendido su uso a toda la web social–, sino que cuenta también con la tecnología de los links abreviados. Los t.co (f.bo, en el caso de Facebook) se generan cada vez que compartimos una web a través de un botón social. Estos permiten no solo economizar el número de caracteres, sino que convierten los links en estructuras ricas en datos, que permiten seguir cómo estos son compartidos a través de la plataforma y crear perfiles de sus usuarios.

La web social no está solo constituida por las redes sociales, sino también por todas aquellas plataformas que nos permiten crear y compartir información. Entre estas, los sistemas de publicación como los blogs, los sistemas de recomendación como Ding o Reddit y los dispositivos de búsqueda. Todas estas plataformas están dirigidas por algoritmos que responden a distintas cuestiones. En el caso del buscador Google, en un medio que consta de más de sesenta trillones de páginas y en el que se realizan más de dos millones de búsquedas por minuto, este servicio parte de la premisa «tú quieres la respuesta, no trillones de páginas web». A este fin, la indexación basada en palabras clave se hace insuficiente, por lo que PageRank imita la conducta del usuario para asignar un valor a las páginas y poder ofrecer los resultados más pertinentes. Esto se lleva a cabo mediante el seguimiento de links efectuados a y desde cada página. Al mismo tiempo, este algoritmo es asistido por otros que tienen en cuenta nuestro historial de búsquedas, analizan nuestro lenguaje y determinan nuestra localización para personalizar los resultados.

También son algoritmos los que computan datos extraídos de nuestras acciones para sugerirnos qué libros comprar en Amazon, qué vídeos ver en Youtube o qué anuncios mostrarnos en todas estas plataformas. A estos algoritmos con los que interactuamos cotidianamente podemos sumar otros, como Eigenstaste, desarrollado en Berkeley, un sistema de filtrado colaborativo, para la computación rápida de recomendaciones; el recientemente desarrollado en la Universidad Cornell y la Carnegie, que permite construir nuestra biografía a través de nuestras publicaciones en Twitter, o el desarrollado en el Imperial College London para identificar las cuentas de Twitter que corresponden a boots, permitiendo reducir el spam. La algoritmia tiene una cada vez mayor presencia en nuestra cultura, como muestran las entradas de #algopop, un tumblr dedicado a seguir las apariciones de algoritmos en la cultura popular y la vida cotidiana.

Estos ejemplos muestran cómo el acceso y la indexación de la información contenida en Internet se procesan automáticamente, a partir de datos extraídos de nuestro comportamiento en línea. Nuestras acciones crean un flujo de mensajes que modifican la masa inextricable de relaciones entre datos, modificando sutilmente la memoria común. Esto da lugar a que la comunicación en el «medio algorítmico» sea estigmérgica, es decir, en este las personas se comunican entre ellas modificando su medio común. Cada link que creamos y compartimos, cada tag que añadimos a una información, cada acto de aprobación, búsqueda, compra o retweet, es registrado en una estructura de datos, y posteriormente procesado para orientar e informar a otros usuarios. De este modo, los algoritmos nos asisten en nuestra navegación a través del inmenso cúmulo de informaciones de la red, tratando la información producida individualmente, para que pueda ser consumida por la colectividad. Pero, al gestionar la información, estos también reconstruyen relaciones y organizaciones, forman gustos y encuentros, pasando a configurar nuestro entorno e identidades. Las plataformas se constituyen en entornos socio-técnicos automatizados.

Máquina analítica de Babbage mostrada en el Museo King George III, 1844. Fuente: Wikimedia Commons.

La aplicación de la automatización a nuestra cultura tiene consecuencias epistemológicas, políticas y sociales a tener en cuenta. Entre ellas, el registro constante de nuestras acciones supone un cambio respecto a lo que es la privacidad, y el hecho de que estos algoritmos nos enrolan en procesos de los que no somos conscientes. Finalmente, a pesar de que nos dan acceso a información que, por su dimensión, ha dejado de ser humanamente discernible, ampliando nuestra agencia y capacidad de elección, lejos de ser neutros, estos algoritmos también albergan capacidades de control.

La mayoría de usuarios percibe la web como un medio de difusión, en el sentido de los medios tradicionales, sin ser conscientes de cómo la información es filtrada y procesada por el medio. Los algoritmos no solo son imperceptibles en su acción, y desconocidos, en muchos casos, por estar en manos de agencias comerciales y protegidos por las leyes de propiedad, sino que también se han hecho inescrutables. Ello es debido a la interrelación existente entre complejos sistemas de software y su constante actualización.

Por otro lado, estos no solo se aplican al análisis de datos, sino que, en un segundo momento, toman parte en el proceso de decisiones. Esto nos plantea si es lícito aceptar las decisiones tomadas de modo automático por algoritmos de los que no sabemos cómo operan y que no pueden estar sujetos a discusión pública. ¿Cómo podemos discutir la neutralidad de unos procesos que son independientes de los datos a los que se aplican? Finalmente, los algoritmos, al analizar datos registrados de nuestras acciones anteriores, tienen una fuerte dependencia del pasado, lo que podría derivar en el mantenimiento de estructuras y una escasa movilidad social, dificultando las conexiones fuera de clusters definidos de intereses y contactos.

Teniendo en cuenta que arbitran cómo fluye la información por la esfera pública, se hace necesario plantear metáforas que hagan aprehensibles estos procesos, más allá de los expertos en computación. Del mismo modo, hay que extender su comprensión y uso a la población para que pueda participar en la discusión acerca de qué problemas son susceptibles de una solución algorítmica y cómo plantearlos. Hay que fomentar la participación para mantener la diversidad ecológica de este medio y su relación con la pragmática.

Respecto a estas cuestiones, Mathew Fuller, uno de los iniciadores de los estudios sobre software (software studies), hace notar que, aunque los algoritmos constituyen la estructura interna del medio donde hoy en día se realiza la mayor parte del trabajo intelectual, escasamente son abordados desde un punto de vista crítico y humanístico, quedando relegados a su estudio técnico. En su obra Behind the Blip: Essays on the Culture of Software, este autor propone algunos métodos encaminados a esta crítica. Entre ellos, la ejecución de sistemas de información que pongan al descubierto su funcionamiento, estructura y condiciones de verdad; el mantenimiento de la poética de la conexión inherente al software social, o la promoción de un uso que siempre sobrepase las capacidades técnicas del sistema. Y la promoción de conexiones improbables que enriquezcan nuestro medio con nuevas posibilidades y perspectivas más amplias, dejando lugar a la invención.

En este sentido, podemos citar algunas iniciativas en torno al «medio algorítmico» que ya se llevan a cabo y que contribuyen al uso de la computación por no expertos, y a la elaboración de este medio por comunidades de prácticas y usuarios. Entre estas, el periodismo de datos, que elabora narrativas a partir del minado de datos; el software libre, que desarrolla sus productos en colaboración con sus usuarios; las iniciativas de crowdsourcing, que añaden a la ecología de la red datos obtenidos por los usuarios de modo consciente y colaborativo, y la creciente elaboración colaborativa de MOOC (cursos masivos en línea).

Por su parte, también se hace necesaria la presencia de las instituciones culturales en el medio virtual. La accesibilidad en línea a sus archivos, datos, modos de hacer y saberes, proyectos y colaboradores contribuye a promover nuevos intereses y relaciones, aprovechando la estigmergia para mantener la diversidad y la poética de este medio. Al mismo tiempo, la proposición de workshops, como los programados en Universo Internet, contribuye a la comprensión y consciencia de este medio, para una mayor y más efectiva participación.

En este momento, el medio algorítmico incrementa su capacidad y alcance, debido a la aplicación de la inteligencia artificial. Es el caso del nuevo algoritmo semántico de Google, Hummingbird –capaz de analizar el lenguaje natural– o del nuevo reto planteado por Mark Zukenberg «entender el mundo», gracias al análisis del contenido de los post compartidos en Facebook. La discusión crítica y pública de la participación de estos dispositivos en la conformación de nuestra cultura es una necesidad si queremos mantener la diversidad y accesibilidad de la red





¿Cuánto contamina Internet?

La eficiencia que aporta Internet es indudable, pero el hecho de que su impacto ecológico sea menor que otras actividades no significa que sea inocuo.


Manchester desde Kersal Moor, William Wylde (1857). Font: Wikipedia.

No es lo mismo enviar un millón de correos electrónicos que un millón de cartas. El impacto ecológico no es igual si uno decide comprar un libro digital en lugar de un libro en papel, ver una película en streaming en vez de en DVD u organizar una reunión por Skype con un compañero de trabajo británico, en lugar de viajar hasta allí en avión para hacerlo en persona. La eficiencia que aporta Internet en muchas transacciones diarias es indudable, pero el hecho de que su impacto ecológico sea menor que otras actividades no significa que sea inocuo. Empecemos con la noticia incómoda. Internet consume enormes cantidades de energía aunque medirlo no es nada fácil. A continuación, una serie de preguntas y respuestas para despejar algunas de las dudas en torno a este tema.

Cuando hablamos de Internet, ¿qué estamos midiendo?

Para Jon Koomey, experto en el impacto medioambiental tecnológico, los elementos más importantes a medir son lo que denomina «the big three»:

Fuente: Jon Koomey.

  1. El equipo que usamos para acceder a Internet (ordenadores, tabletas, portátiles, routers).
  2. Los centros de datos (que almacenan y alojan las páginas web).
  3. Las redes de acceso (el cableado y las antenas que transportan los datos).



Entonces, ¿cuál es el impacto medioambiental de Internet?

Lo primero que trasciende tras analizar distintas fuentes es que nadie lo tiene del todo claro. The Guardian llegó a la cifra de 300 millones de toneladas de CO2 al año en 2010, «el equivalente al consumo de energía en Turquía o Polonia juntos». The New York Times habló de un consumo de 30.000 millones de megavatios en 2011, el equivalente «a la energía que generan treinta plantas nucleares», en su polémico artículo Power, Pollution and the Internet. Según Gartner, la huella de carbono de Internet superó a la de la industria de la aviación en 2007, llegando a representar un 2% de las emisiones internacionales. Estudios más recientes del CEET en Australia estimaron en 2013 que la industria de telecomunicaciones, en su conjunto, produce 830 millones de toneladas de dióxido de carbono al año, una cifra que según sus estimaciones se duplicará en 2020.

En términos globales, el instituto australiano afirma que el consumo está entre el 1,5% y el 2% de la totalidad de la energía global, lo que lo situaría en el quinto lugar de países que más contaminan. Jon Koomey calcula que, si tenemos en cuenta todos los elementos que hacen funcionar Internet, «probablemente se acerca al 10% del consumo eléctrico, pero es muy complicado tener datos exactos. Se puede usar un ordenador para jugar a videojuegos sin estar conectado a Internet o escribir un texto, pero muchas veces ese gasto se incluye como parte de la red, cuando no es así».

Fuente: Jon Koomey.

Si Internet es virtual, ¿de dónde proviene su impacto medioambiental?

A diferencia de un coche que expele combustible por el tubo de escape, es más complicado visualizar el impacto ecológico de la red. El principal causante de su huella medioambiental es la energía necesaria para hacer funcionar la infraestructura. Las antenas de móvil, los dispositivos necesarios para acceder a Internet y los centros de datos requieren enormes cantidades de electricidad. Esa electricidad puede ser de fuentes renovables, pero frecuentemente no lo es. En India, por ejemplo, el 70% de las 400.000 antenas para móviles no tiene acceso a fuentes fiables de electricidad, según denunció Greenpeace en su informe How Clean is Your Cloud?. Para suplantar la falta de energía, utilizan generadores que funcionan con combustible diesel. Los grandes centros de datos en occidente cuentan con generadores también abastecidos con diesel que entran en funcionamiento en caso de producirse fallos de abastecimiento.

¿Por qué los centros de datos consumen tanta energía?

Después de los dispositivos, los centros de datos son los mayores consumidores de electricidad. Para hacerse una idea de sus necesidades energéticas, Facebook está construyendo uno en Prineville (Oregon) que tendrá una capacidad de consumo de 78 megavatios, suficientes para proveer de energía a 64.000 hogares.

Data Centre de FaceBook en Prineville. Fuente: Facebook.

Aún así, hay quien sostiene que no existe una forma más eficiente de sostener Internet. Centralizar los servidores en un lugar permite aprovechar sinergias de un lugar para minimizar su consumo. «Una de la ventajas de la nube es que se puede concentrar mucha más potencia de cálculo y proceso con menos servidores, con lo que al final siempre existe un ahorro de energía. Pero, para que se reduzca la contaminación, la única vía es el uso de fuente renovables, además de buscar ser eficientes energéticamente», explica David Carrero Fernández-Balillo, experto en sistemas y Country Manager de Stackscale Spain.

Servidores de Facebook. Fuente: Facebook.

Entonces, si son más eficientes, ¿de dónde viene el problema medioambiental?

El problema surge de las fuentes de energía para hacerlos funcionar. Actualmente la mayor parte de los centros de datos trabajan con empresas energéticas que crean electricidad a partir de plantas de carbón y centrales nucleares.

El informe How Clean is Your Cloud? encontró que el 55,1% de la energía usada por Apple para sus servidores viene de instalaciones de carbón, un 49,7% en el caso de IBM un y 39,4% en el caso de Facebook. Estas cifras importantes, a su vez, suponen las emisiones de miles de toneladas de dióxido de carbono a la atmósfera y la emisión de aire sucio.

¿Están haciendo algo las grandes empresas para remediarlo?

Los movimientos no son pocos. En marzo de 2013, Apple anunció que la totalidad de sus centros de servidores funcionan ya con energía renovable, aunque la noticia tiene un poco de trampa. Parte de esa meta se está consiguiendo con la compra de créditos de carbono para compensar el consumo de plantas nucleares y carbón de algunos de sus centros.

La empresa ha construido, además, dos plantas de energía solar en Maiden (Carolina del Norte) para satisfacer las necesidades de las plantas de servidores que la marca tiene en esa localidad. La multinacional está construyendo, asimismo, un centro de datos en Prineville (Oregon) que funcionará con una mezcla de energía solar, hidroeléctrica, eólica y geotérmica.

Facebook está construyendo un centro en Iowa que abrirá en 2015, abastecido exclusivamente de energía eólica. La compañía se ha puesto como objetivo suministrar sus instalaciones con un 25% de renovables para ese mismo año. En 2011, la compañía lanzó el Open Compute Project, una iniciativa en la que la red social comparte información y know how sobre la gestión de sus centros de datos para promocionar las buenas prácticas en la industria y ayudar a otros a mejorar su eficiencia energética.

Google también ha puesto en marcha varias iniciativas para ser más transparentes en esta materia. Conscientes del creciente interés de los medios y la presión de organizaciones como Greenpeace, la compañía decidió invitar a un periodista de Wired a visitar uno de sus centros. También han decidido ser más transparentes con la creación de un espacio dedicado a sus centros de datos y un compromiso para que el impacto de sus centros sea neutral.

«Los servidores de Google cargan 20.000 millones de páginas al día, procesan 100.000 millones de búsquedas al mes, proveen de correo electrónico a 425 millones de usuarios de Google y procesan 72 horas de vídeo que se suben cada minuto a YouTube. Y, a pesar de ello, somos capaces de hacerlo con relativamente poca energía, comparado con otras industrias. Los centros de datos son los responsables de entre un 1,1 y un 1,5% del uso global de energía (comparado con el transporte, que ocupa el 25%), y los centros de Google representan menos del 1% de esa cifra. Es una muestra de los increíbles avances en la potencia de cálculo que se consigue por vatio que confirma la ley de Moore. Buscar virtualmente toda la información en línea para mil millones de usuarios con solo el 0,01% de la energía global ilustra la poca energía que se necesita para transportar electrones comparado con átomos», según Urs Hölzle, uno de los responsables de la infraestructura técnica de la compañía en un debate organizado por el New York Times.

Todas estas grandes empresas tienen algo en común. Invierten millones de dólares en construir su propia infraestructura para minimizar su consumo y ahorrar costes. El problema, según denuncia Koomey, es que existen muchas otras compañías no tecnológicas que también tienen su propia infraestructura, que prefieren que prime el funcionamiento por encima de la eficiencia. «Adoptar buenas prácticas puede ahorrar un 50% de consumo eléctrico, pero muchas no lo están haciendo», según el investigador estadounidense.

¿Por qué Greenpeace tiene tanto interés en este tema?

La organización ecologista se ha centrado en denunciar la cantidad de centros de datos que se abastecen de energías sucias como el carbón y las nucleares. Sus medidas de presión han contribuido a generar un debate entre la sociedad y las empresas que forman esta industria.

Para Gary Cook, analista de IT en la organización ecologista, el problema es una cuestión de prioridades para el sector digital. Una encrucijada entre seguir los pasos de las industrias contaminantes del pasado y la posibilidad de ser los abanderados de la sostenibilidad.

«Desafortunadamente, como hemos mostrado en nuestro estudio, How Clean is Your Cloud?, la mayor parte de las empresas de Internet escogen el camino rápido y sucio, expandiéndose sin tomar en consideración el impacto de sus decisiones sobre la sociedad. El resultado es que están abasteciendo los motores de la industria de Internet del siglo XXI con el motor de la economía de los siglos XIX y XX, con carbón y nucleares», explicó Cook en un debate organizado por el New York Times.

A modo de ejemplo, Cook denunciaba el hecho de que todas las grandes compañías de Internet en Estados Unidos están trabajando con Duke Energy en Carolina del Norte, cuyas fuentes renovables apenas llegarán al 4% antes de 2030. La organización ecologista reconoce los compromisos de empresas como Facebook y Google, pero dice que queda mucho camino por recorrer.

¿En qué quedamos entonces? ¿No se suponía que Internet era mucho más ecológica que las tareas analógicas que iba a reemplazar?

Lo es y lo seguirá siendo. De 2000 a 2006 el tráfico de Internet subió un 32.000.000% y el consumo se incrementó en un 200%, según Jon Koomey. «Es un logro impresionante».

«No hay que olvidar, además, que Internet ayuda a mejorar la eficiencia de las industrias no digitales, que representan el 90% del consumo energético mundial», añade el científico de Stanford.

Fuente: Jon Koomey.

¿Qué puedo hacer para reducir la huella de mi consumo en Internet?

En la inmensidad de la infraestructura digital, donde un particular tiene poco o nada que ver en su funcionamiento, una de las mejores formas de reducir el consumo energético de una web es mediante un buen diseño y programación. Una página con código limpio y un diseño equilibrado cargará más rápido que una web repleta de banners, pop-ups, fotos pesadas y programas externos que ralentizan esa web.

«Con un peso medio de 1,4 MB, las webs de hoy en día ocupan quince veces más espacio que hace diez años, principalmente debido a las imágenes (881kb) y el script (224kB) (…) Una web normal realiza cien peticiones de HTTP (…)», explica James Christie en un análisis sobre diseño sostenible publicado en A List is a Part.

Cada una de las visitas a una web suma consumo energético. «El Dr. Alex Wissner-Gross, un físico de la universidad de Harvard, calculó que visualizar una web puede generar 20 mg de CO2 por segundo. Esto aumenta a 300 mg de CO2 por segundo cuando se visualiza una web con imágenes complejas, animaciones y vídeos. Cuando estás sentado en Londres viendo una web alojada en California, hay dos plantas energéticas en al menos dos continentes generando CO2 para que tú puedas ver ese vídeo o leer un periódico en línea», dice Christie.

También existen medidas tan sencillas como «comprar equipos con la potencia necesaria para nuestro uso a fin de optimizar el consumo de energía, y después, si no es necesario, apagar siempre los equipos, incluso el router de ADSL por las noches», dice Carrero.

¿Cuánto puede ahorrar una buena optimización de una web? El caso de Menéame.net

Con una media de entre 350.000 y 400.000 visitas al día y 40 millones de páginas vistas al mes, Menéame es una de las páginas con más visitas en la península Ibérica. «El consumo lo hemos tenido muy medido desde el comienzo por dos razones. Una por cuestiones de necesidad: cuanto menos consumes, menor es el coste del consumo. La segunda es por estilo. Ricardo Galli es doctor en Informática y una de sus obsesiones son los sistemas de ahorro en la carga de las páginas», explica Benjamí Villoslada, que, junto con Galli, fundó el agregador de noticias social en 2005.

La atención al ahorro es tal que, según Villoslada, una web mal diseñada podría estar consumiendo cuatro veces más para hacer las mismas funciones que Menéame. «Ahorras dinero y ahorras tiempo y dinero al conjunto de la sociedad. Todo el mundo se beneficia haciendo las cosas más simples». Entre las medidas que ejecutan está la de estar constantemente optimizando la base de datos de la web, una organización ordenada del código que sostiene la página o evitar que haya elementos no necesarios en la misma. «Tenemos un software para evitar los bots. Cuando detectamos que desde una IP se están produciendo más de cuarenta conexiones por segundo, lo bloqueamos».

Para mantener en funcionamiento la web, Menéame utiliza los servidores de Amazon Web Services en Irlanda. «Nos permite pagar solo por el consumo que necesitamos en cada momento. Necesitas saber mucho para trabajar con ellos, pero está muy bien montado. Es probable que existan algunos lugares más ecológicos, pero si están mal diseñados, puedes acabar gastando más recursos que un lugar tan eficiente como Amazon», añade Villoslada.

¿Es posible encontrar centros de datos que funcionan con un 100% de energía renovable?

Islandia se está posicionando como un lugar para las empresas interesadas en minimizar el impacto medioambiental de sus centros de datos. El país cuenta con una fuente abundante y fiable de energía renovable debido a su naturaleza volcánica. El 72% de la electricidad que se genera en el país proviene de energía hidroeléctrica y geotérmica.

Verne Global es una empresa fundada en 2007 que cuenta con dos centros de datos en el país. Empresas como BMW, Colt y Securitas son clientes de esta compañía. Además de energía limpia, la isla proporciona energía cuatro veces más barata que la media de países industrializados.

En Suecia, el 60% de la energía generada es renovable, una de las razones por las que Facebook ha decidido instalar un centro de datos en Lulea, una localidad a cien kilómetros del Círculo Polar Ártico. «Es un coloso que permite a Facebook procesar 350 millones de fotografías, 4.500 miliones de “me gusta” y 10.000 millones de mensajes al día», según Bloomberg Businessweek.

En este pueblo remoto, Facebook tiene acceso cercano a energía hidroeléctrica. La instalación está diseñada, además, para aprovechar el aire natural de los gélidos inviernos de Laponia y enfriar los servidores sin necesidad de usar aire acondicionado.

Lulea FB Data Center – Ventiladores de refrigeración. Fuente: Facebook.

Lulea FB Data Center – Ventiladores de refrigeración. Fuente: Facebook.

¿Cuál es la situación de los centros de datos en España y Cataluña?

«En España existen más de 1.800 empresas englobadas en el área de “Proceso de datos y centros de cálculo”. La mayor parte de ellas no tiene un centro de datos propio. Y al revés, numerosas empresas que sí tienen centro de datos no están en ese grupo. Lo que sí existe es un listado bastante completo de empresas españolas que ofrecen sus centros de datos a terceros», explica Jaime Fernández Gómez, responsable de Infraestructura en Acens.

«Según las estimaciones de Datacenter Dynamics, a finales de 2013 los centros de datos de todo el mundo consumían más de 40 gigavatios, y a finales de 2016 consumirán más de 50 gigavatios. Una central nuclear media produce alrededor de 1 gigavatio. Si comparamos el número total de centros en el mundo con respecto a nuestro país, se puede estimar que entre el 1% y el 2% de esa energía se consume en los centros de datos de España», añade Fernández Gómez.

En enero de 2013, IBM anunció la próxima apertura de un centro cloud en Cerdanyola del Vallès, en Barcelona, cuyo primer cliente es la Generalitat de Cataluña, que centralizó sus datos de Sanidad, Bienestar y Familia en este centro.

¿Existen razones, entonces, para preocuparse?

Encontrar energía de fuentes renovables es un problema que comparte toda la humanidad no sólo la industria digital. Todavía no hemos sido capaces de encontrar una fórmula que permita abastecer nuestras necesidades sin recurrir en parte a energías fósiles. Para conseguirlo, Internet será un elemento esencial.

Para el ciudadano, un buen comienzo es entender que Internet no es infinito ni es invisible. No basta con exigir a las empresas que mejoren las fuentes de abastecimiento de su infraestructura. Cada uno puede poner de su parte con diseños web más ligeros, no dejar sus dispositivos en standby y tener equipos acordes a sus necesidades. «La eficiencia de la computación se ha duplicado cada año» durante los últimos sesenta años, según Koomey, un factor que, en su opinión,  demuestra que Internet es parte de la solución.





El peso de la nube

En los últimos tiempos, varios data centers han emergido del anonimato para convertirse en nuevos monumentos de la era de la información.


Hinchado de un globo de gas en la fábrica de gas de La Villette. Fuente: Wikimedia Commons.

La metáfora de la Nube ha funcionado como un velo, a menudo demasiado opaco, que nos distancia de la fisicidad de la red. De hecho, uno de los secretos mejor guardados de Internet ha consistido en las grandes infraestructuras que requiere su correcto funcionamiento. Sin embargo, en los últimos tiempos, varios data centers han emergido del anonimato para convertirse en nuevos monumentos de la era de la información.

Quincy, Washington

Quincy (Washington), en el noroeste de Estados Unidos, es una población agrícola de siete mil habitantes con dos supermercados y dos ferreterías. El New York Times la define como «una comunidad de agricultores en medio de un desierto», y hasta hace poco su principal actividad productiva era el cultivo de patatas y judías. Pero no sería exagerado afirmar que, desde hace unos años, Quincy se ha convertido en una de las capitales de Internet. No por supuesto de la emprendeduría digital; en Quincy no hay startups, y probablemente tampoco espacios de coworking ni cafés llenos de MacBooks. Quincy es el reverso de las ciudades bandera del capitalismo cognitivo, pero, sin comunidades como esta, nuestra vida en la Red tal como la desarrollamos hoy sería inviable. Quincy es, literalmente, la Red.

Entre los campos de cultivo que rodean al pueblo, han aparecido progresivamente grandes cajas anónimas, algunas de ellas con la extensión de varios campos de fútbol. Compañías como Yahoo!, Dell o Microsoft han elegido este punto geográfico para construir varios de sus data centers, las grandes instalaciones industriales en las que se almacena y desde las que se distribuye todo lo que contiene ese espacio, personal y colectivo a la vez, que hemos bautizado como la nube.

La nube: el nombre genérico para los servicios que preservan nuestras fotos, documentos de trabajo, mensajes de correo electrónico, en la que se almacenan vídeos virales y canciones de éxito, blockbusters cinematográficos, mapas digitales que usamos a diario para guiarnos por las calles de cualquier ciudad, con la que entramos en contacto decenas de veces a lo largo del día desde nuestro smartphone, nuestra tablet u ordenador personal, es quizá una de las metáforas más engañosas que el marketing haya acuñado, porque detrás de ella no hay nada ligero ni intangible. Nuestra insaciable sed de datos ha producido una gran industria pesada que, en muchas cosas, no se diferencia demasiado de las factorías de la era mecánica.

Vista aérea de los centros de datos de Quincy, WA. Fuente: PRLOG.

Quincy es un puerto clave dentro de las rutas globales del tráfico de información. Le acompañan otras localidades anónimas como The Dalles (Oregon), Ashburn (Virginia), Lenoir (Carolina del Norte) o, fuera de Estados Unidos, Sant Ghislain (Bélgica). Estos hitos de la geografía emergente de los datos no han sido elegidos al azar. A pesar del bestseller de Tom Friedman, el mundo no es plano, ni Internet tampoco. Entre los factores que determinan dónde se sitúa un data center, tiene un peso lo económico –la disponibilidad de suelo o los incentivos fiscales–, pero, por encima de todo, su funcionamiento requiere del acceso directo a infraestructuras que le ofrezcan grandes cantidades de electricidad a bajo precio, y de un clima seco y frío que facilite la tarea de mantener bajo control la temperatura en su interior, donde giran miles de discos duros que necesitan ser refrigerados. Mantener nuestro ritmo incesante de producción y consumo de datos y asegurar que estos estén accesibles en cualquier momento tiene un coste no trivial.

El consumo eléctrico de la vasta infraestructura industrial desplegada por la nube ya no es una cuestión anecdótica. Los cálculos exactos de la energía necesaria para mantener operativos los data centers de todo el mundo varían de año en año, pero las estimaciones no bajan del 1,3 por ciento de la producción mundial. La industria vive en una carrera constante por hacer sus sistemas más eficientes, y por utilizar fuentes de energía renovable –Google, Amazon o Facebook son los primeros interesados en reducir el importe de su factura energética. Pero, a la vez, el número de instalaciones nuevas por todo el mundo no deja de crecer. Además, estas cifras solo incluyen la energía que requiere mantener los servidores en funcionamiento, no la que utilizamos alimentado nuestros routers, cargando las baterías de nuestros ordenadores y teléfonos, ni la que se emplea fabricando procesadores, discos duros y pantallas multitouch.

Mantener la ilusión de que las tecnologías de la comunicación operan en el territorio de lo virtual se vuelve más difícil cuanto entendemos hasta qué punto no son estrictamente una industria limpia. La contaminación emitida por los data centers –en especial por sus generadores diesel que se activan en caso de fallo eléctrico, consumiendo combustible– aparece con cada vez mayor frecuencia en las relaciones de violaciones de las normativas medioambientales por emisiones contaminantes. Amazon recibió más de 24 multas por este concepto entre 2009 y 2011.




Si a veces un data center se ve obligado a quemar diesel para mantener el servicio, es por culpa del sacrosanto uptime, un concepto central en la industria que se refiere al porcentaje del tiempo que garantizamos que un servicio estará funcionando. Los gigantes como Google o Facebook aspiran a un uptime del 100%, y exigen no bajar de un 99,9%. Para garantizar esta fiabilidad, es necesario un amplio margen de capacidad de respuesta que asegure que el servicio estará disponible incluso cuando haya una punta de demanda muy por encima de la media. Es preciso que muchas piezas funcionen correctamente para que podamos subir esa foto a Instagram ahora, y ni un segundo más tarde, o para que un nuevo vídeo de Miley Cirus o de Lady Gaga se extienda víricamente por las redes sociales.

Entre el secreto y el monumento

Una de las razones por las que ha sido sencillo mantener durante mucho tiempo la ilusión de la intangibilidad de la nube ha sido el tradicional secretismo de la industria de los data centers, que ha desarrollado su tarea desde la opacidad y la discreción. Mientras que, a lo largo de la última década, las atractivas posibilidades de interacción que abren la Web 2.0, las redes sociales y la Internet móvil se sitúan en el centro de la conversación pública, fuera del foco de atención se despliega sin ningún deseo de visibilidad la arquitectura tecnológica necesaria para hacerlos operar. Durante muchos años, las grandes compañías tecnológicas han preservado celosamente el número y la localización de sus data centers. Este deseo de invisibilidad, fundamentado habitualmente por la necesidad de mantener estrictas medidas de seguridad en las instalaciones y evitar el espionaje industrial, se expresa en el diseño de sus construcciones. Grandes cajas sin ningún carácter arquitectónico, cerradas sobre sí mismas, sin signos de identificación exterior ni logos corporativos que permitan asociar el contenedor con lo que su interior preserva. Los data centers podrían ser los no-lugares definitivos, porque prácticamente no son ni siquiera edificaciones. Hasta el 85% del coste de construcción de un data center va a parar a sus sistemas mecánicos y eléctricos. A estos les envuelve tan poca arquitectura como sea posible.

Mientras el sector de Internet esquivaba toda conversación acerca de los espacios industriales que se esconden tras sus interfaces, ha sido raro que hubiese nada destacable en términos arquitectónicos que mencionar sobre cualquiera de ellos. Por supuesto hay excepciones; la más notable durante unos años ha sido Pionen. En operación desde 2008, se encuentra en el interior de un antiguo búnker nuclear en el centro de Estocolmo. Su propietario, el proveedor de Internet Bahnhof, lo ha diseñado como si fuese el escenario de una película de James Bond de los años setenta, con cascadas, vegetación, salas de reuniones suspendidas sobre el espacio, y hasta los motores de un submarino alemán como decoración. Durante 2010, Pionen albergó los servidores llenos de secretos de Wikileaks.

En los últimos dos años, sin embargo, algunas de las actitudes dentro de la industria han comenzado a cambiar, y algunos pronostican el fin de la era del anonimato. Conscientes del interés que despiertan, a medida que prensa y turistas de las infraestructuras se han acercado a sus formas anónimas, Silicon Valley no ignora que están destinados a convertirse en símbolos arquitectónicos de un nuevo poder, en castillos de la era de la información.

El 6 de junio de 2011, en su última aparición en público solo cuatro meses antes de morir, Steve Jobs mostraba imágenes del data center que su empresa había construido en Maiden (Carolina del Norte) expresamente para el lanzamiento de iCloud, el servicio que preservaría los documentos de los usuarios de Apple. En diciembre de 2012, Google da un paso no predecible y muestra el interior de varias de sus instalaciones en distintos puntos del mundo, a través de las imágenes de la fotógrafa Connie Zhu.

Google Data Center.

Los nuevos data centers parecen destinados a reconocer su carácter simbólico que los convierte en más que simple infraestructura industrial, a medida que los arquitectos los transforman en iconos, en la encarnación material de la Red. En el este de Londres, la instalación Telehouse West muestra una fachada sin ventanas segmentada en rectángulos de distinta graduación de color, que solo se puede definir como «pixelada». En otros casos, los data centers se esconden a plena vista en el mismo centro de las ciudades, canibalizando edificios que antes tuvieron otra función. En Manhattan, el edificio de la New York Telephone Company, una torre gris de 32 plantas junto al puente de Brooklyn que se avista desde múltiples puntos de la ciudad, está siendo vaciado para convertirse en otro contenedor de servidores y sistemas de refrigeración.

Mientras nuestra necesidad de almacenar datos no para de crecer, la industria de los data centers sigue extendiéndose por la geografía del planeta, alcanzando paisajes alejados de núcleos urbanos y campos de cultivo. En Suecia, Facebook cuenta con un centro en Lulea, en el mismo límite del círculo polar ártico. Por su parte, Google registró en 2008 una patente que describe un posible modelo de data center flotante que funcione de manera autónoma en alta mar, alimentado por la fuerza del viento y el movimiento de las olas. Es difícil saber si esta visión se acabará transformando en parte de nuestro paisaje infraestructural, pero hay más consenso en que el número de personas necesarias para hacer operar cada uno de estos almacenes de la memoria –hoy en día entre 25 y 40– será cada vez menor. El data center del futuro es un inmenso almacén oscuro en el que nunca se enciende la luz. Los robots que se encargan de su mantenimiento no lo necesitan.





Tecnorrevolución en las aulas

En el nuevo modelo educativo, la tecnología debe tener un papel relevante, estimular el aprendizaje y convertirlo en un proceso más rico y participativo.


Calculadora mecánica de George B. Grant Co. Ilustración publicada en Scientific American, mayo de 1877. Fuente: Wikipedia.

Los expertos en enseñanza advierten que tenemos un sistema educativo anacrónico, creado hace trescientos años para satisfacer las necesidades de una época basada en la producción industrial de objetos. Defienden que ahora es necesario un proyecto en educación diferente, que se base en la generación de ideas, la creatividad y las emociones, que sea capaz de preparar a los niños para afrontar los retos de un mundo en el que el acceso infinito a información ha cambiado la forma en que nos comunicamos, procesamos la información y pensamos. En este nuevo modelo, la tecnología tiene que desempeñar un papel relevante para estimular el aprendizaje y convertirlo en un proceso más rico, participativo y alentador.

Hasta aquel momento, a Jon Beasley-Murray no se le había pasado nunca por la cabeza usar Internet en sus clases. Enseñaba en la Universidad de Columbia, en Canadá, literatura latinoamericana y, para él, la Wikipedia no era más que una mala fuente de documentación para sus alumnos. Aquel curso de 2008, sin embargo, después de pensarlo mucho, y a la vista de la pasión de sus estudiantes por la red, decidió cambiar de estrategia y llevar a cabo un experimento.

Encargó a los asistentes a su clase que crearan entradas sobre varios novelistas sur-americanos de los que había muy poca información en línea. El reto que les propuso era conseguir elaborar contenidos de mucha calidad, porque si la Wikipedia los clasificaba como GA [Good article o buen artículo], les pondría un sobresaliente, y si los destacaba –en aquel momento solo había dos mil artículos destacados en inglés–, entonces obtendrían una matrícula de honor.

Los alumnos se dividieron en equipos de trabajo, investigaron, adquirieron las competencias clásicas de un trabajo de investigación (lectura, documentación, referenciación, escritura y aprendizaje crítico). Tres de los equipos lograron un GA y uno de los trabajos, la página sobre la novela El Señor Presidente, de Miguel Ángel Asturias, fue artículo destacado. Los universitarios se sentían eufóricos al terminar el año académico. No solo habían realizado un proyecto interesante, sino que, además, era real: con él contribuían al conocimiento global y su buen trabajo era reconocido por miles y miles de internautas.

La iniciativa de este profesor canadiense es un ejemplo de la nueva oleada de educadores que creen que las nuevas tecnologías, bien empleadas, pueden estimular el aprendizaje y convertirlo en un proceso más rico y participativo. En Finlandia, por ejemplo, esto hace tiempo que lo tienen muy claro. Considerado por los informes PISA el país del mundo que cuenta con el mejor sistema educativo, en este estado escandinavo la educación se basa en enseñar a pensar en lugar de memorizar y ello incluye tratar los temas que a los estudiantes les interesan y también usar las herramientas educativas que les motivan, que no son otros que las tecnologías.

Así, en las aulas finlandesas se miran vídeos de YouTube, los temas se elaboran buscando en la Wikipedia, se usan cómics digitales, se escucha música, se hacen listas de música que funcionen como banda sonora para expresar los sentimientos, por ejemplo, de Silvi, personaje herido del corazón de la pieza Como gustéis del dramaturgo inglés. Se trata de enganchar a los chavales con aquello que les gusta para involucrarles activamente en su aprendizaje.

Dispositivo programado para el estudio de matematicas como parte del programa MatiTec de ITESM Campus Ciudad de Mexico. Fuente: Wikipedia.

Pero, no hay que irse tan lejos para encontrar iniciativas parecidas. En Cataluña y España ya hay maestros que usan la realidad aumentada para enseñar a sus alumnos cómo es un volcán o qué pinta tenía un tiranosaurio; otros programan pequeños robots, crean documentales en vídeo sobre los diferentes tipos de energía que insertan en portales web o animan a los estudiantes en un proyecto transmedia de poesía colectiva. Y después está el proyecto Espiral, en Cataluña, la asociación Novadors en Valencia, o el proyecto Aulablog, impulsado por profesores de todo el Estado. La tecnorrevolución en la escuela parece, pues, que está en marcha y está empezando a cambiar la forma de enseñar y de aprender.

«Hay que modificar el actual sistema educativo de arriba abajo. Es totalmente anacrónico, está desfasado y hace que los niños se aburran», espeta provocador Mark Prenksy, experto en educación y creador en 2001 del concepto «nativos digitales», que generó un debate en torno a la enseñanza a nivel mundial. Para Sir Ken Robinson, uno de los principales expertos sobre este tema del mundo y protagonista de la charla TED más vista, la escuela actual se diseñó durante la revolución industrial para formar a trabajadores para las fábricas, personas que hacían lo mismo una vez tras otra, durante muchas horas. La escuela seguía este mismo patrón: todos los niños repetían y repetían de memoria determinados conocimientos.

«Pero ahora necesitamos formar a personas preparadas para afrontar lo desconocido, capaces de gestionar los imprevistos, de tener ideas nuevas ante problemáticas que serán cada vez diferentes. Alfabetizar digitalmente a los niños les permitirá ser más abiertos de mente y creativos. Les preparará para afrontar los retos de un futuro incierto», considera Sergi Jordà, profesor de la Universitat Pompeu Fabra.

De la producción de objetos a las ideas

En el último medio siglo se han producido más descubrimientos que en toda la historia de la humanidad. Hemos pasado de ser una sociedad industrial, basada en la producción de objetos, a una sociedad de la información, donde la materia prima y el motor son las ideas, la creatividad, la pasión, la capacidad de inventarnos nuevos oficios más apropiados para la nueva época en que vivimos. Además, los adelantos en ciencia nos han permitido saber más sobre cómo funciona nuestro cerebro. Como explica el neurocientífico Francisco Mora en Neuroeducación. Sólo se puede aprender aquello que se ama (Ed. Alianza), no aprendemos de memoria, repitiendo, sino haciendo, experimentando y, sobre todo, emocionándonos.

La neurociencia nos ha mostrado que la atención es un factor clave a la hora de aprender. «Es como una ventana que se abre en el cerebro a través de la que se aprende y se memoriza la información que procede del mundo que nos rodea –explica Mora–. Sin atención no hay ni memoria explícita ni conocimiento». Y se ha visto que una forma de atraer la atención de los chavales es usando aquello que les apasiona, las tecnologías, que se pueden convertir en unos aliados excelentes para fomentar la curiosidad y la motivación, ingredientes básicos para el aprendizaje.

Eso sí, la introducción de herramientas digitales en el aula, per se, no es garantía de nada. Como explica el profesor de secundaria Sandro Maccarrone, «se pueden usar las nuevas herramientas para seguir haciendo exactamente lo mismo [que venimos haciendo desde hace cuatro mil años]. O para hacerlo peor, dado que la información se presenta de forma más dispersa». Es preciso, pues, un proyecto educativo sólido que vaya acompañado de un cambio metodológico por parte de los educadores, en que estos pasen de transmitir información a los alumnos a hacerles de guías, a ayudarles a plantearse las preguntas adecuadas, a despertarles la curiosidad, a acompañarles en la busca de la información que necesitan y a enseñarles a trabajar en equipo, competencias que necesitarán en su vida de adultos.

Tecnología en clase

Pero, ¿cuáles son las ventajas de usar herramientas digitales en clase? Además del atractivo de utilizar la pizarra digital o la realidad aumentada, que atraen la atención de los alumnos, la mayoría de expertos coinciden en resaltar como punto clave que las tecnologías en el aula permiten personalizar la educación, que cada niño siga su proceso, dándole recursos, facilitando el aprendizaje autónomo, la experimentación y la investigación.

La conexión a Internet es otro punto clave, porque les permite acceder a una ventana al mundo y a mucha más información de la que les puedan ofrecer los docentes o un libro de texto. Eso sí, el profesor tendrá que dotar al alumno de sentido crítico, enseñarle a discriminar lo que es relevante del simple ruido.

Muchas de las herramientas digitales propician el trabajo en equipo, la colaboración, la interacción. Y ello, además, refuerza sus competencias emocionales, esenciales para relacionarse con los demás y ser más empáticos. También estimulan la creatividad de los niños. Para Jordi Adell, profesor del área de didáctica y organización escolar en el Departamento de Educación de la Universitat Jaume I de Castelló y director del Centro de Educación y Nuevas Tecnologías (CIEN) de la misma universidad, hay un móvil en el bolsillo de los niños, un aparato dotado de cámara de vídeo, de fotos, grabadora de voz, conexión a Internet, GPS. Se pueden realizar una gran cantidad de actividades didácticas con los móviles. «Lo que es verdaderamente revolucionario es poner en manos de los niños la tecnología para que creen, construyan, aprendan».

«Los alumnos no aprenden de los profesores ni tampoco de la tecnología, sino que aprenden de pensar sobre lo que están haciendo, de lo que hicieron, de los procesos. El pensamiento es el que favorece el aprendizaje», añade Jennifer Groff, investigadora del Media Lab del Instituto Tecnológico de Massachusetts (MIT).

Estudiantes de la School of Science and Technology, Singapore. Fuente: Wikipedia.

Hay quien todavía va mucho más allá y afirma que, gracias a las tecnologías, los niños son capaces incluso de aprender solos. Sugata Mitra, un profesor de tecnología educativa de la Universidad de Newcastle, en el Reino Unido, a finales de los años noventa empezó a llevar a cabo una serie de experimentos, en que dejaba ordenadores en barrios muy pobres de la India sin dar ninguna explicación y volvía meses después. Siempre se repetía lo mismo: los niños habían aprendido por sí mismos, sin instrucciones, a usar el ordenador; los niños se enseñaban los unos a los otros, e incluso habían logrado aprender cosas tan complicadas y en inglés –un idioma que desconocían– como temas de biología molecular.

«Si tenemos la suficiente curiosidad, somos capaces de aprender por nosotros mismos», reivindica. Este año, TED, la conferencia de las ideas globales, le ha otorgado una beca de un millón de dólares para proseguir este proyecto. En esta misma filosofía se basan los MOOC, los cursos abiertos masivos en línea que han irrumpido hace unos años en la red. Algunos gratuitos y otros de pago, son cursos que universidades y centros cuelgan en Internet, con materiales, clases grabadas, bibliografías, podcasts que los alumnos pueden seguir e interactuar con compañeros situados en diferentes países. El acceso al conocimiento se multiplica, se democratiza y quizá acaba llegando a los rincones más desfavorecidos.

El lado oscuro de la tecnología

Pero no todos los expertos en educación ven con tan buenos ojos el uso de herramientas digitales en el aula. Hay muchos que alertan acerca de los peligros que supone el multitasking mientras los niños aprenden, por ejemplo. Hay estudios que aseguran que prestar atención a diferentes flujos de información y entretenimiento mientras los niños estudian, hacen los deberes o están en clase provoca que aprendan de forma más superficial, entiendan y recuerden menos, y tengan más dificultades en transferir su aprendizaje a nuevos conceptos. Parece ser, alerta David Meyer, profesor de psicología de la Universidad de Michigan, que actividades como enviarse un whatsapp o actualizar el Facebook requieren los mismos recursos mentales que los que necesita la escuela. «El multitasking tiene un coste cognitivo muy elevado», afirma.

Otros estudios advierten sobre el impacto negativo en el comportamiento de los niños, dicen que los hace asociales, que impiden que se concentren en clase y que les distraen. Y algunos docentes temen que los alumnos se acostumbren al copy-paste y a la filosofía Wikipedia de conseguir respuestas rápidas y fáciles. Que se acostumbren a un lenguaje demasiado coloquial, el empleado en las redes sociales, y que sean incapaces de pasar a un registro más formal para hacer los trabajos.

«Estamos en un momento en el que hay mucha confusión», considera Lali Bosch, profesora de filosofía y miembro del grupo fundacional del Instituto de Investigación para la Enseñanza de la Filosofía. «Las nuevas tecnologías tienen muchas posibilidades desde el punto de vista del conocimiento, pero también hay un problema: Karl Marx nos explicaba que cuando las calidades de las personas se transfieren a las cosas, estamos en una situación de fetichismo y con las pantallas podemos entrar en esa espiral. En el centro de la educación es preciso que haya el conocimiento y este es una respuesta a la curiosidad. Por lo tanto, todo aquello que ayude a despertar la curiosidad es bienvenido».

La tecnología está presente en todas las áreas de nuestra vida y, del mismo modo que no sería comprensible decir a los bancos, a los hospitales o a la industria que usaran menos tecnología, la mayoría de los niños no pueden entender que en la escuela les prohíban emplearla. Para ellos, Internet es básico, por ejemplo, para relacionarse con sus amigos, para entretenerse y también para aprender.

«Hay que alfabetizar a los niños digitalmente, enseñarles a leer y escribir pero también el lenguaje de las máquinas –opina Sergi Jordà, de la UPF–, si queremos que de adultos entiendan qué pasa en la sociedad en la que viven y tengan mayor dominio sobre su vida. Hoy en día, Wikileaks, Anonymous, todo lo que supone una cierta resistencia a las tendencias globales pasa por dominar estas herramientas. Alfabeticemos digitalmente a nuestros niños y tendremos a ciudadanos más libres».





La geopolítica de Internet

El despliegue de los cables que permiten que la red sea global plantea cuestiones geopolíticas similares a las de los oleoductos.


Principales redes telegráficas (1875). Fuente: Wikipedia.

Internet no es un ente abstracto que se mueve por el aire. Su funcionamiento está basado en una infraestructura física gigantesca que se extiende por el globo. El despliegue de los cables que permiten que la red sea global plantea cuestiones geopolíticas similares a las de los oleoductos. Conseguir una fuente de conectividad fiable se convierte en algo tan importante como garantizar el suministro de petróleo.

El 28 de marzo de 2011, los casi tres millones de habitantes de Armenia pasaron doce horas sin conexión a Internet. La sequía digital impuesta sobre los ciudadanos del país caucásico durante ese día no tuvo nada que ver con las acciones de un gobierno autoritario. Tampoco entraron en juego condiciones meteorológicas adversas. La causa de este fallo fue algo mucho más peregrino que eso. En una zona rural de Georgia, a quince kilómetros de la capital, Tbilisi, una mujer de 75 años cortó el cable que provee a Armenia de la mayor parte de su banda ancha con una sierra de mano. La abuela aseguró a los medios de comunicación que buscaba madera y que cortó ese cable por error. «Ni siquiera sé lo que es Internet», declaró a AFP tras el accidente.
La historia viajó por medios de comunicación de todo el mundo y llevó a primer plano algo que frecuentemente se ignora. A pesar de que avanzamos hacia una digitalización imparable, muchos siguen considerando Internet como algo que viaja por los aires. Mientras que es bien sabido que un vehículo se hace en una fábrica, hay quien sigue considerando la red como un ente intangible sin límites. Una noción equivocada que términos como la nube contribuyen a alimentar.

La realidad es que las entrañas de Internet tienen un componente físico importantísimo que en casos extremos puede verse afectado por el corte de un cable por parte de una pensionista en un país vecino. Al igual que el petróleo viaja por enormes oleoductos y barcos de carga, los datos se mueven por tubos que contienen fibra óptica que serpentean por el mundo para llevar un vídeo de YouTube a la pantalla de tu ordenador. Visualizar ese vídeo es posible gracias a que está almacenado en centros de datos llenos de servidores que actúan como discos duros de este contenido. La presencia física de estos lugares es considerable.

En el caso de Google, la compañía cuenta con trece centros de almacenaje. Entre ellos, Hamina Finlandia, una antigua fábrica de papel que la compañía convirtió en un centro de datos en 2009. Google lleva invertidos 350 millones de euros en las instalaciones, una inversión que recibirá una inyección de 450 millones de euros adicionales para agrandarlas. Para hacerse una idea de la envergadura del proyecto, estos trabajos convertirán a la compañía en el primer inversor extranjero en el país nórdico. Unas cifras acordes con el tamaño gigantesco de estos centros que ocupan decenas de miles de metros cuadrados. No son los únicos. Facebook, Microsoft y Amazon cuentan con instalaciones similares repartidas por el globo.

Google Data Centers.

La visita a muchos de ellos llevó al periodista Andrew Blum a concluir que «la nube y cada una de sus partes son, en realidad, un sitio específico, una realidad obvia que resultaba extraña por la instantaneidad con la que nos comunicamos con estos lugares». El escritor pasó varios años siguiendo la huella física de Internet, una experiencia que plasmó en su libro Tubes que no deja lugar a dudas: «La Red está tan apegada a lugares físicos como las vías de tren o el sistema telefónico».

Tampoco la creciente utilización del teléfono móvil para acceder a Internet debería llevar a equívocos. La transferencia de datos que viaja por el aire tan solo representa una ínfima parte del viaje: el recorrido entre tu dispositivo y la antena más cercana. Ese receptor está conectado con los cables que mueven los datos en cables por el subsuelo y los fondos submarinos de los océanos y mares.

«Nunca tenemos en cuenta los cables. Esto es muy insensato. Las personas que usan Internet (o que realizan llamadas a larga distancia), pero que no saben nada sobre los cables son iguales a los millones de motoristas despreocupados que llenan el depósito de sus motos sin tomar en consideración cómo llegó la gasolina a la estación de servicio de la esquina», opinaba Neal Stephenson, en su artículo Mother Earth, Mother Board, escrito para Wired en 1996. El ensayo de 42.000 palabras, que se ha convertido en una pieza de culto, llevó al escritor a viajar por el mundo trazando la ruta del cable FLAG, una red de fibra óptica de 28.000 kilómetros de largo que entró en funcionamiento en 1999.

Durante el viaje, el intrépido periodista gonzo, que se hacía llamar «turista hacker», entrevistó a los ingenieros aventureros encargados de hacer realidad este ambicioso proyecto, uno de los más importantes del mundo.

«El sistema FLAG, la madre de todos los cables, empieza en Porthcurno (Inglaterra), sigue por Estepona (España); pasando por el estrecho de Gibraltar, llega hasta Palermo (Sicilia); continúa por el Mediterráneo hasta Alejandría y Port Said (Egipto); ya en tierra, cruza esas dos ciudades hasta Suez (Egipto). Sigue hacia abajo por el golfo de Suez y el mar Rojo, con una rama que se desvía a Yeda en Arabia Saudí; rodea la península arábiga hasta Dubai, el centro de operaciones de la red FLAG; de allí entra en el océano Índico hasta Mumbai, rodea la punta de India y entra en la bahía de Bengal hasta recaer en Ban Pak Bara (Tailandia), con una rama que baja a Penang (Malasia). Nuevamente por tierra, se desplaza por Tailandia a Songhkla; de allí sube por el mar del sur de China aterrizando en la isla de Lan Tau en Hong Kong; sube por la costa china, donde sale una rama hacia Shanghai y la otra a la isla Koje-do en Corea. Finalmente hay dos llegadas por separado a Japón, en Ninomiya y Miura, cada una propiedad de telefónicas rivales», detallaba el escritor estadounidense.

Como FLAG, se estima que existen centenares de cables submarinos en funcionamiento que cruzan distintos países. Una infraestructura vital para garantizar el funcionamiento de Internet (en el caso de Estados Unidos, el 95% de las comunicaciones con el exterior pasan por cables submarinos). A esto se añade la cantidad enorme de cables que se mueven sin cruzar fronteras.

La zona más complicada para las rutas de cable son las aguas con menos de mil metros de profundidad. En estas áreas los riesgos para su integridad física provienen de las anclas de los barcos, la mordida de un tiburón o el enredo de una red de pesca en el fondo marino. En otros casos el sabotaje puede entrar en juego, como ocurrió en marzo de este año cuando la policía egipcia arrestó a tres buceadores que cortaron el cable SEA ME WE 4 cerca de Alejandría. La acción de los buceadores ralentizó la conexión en el país africano y otras ciudades dependientes de este cable durante más de 24 horas.

Por esta razón se suele buscar lugares con poco tránsito para traer cables a tierra. «Casi nunca aterrizan en zonas industriales porque son áreas con mucho tránsito y excavaciones. También por factores geográficos. La industria suele asentarse cerca de los ríos, que traen corrientes, lo que es malo para los cables», explica Stephenson.

En el plano empresarial, no es raro que telefónicas que compiten entre sí en distintos mercados formen parte de un consorcio de una decena de empresas para poner en marcha un nuevo cable. De esta forma se hacen más asumibles los costes. Con estas inversiones se aseguran paquetes de capacidad para poder proporcionar la conexión que exigen sus clientes.

La geopolítica de los cables de Internet

Como se menciona al comienzo de este artículo, el incidente que dejó a Armenia sin Internet mostró la vulnerabilidad de la infraestructura en ese país. Si algo tan sencillo como una sierra de mano tiene la capacidad de anular tu red, tienes un serio problema. En el caso de sistemas más desarrollados como en Europa y Estados Unidos, existen tantas maneras diferentes para llegar del punto A al punto B, que ante un potencial incidente los datos tienen más posibilidades de encontrar rutas alternativas para llegar a su destino. Cuando salimos de territorios occidentales y entramos en zonas más conflictivas, la configuración de infraestructura digital toma un tamiz complejo, pero también muy interesante desde el punto de vista geopolítico.

«Todo lo que lees sobre geopolítica, esferas de influencia, tiene su vertiente en Internet y en cómo se estructura», aseguró James Cowie, CTO de Renesys, en una presentación en el Berkman Centre de Harvard. A modo de ejemplo, el experto en redes resalta la configuración de Internet en Oriente Medio.

«En el caso de Israel, rodeado de países enemigos, se ven obligados a depender de cables submarinos para conectarse con el exterior. Principalmente pasan por Chipre, Sicilia y Grecia para llegar a Europa y Estados Unidos».

Los territorios palestinos, según describe Cowie, reciben su conexión en parte de Israel y en parte de operadores europeos que entran por Jordania. La monarquía árabe, en cambio, está conectada con el resto del mundo a través de cables que pasan por Arabia Saudí y la rama del cable submarino FLAG que entra en el país por el puerto de Aqaba.

Líbano, que no tiene relaciones diplomáticas con Israel, hasta hace poco dependía casi exclusivamente de un cable que provenía de Chipre. En 2011, el cable I-ME-WE inaugurado en 2009 para conectar Francia e India construyó una rama submarina desde Alejandría hasta la ciudad costera de Trípoli en Líbano. «Esto les aportó un terabyte de capacidad y aligeró un sistema sobrecargado», explica Cowie.

A principios de noviembre se temió que la conexión a Internet del país mediterráneo sufriría graves problemas tras retrasos en el pago a la empresa que opera IMEWE. El 2 de noviembre, el ministerio de telecomunicaciones informó a la prensa que habían pagado los 3,2 millones de dólares que debían. El gobierno aseguró que, en caso de ser desconectados de la red IMEWE, tenían un plan B, que consistía en utilizar la conexión de otro cable submarino que recientemente se conectó con el país: el cable Alexandros. Conseguir una fuente fiable de conexión se convierte en algo tan importante como asegurarse fuentes de energía de lugares distintos para diversificar el riesgo.




En el caso de Turquía, su posición entre Asia y Europa, que tanta influencia le otorgó en el imperio otomano, vuelve a ser relevante en las telecomunicaciones.

Como dice Cowie, «los cables entre Europa y el país turco siguen caminos similares a las antiguas rutas de comercio». La pujanza diplomática del país se está viendo correspondida en las inversiones de empresas telefónicas como Turk Telekom y TurkCell, que están construyendo nuevas rutas de cable de fibra óptica hacia Irak, el Cáucaso y Arabia Saudí. «Se han dado cuenta de que potencialmente pueden llegar a ser un lugar clave para la exportación de Internet. Es una forma de aumentar su influencia respecto a sus países vecinos».

Por encima de todo, Cowie considera que prima el pragmatismo geopolítico a la hora de configurar las rutas de los cables. «La cuestión primordial es cómo conseguimos Internet más rápido, barato y seguro sin pasar por países que no nos gustan».

Estas mismas razones llevaron a los impulsores de FLAG a escoger rutas diversas para garantizar la resiliencia del cable. «Se busca la diversidad, un principio que dice que deberías tener múltiples rutas para que la ruta sea más robusta», según Stephenson.

Los locos del siglo XIX

El acceso a comunicaciones globales de alta calidad no sería posible sin el trabajo de los intrépidos emprendedores que a mediados del siglo xix construyeron los primeros cables submarinos que dieron pie a la revolución del telegrama. «Lo único que ha cambiado desde entonces es que el riesgo es menor, los procesos son más burocratizados y las personalidades son menos interesantes», dice Stephenson.

En aquel entonces, el margen de error era tan grande que en 1861 solo 5000 kilómetros de redes funcionaban del total de 17.500 kilómetros que se habían desplegado.

«El mundo en realidad ha estado conectado por cable con sistemas de comunicación digital durante más de un siglo y medio. Nada de lo que ha pasado recientemente se puede comparar con el impacto que tuvo el primer intercambio de mensajes por telegramas entre la reina Victoria de Inglaterra y el presidente Buchanan de Estados Unidos en 1858», añade el escritor.

La digitalización de la sociedad seguirá avanzando pero siempre respaldado por una infraestructura que no solo existe, sino que además tiene sus orígenes en los cables submarinos del siglo xix.

Red de conexiones de The Eastern Telegraph Company (1901). Fuente: A.B.C. Telegraphic Code 5th Edition, Atlantic-cable.





_Big Bang Data

_BIG BANG DATA es una exposición sobre la datificación del mundo comisariada por José Luis de Vicente y Olga Subirós, bajo la dirección de actividades de ZZZINC


Censo Federal de los Estados Unidos, 1900. Fuente: Tony Masiello.

_BIG BANG DATA es una exposición sobre la datificación del mundo comisariada por José Luis de Vicente y Olga Subirós, bajo la dirección de actividades de ZZZINC. El CCCB Lab ofrecerá hasta su inauguración, en mayo de 2014, una ventana al proceso de producción, a través de una serie de artículos a cargo de los comisarios que anticiparán las principales líneas del contenido.

La producción de datos en volúmenes masivos es uno de los hechos fundamentales de nuestro tiempo. Mientras que a lo largo de los últimos quince años el coste de almacenar información digital se desplomaba, el número de dispositivos y sensores que captan, producen y transmiten datos se ha multiplicado exponencialmente. Cada día se generan 2,5 trillones de bytes, y solo en 2009 se produjeron tantos datos como en toda la historia de la humanidad hasta ese punto. La explosión de los datos crece sin freno, sin que nadie acierte a ver su fin.

Este océano de información es preservado por el sector en auge de los Data Centers, la realidad material y tangible que se esconde discretamente detrás de la ilusoria metáfora de la Nube. La vasta infraestructura industrial que se despliega por puntos de todo el mundo almacenando memorias, palabras, imágenes y actos requiere ya del dos por ciento del consumo eléctrico global, equivalente al gasto energético de un país como Noruega.

Pero el Big Data, además de una industria, promete traer consigo una transición fundamental en la historia del conocimiento. En la última década se ha disparado una percepción entre las instituciones científicas y académicas, las administraciones gubernamentales o los que están forjando nuevos lenguajes para la comunicación acerca de que, tras la explosión de datos, se encuentran nuevas maneras de resolver problemas y plantear preguntas, y que estas pueden servir para repensar radicalmente cómo se practica la ciencia, cómo se genera valor en la economía o cómo se organiza la política y la sociedad.

Los datos producidos por redes de sensores en infraestructuras o en tecnologías industriales, pero también por los ciudadanos en las redes sociales, por los teléfonos móviles, las transacciones de tarjetas de crédito y los dispositivos GPS, se presentan hoy como una oportunidad y una herramienta clave. Múltiples disciplinas y áreas del conocimiento, desde la física hasta el urbanismo, la historiografía o la salud, están explorando el potencial inmenso que reside en escudriñar volúmenes de información detallada de los que no habían dispuesto anteriormente. Comprenderlos y saberlos hacer comprensibles requiere también un nuevo lenguaje y nuevos recursos expresivos.

Notes on Matters Affecting the Health, Efficiency, and Hospital Administration of the British Army (1858). De Florence Nightingale. Fuente: Wikimedia Commons.

Una cultura data-driven será una cultura también eminentemente política. Los datos pueden ser un elemento central para promover una democracia más limpia y participativa, y unos modelos de gestión administrativa más eficaces. Sin embargo, también pueden utilizarse como armas para instaurar un estado de vigilancia masiva sin precedentes. El acceso a los datos, el derecho a su uso y el valor que estos atesoran se sitúan en el centro de múltiples conflictos contemporáneos: desde la lucha por la transparencia hasta las repercusiones políticas de las filtraciones de Wikileaks o el caso Snowden, pasando por la mercantilización de la intimidad que ejercen los gigantes de Silicon Valley.

¿Son los datos, como nos dicen con frecuencia los emprendedores tecnológicos, el nuevo petróleo, una fuente potencial de riqueza infinita? ¿O deben ser antes que nada una herramienta para una nueva cultura política basada en la transparencia y la rendición de cuentas? ¿Cómo nos fuerzan a revisar nuestra noción tradicional de privacidad? En vez de conformarnos con ser sencillamente consumidores pasivos, o aceptar sin resistencia que nos conviertan en productos gracias a los que venden y mercantilizan nuestra intimidad, ¿podremos ser productores de datos activos, críticos e implicados?

Entre mayo y octubre de 2014, el proyecto BIG BANG DATA explorará en el CCCB los efectos del tsunami de datos, de las innovaciones tecnológicas que lo han facilitado y de su impacto sobre la ciencia, la cultura, la política y la sociedad.

Open Street Map. De Eric Fischer. Fuente: Wikimedia Commons.

BIG BANG DATA es la primera entrega de BETA, una serie de proyectos que explora los espacios en crisis hoy en la intersección entre la ciencia, la innovación tecnológica, la cultura y la sociedad. Durante más de cinco meses, la sala de exposiciones de la planta 3 del CCCB se convertirá en una «institución temporal» que combina lo expositivo con los procesos de producción y reflexión, con el objetivo de ofrecer a los visitantes los elementos necesarios para interpretar ámbitos emergentes que tienen un impacto muy directo sobre sus vidas hoy.

La exposición combinará proyectos de arte y diseño, documentación histórica, prototipos de nuevos servicios y tecnologías y entrevistas con expertos de todo el mundo. Pero, además, la sala de la exposición también incluirá en su interior un espacio laboratorio con investigadores en residencia en el que se celebrarán actividades y proyectos participativos a lo largo de los cinco meses de duración de Big Bang Data.

BIG BANG DATA incluye un extenso programa de actividades a través de talleres, «hackatons», actividades educativas para distintos públicos y encuentros de comunidades locales. El proyecto se celebra en conjunción con otros proyectos, como la Big Data Week –una red de eventos que tendrá lugar en veinticinco ciudades de todo el mundo– y tendrá presencia en muchos de los distintos festivales, congresos y ferias del calendario de la ciudad.

El CCCB LAB ofrecerá hasta la inauguración del espacio, en mayo de 2014, una ventana al proceso de producción de BIG BANG DATA, a través de una serie de artículos a cargo de sus comisarios, que explorarán en profundidad las principales ideas en trono a las que se articulará el proyecto.





De la smart city a los smartcitizens

Las contradicciones de las smart cities, esta promesa para solucionar las problemáticas de la ciudad, nos llevan a un nuevo término: los smartcitizens.


Fragmento de diagrama de frenología de Vaught’s Practical Character Reader (1902). Fuente: The Public Domain Review.

La smart city, esa gran promesa contemporánea para dar solución a las problemáticas de la ciudad, arrastra una trayectoria de contradicciones, que desemboca en un nuevo término heredero de conceptos arraigados en la sociedad del conocimiento: smartcitizens. Precisamente el reconocimiento de esta expresión hace patente la necesidad de revisar los impactos derivados de soluciones urbanas exclusivamente tecnológicas que dieron forma a las propuestas iniciales de las smart cities. Así, el concepto smartcitizens representa a las iniciativas fruto de la inteligencia colectiva que proyectan el camino hacia el cambio de la estructura socioeconómica de nuestras ciudades, basado en la capacidad de estar conectados, compartir información y ser proactivos con nuestro entorno.

Smart cities aquí, smart cities allí, smart cities everywhere. Desde hace unos años, estamos siendo testigos del boom de las smart cities («ciudades inteligentes»), hasta el punto de que parece que de la noche a la mañana todas las ciudades son smart.[1] De esta manera, la popularidad del término ha experimentado un crecimiento exponencial, eclipsando otras conceptualizaciones previas más integrales como la «ciudad sostenible»,[2] o aquellas otras que respondían de una manera más adecuada a la era en red y a las nuevas relaciones socioeconómicas derivadas de ella, como la «ciudad del conocimiento».[3] Si bien esta sobreexposición terminológica, para bien o para mal, ha calado profundamente en los foros profesionales e institucionales, en lo que a la ciudadanía respecta, no ha generado sino un «enorme desapego», tal y como reconocía recientemente el presidente de la Federación Española de Municipios y Provincias (FEMP) y alcalde de Santander, Iñigo de la Serna. Lo cual parece establecer un indicador claro sobre lo alejadas que están estas «ciudades inteligentes» de sus habitantes.

Para entender esta disruptiva realidad, deberíamos preguntarnos por las causas y consecuencias del fenómeno de las ciudades inteligentes y, a partir de ahí, comenzar a construir (o recuperar) un marco conceptual urbano que realmente responda a las necesidades de la ciudadanía y esté dirigido hacia una mejora efectiva e integral del hábitat urbano.

Mucho ruido y pocas nueces

Aunque la sociedad de la información contemporánea ha sido la responsable de la emergencia del concepto smart city, no ha sido hasta que las grandes empresas tecnológicas (IBM, CISCO, Siemens, etc.) fijaron su interés (y estrategias mercadotécnicas) en él, cuando el término comenzó a fraguar su hegemonía.[4] De esta manera, en 2010, diversos y prestigiosos medios internacionales (Time, The Guardian, The Times, Financial Times, etc.) comienzan a hacerse eco de esta nueva ola de las ciudades inteligentes, dedicándoles reportajes, números especiales o hasta secciones completas. Paralelamente comenzó a programarse toda una miríada de eventos y congresos relacionados con el tema en todo el mundo, copando y condicionando las agendas profesionales e institucionales. Ello ha producido que el tema de las ciudades inteligentes se haya convertido en el principal punto del debate urbano.

Pero, lejos de que toda esta campaña de visibilización sirviera para arrojar algo de luz sobre de qué manera las smart cities permitían avanzar respecto a algunas bases teóricas previas, no ha hecho sino generar confusión y suspicacias. Así, este discurso inicial hacía referencia exclusivamente a la implantación de nuevas tecnologías en la ciudad, sin llegar a demostrar cómo la utopía de la ciudad tecnointeligente mejoraba la calidad de vida en las ciudades y qué beneficios generaba a la ciudadanía. De este modo, la apología tecnófila promovida por las multinacionales no hacía sino desatender, aunque no de modo evidente, premisas internacionalmente aceptadas,[5] y obviaba que la tecnología por la tecnología contradice los principios de sostenibilidad y avanza poco en la construcción de la sociedad del conocimiento, más allá de generar parte de su infraestructura.

Exposición «Smartcitizens» en Madrid. Fuente: SmartCitizensCC.

No obstante, podemos decir que recientemente la smart city ha comenzado a revisar su exclusiva vocación tecnológica. Por ejemplo, ya se ha identificado la escasa utilidad de algunos servicios, como las redes eléctricas inteligentes (smart grids), si estas no incluyen al ciudadano en su formulación. Lo cual, en un escenario como el del Estado español, cuyo Gobierno ha decidido penalizar el autoconsumo de energía, hace que cualquier esfuerzo en esta dirección resulte inútil. Sin embargo, esta acepción también está llevando a la polémica, pues son mayoría las empresas proveedoras de servicios que apuestan por la ciudadanía solo como cliente de las prestaciones que pueden llegar a ofrecer las ciudades inteligentes. Aún en los casos más favorables, dentro de los diferentes estadios de generación, gestión y uso de la información, se pretende excluir al ciudadano del segundo, ya que es ahí donde se localiza el modelo de negocio que han impulsado las grandes empresas.

Esta concepción reduce de nuevo el potencial que visualiza la sociedad del conocimiento, las lógicas abiertas y distribuidas de la era red, generando una estructura jerárquica y cerrada al posicionar al ciudadano como usuario y consumidor, en vez de como copartícipe en la transformación de su entorno.

Abrir la smart city a la ciudadanía

Como era de esperar, esta invasión de la smart city no ha estado exenta de polémica, lo que ha conducido al reclamo de un nuevo término enraizado en ella y dirigido a establecer un necesario contrapunto a su lógica corporativista. Nos referimos al concepto smartcitizens. Este nuevo sujeto urbano está logrando colarse en la vorágine de las ciudades inteligentes, otorgando peso específico al papel de la ciudadanía activa como elemento fundamental de la sociedad del conocimiento y como vertebrador de las nuevas políticas urbanas.

El término smartcitizens entiende que hablar de ciudades y ciudadanía inteligente no solo pasa por fomentar el mejor control, uso y eficiencia de las infraestructuras, sino que también debe democratizar la información en sus diversas acepciones y escalas (open data, open city, open government, etc.), para aumentar el conocimiento y la implicación ciudadana, ya que ambos en su conjunto permitirán mejorar nuestro hábitat y nuestra calidad de vida.

Así, la noción de smartcitizens que comienza a contar con mayor aceptación es aquella que quiere situar a la ciudadanía en el centro de la reflexión sobre la ciudad inteligente, reivindicando la máxima que establece que no hay ciudades inteligentes sin ciudadanos y ciudadanas inteligentes. Ante las lógicas privativas impuestas desde los poderes económicos, la ciudadanía inteligente conectada en red está generando nuevas prácticas e imaginarios que articulan una (necesaria) revisión de la smart city. Una reformulación que encuentra su razón de ser en la cooperación entre los distintos agentes que operan sobre el territorio (sociedad civil, Administración pública, entidades científicas y académicas, agentes económicos, etc.), y en el intercambio de conocimiento su seña de identidad. Y es precisamente en este punto donde la idea de smartcitizens conecta con la del movimiento del software libre: compartir y colaborar para aumentar eficiencia de los procesos, desatar el poder de la inteligencia colectiva para alcanzar soluciones óptimas.

Ciudades inteligentes de código abierto

Desde luego, hoy en día los medios de los que disponemos para compartir información valiosa entre los distintos agentes y sectores de nuestra sociedad —y con ello transformarnos en ciudadanía inteligente, activa y partícipe— conforman el sustrato para el desarrollo de un modelo urbano más democrático, equitativo, sostenible e integral. Sin embargo, el esfuerzo que requiere la traducción de esta oportunidad en un hecho es todavía incipiente, y generalmente no existe un interés de llevarla a cabo por parte de las esferas de poder, cuando no directamente es coartado por ellas. Esto no significa que la inteligencia ciudadana y una redefinición de las smart cities no puedan ser promovidas desde otros ámbitos.

Exposición «Smartcitizens» en Madrid. Fuente: SmartCitizensCC.

Siguiendo la estela de las posibilidades que plantea Internet, la inteligencia ciudadana está brotando a través de iniciativas promovidas por innovadores tecnológicos que están facilitando al ciudadano acceder a información, tomar decisiones y organizarse colectivamente. De hecho, el software libre es una infalible fuente de herramientas, apps y soluciones tecnológicas que permiten este empoderamiento ciudadano. Tanto es así, que ya es posible hallar todo tipo de tecnología de código abierto en toda la cadena de valor de las smart cities:[6] desde el Internet de las cosas (sensores, hardware, software, tecnología RFID, etc.), hasta el Big Data (almacenamiento y proceso de datos complejos a gran escala), pasando por todo tipo de aplicaciones.[7]

Pero, más allá de esta visión altamente tecnificada de las smart cities y de la ciudadanía inteligente ultraconectada, lo que desde el concepto smartcitizens también se reivindica es la necesaria revisión de la conceptualización que hacemos de tecnología dirigida a construir ciudad. Y aquí la inteligencia de la tecnología no se mide en la sofisticación de la técnica que la genera, sino por su capacidad para generar comunidad, tejer red y establecer canales de transferencia de saberes que promuevan la autonomía social. De nuevo, se produce un quiebro en el discurso dominante, ya que desde esta óptica un huerto urbano es tan inteligente o más que un smartphone.

En definitiva, lo que la figura smartcitizens reivindica es que la tecnología urbana más eficiente es aquella que nace desde la inteligencia colectiva, ayuda a generar comunidad, establece cauces de apropiación ciudadana, es replicable, es eficiente y tiene como objeto resolver las necesidades reales de la sociedad civil. Las y los smartcitizens revelan que el futuro de las ciudades está en nuestras manos, en las de la ciudadanía inteligente y colaborativa.


[1] Por ejemplo, la Red de Ciudades Inteligentes (RECI), creada en 2012 a través de media docena de ayuntamientos socios, ya cuenta con 41 ciudades asociadas, una cantidad que crece constantemente.

[2] Sobre la integralidad del modelo urbanístico de la «ciudad sostenible» recomendamos el trabajo teórico desarrollado por la Agencia de Ecología Urbana: http://bcnecologia.net/es/modelo-conceptual/modelo-de-ciudad-sostenible

[3] «[La ciudad del conocimiento] Es un territorio geográfico donde, conforme a un plan y una estrategia general asumidos conjuntamente por la sociedad y el gobierno, sus actores tienen el propósito común de construir una economía basada en el desarrollo del conocimiento». José Natividad González Parás.

[4] Sobre el origen de las smart cities recomendamos el siguiente compendio de artículos de Manu Fernández (@manufernandez): http://es.scribd.com/doc/61950985/Smart-City-Tecnologias-emergentes-para-el-funcionamiento-urbano

[5] La consultora Gartner, en su Hype Cycle for Smart City Technologies and Solutions de 2012, definía la smart city como «una zona urbanizada donde múltiples sectores públicos y privados cooperan para lograr resultados sostenibles a través del análisis de la información contextual intercambiada entre ellos. La interacción de la información procedente de sectores específicos y la que fluye entre diferentes sectores dan como resultado ciudades más eficientes desde el punto de vista de los recursos, lo cual permite la provisión de servicios más sostenibles y más transferencia de conocimientos entre los sectores».

[6] La cadena de valor tecnológica de las smart cities ha sido definida, entre otros, por la Fundación Telefónica en su estudio Smart Cities: Un primer paso hacia la Internet de las cosas. Disponible en: www.fundacion.telefonica.com/es/que_hacemos/media/publicaciones/SMART_CITIES.pdf

[7] El Observatorio Nacional de Software de Fuentes Abiertas del CENATIC realiza una interesante recopilación de tecnología de código abierto aplicada a las smart cities en el artículo «Open Smart Cities I: La Internet de las Cosas de Código Abierto».





Big Data y humanidades digitales: de la computación social a los retos de la cultura conectada

El uso del Big Data, aplicado a la producción cultural, pone a las humanidades digitales ante los nuevos retos de una cultura de datos generada en red.


Fragmento de Radiolaria, serie de ilustraciones de Ernst Haeckel (1862). Fuente: Biodiversity Heritage Library | En: Harvard University.

El Big Data es el nuevo medio de este segundo decenio de siglo. Un nuevo conjunto de tecnologías computacionales que, al igual que las anteriores, ha cambiado el modo en que accedemos a la realidad. En un momento en que la web social es el nuevo laboratorio de la producción cultural, las humanidades digitales se vuelcan hacia el análisis de la producción y distribución masiva de productos culturales, para comprometerse en el diseño y cuestionamiento de los medios que la han hecho posible. De este modo, adoptan un enfoque más centrado en ver cómo se produce y distribuye la cultura, que las coloca ante los retos de una nueva cultura conectada.

5.264.802 documentos de texto, 1.735.435 archivos de audio, 1.403.785 vídeos y más de dos billones de páginas web accesibles a través de la WayBack Machine, constituyen el inventario actual del Internet Archive. A este podemos sumar las obras de más de 7.500 artistas de vanguardia, archivadas en forma de vídeos, pdf, archivos sonoros, programas de televisión y radio en UBUWEB, o las más de 4.346.267 entradas en 241 idiomas, facilitadas por los 127.156 usuarios activos que elaboran la Wikipedia y las continuas contribuciones de los más de quinientos millones de usuarios de Twitter. Estos son solo algunos ejemplos de los nuevos espacios virtuales donde se almacenan y comparten conocimientos. Archivos digitales, de acceso libre y contribuidos de modo colectivo, wikis y redes sociales, donde conviven hibridaciones y encuentros entre diferentes medios y múltiples contenidos. Dan lugar a un entorno complejo, donde nuestra cultura se muestra como un trabajo siempre en proceso.

Visualización datos de Twitter. Generado con Scraperwiki.

En los años noventa el ordenador era visto como una «maquina de remediación», es decir, un medio capaz de reproducir los ya existentes. Entonces las humanidades digitales se centraron en la traducción de los documentos de nuestro patrimonio cultural, tributarios de la cultura de la imprenta, al medio digital. Un proceso de mediación en que los documentos fueron reducidos a datos discretos, legibles y operables por máquinas. La computación en humanidades, tal y como la describe Roberto A. Busa en la introducción a A Companion to Digital Humanities, es la automatización de todo análisis posible de la expresión humana. Esta automatización aportó nuevas capacidades a los documentos, que fueron mutando hacia un nuevo mensaje performativo, que desplazó al documento escrito como vehículo predominante del conocimiento humano. Al mismo tiempo, los propios procesos dedicados al análisis y reproducción de los textos se aplicaron al desarrollo de herramientas que permitieran acceder a estos contenidos y compartirlos, produciéndose un cambio del archivo a la plataforma. Ambas operaciones cambiarán el modo en que se lleva a cabo la investigación en las humanidades, definiendo el contenido de unas humanidades digitales 2.0.

La conversión de documentos a código binario mediante el escaneado o la trascripción, su almacenaje en bases de datos, aprovechando las capacidades de estas para la búsqueda y recuperación de la información y la aplicación de descriptores, etiquetas y metadatos, dieron lugar al enlazado e interoperatibilidad de los medios. Se crearon archivos digitales como el Salem Witch Trial, dirigido por Benjamin Ray en la Universidad de Virginia en 2002, un repositorio de documentación referida a la caza de brujas de Salem, o The Valley of Shadow construido por el Centro para la Historia Digital en la Universidad de Virginia, y que documenta las vidas de la gente del Condado de Augusta en Virginia y del de Franklin en Pensilvania, durante el periodo de la Guerra Civil americana. Se convierten en espacios virtuales navegables, donde se accede a la información de modo activo, a través de una estructura que permite enlazar contenidos de diferentes bases de datos, almacenados en distintos formatos, sean imágenes, textos o archivos sonoros. Al mismo tiempo, la realización de estos repositorios, accesibles de modo casi ubicuo, supone un trabajo colaborativo entre profesionales de diversas disciplinas, desde historiadores, lingüistas y geógrafos hasta diseñadores e ingenieros informáticos. Este encuentro dará lugar a prácticas convergentes y a la postdisciplinariedad que definirá a las humanidades digitales. En este trabajo colaborativo en que se hibridan procedimientos y formas de representación, aparecen nuevos formatos donde contextualizar la información, desde el esquema cronológico hasta los mapas geográficos y las timelines. En este sentido, hay de mencionar el proyecto Digital Roman Forum, llevado a cabo entre 1997 y 2003 por el Cultural Virtual Reality Laboratory (CVRLab) de la Universidad de California, Los Ángeles (UCLA). Este muestra un nuevo modo de espacializar la información, creando un modelo tridimensional del Foro romano que funciona como interfaz, conteniendo distintas cámaras, enfocadas a los diferentes monumentos reproducidos. Este dispositivo permite comparar la reproducción histórica con fotografías actuales, al mismo tiempo que ofrece una relación de los distintos documentos que hacen referencia a estos espacios y que han sido usados para la realización de la reproducción.

Esta capacidad de acceso y enlace es llevada más allá del archivo por proyectos como Perseus o Pelagios, espacios en que se accede a los contenidos y se contribuye a los mismos de modo colectivo y libre. Estos hacen uso de los estándares surgidos en las comunidades de práctica, para relacionar sus contenidos a través de diferentes recursos en línea, deviniendo, más que repositorios, auténticas plataformas donde producir y compartir conocimiento. Así, la librería digital Perseus, iniciada en 1985, se basa en la elaboración de un software opensource, que permite un sistema de operación de datos extensible en un espacio de trabajo en red, a través de un sistema que funciona a dos niveles, uno accesible a los seres humanos, que permite añadir contenidos y descriptores, y otro que incorpora la capacidad de generar conocimiento de las máquinas. Esta plataforma da acceso a los documentos originales, relacionándolos con múltiples informaciones, como sus traducciones y reediciones posteriores, ediciones de comentarios, mapas de los espacios citados… Toda esta información es exportable en archivos de datos en formato xml. El proyecto Pelagios, dedicado a la reconstrucción del mundo antiguo, elabora un mapa en el que datos geoespaciales históricos son relacionados con contenidos en otras fuentes de recursos en línea. El acceso a un punto del mapa-interfaz nos conduce a un conjunto heterogéneo formado por imágenes, traducciones, citas, bibliografías u otros mapas, todo exportable en varios formatos de archivos de datos como son xml, Json, atom o klm.

WorldCloud de los abstracts del último congreso de la ALLC: The European Association for Digital Humanities. Generado con Processing.

Estos proyectos ponen en evidencia el giro computacional en las humanidades del que nos habla David M. Berry en The Computational Turn: Thinking about Digital Humanities: Las técnicas computacionales no son solo un instrumento al servicio de los métodos tradicionales, sino que tienen un efecto en todos los aspectos de las disciplinas. No solo introduciendo nuevos métodos dirigidos a la identificación de nuevos patrones en los datos, que van más allá de la narrativa y comprensión tradicionales, sino permitiendo la modularización y recombinación de las disciplinas, más allá del ambiente académico tradicional. La aplicación de la automatización ligada a la digitalización no solo ofrece nuevas capacidades de análisis de los documentos textuales, sino que también da lugar a nuevas capacidades de recombinación y producción de conocimiento, así como al surgimiento de nuevas plataformas, esferas públicas, donde la distribución de la información ya no puede pensarse de modo independiente a su producción.

Este giro computacional es descrito en The Digital Humanities Manifesto 2.0, redactado en 2009 por Jeffrey Schnapp y Todd Presner, como la conversión del primer impulso cuantitativo de las humanidades digitales a uno cualitativo, interpretativo, emotivo y generativo. Este está más implicado en la complejidad y la especifidad del medio, su contexto histórico, su crítica e interpretación. Una reformulación de objetivos en que los medios digitales son considerados como profundamente generativos, y en que se analizan los modos nativos digitales del discurso y la investigación, surgidos en las esferas públicas emergentes, como son los wikis, la blogosfera, y las librerías digitales. Ello permite comprometerse en el diseño de las herramientas, el software, que ha dado lugar a esta nueva forma de producción de conocimiento, así como en el mantenimiento de las redes en que se produce esta cultura. Está caracterizada por ser opensource, dirigida a múltiples propósitos y distribuida en múltiples canales. Surge de la colaboración de un modo procesual y en que el conocimiento asume múltiples formas, desde la composición de imágenes hasta la orquestación musical, la crítica de textos y la fabricación de objetos, en una convergencia entre el arte, la ciencia y las humanidades.

La capacidad generativa de los nuevos medios y su capacidad de comunicación han dado lugar a la distribución y producción masiva de productos culturales. En esta época que Manovich denomina del more media, es el momento de pensar la cultura en términos de datos. Datos no solo procedentes de la tradición almacenada en los archivos digitales, sino también producidos de modo digital a partir de los metadatos, los tags, la visión computerizada, las huellas digitales, las estadísticas y los metacanales –blogs y comentarios en redes sociales que hacen referencia a otros contenidos–, datos que pueden ser minados y visualizados. Citando la última obra de este autor, «Sofware takes command». Si el análisis, el minado y la visualización de datos han sido adoptados por los científicos, negocios y gobiernos como un nuevo modo de generar conocimiento, podemos aplicar la misma comprensión a la cultura. De este modo, los métodos aplicados a la computación social –el trazado y análisis de datos producidos en nuestras interacciones con el entorno, para una mayor eficiencia en la oferta de productos de consumo o la planificación de nuestras ciudades– podrían ser usados para hallar nuevos patrones en la producción cultural. Estos permitirían no solo desarrollar nuevas categorías, sino también trazar y seguir cómo y con qué herramientas se produce esta cultura. La analítica cultural aplicada en el Software Studies desde 2007 es una propuesta en este sentido. Esta consistente en el desarrollo de herramientas de visualización que permitan analizar conjuntos masivos de productos culturales, especialmente imágenes. De este modo, a partir del software ImagePlot y de pantallas de gran resolución, se llevan a cabo proyectos en que se parametrizan grandes conjuntos de imágenes. Estas permiten descubrir nuevos patrones que cuestionan las categorías del análisis cultural. Entre estos proyectos, Phototrails permite visualizar patrones visuales y estructuras dinámicas en fotos generadas y compartidas por los usuarios de diferentes redes sociales.

En otra línea, existen proyectos que analizan las huellas digitales para seguir la producción y distribución del conocimiento. Es el caso del History Flow de Martin Wittenberg y Fernanda B. Viégas –desarrollado en el Collaborative User Experience Reserach Group de IBM–, que construye un histograma de las aportaciones que conforman la Wikipedia.

El uso del Big Data, aplicado a la producción cultural, nos permite representar de modo continuo y espacial cómo se conforma nuestra cultura visual y cómo se produce el conocimiento, poniendo a las humanidades digitales ante los nuevos retos de una cultura de datos generada en red. Retos que vinculan el análisis del software con cuestiones epistemológicas, pedagógicas y políticas. Estos plantean diferentes cuestiones, entre ellas: el modo en que se obtienen los datos; qué entidades parametrizamos, a riesgo de dejar fuera de la representación partes de la realidad; cómo asignamos valor a estos datos, teniendo en cuenta que ello tendrá un impacto directo en cómo estos podrán ser visualizados, así como que la visualización tiene una gran fuerza retórica, en virtud de sus capacidades gráficas, por lo que puede distorsionar estos datos; cómo se estructura la información en los entornos digitales, ya que esta estructuración supone un modelo de conocimiento y una ideología; cómo mantenemos estándares que permitan la interoperabilidad de los datos, y cómo afrontamos la tarea política de hacer que estos datos sean de acceso libre; qué nuevas formas de narrativa no lineal, multimedia y colaborativa se pueden desarrollar a partir de estos datos; la cuestión pedagógica de cómo instruir en la comprensión del código digital y del medio algorítmico a humanistas educados en la división entre cultura y ciencia, y por último, cómo acercar a las instituciones culturales al laboratorio, haciendo que se comprometan, ya no en la preservación, sino en la participación y el mantenimiento de las redes que hacen posible la producción del conocimiento.





César Rendueles: «Pensamos en las tecnologías como la solución a los problemas cuando deberiamos pensar en el horizonte político que nos permita afrontarlos»

En esta entrevista, Rendueles habla sobre ciberfetichismo, conocimiento libre, diferencias entre la vida real y virtual, o el papel de las ciencias sociales.


El último libro de César Rendueles, «Sociofobia: El cambio político en la era de la utopía digital» cuestiona, en primer lugar, el consenso ideológico en cuanto a la capacidad de las tecnologías de la comunicación a inducir dinámicas sociales positivas. En segundo lugar, hace un análisis de la sociedad capitalista como sistema destructor de los lazos comunitarios y sitúa los ciudadanos en el centro de la reivindicación política.

En esta entrevista, Rendueles habla sobre el ciberfetichismo, el conocimiento libre, las diferencias entre la vida real y virtual, el papel de las ciencias sociales, las posibles soluciones a los problemas actuales y sobre sobre sobre tecnofilia y tecnofobia.





El arca de Noé digital

La red se establece como el gran paradigma de fondo digital, sin embargo, ¿podemos considerar realmente Internet como un sustituto de los archivos?


Sistema Bibliográfico Universal del Mundaneum, Mons (Valonia).

Si hasta el siglo XX los archivos y las bibliotecas habían sido las instituciones encargadas de custodiar y conservar el conocimiento de la sociedad, parece que Internet se postula como el relevo natural de esa tarea. Los contenidos digitales, de cualquier tipo, presentan varias ventajas a sus equivalentes analógicos: mayor capacidad de almacenaje en un menor espacio, mayor facilidad de copia, mejoras en la indexación y la consulta, etc. Siguiendo esta tendencia, la red se establece como el gran paradigma de fondo digital, un lugar en el que encontrar todo cuanto buscamos. Sin embargo, ¿podemos considerar realmente Internet como un sustituto de los archivos?

Las tecnologías digitales han facilitado la creación de contenidos, y la aparición de Internet ha supuesto un crecimiento exponencial en su producción y difusión. La red rompe las fronteras geográficas y nos permite acceder a cualquier documento desde cualquier punto. Así pues, la copia pierde sentido en favor del hipertexto. No necesitamos duplicar la información cuando podemos referenciar directamente el original. Todo está en la nube, y la metáfora funciona a la perfección, el gran almacén digital parece no tener forma ni lugar definido. Pero, como las nubes, también es cambiante y efímero.

Internet es un work in progress, un beta permanente. Evoluciona rápidamente y tiene muy poca memoria, pese a su juventud. Y los usuarios nos hemos adaptado perfectamente a esa vorágine de cambios. Tan fácilmente como encontramos y adaptamos un nuevo servicio nos olvidamos de viejas aplicaciones, que en periodos de tiempo ínfimos pasan a ser recuerdos de lo que parece un pasado lejano. Sin traumas ni remordimientos, lo nuevo entierra lo viejo a diario. Pocas iniciativas perduran, y las que lo hacen evolucionan y se reinventan continuamente. Esta dinámica afecta a nuestros modelos de producción de información, y nos ha acostumbrado a un usar y tirar constante. Pero, ¿qué rastro vamos a dejar en el futuro? ¿Cómo salvarnos del diluvio de datos?

Internet es un gran contenedor, pero se aleja bastante de los ideales de orden y preservación que guían los archivos. Por este motivo, ya desde los inicios de la web, varias iniciativas han apostado por conservar el contenido de la red, que de otro modo parece estar condenado a acabar en el gran agujero negro digital. Pero archivar Internet no es tarea fácil y presenta nuevos dilemas sin una respuesta única y clara.

Técnicos

A la hora de archivar contenidos, las tecnologías digitales nos ofrecen una gran ventaja, la facilidad con que podemos duplicar contenidos. Con relación a otros formatos, la copia de documentos digitales es mucho más rápida y con una nula pérdida de calidad. A pesar de ello, el problema que nos presenta la red es cómo acceder a los originales y cómo conservarlos.

Los protocolos de acceso a la red solo nos permiten leer una parte del código original de los archivos en nuestro ordenador, los lenguajes del lado del cliente. El resto de código se ejecuta en los servidores remotos y llega a nosotros ya en su versión final. Así pues, para tener una copia exacta de una web, en la mayoría de los casos se hace imprescindible contar con la colaboración de su propietario para poder acceder a los archivos. De no ser así, no nos queda más remedio que capturar las webs mediante programas que busquen las diferentes URL de un sitio web y guarden sus páginas. Sin embargo, este sistema puede presentar graves dificultades para guardar todo el contenido de una web, ya que a menudo no es capaz de encontrar todas sus páginas. Además, suele provocar pérdidas de archivos y en muchos casos hace necesaria una revisión del código con el fin de corregir errores.

Pero, en cuanto disponemos de los archivos, la gran variedad de lenguajes y tipologías de documentos con que nos enfrentamos hace que la conservación de los mismos sea compleja. El mundo digital sufre una constante evolución tecnológica, que, a la larga, desemboca en la imposibilidad de las nuevas máquinas para leer archivos antiguos. A ello hay que sumar la breve longevidad de los soportes digitales (se estima que la vida media de un disco duros es de unos cinco años). Así pues, se hace necesario actualizar constantemente archivos y soportes. Pero, a pesar de estas labores de mantenimiento, a veces es imprescindible guardar hardware y software antiguo para poder acceder a documentos obsoletos.

Servidores de Internet Archive.

Legales

Si bien las características técnicas de la red pueden complicarnos el acceso y la conservación de los contenidos, a la hora de guardarlos nos encontramos con problemas legales. Los términos de depósito legal de los documentos y las publicaciones analógicas no son aplicables a la web. Por lo tanto, archivos y bibliotecas deben lidiar con los derechos de autor de los contenidos de cada web para hacer una copia de los mismos. Además, hay que tener presente que las legislaciones referentes a este tema son nacionales, así que el marco legal a aplicar varía según la web. Parece una labor casi imposible poder gestionar estos derechos a nivel nacional, ya que hacerlo supondría descubrir y contactar con todos los autores de los contenidos de la red.

Hay que añadir, asimismo, los problemas legales relacionados con contenidos con difamación, ilegales o considerados obscenos. En estos casos hay que revisar y dictaminar si esos materiales pueden conservarse y/o ofrecerse en consulta. Por último, hay que tener en cuenta la presencia de datos personales en la red, y aplicar a ellos las leyes de protección de datos pertinentes.

Una solución que se plantean varias instituciones para facilitar esta gestión legal es la creación de archivos opacos. Limitando su acceso y su consulta se reducen los riesgos legales (como los derechos económicos de los trabajos o los problemas por difamación y contenido ilícito). Sin embargo, un archivo de la red sin acceso público a medio plazo ve bastante reducidos sus ventajas y beneficios.

Éticos

Pese a los límites legales de que hemos hablado, la red aún se halla en un estado muy primitivo y, en muchos casos, en medio de grandes vacíos jurídicos. Internet es un medio joven y todavía no podemos imaginar qué repercusiones tendrán en el futuro nuestras acciones. El hecho, además, de ser un medio masivo aumenta exponencialmente esos riesgos.

La gran pregunta es si realmente Internet es un medio de publicación, y si sus usuarios lo entienden como tal. La red es un medio efímero, con diversidad de usos. Una plataforma poliédrica que abarca desde la esfera pública hasta la privada, y lo hace sin fronteras claramente delimitadas. Así pues, no sabemos hasta dónde podemos archivar contenidos que sus autores no han publicado con el fin de ser conservados, o qué querrán eliminar en un futuro.

Estos dilemas se acentúan todavía más cuando hablamos de archivar las redes sociales, seguramente la cara más personal de la red. Si bien la información que encontramos no suele tener una gran relevancia de forma individual (debido a su carácter sobre todo personal), puesta en conjunto podría tener mucho interés para entender acontecimientos globales, como pueden ser el 15-M o las revoluciones árabes. Ya están en marcha algunos proyectos que pretenden archivar algunas de estas plataformas. Como ejemplo, la Library of Congress de los Estados Unidos ha empezado a archivar Twitter en Twitter record y se plantea los términos legales y éticos de este archivo.

Curatoriales

Sin lugar a dudas, el principal problema de archivar Internet es el alcance de este archivo. La enorme cantidad de contenidos y su vertiginoso crecimiento hacen que esta labor sea quimérica. Así pues, no nos queda más remedio que seleccionar y priorizar para archivar lo que se considera más valiosos para una búsqueda posterior.

Una de las principales preguntas con que nos enfrentamos a la hora de pensar en un archivo de Internet es cómo definimos qué es una publicación en línea. La amalgama de formatos que encontramos en la red y la continua incorporación de nuevos no nos hacen simple la tarea, que, por otro lado, se postula primordial para crear un archivo con significado que nos sea realmente útil.

En cuanto al alcance territorial, y partiendo de que Internet es una red global interconectada, resulta difícil delimitar sus fronteras geográficas y casi imposible entenderla solo a nivel nacional. Pero, como hemos apuntado anteriormente, un proyecto de archivo internacional supondría tratar con la política y legalidad de cada país, lo que añadiría complejidad al proyecto. Una posible solución podría pasar por una red de archivos web nacionales que permitiera una interconexión con el fin de posibilitar una consulta global.

Archivar la Red

Como dice ByYuk Hui en su artículo Archivist Manifesto, los archivos son embalses de discursos que hacen posible una arqueología del conocimiento. Así pues, un archivo de Internet no solo debe almacenar la información que contiene la red, sino que también debe permitirnos acceder a ella de forma simple y categorizada. Hay que guardar, pero sin orden no tendremos más que un mar de bits donde perdernos cada vez que intentemos navegar por él. Por otro lado, uno de los sentidos de archivar es preservar una información que generaciones futuras podrán estudiar con la suficiente distancia para entender mejor nuestra historia como sociedad, y, por lo tanto esta selección de contenidos debe pensar también en el medio y largo plazo.

Así pues, parece ser que, por las características de la red, estamos obligados a elegir lo que queremos guardar. En cambio, al tratarse de información relativa al presente, no tenemos la perspectiva necesaria para llevar a cabo esta elección con suficientes garantías. Ante este dilema se presentan dos modelos de archivo: uno más severo y delimitado, que establezca márgenes y contornos pero que guarde todo lo posible dentro de estos para proporcionarnos una información de profundidad, y uno más fotográfico, que abarque territorios amplios y nos proporcione instantáneas más superficiales pero que nos permita crear relaciones globales.





Internet: una historia en construcción

Esta cronología pretende ser un punto de partida para un mapa abierto de la historia de Internet y en el que iremos incorporando todas vuestras aportaciones.


Puente de los Franceses, Madrid, 1861. Charles Clifford

La historia de Internet es un proceso abierto, un relato en construcción. No es posible datar con precisión su comienzo, ni asignarle un único inventor. La Red de Redes es el resultado de múltiples avances científicos y tecnológicos, del desarrollo de los lenguajes de computación, de la formulación de diversas teorías mediáticas, de la creación, desaparición y resurgimiento de empresas de servicios digitales, etc., que han ido tejiendo la Red tal y como la conocemos actualmente.

La crucial influencia de Internet en todos los aspectos de nuestra vida y en el tipo de sociedad que estamos creando obliga a un conocimiento cada vez más profundo y expandido sobre su naturaleza: los prodigios que ha permitido y que promete, pero también los evidentes peligros que supone una fascinación acrítica o la claudicación intelectual frente a la complejidad de los factores que intervienen en su evolución. Por eso, conviene asumir una historia abierta de Internet a la luz de nuevas disciplinas como la teoría de las redes, las humanidades digitales, la arqueología de los medios, la ecología mediática, etc. Y advertir sobre una cronología construida con hitos conocidos, pero que también revela grandes vacíos de estudio y reflexión. De ahí la necesidad de concebir Internet como un universo en expansión con sus micro y macroextinciones y el nacimiento de nuevas especies. Una historia que estamos creando entre todos, un relato colectivo que debería orientarse a un acceso cada vez más democrático y distribuido del conocimiento, más allá de la influencia decisiva de científicos, tecnólogos, gobiernos y corporaciones.

Algunos ya han afrontado el reto que supone semejante ejercicio historiográfico, como por ejemplo The history of the Internet in a Nutshell (Six Revisions, 2009) o When was the Internet invented? A people’s History of the Internet (The Guardian, 2009), de tipo más divulgativo, Updating the history of web technologies & browsers (Vizzuality, 2012), una visualización de los avances tecnológicos y de los navegadores, The Big internet Museum (2011), un museo en línea abierto las 24 horas dedicado a los hitos de Internet, Internet Hall of Fame’s Living History Timeline (Internet Society, 2012), un timeline centrado en las personas que han contribuido al avance de la red o la Breve historia de Internet (Internet Society. Spain Chapter, 2013), que ha traducido el capítulo español de la Internet Society. Ninguna de ellas cuenta lo mismo.

Por nuestra parte, hemos intentado realizar el mismo ejercicio que, lejos de ser exhaustivo, solo pretende ser un punto de partida para un mapa abierto de la historia de Internet y en el que iremos incorporando todas vuestras aportaciones.

1822 // Charles Babbage diseña la primera máquina de computación.

1842-43 // Ada Lovelace tradujo un artículo del ingeniero militar italiano  Luigi Menabrea, que complementó con una serie de notas personales, tituladas Notes, que muchos consideran el primer programa informático o algoritmo diseñado para ser realizado por la máquina de Charles Babbage.

1848 // George Boole inventa el álgebra booleana.

1880 // Alexander Graham Bell inventa el teléfono.

1934 // Paul Otlet, uno de los padres de la documentación, obsesionado en cómo ordenar todo el conocimiento mundial, publica Radiated Library, un libro en el que prefigura las computadoras e Internet.

1937 // Alan Turing desarrolla el concepto teórico de la primera computadora y más adelante desarrolla el software. Se le considera, asimismo, el padre de la inteligencia artificial.

1945 // Vannevar Bush idea el «Memex», un lector de microfilmes cuya estructura es análoga a la de la World Wide Web.

1959 // Paul Baran fue uno de los impulsores de las redes de conmutación de paquetes junto con Donald Davies y Leonard Kleinrock, como estrategia de defensa de la red de comunicaciones norteamericana en caso de ataque nuclear.

1963 // Douglas Engelbart inventa y patenta el primer ratón de ordenador.

1965 // Andries van Dam y Ted Nelson definen el concepto de hipertexto e hipermedia.

El primer Procesador de Interfaz de Mensaje (IMP), utilitzado para interconectar las redes participantes en ARPANET.

1968 // Vinton Cerf y Robert Kahn, científicos de la computación, diseñaron los protocolos informáticos TCP/IP (Transmission Control Protocol/Internet Protocol) para conectar ordenadores para la red militar ARPANET, precursora de Internet como lo conocemos ahora.

1968 // Marshall McLuhan acuña el término «aldea global» para describir la interconectividad humana a nivel global generada por los medios electrónicos de comunicación.

1969 // Se crea el primer enlace entre las universidades de UCLA y Standford a través de la línea telefónica conmutada.

1969 // Un grupo de empleados de los Laboratorioss Bell de AT&T empiezan a desarrollar UNIX, un sistema operativo no libre pero muy estable.

1971 // Michael Hart inicia el Proyecto Gutenberg, un esfuerzo global para hacer accesibles los libros y documentos en dominio público en una amplia variedad de formatos eBook y digitales. Algunos lo consideran el nacimiento del eBook.

1971 // Se empieza a implementar en Chile Cybersyn, desarrollado durante el gobierno de Salvador Allende, que ofrecía posibilidades tan vanguardistas y utópicas como «entregar a la gente la posibilidad de tener una conexión a distancia y en tiempo real con políticos y administradores debatiendo decisiones de gobierno y así participar democráticamente en las decisiones».

1972 // Ray Tomlison fue el creador del primer protocolo de correo electrónico y la primera persona que envió uno.

1973 // Se crea la Mini Computer Xerox Alto, el primer paso hacia el desarrollo de los ordenadores personales (PC).

1975 // Altair produce el primer ordenador portátil. El mismo año Bill Gates y Paul Allen fundan The Microsoft Corporation.

1975 // Se empieza a compilar Jargon file, The New Hackers Dictionary, una colección de argot de hacker de culturas técnicas

1976 // Las investigaciones de Whitfield Diffie y Martin Hellman sobre ciertas funciones matemáticas generan una nueva teoría de la criptografía que hizo posible el comercio electrónico seguro.

1976 // Steve Jobs y Steve Wozniak fundan Apple en el garaje de su casa; al año siguiente crean el primer ordenador personal con gráficos en color.

1978 // La primera cinta magnética se desarrolla en Estados Unidos.

1978 // Gary Thuerk envía el primer correo electrónico comercial no solicitado (más adelante conocido como spam) a 393 usuarios de California Arpanet.

1980 // IBM contrata a Paul Allen y Bill Gates para crear un sistema operativo para un nuevo PC, y desarrollan DOS.

1982 // El escritor Willliam Gibson acuña el término ciberespacio en su relato Burning Chrome que populariza en su obra Neuromante (1984).

1982 // Se introduce el protocolo SMTP (Simple Mail Transfer Protocol).

1983 // Richard Stallman inicia el proyecto GNU con el objetivo de crear un sistema operativo completamente libre, compatible con UNIX.

1984 // Nace el Sistema de dominios (DNS) que introduce por primera vez siete dominios: .com, .edu, .gov, .mil, .net, .org, .int.

Código HTML.

1990 // Un grupo de físicos del CERN encabezados por Tim Berners-Lee desarrolla el lenguaje HTML y crea el prototipo que se construye en 1991 de la World Wide Web; usando la infraestructura de la red se pudieron empezar a realizar consultas remotas de archivos a través de textos enlazados a otros archivos.

1991 // Saskia Sassen publica el libro Global Cities, en el que avisa de que los nuevos poderes se basan en arquitecturas globales de la información y la producción simbólica.

1991 // Linus Thorvald empieza a trabajar en el núcleo de LINUX, el inicio del software libre.

1992 // Al Gore, promotor de la legislación que propició ARPANET, realiza, como vicepresidente de Bill Clinton, políticas para el desarrollo de las autopistas de la información, con el fin de promover la interconexión de lugares, personas y terminales.

1993 // Tim Berners-Lee inicia su particular página web Whats’s new in ‘92, donde publica semanalmente los adelantos de sus investigaciones en lo que se considera el primer blog. Hay que esperar a 1997 en que Jorn Barger los bautiza oficialmente como weblogs.

1993 // Se lanza Mosaic, el primer navegador web.

1994 // Tim Berners-Lee crea el World Wide Web Consortium (W3C), una comunidad internacional que desarrolla estándares abiertos para asegurar el crecimiento a largo plazo de la Red.

1994 // Se crea WebCrawler, el primer motor de búsqueda completo.

1994 // Jerry Yang y David Filo, dos estudiantes de posgrado de la Universidad de Stanford, fundan Yahoo!, un portal de Internet, un directorio web y una serie de servicios.

1995 // Se crea Java, Jeff Bezos funda Amazon, Pierre Omindyar EBay y Jack Smith y Sabeer Bhatia Hotmail.

1996 // John Perry Barlow publica la Declaración de Independencia del ciberespacio, un manifiesto a favor de Internet como nuevo espacio político.

1996 // Larry Page y Sergey Brin, dos estudiantes de doctorado en ciencias de la computación de la Universidad de Stanford, logran un buscador más eficaz llamado Google, capaz de mostrar los resultados de la búsqueda en un orden jerárquico condicionado por el número de visitas.

1997 // Se lanza el formato RSS, Really Simple Sindication, para compartir contenido con usuarios suscritos.

1997 // The Institute of Electrical and Electronic Engineers (IEEE), presidido por Vic Hayes, crea el estándar 802.11, que posibilita la transmisión de Internet a través del espectro de microondas (WiFi).

1998 // Sergei Brin y Larry Page fundan Google.

1999 // Auto-ID Center desarrolla el concepto Internet de las cosas, que en computación se refiere a una red de objetos cotidianos interconectados.

1999 // Shawn Fanning, John Fanning y Sean Parker crean Napster, un sistema de intercambio de archivos que populariza la arquitectura Peer-to-peer (P2P) de tipo distribuido.

1999 // Peter Thiel y Max Levchin fundan PayPal.

1999 // Nokia lanza el 7110, el primer teléfono móvil que puede conectarse a Internet, con el navegador Wireless Application Protocole (WAP) a una velocidad de transferencia máxima de 9,6 Kbits por segundo. Rápidamente se empiezan a diseñar versiones web adaptadas para móviles.

2000 // La Wireless Ethernet Compatibility Alliance (WECA) certifica con la marca Wi-Fi® la interoperabilidad de equipos según la norma IEEE 802.11b. Se garantiza, así, que todos los equipos electrónicos con el sello WiFi puedan trabajar juntos sin hilos independientemente del fabricante.

2000 // Surgen los primeros movimientos que defienden la neutralidad en la red como principio fundamental de Internet que se basa en tratar todos los datos por igual.

2001 // Se lanza la primera prueba de la tercera generación de móviles (3G) en Japón.

2001 // Lawrence Lessig funda Creative Commons, una organización sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad a través de una nueva legislación y nuevas tecnologías, otorgando a los autores la libertad de decidir la forma en que su obra debe circular por Internet.

2001 // Se crea Wikipedia.

2003 // El arquitecto iraquí Salam Pax publica durante la Guerra del Golfo un blog con lo que sucedía en las calles de Bagdad y que no coincidía con lo que plasmaban los medios de comunicación. Medios como la BBC, Reuters o The Guardian le citaron como fuente fiable. Ello supone la difusión masiva del fenómeno blog.

2003 // Nokia presenta el 6650, el primer teléfono móvil compatible con 3G.

2004 // Adam Greenfield publica el artículo en el que se acuña el término computación ubicua, que se refiere a la integración de la informática en el entorno de la persona, de modo que los ordenadores no se perciban como objetos diferenciados.

2004 // Chris Anderson publica en The Wired el artículo The Long Tail, para describir nuevos tipos de negocios y modelos económicos que surgen con la red, como Amazon o Netflix.

2004 // Tim O’Reilly habla por primera vez del concepto Web 2.0 en una conferencia.

2004 // Marck Zuckerberg crea Facebook para comunicarse con amigos y compañeros de la Universidad de Harvard.

2005 // Michel Bauwens publica el libro Peer to Peer and Human Evolution que expande el término P2P más allá de la cultura tecnológica.

2005 // Con MySpace surge el término «red social». Chad Hurley, Steve Chen y Jawed Karim fundan Youtube, la plataforma en línea que permite publicar y compartir vídeos.

2006 // Henry Jenkins publica Convergence Culture: Where old and new media collide, donde describe los cambios en las relaciones tecnológicas, industriales, culturales y sociales en la circulación de los medios de nuestra cultura.

2006 // Se crea Twitter.

2006 // Se crea la web de Wikileaks, aunque hasta 2007-2008 no inician su actividad.

2007 // Rudolf Giffinger publica Smart cities Ranking of European medium-sized cities, donde propone la categorización de las ciudades digitales a partir de seis dimensiones: economía digital; movilidad digital; ecosistema digital; ciudadanía digital; vida digital, y, por último, gobernanza digital.

2007 // Se crea el IPhone y los smartphones se popularizan.

2008 // Clay Shirky publica Here comes Everybody, en el que aborda las repercusiones de los nuevos medios digitales en la capacidad de organizarse y colaborar en acciones colectivas sin la necesidad de estructuras tradicionales.

2008 // Dave Cormier y Bryan Alexanderinventan el término MOOC (Massive Online Open Course) cuando el número de inscritos a su curso Connectivism and Connective Knowledge (CCK08) aumentó a casi 2.300 estudiantes.

2010 // Aumenta la oferta de tabletas (tipo iPad, Samsung Galaxy Tab, ebook o similar) que se pueden conectar a Internet.

2011 // Greenpeace publica el informe How Dirty is your Data, que denuncia la huella ecológica de las grandes compañías de telecomunicaciones e Internet.





El Agujero Negro Digital (AND)

Se estima que cerca de las 4/5 partes de la información y el conocimiento generados en Internet desde su creación han desaparecido.


Anillo gigante de agujeros negros. Fuente: Smithsonian Institution.

Salvo raras excepciones, resaltadas sobre todo por su valor mediático, la historia dominante de Internet es la de una narración de avances arrolladores y éxitos espectaculares, conquistando sin cesar espacios de todo tipo, físicos y espirituales, materiales y digitales, conectando a seres vivos y a máquinas, sin que ya no seamos capaces ni siquiera de imaginar si la expansión de lo digital tiene vuelta atrás. Si planteáramos esta duda sobre Internet, lo primero que diríamos es que estamos hablando de un ciberespacio joven, casi jovial, al que todavía le queda mucho camino por recorrer antes de que se nos presente esa remota posibilidad de su «deflación».

Sin embargo, los procesos de expansión recorren caminos muy accidentados, no todos son avances, a veces se producen regresiones verdaderamente catastróficas por más que no las veamos o no recibamos cabal noticia del suceso. Como si fueran remedos de los agujeros negros que apenas conocemos, estos agujeros negros digitales nos explican, desde el otro lado del espejo, la dinámica de la Red, lo que hacemos en y con ella, lo que nos hace y sus consecuencias. Los agujeros negros digitales, como sucede en el universo que conocemos, cincelan el paisaje del ciberespacio, determinan su dinámica y establecen las reglas de juego desde la parte de la «materia oscura», la que no vemos aunque intuimos que existe, pero a la que tampoco le prestamos tanta atención.

Los agujeros negros digitales (AND) hacen todo eso y mucho más. En unos casos, usted, estimado internauta, es tan solo una víctima más de la voracidad de los AND alimentada por causas de fuerza mayor, irremediables y avasalladoras como un tsunami. En otras, es usted precisamente el que propicia su aparición y el que le entrega todo el sustento que usted es capaz de proporcionarle: ilusiones, visiones, dinero, esfuerzo, inteligencia, proyectos, recursos de todo tipo e, incluso, para decirlo con un lugar común actualmente tan en boga, esos sueños que usted creía que por fin se iban a cumplir. Lo entrega y, además, ni siquiera mira para atrás, quizás aturdido por la aparente sencillez e inevitabilidad con que ha ocurrido el desastre, en la mayoría de los casos sin dejar huella o memoria. A fin de cuentas, no todos tenemos a los medios de comunicación siguiendo nuestros pasos. Cuando se examina a la Red desde esta perspectiva, nos aparece un panorama mucho más útil para comprender un fenómeno tan extraordinario como Internet y las múltiples formas como nos desenvolvemos en el universo digital. Al observar la Red desde un «telescopio profundo» para desentrañar sus estructuras más discretas, lo primero que nos sorprende es que nunca antes se haya abordado la Historia de Internet (del universo digital) desde el punto de vista de las extinciones de conocimiento e información producto de las convulsiones que, en mayor o menor medida o trascendencia, sacuden constantemente al ciberespacio desde su creación. Según la más elevada de las diferentes mediciones que se han hecho al respecto, se estima que cerca de las 4/5 partes de la información y el conocimiento generados en Internet desde su creación han desaparecido. El AND se ha encargado de aliviar semejante carga y borrarla del mapa virtual, casi sin dejar rastro.

Las razones de estos cataclismos son muchos y de origen muy diverso. Lo mismo sucede con sus dimensiones y alcance. A veces son auténticas «grandes extinciones», en otras lo que desaparecen son estructuras tecnológicas de diferentes dimensiones, o agrupaciones de infotopos muy concretos o de algunas de las especies que los pueblan, como las organizaciones que dependen de estas regiones. Lo que se mueve en el fondo de este agitado escenario son acontecimientos poderosos, frecuentemente difíciles de prever o de torcer, a veces con la apariencia de eventos de fuerza mayor, otros promovidos por los propios internautas, donde desempeñan un papel preponderante, sobre todo, lo que podríamos denominar los cuatro jinetes del apocalipsis digital, lanzados constantemente al galope desde el primer día que empezó a conformarse lo que hoy llamamos Intenet y que, constantemente, bit a bit, van transformando lo que, ante nuestros ojos, parece como un universo digital relativamente manejable:

  1. La dinámica de las poblaciones conectadas. Desde su creación, Internet dobla su población aproximadamente cada 12-16 meses. Dicho de otra manera, en cada momento, los conectados formamos parte de una población en la que el 30% convive desde hace menos de 24 meses en la Red y el 70% lleva más de dos años moviéndose por sus entresijos. Y, lógicamente, a cada momento, la composición de esta población va cambiando, aunque no lo notemos, o no tengamos forma de notarlo. Y su actividad oscila entre lo absolutamente impredecible y lo aproximadamente previsible, lo cual es un dilatado arco repleto de sorpresas.
  2. La evolución de las tecnologías informacionales. Esta es una experiencia cotidiana que cada uno cuenta según el lugar que ocupa pero que afecta a todos por igual porque conforma el sustrato tecnológico de la Red: desde las listas de distribución hasta la web, los blogs, las aplicaciones para móviles, las innovaciones que aparecen en el horizonte…
  3. La constante expansión de los procesos de virtualización: antes se trataba de la vida en los ordenadores, ahora vamos a por las máquinas y los espacios físicos (y el espacio sideral).
  4. Como corolario de los tres anteriores, la aceleración apabullante de la velocidad de giro de la información y el conocimiento, llegando en muchos casos a 0: la creación y consumo parecen formar parte del mismo acto. Por lo tanto, se refuerza la vigencia de lo efímero (información de usar y tirar), ante lo perdurable (información susceptible de ser transformada en conocimiento).

El resultado de la acción combinada y desigual de estos jinetes es que empujamos constantemente las fronteras del espacio virtual y abrimos nuevos territorios de los que desconocemos su relieve, sus estructuras, sus funciones y, sobre todo, las implicaciones de ocuparlos sin el conocimiento que usaríamos, por ejemplo, en acciones parecidas en el mundo presencial. Además, cada nueva creación/invasión de estos espacios se suele corresponder con cambios en la dinámica de población, acompañados de saltos en la evolución tecnológica y la diseminación de innovadores procesos de virtualización. Por lo tanto, se acelera la velocidad de giro de la información, lo que incrementa exponencialmente la necesidad de conocimiento nuevo para negociar los retos emergentes. Pero no es fácil resolver este dilema, porque para ello habría que sortear al agujero negro digital. Y, a la vista está, que este cometido no nos resulta fácil.

Imagen del desaparecido buscador Altavista.

¿Donde y cómo podemos comprobar que el AND ha hincado el diente, valga la redundancia, con funestas consecuencias? Al respecto, disponemos de unas pocas metodologías, unas emergentes, otras consolidadas, que permiten realizar una especie de ingeniería inversa para detectar su presencia y las razones que le avalan. De hecho, nosotros hemos desarrollado desde el Lab-RSI una creciente tipología con un alto valor de prospectiva para detectar proyectos abocados a ser deglutidos, tarde o temprano, por el AND. Pero vamos a movernos ahora con una clasificación sencilla de tres tipos de extinciones, según criterios de intensidad y densidad, cuyos rasgos sobresalientes son fácilmente reconocibles por cualquier usuario de Internet:

Cada una de estas extinciones, ya sea que se deban a causas de fuerza mayor o perpetradas por humanos, soportan cargas considerables de decisiones erróneas o no sustanciadas, tomadas en momentos de cambio (todos lo son en la Red debido precisamente a los cuatro jinetes del apocalipsis digital), que se percibían a veces como la confirmación de ritos consagrados en actividades precedentes, o como el prólogo de aventuras fascinantes, pero que jamás se habrían emprendido en el mundo presencial en esas circunstancias. Por eso, el agujero negro digital es un concepto riquísimo que permite obtener un conocimiento inigualable sobre lo que hacemos o deberíamos hacer en la Red, sobre la formulación de nuestros proyectos, sobre el conocimiento necesario para poder ejecutarlos y, en definitiva, para prevenir que nuestras acciones se conviertan en una nueva ración de alimento para un agujero negro digital que, no lo olvidemos, lo único que tiene que hacer es esperarnos y aspirar lo que generosamente le ofrezcamos.





La última revolución postdigital: Internet de las cosas, Big Data y ubicuidad

Cada día se une más el mundo virtual con el mundo físico y la información es accesible no sólo desde cualquier lugar, sino en todas las cosas.


Fotograma de Metropolis, Fritz Lang (1927).

«Interfaces gestuales que permiten acceder, relacionar y procesar información registrada en tiempo real; centros comerciales en los que somos reconocidos al entrar y amables agentes virtuales nos hablan desde pantallas interactivas, recordándonos nuestras últimas adquisiciones y ofreciéndonos una selección de productos, convenientes a nuestros gustos y necesidades; la posibilidad de localizar y seguir los movimientos de toda persona a través del espacio urbano… e incluso de predecir el futuro». Así es como describieron el mundo de 2045 los ingenieros del MIT Media Lab, el Microsoft Research y el Milkshake Media de Austin, cuando asesoraban a Steven Spielberg para llevar a la pantalla la conocida obra de Philip K. Dick. Nuestra realidad esta aún lejos de la inmensa red sin cortes ni costuras que estructura y anima el mundo de Minority Report, pero parece que este mundo constituido por objetos inteligentes, permanentemente conectados, o algo muy parecido, es inevitable. Tal como describe Adam Greenfield en su obra Everyware, la ubicuidad informática, en cualquiera de sus múltiples formas: realidad aumentada, Wearable Computing, interfaz tangible, Locative Media, Near Field Communication, se está desarrollando día a día, tendiendo puentes que unen cada vez mas íntimamente el mundo virtual o Dataspace con el mundo físico y haciendo la información no solo accesible desde cualquier parte sino en todas las cosas.

Véase, por ejemplo, la reciente inauguración la nueva flagship store de Burberry en el 121 de Regent Street de Londres. Este ejemplo del espectáculo del consumo es un volcado de toda la información, contenida en la página web de esta empresa textil, al espacio físico. Un proyecto de realidad aumentada, en que la información se distribuye en el espacio arquitectónico, mediante pantallas interactivas que intercambian información a tiempo real a través del hiperespacio. Desde ver un desfile o presentación de uno de los productos ofrecidos en esta tienda hasta compartir a escala planetaria eventos culturales teniendo lugar en la misma.

Otro ejemplo que aúna información y contexto son las numerosas redes de sensores activas en nuestro entorno –con finalidades tan diversas como mejorar el rendimiento deportivo, prever riesgos como tsunamis, erupciones volcánicas y excesos de radiación, o mejorar las condiciones y seguridad del tráfico rodado–.

Imagen extraída de Murmurs of Earth by Bryan Gardiner.

El Concussion Detector es un sensor llevable, que mide el impacto de los golpes que los deportistas reciben en la cabeza durante un encuentro deportivo. Los datos registrados son enviados a los entrenadores, equipados con un iPad, donde son comparados con el historial del los jugadores, con el fin de tomar una decisión sobre la conveniencia de mantenerlos en el terreno de juego. Este proyecto, localizado en el Cagan Stadium de Stanford, además de mejorar la seguridad de los deportistas, está conducido a crear una base de datos destinada a mejorar la capacidad de diagnóstico en casos generales.

Imagen extraída de Murmurs of Earth by Bryan Gardiner.

Otro proyecto, en este caso relacionado con la conformación de un espacio urbano inteligente, es el Parking Spot Finder. Esta red de sensores está destinada a mejorar la eficiencia de la circulación del tráfico rodado y descongestionar las calles en los centros urbanos. Con este propósito, identifica las plazas de parking ocupadas y envía los datos a los usuarios de smartphones. Posteriormente, esta base de datos es empleada para ajustar los precios de las plazas de aparcamiento a la demanda.

Todos estos sistemas de sensores se caracterizan por registrar PetaBytes de datos que son enviados a la nube, donde son relacionados con otros conjuntos de datos y procesados, en tiempo real, para dar lugar a un conocimiento que se distribuye a través de la red. Un estado de cosas en que la inteligencia colectiva asociada a Internet pasa a distribuirse en el ambiente, gracias a la última evolución de Internet, la web de los datos.

La web 3.0 o web de los datos es una evolución de la web 2.0, la web social entendida como plataforma. Una web en que el software es ofrecido como un servicio, destinado a conectar a los usuarios unos con otros. Esta web, cuyo valor reside en las aportaciones y usos de los cibernautas, es el comienzo de la inteligencia colectiva. Para que la web sea capaz de dar respuestas y crear conocimiento, a partir de la información proporcionada de forma masiva por los usuarios, es necesario que esta información se haga manejable, comprensible y operable a tiempo real, lo que se consigue con la web de datos. Esta se basa en el desarrollo de una serie de estándares y lenguajes que permiten asignar metadatos a los contenidos de Internet. Estos metadatos, o datos sobre datos, son interpretables por máquinas y añaden información que permite identificar, localizar y seguir todo el tráfico de la red. Ello da lugar a un sistema de bases de datos relacionadas, en que puede rastrearse a través de diferentes subsistemas toda la información referida a un objeto, lo que permite conseguir respuestas pertinentes sobre el mismo. Cuando estos datos ya no solo proceden de nuestras interacciones en Internet, sino de las redes de sensores distribuidas en el ambiente –produciéndose el aluvión de datos que caracteriza el fenómeno del Big Data–, al mismo tiempo en que sale del marco delimitado de las pantallas para hacerse accesible en el espacio físico a través de las diferentes presentaciones de la realidad aumentada, nos hallamos ante el Internet de las cosas o como la denomina O’Reilly la Squared web, o la web encontrando el mundo.

Este encuentro con el mundo en que la información se materializa en nuestro entorno cotidiano, mediante la difusión de objetos inteligentes, nos lleva a la consideración de la computación ubicua.

La computación ubicua fue definida, en 1988, en el Computer Science Laboratory del Xerox Parc por Mark Weiser, como una tecnología calmada que se desvanece en el trasfondo permitiendo a los usuarios centrar su atención en las tareas que están realizando y no en el ordenador. En oposición a la realidad virtual que crea un mundo desconectado dentro de la pantalla, la computación ubicua es una «virtualidad encarnada». El dataspace se materializa en el mundo mediante la dispersión de pequeñas computadoras conectadas entre sí, creando un sistema que se inserta en el mundo, haciendo de la computación una parte integral e invisible de la vida diaria en el espacio físico. El proyecto que desarrollaban Weiser y sus colegas, en relación a esta investigación, consistía en un conjunto de dispositivos –tabs, pads y boards– que, funcionando a distintas escalas, permitían identificar a los usuarios, y compartir y acceder a distintos bloques de información desde distintos lugares. De este modo, una llamada telefónica podía ser enviada automáticamente a cualquier lugar donde se hallara localizado su destinatario. O una agenda, acordada en una reunión, podía ser visualizada en el espacio físico de forma colectiva y después enviada a las agendas personales de cada asistente implicado. Esto daba lugar a una tecnología tan intuitiva e inconsciente como la lectura, que salía de la interfaz de usuario para crear un espacio reactivo, en el que hacer cosas. Un espacio en que la virtualidad de los datos legibles por el ordenador y todas las formas en que pueden ser alterados, procesados y analizados se distribuyen de forma pervasiva (difusión generalizada) en el espacio.

Aunque el espacio pervasivo que define la computación ubicua aun presenta dificultades para su realización –como son la diversidad de sistemas operativos y lenguajes existentes, que hacen difícil la comunicación entre ordenadores; la falta de unos estándares de diseño que permitan homogeneizar los sistemas implicados; la existencia de agujeros en la distribución universal de la banda ultraancha, necesaria para la circulación de estos datos o la falta de una demanda real por parte del público general–, el Intelligent dust, tal y como lo denomina Derrick de Kerckhove, de esta mente aumentada ha empezado a distribuirse en nuestro ambiente. Además de los ya citados sistemas de realidad aumentada, también accesibles desde nuestros smartphones, mediante aplicaciones como Layar, y las redes de sensores, cada vez son más usuales los sistemas que identifican a los usuarios permitiendo automatizar sus acciones. Entre estos se hacen usuales las distintas tarjetas incorporando chips RFDI, como los pases de transporte en uso en algunos países –Oyster en Londres y Navigo en París– o el Teletac, usado aquí para pagar las autopistas; o el sistema NFC o comunicación de campo próximo. Una aplicación móvil que transmite información almacenada del usuario, como pueden ser números de tarjetas de crédito o entradas adquiridas, a dispositivos cercanos, permitiendo hacer pagos o acceder a espectáculos al portador del teléfono. Todas estas aplicaciones, además, nos dan información contextualizada a demanda, en todas partes y acerca de muchas cosas. Ello convierte nuestra interacción con la sobrecarga de información que caracteriza a nuestra sociedad en útil sin esfuerzo. Registran datos sobre nuestra identidad, localización e interacciones, que pasan a formar parte de nuevos subsistemas de datos que pueden ser utilizados, a su vez, por nuevos sistemas. La necesidad del sistema de identificar todos los objetos y personas implicados para poder reaccionar a los mismos hace de cualquier espacio aumentado o pervasivo un espacio monitorizado.

La inteligencia colectiva aumenta la consciencia de nuestro entorno y nuestras potenciales opciones de interacción en el mismo. Pero la pervasion y evanescencia de la tecnología ubicua hacen de esta una mediación inconsciente, un sistema altamente relacional y complejo cuyo funcionamiento interno y sus relaciones con otros permanecen imperceptibles al usuario. Un sistema que puede reestructurar el modo en que percibimos el mundo y nos relacionamos en el mismo, al mismo tiempo que nuestra conciencia de nosotros mismos y de los demás, sin que seamos conscientes de estar implicados en el mismo, de la amplitud de sus conexiones, ni a veces de su presencia.

De este modo, la tecnología ubicua se transforma en un dispositivo, en el sentido en que lo definiera Agamben a partir de la interpretación del uso foucaultiano de esta palabra. Un dispositivo es todo aquello que tiene de algún modo la capacidad de capturar, orientar, determinar, interceptar, modelar, controlar o asegurar los gestos, las conductas, las opiniones o los discursos de los seres vivos. Los dispositivos deben dar lugar a procesos de subjetivación que permitan a los sujetos que implican relacionarse con ellos. De modo que estos puedan ser profanados, devueltos al proceso de hominización. O lo que es lo mismo, al conjunto de relaciones y prácticas culturales que les han dado lugar y donde pueden ser apropiados por humanos conscientes de su ambiente y activos. La imperceptibilidad que rodea el sistema difuso de la tecnología ubicua lo hace improfanable, convirtiéndolo en un sistema estratégico de control, sirviendo a un poder difuso e imperceptible.

El Big Data y los sistemas que materializan la información en nuestro entorno parece que pueden hacernos más felices, asistiéndonos en la planificación de nuestras ciudades y en nuestro proyecto de vida. Pero cabe plantearse aquí si lo que más les conviene a nuestras ciudades y a nuestro entorno en general es hacerse «inteligentes». Lo que nos compromete en nuestro entorno no es su funcionalidad y eficiencia, sino sus cualidades estéticas, históricas y culturales. La virtualidad encarnada que caracteriza a nuestro mundo postdigital debe desarrollarse junto con estrategias estéticas que permitan visualizar y comprender los flujos de datos a nuestro alrededor, así como los sistemas de objetos inteligentes que los conducen. De este modo, la información materializada no solo nos permitirá acotar estos sistemas a los campos de nuestra vida, donde realmente pueden sernos útiles, sino apropiárnoslos, dando lugar a relaciones significativas. La inteligencia colectiva y su capacidad de distribuirse en el ambiente debería incrementar nuestra capacidad de actuar de forma performativa en el mundo, haciéndonos conscientes, al mismo tiempo, del sistema de relaciones y agentes humanos y no humanos que conforman nuestra situación en cada momento y no convertirse en un sistema imperceptible capaz de disminuir nuestra capacidad de agencia y de provocar una pérdida de control sobre cómo nos presentamos en el mundo.





¿Qué son los insect media?

Los insectos son referencia para la cultura de redes, desde los discursos sobre mentes colmena hasta los algoritmos que funcionan como colonias de hormigas.


Them! (1954)

Están por todas partes y, con sus seis patas, sus numerosos ojos y sus capacidades de movimiento y percepción tan diferentes de las nuestras, podemos verlos como el ejemplo más claro de inteligencia no humana. No es de extrañar que los insectos hayan inspirado a los autores de ciencia ficción. Pero también han sido fuente de inspiración en otros ámbitos, como la robótica o el diseño de redes. Además de criaturas más o menos repugnantes, los insectos son un punto de referencia básico para gran parte de la cultura de redes, desde los discursos sobre mentes colmena y redes distribuidas hasta los algoritmos que funcionan como colonias de hormigas; incluso hay quien ha calificado de «sociedad-polen» las prácticas cognitivas del capitalismo.

El contexto en el que hablo de los medios-insecto es este conglomerado de nociones tomadas de la biología y la alta tecnología: se trata de interpretar la cultura de los medios de comunicación a partir de tipos de vida aparentemente sencillos, pero que superan a los seres humanos de múltiples maneras. La idea de los medios-insecto es pues un ejercicio histórico de tipo teórico y cultural que puede ayudarnos a entender el prolongado diálogo entre los discursos de la tecnología y de la biología.

La ciencia ficción es un buen ejemplo. Para ser futurista, ya no hace falta idear fantasías sobre combinaciones de humano y animal o sobre androides y humanoides; es preferible recurrir a insectos y a otros animales no humanos. Esta es la conclusión que sugiere la lectura de algunas obras de ciencia ficción publicadas en años recientes, como The Dervish House, de Ian McDonald, donde la Estambul nanotecnológica del futuro, con su próspero núcleo de negocios y empresas high-tech, aparece como un centro comercial de la Ruta de la Seda en versión siglo xxi. Las fantasías cronenberguianas de los años ochenta, con sus híbridos de humano e insecto (como en La mosca), han sido desbancadas por los trasuntos de robots-araña y de drones insectoides que conforman los regímenes de seguridad y vigilancia de una Estambul plagada de sectas suicida.

Primera edición de Gläserne Bienen (1957).

No es que el concepto de enjambre sea en sí algo nuevo. Su historia se remonta a los inicios del siglo xx, con las investigaciones sobre los «superorganismos» y la inteligencia colectiva que al parecer desarrollan los hormigueros. Se trata de la versión precibernética de lo que nos ofrece la actual sociedad de Internet: un mundo de conectividad e inteligencia emergente. De hecho, la historia de las técnicas culturales basadas que siguen el modelo de los enjambres es bastante más larga y coincide con la aparición de la robótica inteligente. De nuevo, la literatura de Ernst Jünger ejemplifica una determinada visión epistemológica del «desarrollo» de los medios, como en la novela Abejas de cristal (Gläserne Bienen, 1957), que describía un futuro nanorrobótico. Para Jünger, la nanorrobótica coincidía con la inminente obsolescencia de los mundos animales, lo que encaja con el análisis que autores como Akira Mizuta Lippit han hecho de la doble relación existente entre los paisajes tecnológicos urbanos modernos y los animales: la desaparición de roedores y otras especies no humanas habría estado acompañada de una animalización de los medios, algo que puede constatarse incluso con un somero análisis de las representaciones utilizadas en los primeros medios de comunicación, tan fascinados con la agilidad de los cuerpos animales, o de las granjas y los roedores de la animación.

Siguiendo a Lippit, la relación entre animales y tecnología caracteriza la etapa de modernización e innovación de finales del siglo xix. Al mismo tiempo que desaparecen de los medios técnicos y de las culturas urbanas, los animales empiezan a poblar los nuevos discursos, como el de los medios de comunicación (el cine) o el de la subjetividad moderna (el psicoanálisis). Como señala Lippit, por medio de metonimias de la naturaleza, los animales se incorporan al nuevo entorno industrial, donde

las jergas y explicaciones de muchas innovaciones tecnológicas, desde la máquina de vapor hasta la mecánica cuántica, se caracterizan por cierta animalidad. James Watt, y más tarde Henry Ford, Thomas Edison, Alexander Graham Bell, Walt Disney o Erwin Schrödinger, entre otras figuras destacadas de las innovaciones industriales y estéticas de finales del siglo xix y principios del xx, se inspiraron en modelos animales para idear sus artefactos y de este modo crearon toda una serie de híbridos de fantasía.

Hay toda una zoología de los medios. El sentido con el que se usa aquí la palabra tiene que ver con el enfoque «zootécnico» que relaciona las prácticas de comunicación con la investigación animal, pero además, como veremos más adelante, con un planteamiento ecológico más general. La idea de zoología de los medios alude a una situación histórica y cultural determinada, en la que el diseño y la interpretación de los medios tecnológicos se basaba en comunidades animales.

Evidentemente, el uso de este enfoque zoológico no sirve solamente para estudiar los medios atendiendo a su contenido y a lo que aparece en la pantalla. En realidad, los mundos descritos en novelas como The Dervish House nos recuerdan que los medios en tanto que tecnologías (entidades abstractas pero presentes, concretas pero masivamente distribuidas en la era de las redes y de la comunicación inalámbrica) funcionan con mucha más eficacia cuando no están diseñados a imagen humana. Por eso los biólogos marinos han empezado a asesorar a los cuerpos militares y de seguridad de Estados Unidos, y por eso se habla de pulpos en los noticiarios. Me refiero a expertos como Rafe Sagarin, ecólogo marino de la Universidad de Arizona, que enseña a emular la organización descentralizada de estos cefalópodos. El libro de cabecera de estas experimentaciones es, evidentemente, Vampyroteuthis Infernalis: A Treatise, with a Report by the Institut Scientifique de Recherche Paranaturaliste, del filósofo de los medios Vilém Flusser.

Desde el punto de vista de la teoría de los medios, esta novedad tiene que ver con la superación de algunas visiones tradicionales de la tecnología, desde Ernst Kapp a Marshall McLuhan. Muchos de estos teóricos trataron de demostrar que los medios de comunicación están diseñados como imágenes de lo humano y como extensiones de la humanidad. Para otros, como Siegfried Zielinski, la relación de los medios con el mundo es bastante más peculiar.

En la línea de esta arqueología y hasta variantología de los medios, podemos explorar otra tradición teórica. En este caso, incorporando animales en diversas formas, la teorización parte de otro conjunto de disponibilidades (affordances). De hecho, cuando hablamos de ecología de los medios, no debemos olvidar los primeros trabajos de Harold Innis, que trató temas ecológicos en un sentido literal, como los ríos, las pieles o los castores, y que también desarrolló una visión más conceptual del «medio», retrotrayendo su historia a un punto intermedio entre la biología y la prensa técnica. La bibliografía etológica y biológica del siglo xix y principios del xx ofrece varios enfoques interdisciplinares de temas como la vida de los insectos, en lo que parece un intento de aplicar las técnicas «culturales» al estudio de estos animalitos: la existencia de los insectos se explica por el baile, la acústica, la comunicación o los sistemas de alojamiento, como en Costumbres de los insectos, de J.H. Fabre. Uno de los autores que expresa estos dilemas del interés metodológico y teórico es William Morton Wheeler, que fue uno de los primeros estudiosos de la organización social de los animales e ideó el concepto de «emergencia» mucho antes de que la teoría de la complejidad se apropiase de él. A principios del siglo xx, Wheeler lamentaba que el concepto de lo social tuviera un alcance tan limitado: «Por desgracia, la ciencia de la sociología comparativa aún no se ha desarrollado. De hecho, no ha avanzado ni en un sentido ni en otro, porque los sociólogos han dejado el estudio de las sociedades animales y vegetales en manos de los biólogos, quienes se han mostrado menos interesados por estas sociedades que por la estructura o las actividades individuales de sus miembros». ¿Y si la decisión de Wheeler de extender las ciencias sociales a la vida vegetal y animal pudiera llevarse un paso más allá y aplicarse a la investigación de los medios? Si tantos de los primeros estudios sobre la psicología y las agrupaciones sociales de los animales parecen, anacrónicamente, una aplicación humorística de las técnicas culturales a la vida no humana, ¿no podríamos, más seriamente, hacer extensivo el planteamiento mediático a los animales, pero también a otros elementos de la ecología no humana, tanto orgánicos como inorgánicos?

Insect Media: An Archaeology of Animals and Technology. Jussi Parikka (2010).

De hecho, necesitamos enfoques como el de los «medios-insecto» para describir con rigor los contextos culturales, históricos y mediáticos en los que se desarrolla la cultura tecnológica. Y esto es algo especialmente urgente hoy en día, en plena ecocatástrofe: los residuos electrónicos son un problema cada vez más grave, y nuestros avanzados cacharritos están repletos de materiales tóxicos. La informática en la nube exige cantidades enormes de energía. Las propias tecnologías de los medios tienen consecuencias ecológicas, más allá de la simple metáfora animal. ¿No podríamos inspirarnos en la ecología y en la biología para entender de una forma más ética la cultura de los medios técnicos?

Traducción del inglés: Zoraida de Torres Burgos.





#Machine controls the power

¿Nos podríamos librar de una sociedad controlada? Reflexión sobre el ciclo 'Ciudadanía, Internet y Democracia'.





En vísperas del año 2000, el mundo tembló. No por un terremoto o un tsunami, sino por algo mucho más incierto y predecible a la vez. El sistema informático mundial tenía un gran ‘bug’ o fallo. ¿Los ordenadores del planeta serían capaces de diferenciar entre los ceros del año 2000 y los del 1900? El error amenazaba con paralizar instantáneamente aeropuertos, hospitales, estaciones de transporte, bancos, escuelas, el tráfico… ¡La ‘aldea global’ entera se iba a detener! Los últimos días del milenio, el pánico fue aumentando. Y el mundo entero contuvo la respiración en los postreros minutos del 31 de diciembre de 1999. Por suerte, el final fue feliz: los ordenadores– que hubieran podido inmovilizar el planeta– se comportaron.

Aquello ocurrió hace doce años. ¿Se imaginan lo que controlan hoy en día las máquinas? No sólo el funcionamiento del planeta sino también las vidas desgranadas de millones de personas que quedan impresas en la ‘nube’ de Internet. ¿Y quién dirige los ordenadores que recopilan los datos que ‘flotan’ en el ciberespacio? Las grandes corporaciones de Silicon Valley, propietarias de las principales redes sociales que nos cautivan a diario, como si un sortilegio hipnotizador nos hubiera cogido desprevenidos. Facebook, Twitter, Amazon, Google, LinkedIn… Hoy día, ¿quién se atreve a decir que escapa del embrujo de estas marcas digitales?

Pagamos con el teléfono móvil, pedimos que nos traigan una pizza a casa, compramos vuelos, libros, ropa o gadgets tecnológicos, anotamos nuestros destinos vacacionales, registramos nuestros datos médicos, confiamos los números de nuestras targetas de crédito y… hasta declaramos nuestros sentimientos más íntimos a la red social creyendo que nos guardará el secreto.

Ahora usted, lector, si se atreve, responda ante millones de personas: “¿Cuál es el nombre de sus hijos? ¿Cuánto le costó la casa que acaba de comprar? ¿Cuánto dinero tiene en la cuenta corriente? ¿Cuánto se gastó en ropa el mes pasado? ¿Cuál es su número de tarjeta de crédito?”

Toda cara amable tiene su lado oscuro y las compañías del Silicon Valley están construyendo, con la mejor de sus sonrisas, un proyecto de esclavitud comercial. ¿Somos parte  delMundo feliz’ de Aldous Huxley cuando respondemos inocentes a las propuestas de Facebook? ¿Estamos preparados para escapar de esta realidad?

Basta echar un vistazo a este hipotético vídeo, titulado: “Mind Reader para tirarnos las manos a la cara y aterrorizarnos un poco de nuestra insconciencia en la Red. “Tu vida entera está en Internet. Ésta puede venirse en tu contra. Permanece alerta”, reza el eslogan de la campaña ‘Safe Internet banking’ promovida por una agrupación financiera belga que pretende concienciar para que se realicen transacciones bancarias online seguras.

‘Big brother data’

Una posible salvación para no caer en el ‘mundo feliz’ de Huxley podría ser potenciar el espíritu crítico. Si lo conseguimos, a base de difundir ideas y conocimiento, ¿nos libraríamos de una sociedad controlada?

El CCCB acaba de cerrar un ciclo de conferencias titulado: ‘Ciudadanía, Internet y Democracia, donde se han barajado los tres conceptos del título, tan amplios como cercanos. El catedrático en comunicación James Curran, el comunicador holandés Geert Lovink, el profesor de Medios de la Universidad de Nueva York  Nicholas Mirzoeff, la activista Leila Nachawati, el fotoperiodista Samuel Aranda y el teórico tecnológico Evgeny Morozov han juzgado y criticado abiertamente el momento actual.

El resultado ha sido un interesante abanico de reflexiones sobre lo poco conscientes que somos de la vida que habitamos en Internet; lo ilusos que nos mostramos ante el monopolio tecnológico que nos controla; lo ingenuos que parecemos al encomendar las recientes revoluciones sociales a las redes sociales; y cuán imprudentes somos al no manifestar interés por el funcionamiento de los algoritmos que capturan nuestros datos personales en el ciberespacio.

“Es muy curioso lo que está ocurriendo en las democracias liberales” argumenta airado el bielorruso Morozov. “Si queremos saber qué fuerza tienen nuestras protestas sociales, primero hemos de entender cómo funcionan estos intermediarios digitales del Silicon Valley. Con sus tecnologías inteligentes y sus algoritmos secretos, rastrean y definen nuestra vida digital. Es lo que llamo el ‘solucionismo’ o la ilusión de que nos solucionan todos nuestros problemas”.

Curran nos pide que dejemos de impresionarnos por la tecnología y que nos centremos más en los contenidos digitales. “Los grandes grupos mediáticos controlan la Red a través de webs de noticias que se sitúan en el top 10 de las páginas más consultadas del mundo«.

Pero el director del Institute of Network Cultures, Geert Lovink, va más allá en su ataque. “No podemos permitir que estas compañías estrechen la Web. Es importante potenciar las herramientas abiertas y otras redes alternativas a Facebook y Twitter”. Este activista holandés critica efusivamente la vulneración del derecho a la privacidad en las redes sociales y la tendencia de promocionar ‘el enlace débil’ de la Red o las relaciones personales algorítmicas.

“Internet es un espacio de acción política que nos conecta con lo que hacemos en el espacio real”, opina Mirzoeff, el profesor de Medios, Cultura y Comunicación de la Universidad de Nueva York. “No es cierto que sea una utopía pero su definición final dependerá del uso que le demos”.

Un uso que ha servido para que se conozca la Primavera Árabe y se engrandezca el potencial de Facebook y Twitter por su fase comunicadora. La activista sirio hispana Leila Nachawati explica que los “ciudadanos ahora utilizan mejor estas herramientas para organizarse” pero  también alerta del control, la represión y seguimiento que hacen los gobiernos desde los mismos espacios. “Internet no ha de substituir a otras acciones sociales”, añade el ganador del World Press Photo 2011, Samuel Aranda.

Al límite de nuestro poder

Si en el artículo que abría este ciclo de conferencias del CCCB, el sociólogo y filósofo Zigmunt Bauman nos prevenía de esta modernidad líquida en la que estamos viviendo donde nadie sabe quién controla el poder; ahora sería acertado cerrar el ciclo con el urbanista y filósofo Paul Virilio a modo de respuesta:




“Hoy en día con la instataneidad, la ubicuidad y la inmediatez llegamos al límite de nuestro propio poder. Si el tiempo es dinero, la velocidad es poder. Pero al hombre se le escapa por completo este poder porque lo ha delegado en las máquinas eficaces en aceleración, en contestadores automáticos, en ordenadores. A esta aceleración del tiempo real se le llama progreso, pero es una consecuencia fatal del progreso”.

Después de estas palabras, quizás sea el momento –como dijo Morozov– de “provocar una reflexión más profunda del impacto que está teniendo Internet en nuestras vidas”. O…  acabaremos todos confiando en el ‘todopoderoso’ que habita en la ‘nube’ de Internet y rezando un ‘@Padrenuestro que estás en las redes’, aunque no seamos creyentes.





Evgeny Morozov: «Hay mucha gente que sobreestima el potencial democrático de Internet»

Morozov alerta a los movimientos sociales que piensen más en la estrategia y plataforma tecnológica apropiada que necesitan para llevar a cabo sus objetivos.


El profesor y teórico de Internet Evgeny Morozov es autor de The Net Delusion: The Dark Side of Internet Freedom y está a punto de publicar el libro To Save Everything, Click Here: The Folly of Technological Utopianism. Los títulos de sus obras ya dejan entrever su postura sobre la Red. Morozov, nacido en Bielorrusia hace 28 años, es muy crítico con el discurso optimista de las bondades de la tecnología e Internet.

Durante su conferencia ayer en el CCCB, argumentó por qué debemos que superar ideas preconcebidas sobre la Red, como su carácter descentralizado, no jerárquico y supuestamente democrático. Según Morozov, cada vez hay más intermediarios que, mediante tecnologías inteligentes y algoritmos, rastrean y definen nuestra vida digital: desde las empresas que ofrecen servidores de Internet hasta las que gestionan nuestras cuentas de correo electrónico. Las grandes compañías de telecomunicaciones de Silicon Valley, son, según Morozov, las que cortan el pastel de nuestras comunicaciones y determinan, en cierto modo, el consumo cultural, las relaciones y la vida pública de la sociedad en la Red. El autor presentó una idea que desarrolla en su próximo libro: el “solucionismo” o cómo las grandes compañías nos hacen creer que sus servicios y herramientas nos solventan la vida. Muy crítico con el conservadurismo de empresas como Facebook (que censuró la página de New Yorker por publicar una ilustración de Adán y Eva desnuda) o el control de movimientos que pueden llegar a conseguir una herramienta como Google XXX, Morozov revindicó una reflexión más profunda del impacto que está teniendo Internet en nuestras vidas.

En esta entrevista, Morozov desarrolla algunos de los temas del debate de ayer, como que los movimientos sociales deberían empezar a ser críticos con el modelo supuestamente democrático de Internet y pensar más en la estratégia, estructura y plataforma tecnológica adiente que necesitan para llevar a cabo sus objetivos.

Se pueden leer los artículos de Morozov regularmente en la prensa escrita en publicaciones como The New York Times, The Economist, The Wall Street Journal, Financial Times, El Pais o el  Corriere della Sera, entre otras. Durante el mes de noviembre, ZZZINC ha moderado y gestionado el fórum online «Ciberrealismo: Más allá de la euforia digital» para debatir las teorías de Morozov sobre Internet.





Leila Nachawati: «Hay una distancia entre lo que interesa a los ciudadanos y lo que cubren los medios»

Mayte Carrasco, Leila Nachawati y Samuel Aranda nos hablan sobre los cambios que ha experimentado el periodismo con la irrupción de Internet.


«Internet no se ha adaptado al discurso periodístico, ha sido al revés». Según Mayte Carrasco, reportera de guerra independiente, el periodismo ha ido hacia lo simple y espectacular, hacia el lenguaje de 140 caracteres de Internet. Sin embargo, Internet también crea un nuevo espacio para la opinión y la expresión política en muchos países donde este periodismo estaba censurado. Para Leila Nachawati, activista en favor de los derechos humanos y profesora de Comunicación de la Universidad Carlos III de Madrid, los ciudadanos han mejorado la forma en que utilizan estas herramientas para comunicarse y organizarse. Pero también destaca que los gobiernos han evolucionado en el control, la represión y el seguimiento de los ciudadanos en estos espacios. Y si bien Internet permite a la gente una mejor comunicación y organización, expone el fotoperiodista Samuel Aranda, no sustituye a otras acciones sociales. Finalmente, tanto Carrasco como Nachawati destacan el ruido informativo que hay en la red y la dificultad e importancia de buscar fuentes fiables de información.

Samuel Aranda, Leila Nachawati y Mayte Carrasco han participado en la mesa redonda «Reflexiones sobre la primavera árabe: ¿qué habéis hecho con la #libertad?» del ciclo “Ciudadanía, internet y democracia”.





Nicholas Mirzoeff: «Internet no nos da la democracia pero sí es potencialmente democrático»

Según Mirzoeff "Internet es un espacio de acción política cuando se conecta con lo que hacemos en el espacio real".


«Internet es un espacio de acción política cuando se conecta con lo que hacemos en el espacio real». Según Mirzoeff, profesor del departamento de Medios, Cultura y Comunicación en la Universidad de Nueva York, el activismo online ha tenido un gran impacto y ha propiciado enormemente el activismo en el espacio público. Y es que la red también es un espacio físico, también es un espacio real; así pues, Mirzoeff niega que Internet sea una utopía, un no-lugar. Si bien tradicionalmente la visualidad permitía sólo a la autoridad el privilegio de ver algunas imágenes, Internet ha reforzado la voluntad de parte de la sociedad de romper con esos derechos. Según Mirzoeff, actualmente se detectan dos tendencias en la red: por un lado, una monetización de Internet, por el otro, una voluntad de democratizarlo. Así pues, Internet es una herramienta agnóstica, y aunque tiene grandes potenciales, su definición final dependerá de nuestro uso.

Nicholas Mirzoeff participó en el ciclo Ciudadanía, internet y democracia con la conferencia Aquí hay algo que ver:  Contravisualitat, nuevos medios y el movimiento «Occupy», presentado por Anna Maria Guasch, catedrática de Historia del Arte de la Universidad de Barcelona y crítica de arte. Mirzoeff es uno de los teóricos de cultura visual contemporánea de referencia. En este campo ha estudiado ampliamente la relación entre la cultura visual y la postmodernidad, ha publicado el libro The Right to Look. A Counterhistory of Visuality (2011) y el ensayo On visuality (2006), y ha producido textos y proyectos en relación a la cultura visual como metodología y campo de estudio, entre los cuales se encuentran Introduction to Visual Culture, uno de los manuales más utilizados en la materia,  o The Visual Culture Reader.

El estudio de lo visual es para Mirzoeff vinculable a los Estudios Culturales, por lo que sus investigaciones se mueven por ámbitos muy diversos de la cultura  y se relacionan a menudo con el arte contemporáneo, los nuevos medios y los derechos humanos. Ha participado en proyectos artísticos y curatoriales, en investigaciones sobre la cultura visual del cambio climático y, más recientemente, ha iniciado un proyecto en relación con Occupy. Este proyecto, Occupy2012, está basado en un blog donde escribe cada día del año 2012 reflexiones, noticias e investigaciones en torno al movimiento.

Mirzoeff es también subdirector de la Association of Visual Culture (CoPI) y editor de Media Commons, Photography and Culture y The Journal of Visual Culture.





Geert Lovink: «A Facebook no le interesa ofrecer una vida social rica, sino su propio crecimiento»

Según Lovink “la gente ha decidido utilizar reducidas herramientas en la red, y eso limita la construcción de una web abierta, democrática i descentralizada”.


“La gente ha decidido utilizar un número reducido de herramientas en la red, y eso limita la construcción de una web abierta, democrática i descentralizada”. Según Geert Lovink, ese es uno de los principales problemas que afectan al desarrollo de Internet, tal y como se había imaginado des de sus inicios. A pesar de todo, si es cierto que una red descentralizada no es esencialmente más democrática, si que ayuda a romper con un poder descentralizado. Por eso durante su conferencia propuso acciones y alternativas a las redes sociales mayoritarias. Y es que ante la aceleración de cambios que comporta Internet, Lovink se muestra preocupado por la amnesia social relacionada con esta evolución, que impide tener cierta perspectiva. Finalmente, como director del Institute of Network Cultures, destaca que mientras los estudios de medios tradicionales se basan en los aspectos visuales de la representación, en los nuevos medios es importante tener presente las relaciones entre los usuarios o el código y el software en que se basen.

Geert Lovink ha participado en el ciclo Ciudadanía, Internet y democracia, con la conferencia Crítica de Facebook y medios sociales alternativos, presentada por Karma Peiró, periodista especializada en Internet. Lovink es profesor de medios interactivos y de teoría de medios en la Hogeschool van Amsterdam y en la Universidad de Amsterdam, además de crítico y activista de las redes.

En 2004 funda el Institut of Network Cultures, especializado en analizar y determinar el terreno de la cultura de redes y el potencial de los nuevos medios para el cambio sociotecnológico. El Instituto ha realizado estudios sobre el uso de Internet y los social media y ha producido y organizado numerosos proyectos y eventos, presenciales y virtuales, que promueven una visión crítica de la Red. Entre los proyectos Lovink destacó en su charla Society of the Query- stop searching, start questioning; Video Vortex, sobre el desarrollo de la cultura del vídeo producida a partir de la existencia del vídeo on-line; The unbound book, que aborda la lectura y las publicaciones digitales; y Unlike Us, que propone analizar la dimensión económica y cultural de las redes y plantear alternativas.

Lovink es autor de libros sobre la cultura crítica de Internet (Dark Fiber, My First Recession, Zero Comments ), la teoría del blogging, la web 2.0 y los nuevos medios. En su último libro, Networks without a Cause: A Critique of Social Media, parte de la idea de las redes sociales para realizar una crítica a las políticas y poderes estructurales que determinan las tecnologías encargadas de marcar nuestro día a día.





Inteligencia ciudadana en la metrópolis de los datos

¿Cómo se prefiguran esas ciudades inteligentes y de qué modo, en su seno, serán afectadas las instituciones culturales y el ejercicio ciudadano?


Blade Runner (1982).

Mientras por estos días en Barcelona se desarrolla la Smart City Expo, cabe hacernos algunas preguntas respecto a cómo se prefiguran esas ciudades inteligentes y de qué modo, en su seno, serán afectadas las instituciones culturales y el ejercicio ciudadano. Nuevas oportunidades y desafíos.

De repente una de las obras clásicas de las artes mediales se convierte en una metáfora oportuna. En La ciudad legible (Legible city, 1989), de Jeffrey Shaw, el visitante puede montar una bicicleta estática y navegar las calles de una ciudad de palabras, una simulación 3D que se construye de sentidos. Una ciudad de datos. Veintitrés años después, la esencia de la tan mentada «Smart city» tiene bastante que ver con el escenario de Shaw.

Para empezar, en las metrópolis contemporáneas asistimos a un cambio que por obvio no deja de ser fundamental. La información ya no habrá que ir a buscarla a uno de sus templos pasados ni tampoco absorberla a través de los medios de comunicación. Los datos fluyen por entramados cerrados y abiertos, así en el cielo como en la tierra. Los datos provenientes de redes de sensores, conexiones M2M ( Machine to machine), contribuidos por los usuarios a través de redes sociales y crowdsourcing bajarán desde la nube para aumentar el espacio físico urbano. Si bien el gran desafío continúa siendo cómo convertir todos esos datos en información con sentido y útil, lo cierto es que los datos y los dispositivos que los sensan y hacen circular, ya existen y están conectados.

Cada vez más empresas de diseño de experiencias de usuario se vuelcan al desarrollo de interfaces físicas o mobile apps que integran los datos con la vida urbana. Urbanscale, de Adam Greenfield es un buen ejemplo de ello con su servicio UrbanFlow para aumentar las pantallas de la ciudad (en las estaciones de transporte, las calles, etc.) con información «diseñada y situada» para que los ciudadanos encuentren lo que buscan, planifiquen recorridos, y hasta participen de la vida cívica.

Sin ir más lejos, en Barcelona, la empresa WorldSensing ha instalado sensores que recogen información sobre el tráfico para, a través de una mobile app, ayudar a los conductores a encontrar un sitio donde aparcar. En una dirección similar, el proyecto europeo iCity, liderado por la Ciudad Condal, busca abrir las infraestructuras urbanas para que agentes interesados puedan aumentarlas con datos abiertos y ofrecer servicios de interés público que mejoren la vida en la ciudad. Un parquímetro que brinda información sobre la calidad del aire en su ubicación, una app que avisa si la piscina pública o el parque ya están abarrotados de gente, una máquina expendedora de tickets de transporte que además de venderte la T10 te sugiere participar en una consulta popular.

Apocalípticos e integrados, utopía y distopía. Como siempre, las visiones sobre el futuro están marcadas por ideas fuertemente contrapuestas. Hay quienes consideran que uno de los grandes riesgos de la Smart City es el ascenso de la sociedad Orwelliana, donde la tecnología en manos de monopolios y gobiernos autoritarios sólo será aprovechada para monitorear y observar a los ciudadanos. Seguridad y privacidad continúan siendo una frontera complicada. Por otro lado, las visiones más optimistas entienden que la tecnología y los datos abren puertas hacia la transparencia, la participación ciudadana y la emancipación de sectores de la ciudadanía que estaban excluidos. También abogan por la ciudad sostenible donde es la propia comunidad la que, teniendo en cuenta los datos abiertos (open data), reduce su consumo energético o asume comportamientos más responsables. El proyecto “The tidy street”, en Brighton, es un gran ejemplo de iniciativa ciudadana para el control del consumo de electricidad.




Por eso, el meme smart city debe ir mucho más allá de las propuestas para la optimización de recursos y la eficiencia Hi-tech. Mientras corporaciones como IBM ofrecen a los ayuntamientos soluciones del tipo » smart city in a box» que implican grandes inversiones en tecnología a pesar de que no existen evidencias contundentes de que aquello que funciona en una ciudad puede ser exitosamente trasplantado a otra, las investigaciones sugieren que no habrá ciudad inteligente si no se pone al ciudadano en el centro de la ecuación.

Esta año, el Institute for the Future y la Fundación Rockefeller dieron a conocer el informe » Un planeta de laboratorios cívicos» donde se sugiere que para que las ciudades sean realmente inteligentes los datos deben servir para generar inclusión y desarrollo. No basta con las soluciones top-down, de arriba hacia abajo, propuestas por las grandes empresas tecnológicas. Según el reporte, en la ciudad actual existe una fuerza pujante y de oposición conformada por empresarios, hackers, hacktivistas y ciudadanos que persiguen una visión diferente de la urbe futura. Su terreno de juego son los datos convertidos en información para fomentar la concreción de ciudades más democráticas, más inclusivas y resilientes.

Estos urbanistas do-it-yourself (DIY) adoptan tecnologías de código abierto y estrategias de cooperación para que las innovaciones sean desde y para la ciudadanía, aumentando el compromiso social y asegurando que la hazaña tecnológica esté alineada con los intereses cívicos. En esta línea, proyectos como Smart Citizen (un kit de sensores para medir datos ambientales y conectarlos en red vía Cosm), del FabLab de Barcelona o DCDCity, incubado en el MediaLab Prado, abonan la smart city desde la acera alternativa: código abierto, filosofía hazlo tú mismo, y participación ciudadana. ¿Qué rol juegan aquí las escuelas y los centros culturales? ¿De qué manera se integran estos proyectos a la agenda cultural y la currícula educativa? ¿Cómo se educarán los smart citizens?

Es probable que, en el futuro, las ciudades exitosas deban integrar ambos modelos. Las soluciones ideales combinan las plataformas tecnológicas a gran escala con las grandes innovaciones impulsadas por los ciudadanos. Hasta cierto punto, esta integración ya está en marcha, pero las administraciones públicas necesitan darle forma en el marco de una agenda de apertura, transparencia e inclusión.

Las ciudades son como organismos vivos cuyos espíritus superan ampliamente el entramado tecnológico y la infraestructura. Son las comunidades humanas las que construyen y sostienen un ADN particular urbano, y son estas particularidades, incluso a veces caprichosas y hasta inexplicables, las que deben ser tenidas en cuenta en el diseño de innovación para la ciudad.

Cabe también imaginar qué nuevas infraestructuras redibujarán el paisaje de las ciudades posmodernas, conectadas hasta la médula, digiriendo en tiempo real las informaciones que la habitan, desde el tráfico en las calles hasta los likes en Facebook, la contaminación en el aire, las fallas de Cercanías y las calles rotas reportadas vía FixMyStreet.

Cómo será ese nuevo flaneur hiperconectado, acaso cuestionado ya su derecho a perderse en la ciudad o a descubrir rincones inesperados mientras se busca una farmacia abierta. Quizá sea un posible rol de las instituciones culturales el de pensar nuevas experiencias urbanas que enriquezcan el espacio físico con cierta poesía, devuelvan una cuota de serendipia al recorrido callejero, nos ayuden a resignificar los datos o a reencontrarnos en un espacio furtivo. Una anécdota curiosa ilustra las aguafuertes de este zeitgeist: rumbo al aeropuerto, el taxista me confesó irónico: «Los taxistas nuevos ya ni conocen la ciudad. Van por dónde les lleva el GPS. ¿Sabes cómo le llamo yo a este cacharro? Guía-Para-Stúpidos».





#Who controls the power?

Internet nos lleva hacia unos cambios irreversibles que hacen tambalear desde los viejos modelos de negocio hasta la política. ¿Quién controla el poder ahora?


Nikola Tesla sentado en su laboratorio de Colorado Springs con su «transmisor amplificador» generando millones de voltios, 1899. Dickenson V. Alley, Wikipedia. CC-BY

Imagínese que va en un avión comfortablemente sentado. Mira por la ventana y casi nota la suavidad de las nubes. A su alrededor, los otros pasajeros duermen, juegan a los videojuegos o leen un libro. Usted está pensando que, cuando el avión aterrice, conectará su iPhone y llamará a su familia. Suena la sueva voz de una azafata por megafonía. Atiende y… de repente, descubre que su mensaje se ha grabado hace mucho. Asustado, escucha que el piloto automático lo dejará sano y salvo en un aeropuerto que solamente está proyectado en los planos y todavía no es operativo. Aterrador, ¿no?

Despierte de su pesadilla. Quien explica este ejemplo es una de las voces más eminentes que hay en la actualidd, la del sociólogo y filósofo Zygmunt Bauman. A sus 87 años, nos alerta de los profundos cambios que están experimentando nuestras sociedades. Dice que vivimos en “una modernidad líquida” y que cada uno de los principales miedos contemporáneos es perder el control. Lo peor es ser conscientes de que nadie tiene el control de lo que nos pasa diariamente. Y, en el caso de tener una pista, sabemos que no podemos hacer nada por cambiar el rumbo de los acontecimientos. Ya se trate de un tsunami, un atentado terrorista, un huracán como el Katrina, un terremoto, una crisis energética u otro miedo más pequeño pero con un origen global, como que te despidan de la fábrica donde has trabajado durante 20 años, que estalle una revuelta social o te roben el coche.

“Nos movemos en arenas movedizas y cuando intentamos salir de ellas todavía nos hundimos más”, puntualiza el pensador polaco, en un tono no muy esperanzador.

#Citizenspower?

Los ciudadanos llevamos casi dos décadas flotando en la “masa líquida” de Internet. Las herramientas diseñadas hasta la fecha (abiertas y cerradas) nos han permitido nuevas formas de informarnos y expresarnos: desde las primeras webs en un rudimentario HTML, a los primeros medios digitales, pasando por los blogs, los wikis y las actuales redes sociales.

Sin embargo, ahora que tenemos herramientas muy potentes –con más capacidad de almacenamiento y un mayor volumen de usuarios conectados simultáneamente—nuestras interacciones son más superfluas y efímeras. ¿Qué tipo de conocimiento transmitimos a diario? Anunciamos a nuestros amigos que estamos tomando un café, publicamos la foto del fin de semana o enviamos al universo un tuit con nuestra opinión resumida en 140 caracteres. Para hacernos una idea del volumen de estas superficialidades, cada día se escriben 500 millones de tuits y los mil millones de usuarios de Facebook generan 2.500 millones de contenidos nuevos cada 24 horas (fotografías, vídeos, recomendaciones y actualizaciones de estado).

Habrá quien diga que no todo lo que se envía a las redes sociales es banal. Cierto, éstas también han servido para proclamar revueltas como la “Primavera árabe”. Pero antes de que el periodista norteamericano Andy Carvin nos la explicara a través de Twitter y que tuvieran eco en Facebook, el blog Guerreros del teclado (2007) de la periodista Lali Sandiumenge (por citar un ejemplo cercano) ya recogía las palabras de algunos de los activistas que provocaron la caída de Gadafi, Ben Ali o Mubarak.

#Netdemocracy

Hace años que Internet se ha demostrado como el nuevo espacio de interacción de la humanidad. Pero como dice el ensayista tecnológico Howard Rheingold (creador del término “comunidad virtual”), nuestro futuro depende de cómo usamos la tecnología que se ha infiltrado en nuestras vidas y que ha amplificado, distraído, enriquecido y complicado cada instante de nuestro día a día.

En su nuevo libro, Net Smart, Rheingold proclama que hacemos un uso inteligente de Internet. Y escribe: “He decidido no centrarme en cómo Google nos hace estúpidos, cómo Facebook acomoda nuestra privacidad o cómo Twitter trocea nuestra atención”.

Internet, y toda su acelerada evolución, nos lleva hacia unos cambios irreversibles que hacen tambalear desde los viejos modelos de negocio hasta la manera de hacer política. ¿Quién controla el poder ahora? “Hace tiempo que la política y el poder se han separado”, continúa diciendo Bauman: “Mientras la primera se ha estancado en estructuras locales, donde ya no queda nada por controlar, el poder –entendido como los capitales, los mercados, el comercio, la información o la criminalidad—ha emigrado hacia un nivel superior, al ciberespacio, el espacio público y global de los flujos que está construyendo la modernidad líquida en la que vivimos”.

Así pues, es el momento de reinventar el sentido de las democracias actuales y el modo en el que las personas ejercemos nuestro papel de ciudadanos. De repensar qué provecho podemos sacar de nuestras interacciones en Internet para mejorar el mundo global que habitamos. Como propone Rheingold, es el momento de “desarrollar nuevas habilidades que nos ayuden a mantener la atención, participar, colaborar, consumir información con un espíritu crítico y crear redes inteligentes para adquirir y conservar el conocimiento humano”.

A menos que… queramos vivir permanentemente en una pesadilla y descubrir un día que el mundo está pilotado por manos incontrolables.

El CCCB ha abierto un ciclo de conferencias, titulado Ciudadanía, Internet, Democracia (del 12 de noviembre al 4 de diciembre) para debatir y reflexionar acerca de estas cuestiones con reconocidos expertos del ámbito tecnológico. En las distintas sesiones se hablará del desencanto de la política y su revitalización a través de nuevos medios digitales, se hará una crítica del uso que hacemos de las actuales redes sociales y se dará una vuelta a movimientos ciudadanos que persiguen cambios globales, como Occupy.





James Curran: «Internet ha permitido a los grandes grupos mediáticos extender su dominio»

Para Curran, es hora de dejarnos de impresionar por la tecnología y de centrarnos en los contenidos digitales.


¿Ha cambiado Internet el mundo, tal y como auguraban los teóricos más optimistas? Según Curran, catedrático de Comunicación y experto en medios y poder, los grandes grupos mediáticos controlan la Red a través de webs de noticias que se sitúan en el top 10 de las páginas más consultadas del mundo. La televisión, según él, continúa siendo el medio hegemónico del mundo. Curran se muestra bastante escéptico con el poder democratizador de las redes, aunque destaca su potencial movilizador en contextos muy específicos como Corea del Sud o algunos países de la Primavera Árabe. El teórico británico cree que aún existen limitaciones que impiden poder hablar de una Internet Global, como por ejemplo el limitado acceso a Internet entre la población (sólo un 30% de los ciudadanos del mundo, la mayoría ciudadanos de países desarrollados). Para Curran, es hora de dejarnos de impresionar por la tecnología y de centrarnos en los contenidos digitales, bastante dañados por culpa de la crisis económica que afecta a los medios de comunicación.

James Curran abrió ayer el ciclo Ciudadanía, internet y democracia con la conferencia Malentendidos entorno a Internet y la democracia, presentado por Vicent Partal, director de Vilaweb. Curran es catedrático de Comunicación en el Goldsmiths College de la Universidad de Londres y director del Goldsmiths Leverhulme Media Research Centre, centro interdisciplinar dedicado a diseñar e investigar espacios de comunicación para lograr una mayor comprensión de su potencial. Ha escrito numerosos libros y gran parte de sus investigaciones se han centrado en el impacto de Internet y las tecnologías de la información, estudiando las causas por las que Internet no ha cumplido ciertas expectativas de cambio. Esta línea de investigación se refleja en su último libro Misunderstanding the Internet, publicado junto a Natalie Fenton y Des Freedman.

Entrevistamos a James Curran para preguntarle sobre el nuevo sistema mediático, Internet, como espacio de acción social y política, los límites que impiden cualificar a Internet de global, si considera que Internet podría ayudar a salir de esta crisis, el futuro del periodismo, i el poder e influencia de los medios de comunicación tradicionales.





Las apps en el ecosistema digital. Entrevista con Mara Balestrini

¿Qué nuevas experiencias aportan las aplicaciones móviles? ¿Qué dudas plantean? ¿De qué manera nos permiten interactuar con el espacio físico?


Mara Balestrini es una de las participantes en la sesión I+C+i Apps per a una nova cultura y una experta en artes mediales y cultura móvil. Aprovechando su presencia en el CCCB Lab, le hicimos esta entrevista en la que habla de las nuevas experiencias que aportan las aplicaciones móviles, las dudas que plantean (el usuario customiza tanto la información que quiere recibir que corre el riesgo de que ésta sea excesivamente limitada), de qué modo las aplicaciones nos permiten interactuar con el espacio físico y cómo están cambiando las actividades educativas a través de la llamada «gamificación».

Balestrini moderará el jueves 20 el debate sobre las apps para una nueva cultura, así como en el debate que, a partir de mañana y durante dos días, servirá para crear una aplicación para la exposición El Paral·lel 1894-1939 que el CCCB está organizando.





Dentro de la vida digital. Entrevista con Jussi Parikka

Jussi Parikka es teórico de los medios, escritor y profesor universitario en la Winchester School of Art de la Universidad de Southampton y en la Universidad de Turku, donde imparte clases de Teoría de la Cultura Digital. Parikka participó en la sesión I+C+i dedicada a Nuestra vida en la red para hablar de temas como las humanidades digitales, las redes como sistemas vivos, los defensores y detractores de la tecnología, los virus digitales y los virus físicos y otros asuntos relacionados con la ecología de los medios. Aprovechando su presencia, Juan Insua, jefe de proyectos del CCCB LAB, lo ha entrevistado.

En la primera parte de la entrevista, Parikka define cuál es su campo de trabajo y qué significa ser teórico de los medios sociales (social media theorist), y explica la importancia de comprender la red para entender la cultura contemporánea. En opinión de Parikka, es necesario contextualizar y analizar críticamente las herramientas digitales para entender cómo funciona el mundo en la actualidad.

En la segunda parte, Parikka explica cuáles son sus referentes en el estudio de las redes (Lászlo Barabási, Tiziana Terranova, Eugene Thacker) y habla de los nuevos modelos de políticas participativas que las instituciones culturales deberían empezar a adoptar. Según Parikka, el modelo está obsoleto y las instituciones deben replantearse cómo compartir y cómo trabajar el conocimiento, cómo desarrollar nuevos modelos económicos y nuevas plataformas de intercambio.








La opacidad tecnológica: lo que no vemos en las máquinas

Ver más y no ver en absoluto. Esas son las dos tendencias, sólo en apariencia irreconciliables y oximorónicas, que rigen nuestro tiempo actual. Gracias a las nuevas tecnologías vemos más (pensemos en los rayos X, en los telescopios, en las herramientas de realidad aumentada), pero también su simulacro electrónico nos oculta parte de la realidad. La pantalla se interpone como el nuevo velo de Maya entre la imagen real del mundo y la computerizada. A veces, esa simulación nos aleja de la propia realidad del aparato en cuanto tecnología objetual.

Sobre esto ha escrito Slavoj Zizek, comparando la técnica actual con la propia de la Modernidad: “la tecnología moderna era ‘transparente’ en el sentido de que mantenía viva la ilusión de que era posible comprender ‘cómo funciona la máquina’, es decir, se suponía que la interfaz debería permitir al usuario un acceso directo a la máquina que había detrás (…) la ‘transparencia’ posmoderna designa exactamente lo contrario de esta actitud analítica global (…) el precio de esta ilusión de continuidad con nuestros entornos cotidianos es que el usuario se ‘acostumbra a una tecnología opaca’, la maquinaria digital ‘tras la pantalla’ se vuelve totalmente impenetrable, incluso invisible” (S. Zizek, Lacrimae rerum; Debate, Barcelona, 2006, p. 218-19).

Con el fin, a medias práctico y a medias comercial, de que las interfaces de uso sean cada vez más simples e intuitivas, los constructores de aparatos electrónicos como móviles, ordenadores, consolas de videojuegos y tabletas nos presentan objetos perfectamente diseñados, cerrados y estancos, en los que una fabulosa superficie plástica o de cristal hace que nos olvidemos del cableado; los nuevos y lujosos aparatos son un goce para la vista y para el tacto, lejos de las antiguas y toscas cajas llenas de chips y cables sobresalientes. El bluetooth hace que teclados, ratones y computadoras se comuniquen de forma mágica y estética, aliviando de fealdad enchufada nuestros entornos de trabajo y ocio.

Estos procesos de disolución de presencia, al volver agradables y refinados los aparatos electrónicos, unidos al incremento exponencial de su uso en cualquier tipo de actividad, incluyendo la artística, hace que la electrónica en general y los ordenadores en particular estén omnipresentes ya en la mayoría de prácticas artísticas contemporáneas de uno u otro modo. Incluso los artistas plásticos tradicionales nos envían a los gestores de programación cultural imágenes de sus óleos en un cedé o nos remiten, vía hipervínculo, a su página web. Algunos de ellos han preparado incluso tours virtuales por sus exposiciones, que presentan orgullosos como modo de ver, de ver más, su trabajo, con posibilidades de zoom incluidas y tomas de alta definición.

Este nuevo “ecosistema” de trabajo está cambiando la práctica del arte pero también las formas de circulación, difusión, visibilidad y venta del mismo. En el volumen editado por Sarah Cook, Berryl Graham, Verina Gfader y Axel Lapp, A Brief History of Working With New Media Art. Conversation With Artists (The Green Box, Berlin, 2010), fruto de una serie de encuentros en el CRUMB (Curatorial Resource for Upstart Media Bliss) de la Universidad inglesa de Sunderland, los artistas, comisarios y gestores involucrados en la creación de arte digital llegan a una serie de interesantes conclusions acerca de la sobreabundancia de la tecnología en su esfera de trabajo. Creo que merece la pena rescatar algunas opiniones, en mi traducción:

  1. “Los nuevos medios devienen rápidamente viejos medios. (…) Proyectos y obras de arte que utilizan tecnología pueden ser percibidos diversamente como exóticos, esotéricos, oscuros, elitistas, desfasados, de culto o que están construidos para ser de ese modo. Por un lado, el trabajo dirigido de forma tecnológica puede llegar a ser increíblemente caro de generar (en cierta forma, está construido como una empresa monumental sin ningún impacto en el público); por otro, esto significa que las ideas llegan a ser más importantes que el vehículo. Si una idea o concepto no son suficientemente fuertes, el brillo alrededor de la tecnología pronto palidece” (Brendan Jackson, pp. 5-6).
  2. “Todavía debo dedicar una significativa de mi tiempo al aprendizaje de nuevas tecnologías para crear mi obra. Todavía lucho para sostener una web bien mantenida. Todavía dependo de una tecnología específica para crear mi trabajo” (Skawennati Tricia Fragnito, p. 08)
  3. “Un día te levantas y descubres que tu disciplina artística ha desaparecido. Tienes que aprender un nuevo paquete de habilidades y encuentras que los viejos nombres de comisarios no están (…) Aguardo el día –y sé que vendrá porque espero vivir aún cierto tiempo- en que veré movimientos artísticos que vivirán un día, como bandas de chicos…” (Vuk Cosic, p. 65).
  4. “Estoy pensado lo que está sucediendo con los media en Singapur. (…) Cuando llegó el primer VCR y los primeros ordenadores, las comunidades artísticas no podían acceder realmente a ese tipo de tecnología. La tuya es una auténtica posición de privilegio si puedes servirte de la técnica” (Woon tien Wei, p. 175).

Las cuestiones acuciantes no son sólo, por tanto, la brecha digital y el elevado precio de los equipos. El tecnoestrés es también claramente perceptible en algunos de estos artistas, que necesitan perder un tiempo precioso aprendiendo a manejar programas que pronto caerán en desuso, y que viven pendientes de una “actualización” constante de las prácticas y procedimientos que utilizan. Mientras que un pintor renacentista no debía aprender nuevos rudimentos de su arte una vez adquiridos en su juventud, pudiendo trabajar cincuenta años del mismo modo, los artistas digitales son perpetuos aprendices, encorvados sobre laboriosos y arduos manuales de instrucciones o incluso afanados en tareas de programación. Y los problemas para crear la obra no son los únicos: también están los problemas para conservarla una vez hecha en condiciones de exhibición. Son bien conocidas las dificultades para almacenar las obras de arte o de literatura digital (extremo ya aludido por Katherine Hayles en su clásico Electronic Literature, 2008), por la perentoriedad de los formatos de archivo, algo que propicia un rápido “olvido” cultural al perderse a veces la posibilidad de recuperar el trabajo artístico (fenómeno criticado por Manfren Osten en La memoria robada. Los sistemas digitales y la destrucción de la cultura del recuerdo. Breve historia del olvido, 2007).

Mientras algunos de estos artistas muestran una inocencia casi naif, como Wendy Kirkup, que protesta por el alto coste de utilizar un satélite en órbita para hacer una obra de arte, otros son muy conscientes de la contradicción en la que viven, del alto coste de los equipos (Trevor Paglen introdujo en alguna de sus obras tecnología de espionaje militar) y del impacto que estos recursos tienen al estar construidos como sofisticados sistemas electrónicos, con graves inconvenientes de mantenimiento, reciclaje y consumo. Incluso hay artistas, como Cory Arcangel o Olia Lialina / Dragan Espenschied, que hacen de la tecnología obsoleta y de sus posibilidades artísticas de recuperación el eje de su investigación creativa.

Un ejemplo extremo de esta autoconciencia lo hemos visto hace poco, cuando el artista digital Eugenio Tiselli exponía las razones por las que abandonaba por motivos éticos la práctica de E-literatura. Después de una investigación en Tanzania, en la que descubrió las hondas complicaciones que acucian el sector de la agricultura en particular y el medio ambiente en general, Tiselli llegó a la conclusión de que ni la literatura digital ni su ambiente académico han sido capaces de asumir algunos hechos a su juicio medulares: “¿nos hemos dado cuenta, como comunidad académica, de lo que los aparatos electrónicos hacen al medio ambiente? ¿Sabemos de dónde vienen los minerales necesarios para crear ordenadores, y bajo qué condiciones son extraídos? ¿Qué hay del trabajo esclavista que implica su manufacturación? ¿Hemos estudiado a fondo las implicaciones económicas de usar ordenadores como herramientas literarias, en un tiempo en que nuestros sistemas económicos se están derrumbando? En una palabra, ¿estamos siendo responsables? Me he preguntado seriamente estas cuestiones a mí mismo. A día de hoy, he decidido dejar temporalmente de crear obras de e-literatura”. La declaración de Tiselli coincide con una serie de artículos de investigación del New York Times donde se esclarecen las terribles condiciones de fabricación en países de Asia de algunos aparatos electrónicos de marcas muy conocidas, como Apple.

Para terminar, me gustaría resaltar que algunos artistas que utilizan la electrónica, como Tiselli y otros casos apuntados más arriba, demuestran un alto grado de preocupación por la repercusión medioambiental y económica de su obra. Una preocupación no siempre visible en artes entendidas de forma más tradicional. Los escritores convencionales habían aceptado que el papel en el que escriben sus libros y con el que se publican los ejemplares tiene un enorme coste en árboles cortados y dañinos tratamientos químicos para fabricar la celulosa, pero de algún modo habían llegado a la conclusión de que sus obras merecen ese sacrificio. Apenas he visto reflexiones serias y autocríticas similares a la de Tiselli en escritores no digitales, recuerdo solamente algún ejemplo de poetas como Gary Snyder o Jorge Riechmann. En otras esferas del arte, algunos proyectos de land-art como el Over the River de Christo y Jeanne-Claude han sido severamente criticados por su impacto sobre el entorno, aunque las preocupaciones de los artistas parecían ser otras. Sería positivo que este movimiento de concienciación, habitual entre artistas digitales, se extendiese a otras parcelas de la práctica estética. Como dice Tiselli, no se trata de que todos dejen de practicar el arte, sino de pararse puntualmente a pensar las repercusiones que el ejercicio de esa práctica tiene, y de no seguir ciegamente haciendo las cosas sin (auto)criticarlas. No mirar, no ver, no querer levantar de modo simbólico la tapa de los aparatos con los que trabajamos y con los que escribimos (en uno de ellos estoy redactando esta penúltima línea), preserva la tremenda oscuridad de una tecnología cada vez más opaca.





Inteligencia artificial de bolsillo: «Tu deseo en una orden»

Siri es el robot más apropiado para la época que vivimos. Un robot descorporizado, de bolsillo y de inteligencia expandida. Un robot que no podría haber existido una década atrás porque acaso su éxito tiene que ver con nuestros ritos y manías posmodernas: el teléfono móvil como mediador de gran parte de nuestra experiencia social, comunicacional, operacional.

¿Qué otro dispositivo sabe más sobre nosotros que el móvil? En qué punto exacto de la geografía estamos (gracias a las tecnologías de geolocalización), quiénes son nuestros contactos (gracias a la agenda), con quiénes entablamos comunicaciones virtuales (gracias a las redes sociales de acceso mobile) y qué buscamos en la red, entre otro gran caudal de información que fluye a través de nuestros móviles constantemente.

Siri es una idea antigua sostenida sobre el trono de las tecnologías y los usos del momento. Su potencial reside en el pequeño-gran mundo que habita: nuestro móvil conectado a la red. Su habilidad, en cambio, tiene que ver con su capacidad de comprender comandos de voz -una de las formas de interacción más naturales- y encender sus neuronas distribuidas capaces de hacer sinapsis desde la mano del usuario hasta el cuasi infinito de la red de redes. Todo eso en “tiempo real”.

Si nos guiamos por la intuición podríamos definir que Siri consta de tres capas: un analizador de voz a texto, un analizador de gramática y un conjunto de proveedores de servicios. En la página de la robot estrella de Apple se explica qué podemos esperar de ella. Las tareas son simples y por ello Siri es eficiente: pedir un recordatorio, que envíe un mensaje, que nos cuente cómo está o estará el clima aquí o allí, que nos brinde información alojada en YelpWolframAlphaWikipedia; que nos agende una reunión o una alarma, que envíe un email, que nos indique un número o una dirección, que nos prepare un cronómetro o incluso que nos responda preguntas sobre ella misma. O sea, una asistente personal de bolsillo.

Ante el gran auge mediático que ha despertado la flamante asistente virtual, es apropiado destacar que probablemente Siri parezca más inteligente de lo que realmente es. Hay que reconocerle ese mérito a Apple que ha sabido lograr tal teatralización de la inteligencia de su sistema. La asistente no responde con un simple «sí», «no», «42», «mensaje enviado», como lo haría cualquier cacharro inanimado. Sus respuestas suenan a las que podría darte una secretaria cool: “Okie, dokie”; “¿Podemos regresar al trabajo, Juan?”; “En la nube no importa como lucimos”, “Yo estoy bien si tu estás bien”… sin duda, un cuidadoso truco que afecta a la psicología del usuario al humanizar la máquina.

Lo que los usuarios «quieren» (según David y Goliat)

Si bien Siri no es un motor de búsqueda como bien lo indicó Steve Jobs el año pasado al momento de adquirir la empresa, de alguna manera sí podría convertirse en un desafío para Google mobile.

Incluso antes de pertenecer a Apple, Siri era una compañía dedicada al desarrollo de lo que llamamos asistentes personales virtuales (VPA, virtual personal assistants), tecnologías que sirven para ayudar a los usuarios a llevar a cabo tareas específicas en el mundo virtual. Digamos que se trata de los agentes de inteligencia artificial que ponen en juego un nuevo paradigma de interacción en Internet. Si en la actualidad hacemos búsquedas, seleccionamos y clicamos links, la nueva modalidad permite que interactuemos mediante una conversación. Además, al tratarse de un asistente personal, las respuestas están orientadas a las preferencias del usuario: una gran cantidad de información vinculada a la experiencia que permite al sistema “conocernos” y de esa manera resolver mejor sus objetivos (algo de esto ya incluyen los motores de Google).

La posibilidad de interactuar con los agentes inteligentes a través de comandos de voz ha sido uno de los grandes sueños de la robótica desde sus orígenes. Sin embargo, el lenguaje humano y la gramática en sí misma, las diferencias de pronunciación y acento e incluso los firuletes literarios que utilizamos al hablar han desafiado a casi todos los sistemas creados hasta el momento. Pero Siri, cuya versión beta ya entiende inglés, francés y alemán, funciona de una manera lo suficientemente efectiva como para sorprender a tecnócratas y usuarios.

Sucede que la nueva hazaña de Apple cuenta en su formación muchas horas de investigación en torno a lo más profundo de la lingüística y es capaz de definir qué es un verbo, un sujeto, un predicado. Puede pasar la voz al texto y luego “mapear” esa información a comandos específicos para ofrecer resultados. No más interfaces WIMP, ni siquiera touchscreens… todos los habitantes del sueño tecnológico han imaginado alguna vez poder comunicarse con los ordenadores usando la voz. Y allí está Siri, con su tono de secretaria inhumanamente dispuesta 24/7 para convertir los deseos del usuario en órdenes, como reza su slogan.

A pesar de que los usuarios puedan configurar o pedir a Siri que busque términos también en Yahoo, Bing o Google, sin duda el nuevo paradigma de interacción podría dragar mucho del tráfico de Google desde iOS y afectar a un sistema que se sostiene gracias a la publicidad vinculada a las búsquedas.

Stephen Wozniak, cofundador de Apple, explicó recientemente que Siri es el futuro de los dispositivos móviles, de los motores de búsqueda y de la tecnología en general dado que, a diferencia de Google, no lleva al camino de la respuesta sino que te la ofrece directamente. “Los motores de búsqueda deberían ser reemplazados por motores de respuestas”, sostuvo. Al contrario, Andy Rubin, senior vice president the Google mobile dijo que el mercado no está preparado para un cambio de paradigma: “Los usuarios no quieren hablar con el teléfono, quieren hacerlo con un humano a través de él”, sentenció.

Tus deseos son órdenes…¿pero qué deseas?

En una investigación sobre la relación de los nativos digitales con la educación tradicional un niño dijo: ¿Por qué voy a preguntar algo en clase y hacer el ridículo si puedo preguntárselo a Google? Por esos días Nicholas Carr publicó un artículo en The Atlantic sugiriendo que Google nos estaba haciendo estúpidos y más allá de que Carl Zimmer le contestara de manera formidable en “¿Cómo Google nos está haciendo más inteligentes?” la idea de que todas las respuestas dependan de un agente virtual merece cierta reflexión. ¿Podrán los niños llevar a Siri al colegio? ¿Podría Siri reemplazar las formas en las que tradicionalmente pasamos el conocimiento de generación en generación, cargándolo de valores y patrones culturales?

Cuando hacemos una búsqueda en Google aún tenemos la obligación de escoger las fuentes a partir de las cuales vamos a informarnos y, de esa manera,  la búsqueda resulta más o menos transparente. El modus operandi de Siri es diferente: ella busca respuestas allí donde su inteligencia de código y preferencias le indica y las canta al usuario como verdades absolutas. ¿No nos impone esto un mayor reclamo por la transparencia de las informaciones que aparecen en la red y sus interlocutores? ¿Prohibirán a Siri en China?

De momento, mientras la robotita resuelva simples cuestiones de agenda, el riesgo es básico y los beneficios interesantes sin mencionar, por ejemplo, la gran ayuda que sería para personas no videntes. Sin embargo, cabe pensar que acaso llegue el día en que podamos preguntarle sobre nosotros mismos y ella en un segundo haga un mashup de todas las filosofías habidas y por haber para tranquilizarnos con una respuesta customizada. Y nosotros, distraídos por resolver las inclemencias de la cotidianidad cambiemos lo que sabemos en la piel por lo que nos dicen desde la nube.





Estudios digitales

CCCB © Miquel Taverna, 2011.

En los últimos años, en el mundo universitario y en el de la cultura se ha desarrollado un nuevo campo de investigación que se conoce como digital humanities. Los trabajos que realizamos en el Institut de Recherche et d’Innovation (IRI) tienen que ver directa e íntegramente con este campo, si bien su naturaleza y la concepción que los preside van más allá de las digital humanities.

Lo que designa esta expresión en la era de las tecnologías electrónicas equivale en cierto modo a lo que eran antes las «ciencias auxiliares» en el ámbito de las letras y la filología (epigrafía, archivística, biblioteconomía o documentación). Sin embargo, las nuevas disciplinas plantean unos retos más amplios para las ciencias en general, en relación con la epistemología y con las condiciones de la investigación científica, la creación artística, la invención o la innovación sociales.

En primer lugar, las digital humanities facilitan el uso de nuevas formas de trabajo que tienen que ver con cierto tipo de «investigación colaborativa» en la que pueden participar personas que no son investigadores en sentido estricto. Este hecho vuelve a suscitar las mismas cuestiones que ya planteó Kurt Lewin en relación con la «investigación-acción».

Por otra parte, no se trata tan solo de la alteración que ha introducido el uso de técnicas digitales en los métodos e instrumentos de trabajo: lo que está en juego es algo que estaríamos tentados de calificar como «fractura antropológica» inducida por la digitalización, con la condición de admitir, en todo caso, que el proceso de hominización ha estado marcado permanentemente por la posibilidad de fracturas de distinta naturaleza, ya que la capacidad de romper con lo anterior es propia de esa forma de vida que conocemos como «ser humano» y que también conocemos como «libertad».

Podemos hablar de fractura antropológica en la medida en que la digitalización ha alterado en profundidad lo que Simondon denominó individuación psíquica y colectiva y Leroi-Gourhan analizó como un proceso de exteriorización. Por eso tenemos que ver las digital humanities como una rama de lo que nos hemos propuesto denominar digital studies: en efecto, las digital humanities no pueden practicarse ni teorizarse sin haber conceptualizado previamente la organología que surge con la digitalización y que afecta a todas las formas del saber: saber técnico, saber vital, saberes teóricos.

Entre los saberes académicos, y en particular entre los saberes teóricos, la organología digital ha afectado profundamente tanto a las ciencias humanas como a la física contemporánea, y más en general, a las ciencias experimentales. Por ejemplo, la nanofísica, en tanto que mecánica cuántica aplicada, solo puede constituirse a través de un organon digital como es el microscopio de efecto túnel. Lo mismo podemos decir de la genómica y las biotecnologías, que presuponen órganos de tratamiento digital de la información a que se reducen los nucleótidos que conforman la vida.

Podríamos establecer consideraciones similares en todos los campos. Lo que hoy, en Barcelona, nos proponemos estudiar con el nombre de digital studies intenta describir todo esto y contempla las digital humanities desde un punto de vista más amplio. En lo que respecta a las digital humanities stricto sensu, hemos empezado a investigarlas sistemáticamente, junto con el CCCB, tanto en el plano de las tecnologías culturales como en el de las tecnologías cognitivas.

En cualquier caso, hemos hecho extensivo el tema de las digital humanities a los digital studies, por ejemplo en los trabajos sobre la filosofía de la Red realizados conjuntamente  con Alexandre Monin y el World Wide Web Consortium, así como en la colaboración desarrollada con France Télévision, Microsoft y otras entidades sobre las nuevas herramientas para la investigación y la enseñanza superior surgidas con la organología digital y sobre las consecuencias que podría y debería tener esta novedad en la enseñanza secundaria y la primaria. Además, no hacemos distinción entre cuestiones culturales y cuestiones educativas, y consideramos que hay que volver a reflexionar en profundidad sobre las relaciones entre política cultural, política educativa, política industrial y política de los medios de comunicación.

Por todo ello, a lo largo de esta jornada examinaremos a la vez los elementos teóricos, los elementos tecnológicos y los campos de aplicación de estas consideraciones, tal como los está llevando a la práctica desde hace casi seis años el IRI, junto con el CCCB, Microsoft y las demás entidades colaboradoras.

Traducción del francés: Zoraida de Torres Burgos.





La individuación colectiva: Una nueva base teórica para las redes sociales

A pesar de su creciente omnipresencia, no hay ninguna teoría filosófica fundamental de las redes sociales, y creemos que esto ha restringido el desarrollo técnico de las redes sociales a casos de utilización muy limitados. Proponemos desarrollar un discurso teórico sobre la nueva generación de redes sociales y desarrollar prototipos de software alternativos. Nuestro proyecto se centra en la pregunta: ¿qué es la individuación colectiva y cuál es su relación con la inteligencia colectiva?

Los actuales sitios web de las redes sociales y la ciencia de las redes se basan en el individuo en tanto que unidad analítica básica, con las relaciones sociales como simples “lazos” entre individuos. En contraste, este proyecto pretende abordar incluso a los seres humanos individuales como fundamentalmente conformados por sus relaciones sociales colectivas, partiendo de la percepción de Simondon de que la individuación siempre es simultáneamente psicológica y colectiva. Nuestra propuesta debería permitir nuevos tipos de imaginación social y de estructura social mediante la reelaboración del concepto de lo “social” en la era de Facebook.

Facebook y el problema de la individuación

El origen de las redes sociales: Moreno y Saint Simon

Uno de los ámbitos de investigación emergentes dentro de la ciencia de la web y del análisis de las redes sociales es el intento de analizar las redes sociales en términos de teoría de la red según se desprende directamente de la sociología. En la aplicación sociológica tradicional de la teoría de grafos, los individuos son considerados nodos y sus relaciones sociales se representan con aristas. En su totalidad, una red se puede considerar como una representación de determinadas relaciones sociales. Tal conceptualización parece ser el fundamento de una nueva disciplina que concilia la informática y la sociología y los estudios culturales. Nuestras preguntas parten de: ¿de dónde procede toda esta concepción? ¿Qué legitima su existencia? ¿Cuál es la consecuencia de tal conceptualización?

J. L. Moreno (1889-1974), psicólogo y fundador de la sociometría, fue uno de los primeros sociólogos en demostrar el valor de los planteamientos teóricos sobre relaciones sociales basados en los grafos. El ejemplo citado con mayor frecuencia es el trabajo de Moreno en la New York State Training School for Girls en Hudson, ¡donde los casos de fuga eran más de 14 veces superiores a la norma! Moreno lo identificó como una consecuencia de la red específica de relaciones sociales de las chicas en la escuela mediante la elaboración de cuestionarios sociológicos que le ayudaron a hacer “un mapa de la red”, y después utilizó el mismo modelo para proponer otro plan de asignación que redujo con éxito el número de fugas. La creencia en la representación de relaciones sociales mediante “gráficos” impulsó a Moreno a escribir que “puesto que no podemos ver el patrón del universo social, lo hacemos visible mediante los gráficos. Por tanto, la utilidad del gráfico sociométrico será mayor cuanto con más exactitud y realismo represente las relaciones descubiertas”. [1] Pero deberíamos estar atentos a que al hacerlo el gráfico ya no es una mera representación de relaciones sociales; estos mapas de las relaciones sociales también se deberían utilizar para llevar a cabo lo que Moreno llamó planificación social, que significa reorganizar las relaciones sociales “orgánicas” con la ayuda de redes sociales planificadas y tecnológicamente integradas. En este punto podemos identificar un aspecto del que la investigación aún no se ha ocupado de forma significativa y que Moreno ya propuso en 1941: la superposición de redes técnico-sociales sobre redes sociales preexistentes “produce una situación que coge a la sociedad desprevenida y la aleja cada vez más del control humano”. [2] Actualmente, esta pérdida de control es el problema central de las redes técnico-sociales y, a fin de abordar el fenómeno, proponemos cuestionar algunos de los presupuestos que se han ocultado en el desarrollo histórico del análisis de redes sociales.

A pesar de su mapeo explícito de las relaciones sociales, en realidad el análisis de redes sociales es una expresión extrema del atomismo social. Este planteamiento se tiene que entender sociológica y filosóficamente: El presupuesto de las redes sociales es que los individuos constituyen la red y por tanto los individuos –que en la sociología tradicional (si consideramos la Teoría del Actor-Red como una alternativa), tienden a ser humanos– son las unidades básicas inmutables de las redes sociales. Si hay alguna colectividad, hay que considerarla ante todo creada por la suma de los individuos y sus relaciones sociales incorporadas en tanto que individuos conectados en el grafo de la red. Esta concepción contrasta con lo que se ha entendido de forma generalizada en antropología: es decir, que existe un sentido en toda sociedad, comunidad u otro tipo de colectividad que va más allá de la simple suma de los individuos y sus relaciones. Históricamente, se puede ver que el desarrollo de colectividades en su forma originaria de familias, clanes, tribus, etcétera, incluso precede a la noción de individuo autónomo [3].

El resurgimiento de la sociometría debería ser atribuido a la proliferación de redes técnicas, y aquí tenemos que reconocer que hoy ya no son relaciones humanas lo que la sociometría mapea, sino prácticamente todo lo que pueda ser digitalizado o, para ser más precisos, todo lo que pueda ser representado como datos. La llegada de la sociedad en red, apoyada por las infraestructuras tecnológicas, refuerza aún más el concepto de sociometría, y también el espíritu de industrialización, que se remonta a Saint Simon. El sociólogo francés Pierre Musso demuestra que Saint-Simon fue el primer filósofo que conceptualizó plenamente la idea de redes gracias a su comprensión de la fisiología, que luego utilizó para analizar ámbitos muy diferentes, si bien de una forma más imaginativa que concreta, como haría posteriormente Moreno.[4] De hecho, Saint Simon concibió redes que incluirían las comunicaciones, los transportes y similares, y defendía la idea de red tanto en su acepción primaria como en cuanto que herramienta de transformación social. Saint Simon está convencido de que a través de la industrialización se puede crear un estado socialista mediante la redistribución de la riqueza y los recursos de los ricos hacia los pobres, de los inteligentes a los menos inteligentes, de la misma manera que un organismo alcanza el equilibrio interno al desbloquear todas las vías de circulación.

Hoy sabemos, gracias a la historia, que la sociología de Saint Simon era ciega a la cuestión de las clases sociales que más tarde analizaría Karl Marx en Das Kapital. La visión que Marx tenía de la sociedad frecuentemente se ve falseada como planificación social, que es más o menos la codificación de colectivismos a la manera soviética. Moreno criticó esta imagen distorsionada de Marx y propuso que “la próxima revolución social será de tipo ‘sociométrico’. Las revoluciones de tipo socialista-marxista están pasadas de moda; no lograron responder a la sociodinámica de la situación mundial”. Quizá actualmente Facebook demuestre el anunció de Moreno, como dirían algunos de los principales escritores sobre tecnología, pero de hecho lo que Moreno quiere decir con ello se tiene que discutir más, especialmente el concepto de espontaneidad. La visión industrial claramente anticuada de Saint Simon ni se considera, pues es obvio que el socialismo no se produce de forma natural mediante la industrialización; pero lo que sí es nuevo es la idea de una nueva sociedad democrática (probablemente podríamos llamarla “democracia Facebook”) libre de fricciones gracias a la mediación de las redes. Lo mismo sucede con Moreno, la revolución sociométrica nunca se libra de su propia sombra.

Alienación y desindividuación

La representación gráfica de las redes sociales como nodos y líneas refuerza la percepción de Moreno y Saint Simon de que las relaciones sociales siempre existen en la forma de una unidad atómica que reacciona a otra. Esta imagen, con su obvia tendencia hacia la visión, se ha convertido en el paradigma central para comprender la sociedad y los sistemas tecnológicos. Sin embargo, toda imagen es también una mediación entre sujeto y objeto que preconfigura –o preprograma– un determinada intuición del mundo [5]. Podemos imaginar que la imagen misma de una red social en tanto que meramente líneas y puntos limite la innovación, pues no es capaz de explicar o de representar gráficamente a ninguna colectividad que no tenga al individuo en su centro, sino que representa siempre solo consecuencias o productos secundarios del mapa de átomos interconectados. Esto es algo que Moreno olvidó o que no pudo ver en su época: la materialización de las relaciones sociales, no en forma de gráficos sobre papel, sino de datos controlables almacenados en un ordenador que mediatizan las acciones de los usuarios. Lo que Moreno llamó revolución sociométrica es el postulado de que a través de cierta planificación sociométrica se puede potenciar la espontaneidad de las interacciones humanas. Moreno extrajo este conocimiento del largo tiempo que trabajó en el psicodrama, que se basaba en lo que criticaba de los psicoanalistas, especialmente de Freud; que no podían “ser actores”. Pero lo que queremos señalar es, en primer lugar, que ver a cada individuo como un átomo social ya implica una forma extrema de individualismo que intrínsecamente rechaza la posición del colectivo; en segundo lugar hoy, cuando la visión sociométrica se materializa en los sitios web de las redes sociales, lo que está en juego es precisamente la fe del propio Moreno en la espontaneidad y la cuestión de la individuación.

Los sitios de redes sociales como Facebook entran dentro de este paradigma, pues proporcionan solo representaciones digitales de relaciones sociales preexistentes en un espacio social más rico, y permiten nuevas asociaciones basadas en la emergencia de diferentes algoritmos de descubrimiento. La existencia misma de Facebook se basa en gran parte en el presupuesto del individualismo, pues la unidad primaria en Facebook siempre es el perfil Facebook del individuo. Siempre podríamos recordar la idea original de Facebook según nos fue presentada en la película: el joven Mark Zuckerberg creó Facebook como una herramienta para expresar su deseo sexual; es decir, una economía libidinal intrínsecamente individualista. Hoy, esta explotación de la economía libidinal no es nada nuevo; en las últimas décadas ya hemos visto la explotación de la energía libidinal en el consumismo [6]. A principios del siglo XX Edward Bernays, el padre de las relaciones públicas, adoptó el psicoanálisis en sus técnicas de márqueting e integró la economía de los productos de consumo y la economía libidinal. Los cínicos que están tan acostumbrados a burlarse de las lecturas psicoanalíticas de los anuncios quizá tengan que dar marcha atrás al descubrir que, de hecho, Bernays es sobrino de Sigmund Freud.

Bernays contrató a psicoanalistas para que participaran en el diseño de estrategias de márqueting. Uno de los ejemplos más conocidos es el de la promoción del negocio del tabaco, pues en aquella época en los Estados Unidos no había muchas mujeres que fumaran. Bernays contrató artistas de cine femeninas para que fumaran en público; esto crea un circuito de economía libidinal que se tiene que completar mediante el acto de fumar, que es lo mismo que decir comprar el cigarrillo. Hoy ya no se trata simplemente de cigarrillos, sino de cualquier bien de consumo. Vemos que en el cuerpo del ser humano se completa un circuito: primero, por la explotación del cuerpo; después, por el control del deseo de los trabajadores de acelerar el proceso de circulación. En Facebook parece que los usuarios sigan su propia voluntad al ejecutar acciones, pero en un sistema tan tecnológico, la visión, las acciones tienen que adoptar las configuraciones y funciones del sistema. En general, en otros sitios se desalienta activamente la existencia de los perfiles de grupo Google+ o los perfiles anónimos. No se puede negar que estas redes sociales son capaces de unir a la gente y de constituir grupos cuyas actividades van de la compras a la protesta. Sin embargo debemos ser cautelosos, pues en términos económicos estos grupos son externalidades positivas. Estos sitios web de las redes sociales dan apoyo solo a un pequeño número de acciones colectivas, pero en cambio han sido optimizadas para que los individuos hagan el mapa de su propia red de amigos, de manera que los individuos pueden comentar los posts de los otros y clicar en operaciones individuales muy básicas como “Me gusta” y “Quiero”, de las que cada vez está más plagada toda la Web.

Cuando se considera a los usuarios como átomos sociales a los que se puede superponer a una red tecnológica, la espontaneidad y la innovación dentro del colectivo se entregan al control de las redes, que se rigen principalmente por el márqueting intensivo y el consumismo destinados a los individuos [7]. Es obvio que las redes sociales se han convertido en un instrumento tanto para expresar como para controlar el deseo de los usuarios. El sujeto es un átomo, y dentro de las redes sociales, la subjetivación se convierte en un proceso de ingeniería sujeto a un monitoreo y un control cuidadosos que ha sido pensado por teóricos como François Perroux [8] como fuente de un nuevo tipo de alienación. No es completamente diferente de la alienación que describía Marx en Das Kapital y que era el resultado de hacer que los obreros se adaptaran al ritmo de las máquinas, de manera que el obrero pierde el control de su energía vital y en última instancia de su tiempo para reflexionar y actuar. Cuando Marx describe las fuerzas vitales del colectivo, utiliza la palabra alemana Naturwüchsigkeit, que se puede traducir literalmente al inglés por “nature-growth-ness” (pseudonaturalidad), que es similar a lo que Moreno llama espontaneidad [9]. Si podemos introducir aquí una crítica existencial, entonces podemos decir que el tiempo –y por tanto la atención de cada átomo social– es cortado en pedacitos y dispersado en las redes por las actualizaciones de estado, las interacciones, la publicidad, y similares. Esta forma de colectivo que es exactamente lo que Martin Heidegger llamaría ‘das Man’, los “ellos” que agotan el tiempo de uno sin dar significado a la propia existencia de uno. De hecho, Bernard Stiegler mantendría que estos átomos sociales construidos no son individuos, no son realmente “individuos”, sino “desindividuos”, pues parecen haber perdido la capacidad de actuar y de relacionarse excepto dentro del instrumento de una red social atomística [10].

Ingeniería social e ingeniería técnica

La sociometría de Moreno como respuesta tanto al materialismo económico de Marx como al materialismo psicológico de Freud actualmente se encuentra en su propio callejón sin salida. En sus teorías, ni Moreno ni Saint-Simon consideraron las redes digitales y las telecomunicaciones; y sin embargo, el materialismo tecnológico hoy está ligado a esta nueva red digital económica, psicológica y tecnológica.[11] La sociedad está mediatizada por los datos. Sitios como Facebook utilizan grafos de conexiones personales para predecir y por lo tanto “recomendar” productos, produciendo así deseos en el individuo que muestran que el individuo autónomo de hecho está conformado no solo por sus relaciones en la red, sino por la existencia de la red misma. Mientras que Internet es una red distribuida y descentralizada, la industrialización revierte este principio a fin de mantener simplemente un grafo social de las dimensiones de Facebook, pues analizarlo requiere una inmensa centralización. Al mismo tiempo crea una realidad técnica, con el engaño de ser un defecto no modificable. Y sin embargo, tenemos que preguntarnos: ¿es Facebook una colectividad social, o solo la imagen falsa de la misma? Yendo más allá del grafo social, tenemos que entender otras posibilidades de “redes sociales”.

La ingeniería social de Facebook se apoya en sus múltiples prestaciones, que van desde compartir funciones “Me gusta” hasta configuraciones de privacidad. Aquí vemos la unificación de ingeniería social e ingeniería técnica, que también plantea ingentes retos a la humanidad. Será necesario examinar cómo estas realidades son creadas y aceptadas; por ejemplo, si uno intenta salir, lo pierde todo, incluidas las relaciones sociales, los datos del perfil, la posibilidad de comunicar con amigos. Incluso cuando utilizamos sitios de redes sociales, los individuos y las expresiones están condicionados por las capacidades permitidas según las características del sitio web y hay desde poca privacidad hasta ninguna. No podemos elegir ser anónimos; por otro lado, la verificación de identidades es algo cada vez más importante para la industria.

Puede haber consideraciones políticas; por ejemplo, en China las redes sociales exigen a los usuarios que demuestren su identidad mostrando el carnet de identidad, y esto podría ser en respuesta al hecho de que el tema del anonimato se está haciendo cada vez más importante para la democracia y la transparencia, como ha demostrado Wikileaks. Incluso hay una demanda de anonimato; el canal japonés Ni Chanel(2ch), que funciona totalmente basado en el anonimato, se ha convertido en uno de los sitios web para redes sociales más populares en Japón. Estas características obviamente serían vitales para los de Oriente Medio, Londres, España y #OccupyWallSt. Si la subjetivación dentro de las redes sociales es un proceso de ingeniería, lo que es necesario es producir un nuevo tipo de pensamiento y una nueva forma de redes sociales. Parte de este pensamiento se puede ver en algunos eslóganes: portabilidad de datos, privacidad y posesión personal de datos. Estos eslóganes son respuestas naturales a la monstruosa capacidad de las redes sociales para crear “espacios protegidos” con los datos personales. Aunque estos eslóganes son importantes para luchar contra la dictadura de Facebook, aún les falta una reevaluación global de Facebook y una visión de una red social alternativa que no sea meramente una respuesta inmediata.

Proyecto, proyección e individuación colectiva

Simondon y la individuación colectiva

Así que proponemos un replanteamiento desde la perspectiva de lo colectivo como remedio al enfoque individualista de las redes sociales actuales. La sociometría exige un mapeo que se está haciendo cada vez más y más preciso y que refleja las probabilidades de conexiones, interacciones, márqueting; es decir, de una individuación que conduce a “desindividuos”. ¿Podemos pensar en un nuevo tipo de individuación que no pueda ser reducida a estadísticas y cuyo poder solo se base en la ambigüedad en lugar de en las precisiones? El filósofo francés Gilbert Simondon propuso en su libro L’Individuation psychique et Collective un modelo de individuación que puede ser terapéutico para la actual catástrofe tecnológica.[12]

Simondon sugiere que la individuación es siempre tanto psíquica como colectiva. Lo que Simondon quiere decir por individuación psíquica se puede considerar como la individuación psicológica de los individuos, por ejemplo bajo situaciones de ansiedad, aflicción, enfado, etc. Simondon también pone el énfasis en la individuación colectiva. Para Simondon, individuos y grupos no son dos opuestos, en el sentido de que mientras está en el grupo la persona pierde su singularidad, como se consideraba en el colectivismo de tipo soviético. Al contrario, el individuo y el grupo constituyen un proceso constante de individuación. Para Simondon, la individuación psíquica es más una individualización, que también es una condición de la individuación, mientras que la individuación colectiva es la que lleva al individuo a una transformación constante. Por tanto podemos entender que la naturaleza, de hecho, no está en oposición al ser humano, sino que más bien es la fase primaria del ser, del ser humano; y el medio técnico creado por ellos constituye la segunda fase del ser, que si se nos permite decirlo, es la individuación técnica propuesta por Bernard Stiegler.

Simondon por tanto rechazó la microsociología y la psicología americanas, lo que incluye indirectamente la sociometría de Moreno (se la considera un tipo de microsociología), por ser substancialismo. El enfoque substancial de los individuos y de los grupos ignora fácilmente la dinámica de lo social y ve lo individual y lo colectivo como interioridad y exterioridad que tienen que ser separadas. Este enfoque es presa del psicologismo y del sociologismo extremos. Simondon, en cambio, propone pensar la individuación como una dinámica necesaria entre individuos y grupos. Distingue entre “in-group” y “out-group”, y sugiere concebir el “in-group” como un intermedio entre los seres individuales y el “out-group”. Simondon considera la individuación como un proceso de cristalización. Considerando una solución supersaturada en proceso de cristalización, al absorber energía, cada ion individual se transforma según las relaciones con otros, este es su milieu. Lo que Simondon intenta provocar es evitar la cuestión social como una cuestión de forma, que también es una cuestión de normas, y considerarla como una dinámica de la distribución de la energía. La cristalización es un proceso que, aunque en última instancia produce una forma, por ejemplo la identidad de un cristal específico, al mismo tiempo también es un proceso que depende menos de la forma (siempre podemos averiguar las formas) y más de la distribución de energía y materia. Se puede percibir cierta similitud entre Moreno y Simondon en este respecto, que es la espontaneidad de “in-group” y “out-group”; y es también por esta razón que creemos que la técnica sociométrica de Moreno, aunque pueda ser utilizada actualmente para analizar redes sociales como Facebook y Twitter, también comporta el gran peligro de que la ingeniería social retroceda al psicologismo y al sociologismo.

Los proyectos como la unidad básica del grupo

Quizá queramos preguntarnos: lo que hemos visto en Facebook, ¿acaso no es ya una individuación psíquica y colectiva? Es cierto que para los simondonianos la filosofía puede ser una herramienta para analizar las relaciones sociales, pero tenemos que ir más allá del límite de que los pensamientos son meramente herramientas de análisis y aceptar que son también herramientas de transformación. Como hemos visto, Facebook individúa en primer lugar a individuos atomistas, y nosotros en cambio proponemos empezar desde lo colectivo, a fin de replantear la relación entre el individuo y el colectivo. En lugar de un átomo social, tenemos que descubrir cómo una red social colectiva cambia y conforma al individuo y considerar este fenómeno como el que tiene primacía. Esta será una red social que permita la individuación colectiva, pero también como un remedio a la intoxicación industrial y la explotación de la energía libidinal.

Por tanto queremos reflexionar sobre la cuestión del grupo y queremos proponer que lo que distingue un colectivo de un individuo es el elemento de proyecto común que tienen los grupos. Tomemos como ejemplo Ushahidi, un sitio web que proporcionó capacidades de mapeo después del terremoto de Haití de 2010 para ayudar a Haití a recuperarse de la crisis. Utilizando una plataforma basada en la web, Ushahidi permitió a los voluntarios tanto locales como extranjeros recoger mensajes SMS con un código especial para hacer un mapa de la crisis a fin de ayudar a salvar a personas que de otro modo podrían haberse perdido. Después del terremoto y del tsunami de Japón en 2011, ingenieros japoneses desarrollaron un mapa de los daños del tsunami y de las emergencias a atender mediante el análisis de tweets y otros medios de comunicación sociales. La dinámica de estos proyectos va mucho más allá de simplemente colgar actualizaciones de estado, y permite a la gente trabajar conjuntamente de forma dinámica para unos objetivos comunes. Es el momento de la formación de proyectos el que permite a los individuos individuarse a través del colectivo y el que, por tanto, da significado al individuo. En Facebook se puede establecer un grupo, una página, un acontecimiento que parece que vaya a propiciar la aparición de un proyecto común, pero Facebook no proporciona las herramientas para una individuación colectiva basada en la colaboración.

Pasando de un modelo filosófico a su realización en un sistema técnico, proponemos que el sitio para las redes sociales debería existir como un conjunto de herramientas que permitan la creación y la gestión colectivas de un proyecto. La inteligencia colectiva se activa en la medida en que el grupo utiliza con éxito sus habilidades humanas y técnicas para lograr sus propósitos. Un usuario debe pertenecer siempre a un proyecto, sin el que él o ella no será capaz de utilizar plenamente sus características; y los proyectos son definidos por los grupos. Este es un primer intento de abordar el individualismo propuesto en el actual paradigma de las redes sociales. Cada proyecto viene definido por un objetivo y por unos requisitos a cumplir de acuerdo con lo iniciado colectivamente y actualizado por miembros del grupo. Se asignarán tareas a los usuarios, bien en la forma de individuos o subgrupos; el progreso de las tareas se monitorizará y se indicará. Sin embargo, el colectivo no debería ser estático sino dinámico; los grupos se pueden fusionar para formar proyectos más amplios, y también un proyecto puede ser dividido entre colectivos más pequeños. Los grupos pueden descubrirse mutuamente y comunicarse para buscar posibilidades de colaboración y de compartir la información.

Estudios de casos y posible marco de trabajo

En nuestro proyecto “Social Web”, examinamos algunos de los modelos existentes, incluida Wikipedia, algunas plataformas de código abierto y proyectos alternativos de las redes sociales como Lorea, Federated General Assembly, Crabgrass y Diaspora, así como también sitios web poco usuales para redes sociales tales como Ni Channel y NicoNico Douga en Japón. Algunos de estos grupos ya demuestran la valía de los grupos y proyectos, por ejemplo el proyecto enciclopédico de Wikipedia, y también Lorea y Crabgrass, en cuanto a crear redes sociales alternativas que propician grupos y espacios de trabajo comunes. También reconocemos que, aunque cada uno de ellos posee algunas de las características de colaboración necesarias para un nuevo tipo de red social, realmente no incorporan el concepto de individuación a los fundamentos de sus diseños. Además de volver a la prioridad de los grupos y de poner el énfasis en la gestión de grupo, también sugerimos otras características técnicas para esta concepción de red social colectiva:

  1. La red existe principalmente como comunicación social dirigida, destinada a un proyecto, y para que esto sea posible se le deberían añadir los diferentes foros de lenguaje naturales tales como debates y wikis. Sin embargo, a diferencia de las redes sociales tradicionales, el propósito del sitio web para redes sociales será ayudar a los usuarios a guardar y perfeccionar los datos, y los datos se guardarán en un formato abierto como RDF. Los usuarios y grupos tienen autorización para gestionar los datos del proyecto y para recuperarlos utilizando el marcado y la búsqueda. El mapeo se debería utilizar como un medio, posible y fácil de interpretar, para comprender la recogida colectiva de datos.
  2. Para los proyectos colectivos se podrá permitir el anonimato bajo determinadas condiciones (por ejemplo el grupo es totalmente anónimo, o el grupo decide abrirse al anonimato). Por ejemplo, en Ni Channel, una de las razonas por las que el inventor quiere que sea anónimo es para que no haya una segregación que podría perjudicar la formación de colectivos.[13] Solo el colectivo debería poder acceder a los datos personales, y ni siquiera quienes administran el servidor deberían poder acceder a ellos. En cuanto a la seguridad de las redes, en primer lugar los datos en los servidores se encriptarán mediante la implementación de infraestructuras de claves públicas, y el grupo se definirá por las claves públicas compartidas. Por tanto ni el ISP ni los administradores del sistema podrán acceder a los datos en el servidor. En segundo lugar, los datos se guardarán distribuidos en múltiples servidores a fin de minimizar las consecuencias de los ataques.

 

Conclusiones y tareas futuras

El esbozo precedente es una introducción al marco filosófico de un proyecto financiado de “web social”. Para nosotros Facebook representa una industrialización de las relaciones sociales hasta el extremo de que transforma lo “social” en un individualismo totalmente “atómico”. La idea de Saint Simon de un socialismo basado en la creencia en el bien común y el bienestar de los individuos a través de la construcción de redes se considera un fracaso, pero la relación entre red y sociedad adquiere una forma más agresiva en la era de los omnipresentes metadatos. La técnica sociométrica de Moreno probablemente hoy tenga su mejor amigo en Facebook y en otros instrumentos de las redes sociales, pero celebrar el resurgimiento de la técnica sociométrica no es más que ignorar el peligro que plantean los presupuestos de tal teoría y el desarrollo tecnológico. Nosotros proponemos que, hoy, la informática social tiene que ir más allá de las humanidades digitales tradicionales que proponen analizar la transformación social tomando en cuenta las tecnologías; será mucho más fructífero seguir lo que Stiegler llama farmacología, que es decir que la tecnología es buena y mala al mismo tiempo, pero que es necesario desarrollar un enfoque terapéutico contra la toxicidad por ella generada, que en nuestro caso es Facebook(s).

La individuación colectiva propone que otra red social es posible, y es necesario considerar una economía que sea mucho más que márqueting, tasa de clics, número de usuarios, etc. Para nosotros, un proyecto también es una proyección, que es la anticipación de un futuro común del grupo. Mediante la vinculación de grupos a proyectos, queremos proponer que la individuación siempre es temporal y existencial, en lugar de meramente social y psicológica; y que la proyección de una voluntad común para un proyecto produce una coindividuación de grupos e individuos. El proyecto está en desarrollo, pero esperamos que el resumen precedente muestre el problema de las redes sociales y los límites de las humanidades digitales (especialmente las que abarca la sociometría) en cuanto a entender la informática social, y está claro que un nuevo método para el desarrollo de software es posible y urgente.


[1] J. L. Moreno, Who Shall Survive? Foundations of Sociometry, Group Psychotherapy and Sociodrama, Beacon House Inc. Beacon, N. Y. 1978.

[2] J. L. Moreno, ‘Foundations of Sociometry: An Introduction’, en Sociometry, American Sociological Association , Vol. 4, Nº 1 (feb. 1941), pág. 15-35.

[3] Esta visión del individualismo también ha sido adoptada en los estudios económicos desde Adam Smith, quien vio la división del trabajo como un desarrollo natural y el intercambio entre individuos como el origen de la vida económica.

[4] P. Musso, ‘Aux origines du concept moderne: corps et réseau dans la philosophie de Saint Simon’. En Quaderni. Nº 3, Hiver 87/88. pág. 11-29. doi: 10.3406/quad.1987.2037.

[5] También podemos hablar de la Weltbild desarrollada por Heidegger, donde Heidegger mostró que una imagen no es solo una representación del mundo, sino también que el mundo puede ser controlado y manipulado como una imagen.

[6] Bernard Stiegler, For a New Critique of Political Economy, Polity, Londres, 2010.

[7] Despues del botón de “Me gusta”, Facebook anunció en septiembre de 2011 la introducción de un botón de “Quiero” diseñado para márqueting, http://www.auctionbytes.com/cab/abn/y11/m09/i23/s01

[8] El economista francés François Perroux cogió el tema de la industria y la transformación social de Saint-Simon y desarrolló una visión de creación colectiva en la que los humanos y las máquinas actúan los unos sobre los otros, y a través de la estandarización de los objetos los seres humanos pueden renovar su estilo de vida y producir un sistema de “creación autocolectiva”. Cabe señalar que Perroux también recibió la influencia de Schumpeter, especialmente el concepto de destrucción creativa.

[9] Por tanto deberíamos reconocer la problemática de la crítica de Moreno sobre Marx, y quizá podamos desarrollar una nueva relación entre Moreno y Marx.

[10] B. Stiegler, États de choc : Bêtise et savoir au XXIe Siècle, Mille et une Nuit, 2012, p. 102-105, donde propone tres tipos de desindividuación: en primer lugar, la regresión a lo puro social, y lo puro social es la forma de vida animal; en segundo lugar, el proceso de eliminación de la necesidad de trabajo especializado por la introducción de las tecnologías, por ejemplo cuando los artesanos tuvieron que trabajar en las fábricas y abandonar sus propias destrezas y forma de vida; en tercer lugar, el proceso de “poner entre paréntesis” la individuación previa que produce un “salto cualitativo” y supera el umbral de la transformación psíquica. Según Stiegler, estos tres tipos de desindividuaciones no se pueden separar.

[11] J. L. Moreno, The Future of Man’s World, New York Beacon House, Psychodrama Monographs, 1947.

[12] Gilbert Simondon, L’individuqtion Psychique et Collective, à la lumière des notions de Forme, Information, Potentiel et Métastabilité, París, Editions Aubier, 1989 y 2007.

[13] Satoshi Hamano, Architecutre no seitaikei: Johokankyo wa ikani sekkeisaretekitaka (Ecosystem of Architecture), traducción china, Taiwan, 2011.





Los usos de McLuhan

CCCB (C) Gloria Solsona, 2011.

En este breve texto retomaré algunas ideas sobre las interpretaciones vigentes de la obra de Marshall McLuhan que dejé caer en un post anterior en mi blog Hipermediaciones. La pregunta de partida podría ser la siguiente: ¿Cómo leemos a McLuhan? ¿Qué le estamos haciendo decir a sus textos? Creo que hay varias formas de acercarse a la explosiva y heterogénea obra del canadiense. Algunas lecturas se asientan en campos disciplinarios muy específicos: hay lectores provenientes  de los estudios mediáticos, otros de lo educativo, inclusive hay gente que se acerca a McLuhan desde el marketing o el mundo editorial. Cada uno de ellos construye un McLuhan a su medida, y suelen encontrar en sus textos interesantes respuestas pero sobre todos nuevos desafíos. McLuhan se jactaba precisamente de esto: tal como nos recordó uno de los conferenciantes de McLuhan Galaxy Barcelona 2011, McLuhan quería que pensáramos.

Otra posibles lecturas de McLuhan atraviesan todo el espectro disciplinario. Una de las maneras de interpretarlo más difundidas es la que se focaliza en el carácter predictivo de sus ideas y aforismos. Durante la McLuhan Galaxy Barcelona 2011 una y otra vez, en las conferencias, mesas redondas o sesiones de comunicaciones,  la capacidad predictiva de McLuhan estuvo presente en los discursos. Yo mismo he participado activamente en este juego que consiste en leer a McLuhan con un ojo puesto en el papel y el otro en la realidad del siglo XXI (ver este post en Digitalismo del 2010). McLuhan murió en el 1980 pero habría anticipado la web, Facebook, la crisis de la escuela y, si seguimos en esta línea, hasta el triunfo del Barça sobre el Manchester la noche del 28 de mayo del 2011…

¿Un McLuhan-Nostradamus? Debo confesar que después de esa full-immersion de tres días que mantuvimos en la McLuhan Galaxy Barcelona 2011 salí saturado de predicciones mcluhanianas. Creo que estamos reduciendo la complejidad de su pensamiento y aportes a los de un mago de feria con una bola de cristal. McLuhan era un agudo analista de su realidad: me refiero a los años de la posguerra, cuando la televisión era el new media que rompía todos los esquemas y la agenda mundial saltaba de las barricadas de París a unas pisadas en el Mar de la Tranquilidad en la superficie lunar. Esa era la realidad que analizaba e inspiraba a McLuhan, no nuestra realidad de redes sociales, convergencias y desintermediaciones.

De frente a un mundo académico anquilosado que se debatía entre las escuelas críticas europeas (“hay que denunciar la ideología burguesa de los medios”) y los estudios empiristas estadounidenses (“hay que estudiar los efectos de la TV en los niños”) McLuhan irrumpió con una mirada oblicua, desacralizadora e imposible de encuadrar en los esquemas académicos de su época. McLuhan no se quedaba en la constatación del puro dato empírico sino que tenía la lucidez necesaria para encuadrar ese elemento en un proceso mayor. En otras palabras: McLuhan identificaba patterns y los sintetizaba de manera brillante en sus célebres aforismos. Al decir “el medio es el mensaje” McLuhan estaba identificando un pattern y, por el mismo precio, nos proponía una nueva forma de interpretar los medios y la cultura.

Más que leer a McLuhan con el microscopio para identificar posibles predicciones, creo que nos rendirá mucho más tratar de reconstruir su mirada, descubrir los “protocolos” cognitivos y discursivos que lo llevaron a romper los esquemas científicos y generar una visión diferente de su realidad. Para sintetizar: paga más interpretar los medios de hoy con la mirada de McLuhan que tratar de crear un relato donde McLuhan habría previsto nuestra realidad mediática hace 50 años. La lectura que propongo debería dedicarse menos a buscar frases anticipatorias y más a identificar patterns en su discurso. Lo que propongo, en otras palabras, es una lectura mcluhaniana de McLuhan.





De bits a átomos, del click al touch

El concepto Siftables, u “ordenadores dominó”, fue creado por David Merrill y Jeevan Kalanithi en el MIT.

Una madre viaja en metro junto a su pequeña hija que no cesa de tirarle del bolso. Resignada, la mujer abre la cremallera y hace aparecer un iPad. La niña lo coge como si hubiera nacido con el dispositivo entre las manos y comienza a deslizar los dedos sobre la pantalla. La capacidad de ingresar en el ciberespacio tocando la información, de ampliar fotos utilizando los dedos pulgar y mayor en un gesto espontáneo no parecen resultarle extraños. Allí está la niña, ahora inmersa en un mundo de bits que se desprenden del ciberespacio a través de una mirilla rectangular, la pantalla, hacia el mundo físico donde otros compuestos de átomos la miran con curiosidad.

Conceptos como multi-touch o gestos como el “zoom con dos dedos” han ingresado en la cotidianidad de los usuarios con la velocidad de un aerolito y, aunque en un estadio prematuro, sugieren una serie de interrogantes que en la última década han cambiado el rumbo de la investigación en el campo de la interacción persona-ordenador. Se trata de los primeros pasos hacia la masificación de las interfaces que buscan ser cada vez más tangibles, un concepto que podría emanciparnos de la tiranía de la pantalla, el ratón y el cursor, y reconciliar bits y átomos en tecnologías integradas.

De las GUI a las TUI

Los términos Interacción Tangible (TI) e Interfaces Tangibles de Usuario (TUI) –Tangible interaction y Tangible User Interfaces, en inglés-  fueron acuñados en 1997 por Hiroshi Ishii en el MediaLab del MIT, aunque desde principios de los noventa ya existían investigaciones e implementaciones vinculadas a dichos conceptos. Las interfaces tangibles de usuario (TUI) combinan el control y la representación en un mismo objeto o espacio físico. Si en la manipulación directa con la interfaz gráfica de usuario (GUI), las personas interactúan con la información digital a través de sus representaciones gráficas (iconos, ventanas, menús) mediante dispositivos apuntadores (ratón, teclado, joystick), en las TUI se enfatiza en la tangibilidad y en la materialidad, en la encarnación física de los datos, en la interacción corporal y en la incorporación de estos sistemas en espacios físicos reales.

Bits tangibles: hacia interfaces integradas entre personas, bits y átomos” es el título del paper seminal en el que Ishii sugiere que las interfaces actuales abren una brecha insalvable entre el ciberespacio y el mundo de los átomos. A su criterio, el fin último de las interfaces tangibles es conectar la información digital nuestra de cada día con los objetos materiales, los espacios arquitectónicos que nos rodean.  La idea es dar forma física a la información digital, y así poder manipular los bits con nuestras manos y permitir el reconocimiento medioambiental de la información en la periferia de la conciencia.

Sin dejar de reconocer que las GUI fueron cruciales a la hora de democratizar el acceso a la informática, el investigador se inspiró en aquellos instrumentos científicos de museo (con gran riqueza estética y prestaciones) que en su tiempo sirvieron para medir el paso del tiempo, predecir los movimientos de los planetas o dibujar formas geométricas, para reflexionar sobre el futuro de la interacción persona-ordenador. ¿Qué hemos perdido al haber concentrado todas nuestras operaciones con la información en los ordenadores personales dejando de lado el sentido del tacto, la percepción periférica, los objetos tangibles? Hoy gran parte de nuestras interacciones con otros usuarios y con el ciberespacio están confinadas a las tradicionales GUI, a su vez atrincheradas en cajas sobre escritorios, laptops o pantallitas que demandan toda nuestra atención y proponen formas de interacción que nos separan del mundo de los átomos.

Ishii utiliza el ábaco como metáfora definitiva de lo que la interacción tangible debiera ser. A diferencia de los ordenadores o las calculadoras de bolsillo, que disponen de dispositivos de entrada y salidas diferentes (teclado y pantalla) e integrados a través de una convención arbitraria, en el ábaco, los componentes de entrada y de salida coinciden y las operaciones se realizan mediante la manipulación directa de los resultados. En esa dirección, las TUI buscarían aumentar el mundo físico real mediante el acoplamiento de información digital en objetos físicos cotidianos que los usuarios puedan manipular, una propuesta diferente a la de la Realidad Aumentada.

Dentro del ámbito de las interfaces tangibles existen diferentes conceptos que van desde las ya famosas mesas interactivas, hasta los objetos híbridos y los ambientes interactivos. Veamos algunos de los casos más significativos.

El contestador automático de canicas: Creado por Durell Bishop en 1992 es uno de los prototipos precursores de lo que luego se llamaría TI. Los mensajes de voz son representados con canicas que el usuario debe coger e introducir en una ranura para así poder escucharlos. Con solo ver el repositorio, la persona puede saber -sin tener que pensar- si tiene mensajes o no, si son muchos o pocos.

Live wire: precursor de los dispositivos ambientales, es un instrumento escultórico creado por Natalie Jeremijenko para Xerox PARK, que consta de un cordón de plástico que cuelga de un pequeño motor montado en el techo. El motor está conectado a la red ethernet de la empresa, por lo que cada paquete de información que la atraviesa causa un movimiento en el cordón. Los bits que viajan por los cables de los ordenadores se hacen tangibles a través del movimiento del cordón que indica a los trabajadores si la red se encuentra muy saturada (mucho movimiento) o no. La escultura apela a la percepción periférica de los usuarios.

Reactable (2003): Es una mesa de colaboración musical concebida en el seno del Music Technology Group de la Universitat Pompeu Fabra. Fue presentado por primera vez en un concierto en 2005, pero logró popularidad masiva cuando millones de personas vieron la demostración en YouTube y luego Björk lo usó en su gira mundial en 2007. De las interfaces que componen el espectro de las TUI, las denominadas tabletops son las más populares. Entre los pioneros, se puede citar el Sensetable o el Audiopad, ambos desarrollados en el MIT Medialab a finales de la década del noventa. Independientemente de las diversas tecnologías utilizadas (varios sistemas de detección ópticos, electromagnéticos, por ultrasonido, etc.), las mesas interactivas suelen combinar el seguimiento de objetos de control sobre su superficie, con técnicas de proyección que las convierten en grandes pantallas interactivas. Este tipo de dispositivos permite al usuario coger la información, trabajar con ella para crear de forma individual o colectiva. La Surface (2007) de Microsoft y la DiamondTouch de Mitsubishi son otras de las famosas mesas interactivas.

Siftables (2008): se trata de unas piezas de plástico del tamaño de una galleta desarrollados por el MIT que se comunican entre sí y con el ordenador permitiendo interacciones muy particulares. Poseen sensores de movimiento, de inclinación (acelerómetros tri-axiales), de cercanía (infrarrojos), memoria flash, un mini procesador, bluetooth y pantallas OLED táctiles. Sirven para jugar y hacer cálculos, entre otras actividades. Los siftables probablemente contengan el gen del proyecto “Intelligent Physical Modeling Systems”, creado por el arquitecto John Hamilton Frazer en los 70, unos cubos inteligentes que se reconocen por proximidad y permiten prototipar ideas en 3D.

Ambientes inteligentes con paredes, techos y suelos interactivos, objetos híbridos y mesas que reaccionan a gestos y promueven la colaboración obligan a repensar las formas en las que concebimos la interacción con la información digital y su correlato en el mundo de los átomos. La percepción del espacio, el sentido del tacto y la percepción periférica son algunas de las capacidades cognitivas que este tipo de tecnologías intenta abordar para sobrepasar las limitaciones de las GUI.

Referencias

Tangible bits: towards seamless interfaces between people, bits and atoms. In CHI ‘97: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. H. Ishii y B. Ullmer (1997)

Interactive Surfaces and Tangibles. Tap. Slide. Swipe. Shake. Sergi Jordà, Carles F. Julià, and Daniel Gallardo (2010)





Charles Leadbeater y la «cultura de la nube»




A lo largo de las cuatro temporadas del ciclo I + C +i ha ido creando un dibujo de los conflictos que condicionan la práctica cultural en la actualidad: la creación colectiva, la llamada a la participación, la crisis de la propiedad intelectual , la aparición del prosumer, los nuevos formatos, la convergencia de medios y la nueva economía. La última sesión de este año, el 14 de diciembre está dedicada a la economía distribuida y la cerraremos con una charla de Charles Leadbeater sobre la Cloud Culture (cultura de la nube), un tema que, a modo de síntesis, aglutina todos los conceptos tratados a lo largo del ciclo.

Charles Leadbeater es un periodista de economía convertido en consultor de innovación. Su último libro We Think: The power of mass creativity (2008) explora cómo la red está cambiando nuestro mundo, creando una nueva cultura en la que cada vez más gente puede participar, compartir y colaborar, tanto en lo que respecta a ideas como información. Leadbeater es experto en el aumento de la economía del conocimiento e Internet, y ha estudiado ampliamente lo que él llama «The Pro-Am Revolution» : Los profesionales-amateurs (los contribuidores de que nos hablaba Bernard Stiegler) que demuestran como el trabajo en línea independiente puede tener gran impacto en la política, la cultura, la economía y el desarrollo.

Este año Counterpoint (el Think Tank del British Council) le ha encargado escribir un paper sobre la Cultura de la nube (Cloud Culture), de la que nos hablará en esta sesión. Según Leadbeater estamos entrado en una nueva era de Internet, donde gracias a la computación en nube (cloud computing) surge la cultura de la nube (cloud culture).

En el mundo de la computación en nube nuestros datos (mails, documentos, imágenes, canciones …) se almacenan remotamente en una nube digital a la que podemos acceder desde cualquier dispositivo que queramos y cuando queramos (pensemos en la consulta del mail desde un móvil). En este contexto, compartir programas e información cobra mucho sentido, al menos en teoría, ya que abona el terreno para la innovación y la creatividad. Un ejemplo son las plataformas de software libre, que  se han creado de este modo. Como en el cielo, hay muchos tipos de nubes digitales: hay comerciales (Google o Amazon), sociales (Wikipedia) o públicas (The World Digital Library), que a su vez pueden ser abiertas (Twitter o Wikileaks) o cerradas (Gobiernos), o también permanentes (las nubes científicas, como por ejemplo las que hay en el entorno del CERN) o transitorioa y emergentes (como las campañas de marketing viral). El aumento de las nubes digitales cambiará la cultura, la creatividad y la relación entre ellas: el almacenamiento de datos en las nubes, la expansión de la banda ancha, las nuevas tecnologías de búsqueda, el acceso a través de nuevos dispositivos deberían crear una cultura más accesible y conectada, aumentando la capacidad expresiva de la gente, en una gran nube Pro-Am.

Pero esta cultura de la nube topa con tres grandes amenazas para las que propondrá soluciones durante la sesión. Por un lado la del control de los poderes que hasta ahora habían dominado y prescrito el discurso (gobiernos, empresas, etc.) que ven como la nube permite una mayor diversidad de expresiones culturales, descentralizadas, plurales y colaborativas donde se desdibujan las fronteras entre lo amateur y lo profesional y entre consumidor y productor. Por otro, la de los propietarios del copyright que ven Internet no como una tecnología de libertad cultural sino de destrucción de su modelo de negocio, y que reaccionan aumentando la normativa que dificulta compartir. Y por última la de los capitalistas de la nube (cloud capitalists), los nuevos magnates mediáticos (Facebook, Google, Apple, Twitter …) que bajo el pretexto de prestar servicios, organizan la nube para sacar rendimiento económico.

Leadbeater dibuja un mapa de la situación y advierte de la importancia que la nube sea rica y plural, porque el verdadero potencial es el de una nueva cultura global de lo común (global cultural commons) que sólo permanecerá abierta si resiste a las amenazas de cerrarla y controlarla. El conflicto entre el aumento de la colaboración en masa y los intentos de mantener el control desde arriba hacia abajo (top-down) serán una de las batallas de nuestro tiempo.

Lecturas y videos recomendados

Cloud Culture, The Promise and Threat

Cloud Culture: The Future of Global Cultural Relations

The Pro-Am Revolution

Charles Leadbeater en TED





Cartografías de la complejidad

Jorge Macchi. Doppelgänger. 2005.

Es indudable -McLuhan dixit-, que los medios reformatean nuestra cognición y nuestras relaciones. Las redes sociales constituyen un ejemplo literal de ello. Probablemente, construir otros vínculos en nuestra época pase por diseñar software; pensar esos nuevos entornos o interactuar con ellos de modo crítico está abriendo horizontes literarios.

En Redes complejas Ricard Solé presenta los descubrimientos más recientes en la ciencia de redes. El estudio de los sistemas complejos se centra en el análisis de la interacción de los elementos y no de las partes aisladas. Las investigaciones presentadas descubren las regularidades universales que subyacen en áreas aparentemente distintas: economía, biología, lenguaje, sistemas eléctricos e interacciones sociales, produciendo una revolución en la cartografía de la complejidad. En palabras de Solé, cuando combinamos elementos entre sí surgen numerosos fenómenos que no ocurrían a una escala inferior.

Las arquitecturas de la interacción se caracterizan por formar un “mundo pequeño”, es decir, cierto grado de aleatoriedad entre las conexiones de un sistema facilita la creación de “atajos” entre sus componentes. Uno de los experimentos que confirman esta hipótesis es la teoría de los 6 grados de separación, demostrando lo cercanos que estamos de cualquier persona en el mundo. La facilidad de propagación de la información en los mundos pequeños favorece también el colapso cuando uno de los nodos de comunicación es dañado, es así como sucede con el cáncer a nivel celular, o los virus informáticos. A diferencia de sistemas altamente jerarquizados, se trata de sistemas más interdependientes con una distribución de las funciones menos especializada, lo que constituye por una parte su fortaleza y, por otra, su fragilidad. Léase biosfera o economía mundial.

Pongamos en relación este marco teórico con las llamadas redes sociales:

¿Qué haces? es una pregunta habitual cuando llamamos por teléfono a una persona de nuestro círculo. Aunque usualmente la respuesta sea tomar un café o cocinando, compartir esta información nos hace sentir conectados. Tanto Facebook como Twitter han sido diseñados para cumplir esta función comunicativa, una función que podríamos llamar fáctica. Si Facebook ya es bien conocido, el segundo requiere, quizá, una introducción. Twitter es una red social de microblogging que nos permite enviar mensajes limitados a 140 caracteres: el tweet –del inglés gorjeo o parloteo-, tiene el propósito de informar sobre el estado del usuario de una manera sintética. Una de las diferencias entre estos dos servicios radica en que en FB hay que dar el consentimiento de “amistad” para “agregar” a la otra persona dentro de los propios contactos, mientras que la opción por defecto de Twitter permite “seguir” y “ser seguido” por cualquier persona. El esquema básico de difusión de este tipo de programa es el de “muchos a muchos”.

Por las características de Twitter los usuarios pueden alcanzar cotas de seguimiento –y por tanto de difusión- muy altas. Las “Ballenas” -usuarios que sobrepasan la barrera de los 2000 seguidores- son, en terminología de sistema de redes, hubs , o nodos caracterizados por sus altos índices de conectividad. Estos elementos, según la teoría de redes, son los encargados de movilizar la información, y, a su vez, aquellos que con más facilidad pueden propagar virus. Una característica que forma parte tanto de las redes sociales como de los sistemas celulares. El fallo de transmisión en uno de estos hubs o en una célula daría lugar al cáncer o al colapso de la red.

Según Mike Murphy, vicepresidente de FB, sólo un 10% de los contenidos de Twitter son producidos por los usuarios. Aunque depende de a quién sigamos, es decir, de la comunidad de intereses de la que formemos parte, la mayor parte de los mensajes suelen ser enlaces o “retweets”: mensajes reenviados. Sea cual sea el objetivo del usuario, la gran capacidad de divulgación de los mensajes por vía Twitter ha hecho que sea un caldo de cultivo perfecto para el marketing viral; cuesta distinguir entre los conceptos de publicación y el de publicidad.

Las posibilidades de amplificación del concepto de literatura que ofrecen estas interfaces están siendo exploradas. El many-to-many de Twitter, facilita la creación colectiva. La escritora Cristina Rivera Garza ha sido una de las pioneras en el uso de este dispositivo como herramienta de creación literaria. La Tuitnovela se basa en la escritura colectiva a partir de los comentarios de diferentes twitters en una misma “línea de tiempo” – sección de la interfaz destinada a una conversación concreta entre varios usuarios-. Para Cristina Rivera Garza lo que importa en este tipo de obras es “La producción plural de una estructura”, así pues estas creaciones se basarían en los conceptos bajtinianos de polifonía y yuxtaposición.

¿Un cadáver exquisito? En parte. La posibilidad de escritura en grupo y tiempo real, la brevedad del espacio disponible –del mismo modo que en el sms- , predispone a la escritura de aforismos y nos retrotraen a la forma poética del haiku. Según la teórica Josefina Ludmer, las escrituras posautónomas son aquellas que, escapando a los confines de lo literario, se abocan a la producción de presente. Ludmer ha intentado ubicar autores cuyas obras “no admiten lecturas literarias; esto quiere decir que no se sabe o no importa si son literatura. Y tampoco importa o se sabe si son ficción o realidad. Se instalan localmente y en una realidad cotidiana para ‘fabricar presente’ y ese es precisamente su sentido”. Para estos autores todo lo económico es cultural y viceversa. Según Rivera Garza, estas escrituras confirman que la realidad es ya en sí misma ficción y que la ficción es nuestra realidad cotidiana.

Un ejemplo de las posibilidades creativas de esta interfaz exploradas por la autora son los #cuentuitos. La almohadilla delante del nombre señala que se trata de un hashtag o etiqueta que agrupa todos los comentarios. Los #cuentuitos són cuentos limitados a 140 caracteres escritos a través de la red social Twitter, Cristina Rivera Garza fue la encargada de comisariar el primer evento de escritura en vivo de cuentos de estas características. Como manifiesto teórico de la escritora mejicana vale la pena la pena visitar  “La producción del presente”.

Independientemente de la orientación y calidad de las obras, la mayoría de las iniciativas literarias que integran dinámicas 2.0 tienen en común los conceptos de conexión y colectividad. La socialización de la experiencia de lectura, la creación polifónica y la supranacionalidad (o globalización en su acepción negativa), son sus denominadores comunes. Si bien algunas de estas escrituras se han desvinculado de la intención literaria –quizá ello sea una ventaja-, cabe preguntarse si, ante la profusión y especialización de servicios de red social y publicación on-line, la “producción de presente virtual” sea equivalente a comunicación (artística o no). Ante el interés que despiertan estas nuevas iniciativas, vale la pena procurar que el murmullo global no ensordezca voces y singularidades. Encontrar estrategias para habitar esos ecosistemas creativos en un “mundo pequeño”, pasa, según Solé, por la colaboración.





Preguntas sobre realidad aumentada

Imagen creada por Mac Funamizu, reproducida bajo licencia Creative Commons Attribution 3.0.

Hay ciertos términos que en el ámbito cultural se comienzan a repetir como mantras. Desde el CCCB Lab hemos comprobado, por ejemplo, cómo el concepto de innovación se aplica indistintamente y, a veces, indiscriminadamente, en ámbitos dispares

Con el concepto de realidad aumentada pasa algo similar. ¿A qué nos referimos? Una síntesis esquemática nos dice que la realidad aumentada es un velo de realidad mixta a tiempo real -entendiéndola como información generada por dispositivos 2.0- superpuesto sobre un entorno físico.

Es decir: a lo que conocemos como el mundo exterior y la información que este genera, se le añaden elementos virtuales, maximizadores de nuestra percepción de la realidad, mediante un aparato -camara, teléfono, etc-.

Esto ha generado numerosos debates sobre el sentido de la realidad, los límites de esta, tal como en su momento provocó la aparición del concepto de realidad virtual. Pero ¿qué hay de las aplicaciones?

En el CCCB Lab nos ocuparemos de la evolución de la realidad aumentada, centrándonos en sus posibles aplicaciones en el ámbito expositivo, y en las prácticas artísticas en general, sin olvidar los debates de fondo sobre la “amplificación de la realidad” que- desde la genética a la astrofísica- está cambiando nuestra concepción de lo que nos rodea.