Más que el perfeccionamiento de los algoritmos, lo que ha propulsado el desarrollo de las inteligencias artificiales (IA) ha sido la posibilidad de gestionar y analizar más datos. Siguiendo la lógica de que estos datos se producen de manera colectiva, hay que repensar la propia esencia de la IA como bien común, así como su vinculación con nuestro cuerpo y nuestros procesos cognitivos.
Cuando hablamos de inteligencia artificial (IA) surgen muchos problemas. El primero de ellos tiene que ver con la idea de inteligencia en sentido general: antes siquiera de atribuirla a una entidad artificial, la propia noción resulta problemática aun cuando se refiere tan solo a los seres humanos. Podemos decir que, al menos desde la tradición filosófica occidental, la inteligencia se ha asociado con las nociones de intelecto y de entendimiento, y, a tal efecto, con la actividad lógica y mental del conocimiento consciente. Muchas de las discusiones en torno a este concepto han puesto el acento en la crítica al dualismo mente-cuerpo, señalando que la actividad cognitiva no se refiere solo a una dimensión puramente psicológica-mental ni tampoco a una dimensión necesaria ni exclusivamente consciente, sino que también involucra aspectos sensibles, emocionales, afectivos e inconscientes que integran procesos corporales y somáticos. Esta visión da lugar a una crítica del concepto de inteligencia que apunta a la necesidad de atribuirles cognición también a ciertos procesos materiales o agentes no humanos, entre los que se encuentran los artefactos y los sistemas técnicos.
En esta línea, que aboga por comprender la inteligencia desde marcos más amplios, se hallan propuestas como la de N. Katherine Hayles, que señala la continuidad cognitiva que existe entre la dimensión consciente del ser humano con partes de sí mismo no conscientes, como algunos procesos celulares, químicos o digestivos. Cuando comemos, nuestro sistema digestivo opera desde un conocimiento que podríamos denominar procedural: es capaz de separar nutrientes y eliminar elementos que pueden ser tóxicos, y sabe asimismo distribuir perfectamente la energía que estos nutrientes aportan a las distintas partes del cuerpo. Y todo esto sucede sin que nosotras seamos en absoluto conscientes de ello. Sin embargo, es este conocimiento somático el que hace posible que pueda existir cualquier otro tipo de actividad cognitiva consciente. Pero esto no solo ocurre dentro de los límites del cuerpo humano, sino que también podría atribuirse a otros agentes no humanos, como las plantas y los sistemas técnicos. En su libro Unthought, Hayles afirma que
La conciencia ocupa una posición central en nuestro pensamiento, no porque sea la totalidad de la cognición, sino porque crea las narrativas (a veces ficticias) que dan sentido a nuestras vidas y respaldan las suposiciones básicas sobre la coherencia del mundo. La cognición, por el contrario, es una capacidad mucho más amplia que se extiende más allá de la conciencia a otros procesos neurológicos del cerebro; también está presente en otras formas de vida y en sistemas técnicos complejos.[1]
Es importante remarcar que estas capas de «cognición no consciente» no son, pese a todo, ajenas a la conciencia, sino que constituyen en su relación complejos ensamblajes cognitivos distribuidos a diferentes escalas y entre diferentes agentes. Estos ensamblajes incluyen interfaces, circuitos de comunicación, sensores, agentes, procesadores, medios de almacenamiento, redes de distribución, componentes humanos, biológicos, técnicos y materiales. Y todos ellos se encuentran en constante reorganización y reconfiguración: no se trata de redes definidas y estables, sino de procesos en constante transición, que van añadiendo y eliminando elementos, así como reorganizando las conexiones entre ellos.
Proponemos pensar la IA bajo esta perspectiva de cognición distribuida y evitar así hacerlo desde imaginarios prometeicos, antropocéntricos y grandilocuentes que suelen asociarla al momento de gran revelación o singularidad tecnológica en el que la máquina podría adquirir autoconciencia. Lo cierto es que la IA es algo mucho más prosaico que forma parte de nuestra cotidianeidad, desde las asistentes digitales como Siri hasta los sistemas de recomendación personalizada. Por tanto, en lugar de ver la IA como como una cuestión análoga, superior o autónoma a los seres humanos, el hecho de pensarla como un agente que se encuentra incorporado a ensamblajes de cognición distribuida puede hacer que, en lugar de ceñirnos a lógicas dicotómicas, competitivas o de reemplazo en el dualismo humano-máquina, pensemos en posibles formas de articulación deseadas que aprovechen el capital cognitivo diferencial de ambos, en sinergias complementarias en lugar de excluyentes, cooperativas en vez de competitivas.
Para abordar nuestra relación con los ensamblajes cognitivos técnicos desde este paradigma, quizá debamos ampliar primero nuestro espectro de corporalidad para entender en qué medida ya estamos cooperando con su desarrollo. De la misma manera que hemos asistido a una ampliación de la idea de inteligencia –superando el dualismo mente-cuerpo–, todavía concebimos el cuerpo única y exclusivamente desde un paradigma biológico-somático. Pero la realidad corporal también puede pensarse desde marcos más amplios que incluyan la complejidad en la que los cuerpos somáticos forman corpo-realidades con otras dimensiones no solo orgánicas, sino también técnicas. En este sentido, podemos pensar los datos como un segundo cuerpo, un cuerpo exosomático que está fuera del cuerpo pero que, no obstante, se halla en una relación de interdependencia y co-constitución con lo somático. Y resulta que nuestros «cuerpos de datos» son de extrema importancia para el entrenamiento de las IA: cuantos más datos posea una inteligencia artificial para entrenarse, más precisas serán sus generalizaciones y más complejos y sofisticados serán los patrones que pueda identificar.
De hecho, los últimos avances en cognición técnica se basan más en la cantidad de datos y en la capacidad de almacenamiento y procesamiento que en la destreza algorítmica (como quieren hacernos creer las grandes compañías tecnológicas). En su artículo de 2021 «The Steep Cost of Capture» [El elevado coste de la captura], Meredith Whittaker ilustra esta realidad con el caso de AlexNet, un algoritmo muy eficaz en el reconocimiento predictivo de patrones que ganó en 2012 el ImageNet Large Scale Visual Recognition Challenge, convirtiéndose en un referente en la historia reciente de la IA. Sin embargo, tal como afirma la autora: «El algoritmo AlexNet se basaba en técnicas de machine learning que tenían casi dos décadas de antigüedad. Pero no fue el algoritmo lo que supuso un gran avance, sino lo que el algoritmo podía hacer cuando se combinaba con datos a gran escala y con recursos computacionales».[2] Por tanto, es el potencial cognitivo implícito en la agregación de nuestros cuerpos de datos lo que está dando lugar a los últimos avances en IA.
Esto implica que podemos pensar las IA como un producto de la fuerza colectiva que está siendo objeto de «una captura comercializada de lo que antes era parte del patrimonio común», o de «una privatización furtiva, una extracción del valor del conocimiento de los bienes públicos»,[3] tal como sugieren Kate Crawford o Matteo Pasquinelli, que habla de un «régimen de extractivismo cognitivo»[4] para referirse a la relación colonial entre la IA corporativa y la producción de conocimiento como un bien común. Por esta razón, en lugar de atribuir a las grandes corporaciones el mérito de desarrollar tecnologías extraordinarias, deberíamos considerar su actividad como una forma de saqueo y expolio que impide que estas alcancen su pleno potencial social al privilegiar los intereses privados. Y no solo por los enormes beneficios que reportan algunas de sus aplicaciones concretas, sino porque la IA se ha convertido en parte de aquello que Marx denominó las «condiciones generales de producción»: aquellas tecnologías, instituciones y prácticas que conforman el entorno de la producción capitalista en un lugar y tiempo determinados. Esto ha llevado a expertos como Nick Dyer-Whiteford a hablar de «IA infraestructural»:
Si la IA se convierte en la nueva electricidad, se aplicará no solo como una forma intensificada de automatización del lugar de trabajo, sino también como la base para una profunda y amplia reorganización infraestructural de la economía capitalista como tal. Esta ubicuidad de la IA implica que no tomaría la forma de una herramienta particular desplegada por capitalistas individuales, sino que, como sucede actualmente con la electricidad y las telecomunicaciones, sería una infraestructura –los medios de cognición– presupuesta por los procesos de producción de todas y cada una de las empresas capitalistas. Como tal, sería una condición general de la producción.[5]
Con el concepto de «medios de cognición» se pretende señalar la sustitución de la percepción y cognición humanas por una infraestructura tecnológica entrelazada con los medios de producción y los medios de transporte y comunicación. Frente a esto, se propone una «IA comunista», que no consistiría en la automatización de los procesos productivos seguida de la instauración de una renta básica universal (como defienden los aceleracionistas), sino en la expropiación del capital-IA, el desarrollo de nuevas formas de propiedad colectiva de la IA y en la aplicación de la IA a la colectivización de otros sectores. Consideramos que esto puede venir dado por el reconocimiento de la IA como el resultado de la agregación del potencial cognitivo de nuestros cuerpos de datos, y, por tanto, como una utilidad pública computacional que debería estar sujeta a un control democrático.
Previamente hemos propuesto aplicar los principios de la justicia reproductiva al ámbito de la soberanía tecnológica, puesto que si aceptamos el postulado de los datos como segundo cuerpo podemos reclamar el derecho al aborto de una IA no deseada o denunciar los abusos de las grandes corporaciones que atentan contra nuestra autonomía corporal; pero también garantizar los medios para que se desarrollen de acuerdo con nuestros intereses o necesidades colectivas. Esto pasa por desvincular el desarrollo tecnológico de la lógica del capital, en lugar de centrarnos únicamente en posibles aplicaciones socialmente útiles; para liberar el potencial transformador de la tecnología, esta tiene que servir al bien público en lugar de al beneficio privado. En Abolish Silicon Valley [Abolir Silicon Valley],[6] Wendy Liu propone algunas medidas orientadas a este fin: reclamar el emprendimiento como un servicio público para fines no capitalistas; destinar fondos de inversión de titularidad pública para empresas sin ánimo de lucro (generando un amplio acceso a la financiación); desarrollar nuevos modos de propiedad de las empresas, como las cooperativas de trabajadores, que tienen el control sobre la producción; mejorar las condiciones de trabajo en la industria tecnológica y empoderar a los empleados; establecer un impuesto progresivo a la riqueza; y, en última instancia, expropiar empresas con exceso de beneficios.
Estas medidas deberían tener como objetivo la recuperación de la autonomía y el control sobre la IA como cuerpo expandido (el resultado de la agregación de nuestros cuerpos de datos que se extienden más allá de los límites de nuestra piel) y como parte de un ensamblaje de cognición distribuida (es decir, como un elemento constitutivo de nuestra mente que se extiende más allá de los límites de nuestro cráneo). Hacer explícito este vínculo puede contribuir a que dejemos de considerar la IA únicamente como una proeza técnica vinculada al desarrollo de algoritmos e independiente de nosotras y comencemos a verla como un bien común que debe ser gestionado colectivamente y que debería servir a propósitos más loables que el reconocimiento facial o la publicidad dirigida. Por tanto, no se trata de condenarla como una posible amenaza a nuestra especie (ya sea en forma de una superinteligencia malvada dispuesta a aniquilarnos o de robots que van a quitarnos el trabajo) ni de celebrarla de manera acrítica como una tecnología neutral capaz de solucionar todos nuestros problemas. Se trata de intervenir en su desarrollo, evaluación e implementación reivindicando la IA como una extensión de nuestra realidad corporal y de nuestros procesos cognitivos.
[1] N. Katherine Hayles (2017), Unthought. The Power of The Cognitive Nonconscious. Chicago: University of Chicago Press.
[2] Meredith Whittaker, «The Steep Cost of Capture». En: Interactions, XXVIII (6), diciembre de 2021, p. 52. Disponible en: https://dl.acm.org/doi/pdf/10.1145/3498853.
[3] Kate Crawford (2021), Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Cumberland: Yale University Press.
[4] Matteo Pasquinelli y Vladan Joler, «The Nooscope Manifested: Artificial Intelligence as Instrument of Knowledge Extractivism». Grupo de investigación KIM (Karlsruhe University of Arts and Design) y Share Lab (Novi Sad), 1 de mayo de 2020 (preimpresión en preparación para la revista AI & Society). https://nooscope.ai.
[5] Nick Dyer-Witheford, Atle Mikkola Kjøsen y James Steinhoff (2019), Inhuman Power: Artificial Intelligence and the Future of Capitalism. Londres: Pluto Press.
[6] Wendy Liu (2020). Abolish Silicon Valley: How to Liberate Technology from Capitalism. Londres: Penguin Random House.
Grant Castillou | 19 febrero 2022
It’s becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman’s Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with primary consciousness will probably have to come first.
The thing I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990’s and 2000’s. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I’ve encountered is anywhere near as convincing.
I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there’s lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order.
My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar’s lab at UC Irvine, possibly. Dr. Edelman’s roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461
Deja un comentario