La singularidad

La posibilidad de autoaprendizaje de la computación nos está conduciendo a un momento de singularidad tecnológica en el que una inteligencia artificial, capaz de automejorarse, superará los límites de lo humano.

Forbidden Planet, 1959

Forbidden Planet, 1959 | Digitalt Museum. Tekniska museet | Dominio público

Nos encontramos en un momento de singularidad esencial en la historia de la humanidad. Según esta tesis, el acelerado progreso tecnológico nos está acercando a un punto de no retorno, en el que la inteligencia computacional alcanzará tal nivel de complejidad que será capaz de mejorarse a sí misma. Una vez la tecnología ingrese en esta dinámica de autoaprendizaje, la dependencia humana quedará superada, abriendo un nuevo campo de autonomía y eficiencia que conducirá inevitablemente hacia un progreso de la inteligencia artificial sin precedentes. Publicamos, por cortesía de Ariel, un avance del nuevo libro de José Ignacio Latorre, Ética para máquinas, en el que propone una reflexión sobre la ética necesaria para la nueva sociedad que se avecina.

Los quehaceres humanos, tal como los conoce­mos hoy en día, no podrán seguir inalterados.

John von Neumann

Superados

John von Neumann fue tal vez una de las primeras perso­nas en vislumbrar la enorme potencia de cálculo que un ordenador podría llegar a tener. Tras su muerte, su colega Stanisław Ulam citó unas palabras suyas de la siguiente forma:

El continuo y acelerado progreso de la tecnología y los cambios en la forma de vida de los humanos muestran sig­nos de aproximarse a una especie de singularidad esencial en la historia de la especie.

Lúcida reflexión, atribuida a von Neumann en 1950. Más tarde, Vernor Vinge escribió un ensayo titulado Tech­nological Singularity («Singularidad tecnológica», 1993), en el que propone la superación de la mente humana por má­quinas equipadas con inteligencia artificial. Esta idea fue retomada con inusitado vigor por Ray Kurzweil en su libro The Singularity Is Near: When Humans Transcend Biology («La Singularidad está cerca: cuando los humanos trascendamos la bio­logía», 2005). El título es autoexplicativo. Según Kurzweil, los humanos de­jarán atrás su soporte biológico y pasarán su inteligencia a las máquinas. La idea de singularidad tam­bién dio lugar a la llamada Singularity University, institu­ción fundada en 2008 y creada por una serie de personas relevantes en el mundo de la tecnología avanzada. Su lema es inequívoco: «Preparando a la humanidad para un cam­bio acelerado de tecnología.»

El argumento esencial asociado a la Singularidad es de una lógica aplastante. Si construimos inteligencias artifi­ciales cada vez más potentes y autónomas, llegará un ins­tante en el que un algoritmo podrá mejorarse a sí mismo. Una vez mejorado, el nuevo algoritmo será aún más po­tente y, en consecuencia, capaz de volver a mejorarse a sí mismo. Se establece una cadena que se retroalimenta. Cada inteligencia artificial diseñará a la siguiente, que será aún mejor que ella misma. Ese proceso iterativo seguirá avanzando de forma imparable hacia una inteligencia bru­tal. Habremos alcanzado la Singularidad.

Podemos intentar desarrollar una cierta intuición de cómo llegaremos a la Singularidad. Imaginemos que la inteli­gencia artificial avanza gracias a comprender mejor la so­fisticada arquitectura de una gigantesca red neuronal. El problema de diseñar los circuitos neuronales artificiales reviste una dificultad extrema. En un primer momento, estamos utilizando métodos controlados por humanos para explorar mejores arquitecturas neuronales. Pero está llegando el instante en el que la exploración de nuevas ar­quitecturas es diseñada por una propia red neuronal arti­ficial mejorada. Ella se podrá autoanalizar y mejorar. Será como un buen estudiante que empieza a aprender solo y llega mucho más allá que sus profesores.

Ray Kurzweil: The Coming Singularity | Big Think
Ray Kurzweil: The Coming Singularity | Big Think

Tomemos este último ejemplo de forma seria. Un buen estudiante, adolescente brillante, empieza a aprender ma­temáticas con sus buenos profesores. Estos le enseñan a aprender. La potencia intelectual del estudiante es supe­rior a la de sus profesores de instituto. Avanza a la univer­sidad. Ahí su cerebro sigue mejorando. Deja atrás a los catedráticos más sabios. Visita las mejores universidades del planeta. Trabaja muy duro y sigue dejando atrás a los mejores investigadores de su tiempo. Ya está solo. Sigue avanzando por retroalimentación propia. Aprende a apren­der por sí mismo. Intuye, establece sus líneas de investiga­ción. Cada vez es mejor y mejor.

Una inteligencia artificial avanzada operaría de la misma forma que un muy buen estudiante. Pero, no lo olvide­mos, esta máquina no sufrirá los límites que impone la biología. Los circuitos integrados, los ordenadores cuán­ticos y futuros desarrollos que hoy ni siquiera vislumbra­mos llenarán de vértigo el progreso de la inteligencia artificial.

Es importante enfatizar el punto crucial del cambio de sustrato entre inteligencia humana e inteligencia artifi­cial. La Singularidad precisa de sobrepasar los límites impuestos por el tejido nervioso, las células de la glía, los nutrientes que llegan por la sangre, el tamaño pequeño del cerebro, la muerte de sus partes. Una inteligencia artificial basada en sustratos de silicio tiene capacidad de crecer mucho más allá del cerebro humano y de no pe­recer.

¿Pueden imaginar una máquina inteligente e imperecede­ra que se cree a sí misma? ¿Qué tamaño tendría? ¿Cubriría la tierra? ¿Sería única o repartida? ¿Sería violenta? ¿Acaba­ría con los humanos?

Inteligencia superior única

Imaginemos que hemos llegado a la Singularidad y que hemos creado una inteligencia notablemente superior a la nuestra. ¿Existirá una única inteligencia artificial avanza­da, o se darán varias?

Podemos defender las dos posibilidades.

Empecemos por argumentar que, si se llega a la Singulari­dad, la inteligencia superior creada será única. Una inteli­gencia suprema debería ser pacífica, nada hostil, dado que no hallaría beneficio en la violencia. La inteligencia artificial podrá sustentarse sin esfuerzo, crecer sin obstácu­lo. Podrá proporcionarse todo lo que necesite de forma eficiente. Será una magnífica gestora de su sustrato físico. Si hubiera otra inteligencia artificial, ambas optarían por unirse y generar una inteligencia todavía más potente. Así lo hacemos los humanos cuando nos adentramos en ta­reas superiores como el estudio de la ciencia pura. Los matemáticos, los físicos, los biólogos, todos los científicos que buscan el saber básico colaboran entre sí. Es cierto que el sistema académico está creado para fomentar la compe­tición. Pero es mucho más cierto que todas las personas que se enfrentan a problemas científicos difíciles saben que estos les superan individualmente y que solo avanzan cuan­do juntan sus fuerzas. Si una inteligencia superior se rela­ciona con otra, ambas se unirán.

What happens when our computers get smarter than we are? | Nick Bostrom | TED
What happens when our computers get smarter than we are? | Nick Bostrom | TED

Existe un ejemplo del mundo de la economía que ilustra la creación de un ente todopoderoso único. Tomemos el ejemplo simplificado de los negocios. Una forma de mode­lar una transacción económica entre dos personas es la si­guiente. Ambas ponen una cantidad de dinero en un bote común. Se hace un sorteo y una se lleva el botín y la otra lo pierde todo. Está claro que esta forma de simular una tran­sacción está alejada de la realidad. Pero sí es cierto que en muchas operaciones uno gana y el otro pierde. La idea aquí es exagerar esta situación y ver qué consecuencias tie­ne. Para averiguar el resultado, podemos crear un progra­ma donde autómatas celulares operen según esta regla. El algoritmo creará entidades virtuales que aleatoriamente se asociarán, harán una operación por una cierta cantidad de dinero y alguien ganará y alguien perderá. Si dejamos ese uni­verso virtual evolucionar haciendo transacciones entre sus individuos, poco a poco veremos que unos pocos seres se hacen más y más ricos y otros se empobrecen. El resultado final es que una persona lo tiene todo y los demás nada. Es fácil entender el porqué de este límite. En cada transac­ción hay una probabilidad no nula de perder el dinero. Luego hay una probabilidad no nula de que un individuo concatene malos negocios y lo pierda absolutamente todo. Ese individuo queda fuera del juego. Hay una persona me­nos. El mismo argumento se repite y cada vez una persona desaparece. Al final solo queda uno, que lo tiene todo. Nuestro mundo real no está tan lejos de este juego. Unas pocas personas poseen la riqueza de todos los humanos. La realidad compensa este fenómeno estableciendo reglas para que los más pobres puedan subir peldaños económi­cos. Por ejemplo, los créditos bancarios permiten a un in­dividuo tomar prestado dinero y volver a entrar en el jue­go, las herencias aportan dinero ganado por familiares o la lotería, que es dinero llovido del cielo.

Pero a continuación podemos argumentar justo lo contra­rio: de existir inteligencias superiores a la humana, estas serían muchas, no una única. La idea central es que es be­neficioso tener diferentes aproximaciones al mismo pro­blema. Muchas personas inteligentes diferentes hacen que un campo avance más rápido que una sola persona tam­bién muy inteligente. En biología, es beneficioso para una especie mantener una diversidad genética amplia. Si todo se apuesta al individuo mejor dotado, la especie pier­de la capacidad de corrección frente a un cambio crítico de las condiciones externas. Es bueno tener individuos con material genético muy diverso, porque sus genes pueden ser enormemente útiles en el futuro. Una inteligencia ar­tificial avanzada debería mantener otras inteligencias independientes a ella. Podría existir un conjunto de inte­ligencias avanzadas de diferente nivel intelectual y orien­tadas a objetivos sutilmente diferentes, basadas en algorit­mos independientes.

Nos dice Jean-Jacques Rousseau en su Émile (1762) que «es la debilidad del hombre lo que lo hace sociable». Argu­menta que:

Todo apego es un signo de insuficiencia: si cada uno de nosotros no tuviese ninguna necesidad de los demás, ni siquiera pensaría en unirse a ellos.

Una inteligencia artificial fuerte sería, según Rousseau, so­litaria, tal vez no única, pero sin amigos.

Una inteligencia artificial avanzada única, en inglés, reci­be el nombre de singleton. Si el futuro de la inteligencia artificial extrema es un singleton, creo que se va a aburrir soberanamente al estar tan solo.

Este articulo tiene reservados todos los derechos de autoría

Ver comentarios0

Deja un comentario