La información de un sistema está inscrita en su física y la manera de acceder a esta información es en sí un proceso físico. Así pues, la teoría de la información es una vía excelente para describir tanto el mundo físico como la forma en que lo conocemos. Esto resulta crucial cuando tratamos de describir el mundo microscópico, ya que la relación entre el observador y el mundo es fundamental en física cuántica.
Cada uno de nosotros tiene una «idea bonita» preferida. La mía es la definición de número natural de Bertrand Russell: «El número tres es la colección de todos los conjuntos de tres cosas.» La belleza de esta idea se basa en que cuanto más grande es la parte del universo involucrada, con más definición, más exactamente está definido el número tres. Si metemos tres calcetines en la colección, obtendremos una mancha torpe con forma de B o de 3, y solo al ir añadiendo tres cerezas, tres tristes tigres, tres hijas de Helena, el contorno se va definiendo más y más, hasta el punto de máxima definición, que se alcanza cuando se consideran todos los posibles tríos. Esta manera de proceder tiene algo de El Aleph de Borges, en el que un punto muy bien definido, una idea muy concreta, contiene sin embargo todo el universo. Y tiene también algo de la historia perfecta, una en la que el final es el resultado de todas las acciones, de todos los personajes, de todas las escenas, los años y los paisajes que han aparecido en ella.
La idea es bonita porque rechaza la existencia del concepto abstracto de 3 –es divertido además considerar que uno de los matemáticos más brillantes del siglo XX necesitó todo el universo para poder definir algo tan sencillo como un 3. Es bonita también porque rechaza la separación entre la materia y la forma y nos invita a pensar que cualquier idea, por abstracta que sea, se construye mediante conjuntos de cosas. Y es bonita porque representa una invitación imaginaria de Bertrand Russell, el matemático que emprendió la tarea de escribir los fundamentos del razonamiento matemático, a Rolf Landauer, el físico que observó de manera no trivial que la información no es una entidad abstracta.
Information is physical
En las mismas palabras de Landauer, y como segunda «idea bonita»: «La información es física.» La información está inevitablemente inscrita en un medio físico, como los colores de un semáforo, los surcos de un disco, las ondas de radio… Rolf Landauer no se limitó a observar la relación intrínseca entre información y física sino que la enunció en forma de principio físico: «Cualquier operación que implique una pérdida de información en un sistema, por ejemplo, borrar un archivo de un ordenador o sumar 3 y 3 en la calculadora (sumar es perder información, porque obtenemos 6 pero perdemos los sumandos), aumenta la entropía (el desorden de un sistema) y disipa calor.» Deshacerse de información no sale gratis. El abandono de información del sistema debe tener alguna forma física, con consecuencias físicas, y es en forma de calor. (Parte del calor que abrasa ahora mismo mis piernas bajo el ordenador portátil obedece a este principio de Landauer. Debe ser porque, por cada palabra que escribo, borro treinta. Suena paradójico, sí, pero escribir es eliminar información continuamente.)
Un precioso experimento mental ilustra cómo la ciencia convencional tendía a considerar la información como un ente abstracto, y la ganancia de información sobre un sistema como una operación inocua. James Clerk Maxwell lo enunció a finales del siglo XIX como una manera de desafiar las leyes de la física (en concreto, la segunda ley de la termodinámica) y de sugerir que se puede mover un tren con el pensamiento. Bien, esta es una exageración, una licencia literaria, una manera tan provocadora de resumir el famoso experimento del diablillo imaginado por Maxwell que se impone describirlo en detalle. La segunda ley de la termodinámica dice que cuando el vapor de la locomotora se enfría, el tren se para. Es decir, que no se puede obtener trabajo (desplazar un tren) de un sistema en equilibrio térmico con el ambiente. Pues bien, Maxwell propuso una manera de cuestionar ese principio. Imaginó el motor de la máquina del tren parado, con el émbolo detenido entre los dos compartimentos de vapor, ambos a la misma temperatura. La temperatura es la media de las velocidades de las moléculas del gas. Algunas van muy rápido, otras van muy lentas, pero están totalmente mezcladas (desordenadas) y la velocidad media en cualquier volumen del gas es la misma y, por tanto, la temperatura del gas es uniforme. En el émbolo que separa los compartimentos, Maxwell imaginó una pequeña compuerta y un ser diminuto con la capacidad de conocer la velocidad de cada molécula, y de abrir o cerrar esa compuerta a su antojo para ordenar las moléculas: rápidas a la derecha, lentas a la izquierda. Cada vez que una molécula rápida se aproxima del compartimento izquierdo al derecho, la deja pasar. Cada vez que una molécula lenta se aproxima de derecho al izquierdo, la deja pasar. El resultado es que el compartimento derecho aumenta de temperatura, mientras el izquierdo se enfría. La consiguiente diferencia de presión entre los compartimentos sería capaz de mover el émbolo, y las ruedas del tren darían una vuelta más. En otras palabras, puede ordenarse un sistema desordenado, lo que implica que puede obtenerse trabajo de un gas en equilibrio, ¡solo con meter a un diablillo con la capacidad de conocer cosas!
La respuesta de Landauer para defender la segunda ley es que, en efecto, el diablillo de Maxwell puede ordenar las moléculas para generar trabajo a partir de su diferencia de temperatura, pero no lo hace gratuitamente. Su cerebro debe registrar la información de la velocidad de cada molécula, y luego borrarla para alojar en su lugar la de la siguiente molécula. Cada vez que hace esto, aumenta la entropía, compensando la que ha ayudado a disminuir ordenando las moléculas, y disipa calor fuera del sistema, evitando que se convierta en trabajo.
Que la información que contiene un sistema esté inscrita en su física, y que la manera de acceder a esta información sea en sí un proceso físico, implica que la teoría de la información es una excelente manera de describir tanto el mundo físico como la forma en que lo conocemos, lo cual tiene un bonus extra si se trata de describir el mundo microscópico, ya que la relación entre el observador y el mundo –la medida– es un tema fundamental en la física cuántica.
Una de las ventajas de la teoría de la información que otorga cierto sentido al mundo cuántico es que están claramente identificados el emisor, el receptor, el código y el mensaje. Además, mientras la transición de la física clásica a la física cuántica comporta algunos traumas para la intuición, la transición de la información clásica a la información cuántica suaviza los sustos antintuitivos y evidencia diversas maneras de aprovechar el paradójico comportamiento del mundo a nivel microscópico para realizar tareas que son imposibles para la física clásica. Me refiero a las tecnologías de la segunda revolución cuántica, como la computación, la comunicación, la criptografía y la metrología cuánticas.
Bits y cúbits
Las unidades básicas de la información cuántica son los llamados cúbits (quantum bits o bits cuánticos). Podemos esperar dos posibles valores al acceder a la información contenida en un cúbit. Eso es lo que tienen en común con los bits clásicos. A partir de ahí, todo son diferencias. Expliquemos entonces las diferencias entre la física clásica y la cuántica mediante las diferencias entre la información clásica y la cuántica.
Un ejemplo de bit clásico es el color de la bandera que indica si se permite el baño en una playa. Mientras desayunamos y preparamos las cestas con las toallas y las palas, el emisor, que es responsable de la seguridad de los bañistas, evalúa el estado del mar y decide poner la bandera verde, que nos permite bañarnos, o la roja, que lo prohíbe. Nosotros, los receptores, ignoramos que no podremos bañarnos hasta el momento de llegar a la playa, aunque la bandera roja ya lleve ondeando al menos una hora.
Un ejemplo de un cúbit o bit cuántico es la dirección de polarización de un fotón (asociada a la dirección de oscilación del campo eléctrico de la luz). La polarización puede ser horizontal (H) o vertical (V). El fotón como cúbit contiene información en el sentido en que, tras una medida, el receptor obtiene siempre dos respuestas complementarias: H o V. Este es el código binario del fotón, análogo al código de dos colores de bandera. Una observación sobre la que merece la pena detenerse, tanto en el caso de la bandera como en el del fotón, es que no les preguntamos «¿de qué color eres?» o «¿en qué dirección está tu polarización?» sino que les preguntamos «¿eres roja o verde?» o «¿eres H o V?».
Bandera y fotón son sistemas de comunicación análogos, pero hay una diferencia fundamental: una bandera es un objeto macroscópico, al emisor le basta escoger el color de la bandera e izarla y al receptor le basta mirarla para que la información se haya transmitido. Un fotón, sin embargo, es un objeto microscópico, y emisor y receptor, como manipuladores de información cuántica, tienen un papel más activo que sus análogos clásicos. El emisor ha de preparar el estado del fotón, y el receptor ha de hacer una medida sobre él. Preparación y medida van más allá de las tareas clásicas, e incluyen cierta libertad de elección en los procedimientos. Libertad que ofrece precisamente la naturaleza cuántica del escenario.
Libertad del emisor cuántico: la superposición
La tarea del emisor cuántico es preparar el fotón. Lo puede preparar en H, lo puede preparar en V y también puede prepararlo en cualquier combinación de estas dos direcciones: una dirección oblicua con cierta componente horizontal y cierta componente vertical. Esto es lo que llamamos una «superposición cuántica». Cuando el receptor hace una medida en la base HV, es decir, le pregunta al fotón si es H o V, obtiene H si el emisor lo ha preparado en H, y obtiene V si el emisor lo ha preparado en V. Pero si el emisor ha preparado el fotón en una superposición de H y V, en una dirección oblicua, el receptor obtendrá H con cierta probabilidad p y V con cierta probabilidad 1-p. La probabilidad p es tanto más grande cuanto más se aproxime la oblicua a la horizontal, e indica lo incómodo que está el fotón respondiendo que su dirección de polarización real está alejada de las opciones que le proponen como dos únicas posibles respuestas. Antes de la medida HV, el fotón está en una superposición de H y V. Es decir, «antes de llegar a la playa, la bandera no ondea ni en H ni en V».
Libertad del receptor: la medida
El receptor tiene también libertad al medir la polarización del fotón. Puede realizar una medida en la base HV, pero también puede usar cualquier otra base, cualquier otro par de ejes H’V’, perpendiculares entre sí, pero rotados respecto a HV. Los resultados posibles en ese caso serán H’ o V’, y la probabilidad de obtener H’ será distinta de la obtener H. Podemos entender HV y H’V’ como distintas propiedades del fotón: en una medida HV, se le pregunta al fotón si es H o V, en una medida H’V’, se le pregunta si es H’ o V’. Digamos que medir HV es como «mirar el color de la bandera», y medir H’V’ es como «mirar el tamaño de la bandera». Y la peculiaridad cuántica radica en que, mientras un solo vistazo nos deja saber el color y el tamaño de la bandera, el receptor cuántico no puede hacer las dos medidas a la vez.
Consecuencias de la libertad del receptor: el colapso y la destrucción
Si el receptor hace una medida en HV y el fotón responde H, el fotón se queda polarizado en H. Es decir, el estado del fotón colapsa un estado concreto. Sucesivas medidas en HV tendrán el mismo resultado H, a pesar de que antes de la primera medida existiera la probabilidad de obtener V. Esto significa que medir tiene consecuencias devastadoras para un sistema cuántico. Veamos hasta qué punto esto es así.
Si HV y H’V’ están rotados 45 grados –separación máxima entre dos sistemas de ejes perpendiculares–, las consecuencias de la elección de medida para el sistema son drásticas. En efecto, si el emisor prepara un fotón en H y el receptor mide en HV, el fotón responderá H. Si el receptor mide de nuevo este mismo fotón y esta vez le pregunta H’V’ –que equivale a preguntar a un fotón horizontal si es diagonal o antidiagonal–, el fotón estará incomodísimo respondiendo cualquiera de las dos, pero se tendrá que decidir por una de ellas al azar –recordad que H y H’ forman 45 grados y por tanto la probabilidad de H’ es igual a la de V’. Digamos que se decide por H’. Si el receptor mide una tercera vez, ahora en HV, el fotón, diagonal ahora en HV e incomodísimo otra vez, podría responder –pues respondería al azar– que está en V. ¡Pero en la primera medida HV había respondido que estaba en H!
Da la impresión de que el fotón está cambiado de opinión. Pero no es culpa del fotón, es culpa de la medida. No es posible saber simultáneamente el resultado de lo que diría el fotón si el receptor pregunta HV y lo que diría si pregunta H’V’. Porque, claro, si el receptor pregunta HV y el fotón responde H, y posteriormente el receptor pregunta H’V’, responda lo que responda el fotón, ¡no podemos asegurar que, al volverle a preguntar HV, el fotón vaya a responder H otra vez! Es «como si no pudiéramos saber el color y el tamaño de la bandera con certeza al mismo tiempo».
Lo descrito en el párrafo anterior es una muestra del principio de incertidumbre de Heisenberg, que en su formulación original limitaba la posibilidad de conocer con infinita precisión la velocidad (análoga a HV) y la posición (análoga a H’V’) de una partícula. Solo que en este contexto es más digerible, porque de alguna manera entendemos que las propiedades de las partículas cuánticas no las acompañan, como el color rojo acompaña a la bandera roja, sino que son elecciones del observador al medirlas.
***
En conclusión, en física cuántica, no solo el resultado de la medida no está necesariamente definido antes de que el receptor realice la medida (principio de superposición), sino que la misma la propiedad no está definida antes de que el receptor decida que es precisamente esa propiedad la que va a medir.
El emisor puede ser la misma naturaleza, y el receptor se identifica claramente con el observador, pero también el entorno de un sistema cuántico se comporta como «receptor», es decir, como «colapsador de sistemas cuánticos».
¿Para qué puede servir todo esto?
La superposición, la capacidad de un cúbit de ser un 0 y un 1 a la vez, es fundamental para la computación cuántica. Un cúbit puede calcular como si fuera un 0 y como si fuera un 1. Un ordenador esencialmente computa una función f de una cierta información, codificada en un número: dada la información codificada por ejemplo en el input 01101, de 5 bits, el ordenador computa f (01101). Si queremos computar f para n inputs –n informaciones diferentes de 5 bits cada una– tenemos que aplicar n veces la función f. Sin embargo, si conseguimos mantener la superposición de 5 cúbits –todos los posibles inputs de 5 bits– con una sola aplicación de f, conseguiremos tener una superposición de todos los resultados posibles. Considerando todos sus posibles estados, obtendremos un ordenador operando simultáneamente –con una sola aplicación de f– con 2^5 inputs. Con 300 cúbits, obtendríamos un ordenador cuántico operando con 2^300 inputs, un número mayor que el número de todos los átomos del universo. De esta capacidad de mantener esta superposición y operar con ella emerge el llamado quantum parallelism. Con esta arquitectura se pueden realizar tareas de tal complejidad que para un ordenador clásico tomarían miles de millones de años –la complejidad de una tarea da una idea del tiempo de ejecución del algoritmo que la soluciona, y está relacionada con el número de operaciones necesarias para implementar ese algoritmo. Una tarea muy compleja en ese sentido es por ejemplo factorizar un número grande. El sistema RSA de encriptación en Internet se basa precisamente en la complejidad de factorizar números grandes, de modo que un ordenador cuántico de cierto tamaño amenazaría la seguridad mundial a todas las escalas. El algoritmo cuántico para factorizar rápidamente números grandes existe desde 1994 –formulado por Peter Shor–, lo único que falta es construir un ordenador cuántico lo suficientemente grande. Pero eso es solo cuestión de tiempo… La buena noticia es que la física cuántica también ofrece un método de comunicación seguro, y en este terreno ya existen incluso soluciones comerciales.
El diseño de sistemas de criptografía 100% segura se basa en la elección de bases de preparación y medida (elección de HV, H’V’, etc.). El principio de funcionamiento de la criptografía cuántica se basa en el hecho de que si el emisor codifica en la base HV y el receptor mide también en la base HV (la elección de bases de medida es el «código secreto»), cualquier intromisión de un espía con una base de medida H’V’, distinta a la compartida por emisor y receptor, será detectada, ya que, como hemos visto antes, medir en bases distintas altera el estado del fotón. El protocolo que permite a emisor y receptor crear y compartir una clave criptográfica segura siguiendo este principio fue diseñado por Charles Bennett y Giles Brassard en 1984. Se llama BB84.
Hay muchas maneras más de aprovechar las peculiaridades de los sistemas cuánticos: teleportación, medidas ultraprecisas, etc. Muchas de ellas tienen impresionantes resultados experimentales, pero tendrán que ser objeto de otra entrada.
Y final
Para añadir un trío más a la colección 3, aquí la tercera «idea bonita» de hoy, de la mano de Richard Feynman y Seth Lloyd. Como la información es física, y la física que rige el universo es la física cuántica, podemos concebir todos los eventos del universo como información siento procesada por un gigantesco ordenador cuántico, que es el universo mismo. El universo es pues un computador cuántico que se computa a sí mismo, lo que implica que ningún computador más pequeño tendría la capacidad de computar todo el universo y por tanto la mejor manera de conocer el futuro es… ¡esperar a ver qué pasa!
Las «ideas bonitas»… ¿de qué estarán hechas?
Deja un comentario