por Juan Carlos López
Cómo funcionan, qué problemas pretenden resolver y qué desafíos deben superar para lograrlo...
Durante 2019
y 2020 le hemos dedicado muchos artículos en Xataka porque se han
producido avances muy relevantes en esta disciplina en los que
merecía la pena indagar. La llegada de la supremacía quántica es el más sorprendente de todos ellos y la ha colocado en el centro de la discusión, pero los expertos en ordenadores y algoritmos quánticos reconocen sin ambigüedad que queda mucho trabajo por hacer.
Tanto, de hecho, que hay quien cree que todo este esfuerzo no va a ir a ninguna parte.
Uno de los miembros de la comunidad científica más críticos con la computación quántica es el matemático israelí Gil Kalai, profesor en la Universidad de Yale.
Según este investigador el incremento del número de estados de los sistemas quánticos y de su complejidad provocará que acaben comportándose como los ordenadores clásicos, por lo que la superioridad de los primeros acabará evaporándose.
La llegada de la supremacía quántica ha colocado los ordenadores quánticos en el centro de la discusión pero los expertos reconocen sin ambigüedad que aún queda mucho trabajo por hacer...
No obstante, la ausencia de un respaldo unánime por parte de la comunidad científica no debe empañar el esfuerzo y los avances notables que están haciendo muchos grupos de investigación, algunos de ellos en instituciones españolas como el CSIC y otros integrados en la estructura de empresas que tienen unos recursos muy abultados, como,
Tenemos motivos fundados no para lanzar las campanas al vuelo, pero sí para mirar con razonable optimismo hacia las innovaciones que llegarán en el futuro.
Este breve repaso al statu quo de los ordenadores quánticos es el preludio a un artículo en el que nos hemos propuesto recoger toda la información que necesitamos para tener una fotografía lo más certera posible del estado de la computación quántica.
Confiamos en que este texto resulte útil a los lectores que tenéis curiosidad por esta disciplina y queréis tener una base sólida sin necesidad de recorrer uno a uno todos los artículos que hemos publicado hasta ahora.
Qué es un cúbit
La palabra 'cúbit' procede de,
En los ordenadores que utilizamos actualmente un bit es la unidad mínima de información.
Cada uno de ellos puede adoptar en un momento dado uno de dos valores posibles:
Pero con un único bit apenas podemos hacer nada, de ahí que sea necesario agruparlos en conjuntos de 8 bits conocidos como bytes u octetos.
Los cúbits, o bits quánticos, son en el ámbito de la computación quántica lo que los bits en la clásica...
Por otro lado, los bytes pueden agruparse en «palabras», que pueden tener una longitud de 8 bits (1 byte), 16 bits (2 bytes), 32 bits (4 bytes), etc.
Si queremos saber cuántos valores diferentes puede adoptar un conjunto de bits, que puede tener cualquier tamaño (así que lo llamaremos n), solo tenemos que elevar 2 a n (2n).
El dos, que es la base, procede del hecho de que cada bit puede adoptar uno de un máximo de dos valores, de ahí que a la notación utilizada por los sistemas digitales en general se la llame notación binaria.
Los cúbits, que son la unidad mínima de información en computación quántica, a diferencia de los bits no tienen un único valor en un momento dado; tienen una combinación de los estados cero y uno simultáneamente.
La notación que nosotros utilizamos en nuestro día a día es la decimal debido a que usamos un conjunto de diez valores diferentes que van del 0 al 9, y no solo dos valores (0 y 1), como la notación binaria.
Si llevamos a cabo el sencillo cálculo del que acabo de hablaros comprobaremos que con un conjunto de dos bits podemos codificar cuatro valores diferentes (22 = 4), que serían 00, 01, 10 y 11.
Con tres bits nuestras opciones se incrementan a ocho valores posibles (23 = 8). Con cuatro bits obtendremos dieciséis valores (24 = 16), y así sucesivamente.
Eso sí, un conjunto de bits determinado solo puede adoptar un único valor o estado interno en un instante dado.
Es una restricción absolutamente razonable que parece tener un reflejo claro en el mundo que observamos porque una cosa es o no es, pero no puede tener ambas propiedades simultáneamente.
Este principio tan evidente y básico, curiosamente, no se da en la computación quántica.
Y es que los cúbits, que son la unidad mínima de información en esta disciplina, a diferencia de los bits no tienen un único valor en un momento dado:
Pueden tener,
Qué son los estados quánticos
La física que explica cómo se codifica el estado quántico de un cúbit es compleja.
No es necesario que profundicemos en esta parte para seguir adelante con el artículo, pero sí es interesante que sepamos que el estado quántico está asociado a características como el espín de un electrón, que es una propiedad intrínseca de las partículas elementales, al igual que la carga eléctrica, derivada de su momento de rotación angular.
Esta idea no resulta intuitiva, pero tiene su origen en uno de los principios fundamentales de la mecánica quántica conocido como principio de superposición de estados.
Y es esencial porque en gran medida explica el enorme potencial que tienen los procesadores quánticos.
En un procesador quántico de n cúbits un estado concreto de la máquina es una combinación de todas las posibles colecciones de n unos y ceros...
En un ordenador clásico la cantidad de información que podemos codificar en un estado concreto utilizando n bits tiene tamaño n, pero en un procesador quántico de n cúbits un estado concreto de la máquina es una combinación de todas las posibles colecciones de n unos y ceros.
Cada una de esas posibles colecciones tiene una probabilidad que nos indica, de alguna forma, cuánto de esa colección en particular hay en el estado interno de la máquina, que está determinado por la combinación de todas las posibles colecciones en una proporción concreta indicada por la probabilidad de cada una de ellas.
Si en un ordenador quántico pasamos de trabajar con n cúbits a hacerlo con n+1 cúbits estaremos duplicando la información que almacena el estado interno de la máquina, que pasará de 2n a 2n+1.
Como veis, esta idea es algo compleja, pero podemos intuirla si aceptamos el principio de superposición quántica y la posibilidad de que el estado de un objeto sea el resultado de la ocurrencia simultánea de varias opciones con distinta probabilidad.
Una consecuencia muy importante de esta propiedad de los ordenadores quánticos es que la cantidad de información que contiene un estado concreto de la máquina tiene tamaño 2n, y no n, como en los ordenadores clásicos.
Esta diferencia es esencial y explica el potencial de la computación quántica, pero también puede ayudarnos a intuir su complejidad, en la que indagaremos un poco más adelante.
Si en un ordenador clásico pasamos de trabajar con n bits a hacerlo con n+1 bits estaremos incrementando la información que almacena el estado interno de la máquina en un único bit.
Sin embargo, si en un ordenador quántico pasamos de trabajar con n cúbits a hacerlo con n+1 cúbits estaremos duplicando la información que almacena el estado interno de la máquina, que pasará de 2n a 2n+1.
Esto significa, sencillamente, que el incremento de la capacidad de un ordenador clásico a medida que introducimos más bits es lineal, mientras que el de un ordenador quántico a medida que incrementamos el número de cúbits es exponencial.
Ya sabemos que el bit y el cúbit son las unidades mínimas de información que manejan los ordenadores clásicos y quánticos, por lo que podemos dar un paso más hacia delante y repasar cómo hacemos operaciones con ellos.
Los elementos que nos permiten operar con bits en los ordenadores clásicos son las puertas lógicas, que implementan las operaciones lógicas del Álgebra de Boole.
Esta álgebra es una estructura diseñada para trabajar sobre expresiones de la lógica proposicional que tienen la peculiaridad de que solo pueden adoptar,
...de ahí que sea también perfecta para llevar a cabo operaciones en sistemas digitales binarios, que, por tanto, también pueden adoptar en un instante dado solo uno de dos valores posibles:
Las puertas lógicas quánticas que hemos conseguido implementar actualmente en los procesadores quánticos son CNOT, Pauli, Hadamard, Toffoli o SWAP, entre otras.
La,
...con las que puede combinarse para implementar las operaciones NAND y NOR.
Estas, junto con la operación de suma exclusiva (XOR) y su negación (XNOR) son las operaciones lógicas básicas con las que trabajan a bajo nivel los ordenadores que todos utilizamos actualmente.
Y con ellas son capaces de resolver todas las tareas que llevamos a cabo.
Cada una de ellas nos permite modificar el estado interno de la CPU, de manera que podemos definir un algoritmo como una secuencia de operaciones lógicas que modifican el estado interno del procesador hasta que alcance el valor que nos ofrece la solución a un problema dado.
Un ordenador quántico solo nos resultará de utilidad si nos permite llevar a cabo operaciones con los cúbits, que, como hemos visto, son las unidades de información que maneja.
Nuestro objetivo es utilizarlos para resolver problemas, y el procedimiento para conseguirlo es esencialmente el mismo que hemos descrito cuando hemos hablado de los ordenadores convencionales, solo que, en este caso, las puertas lógicas serán puertas lógicas quánticas diseñadas para llevar a cabo operaciones lógicas quánticas.
Las puertas lógicas quánticas se representan bajo la forma de matrices...
Sabemos que las operaciones lógicas que llevan a cabo los microprocesadores de los ordenadores clásicos son,
...y con ellas son capaces de llevar a cabo todas las tareas que hacemos con un ordenador hoy en día.
Los ordenadores quánticos no son muy diferentes, pero en vez de utilizar estas puertas lógicas usan las puertas lógicas quánticas que hemos conseguido implementar actualmente, que son,
...entre otras.
No vamos a profundizar en su base matemática porque es compleja y no es necesario que la conozcamos para entender las ideas básicas de este artículo, pero es interesante saber que las puertas lógicas quánticas se representan bajo la forma de matrices.
De esta manera, para calcular el resultado que obtendremos en la salida de la puerta quántica tenemos que efectuar el producto de la matriz y el vector que representa el estado interno en un instante dado de nuestro ordenador quántico.
Qué es la decoherencia quántica y por qué los ordenadores quánticos tienen ese aspecto tan extraño
Si diseñamos un algoritmo que recurre a una secuencia dada de operaciones lógicas quánticas podremos ir modificando el estado interno de nuestro ordenador quántico hasta obtener el resultado del problema que le hemos planteado inicialmente.
Esta estrategia, como veis, es idéntica a la que utilizamos en los ordenadores clásicos.
Sin embargo, sabemos que debido al principio de superposición un bit quántico adopta varios valores simultáneamente, por lo que al realizar una operación lógica quántica a partir de varios bits quánticos no obtendremos un único resultado:
Estamos retomando una vez más la idea que hemos desarrollado unos párrafos más arriba, cuando vimos que,
Debido al principio de superposición un bit quántico adopta varios valores simultáneamente, por lo que al realizar una operación lógica quántica a partir de varios bits quánticos no obtendremos un único resultado.
Y esto nos permite llegar a una primera conclusión con la que llevamos coqueteando desde los primeros párrafos del artículo:
Esta capacidad se va acumulando a medida que llevamos a cabo más y más operaciones lógicas quánticas hasta completar la secuencia establecida por nuestro algoritmo para resolver un problema concreto, lo que marca una diferencia enorme con la computación clásica.
Hasta aquí todo pinta muy bien, pero hay dos razones de mucho peso que explican por qué la computación quántica aún no ha acabado con la computación tradicional.
Lo lógico sería pensar que si la primera es tan eficiente debería haber conseguido desplazar a la computación clásica e imponerse con una claridad aplastante en algunos escenarios de uso. Y no ha sido así. Al menos todavía.
La primera razón es que por el momento tenemos pocos algoritmos quánticos porque estas máquinas son muy difíciles de programar, y, por tanto, aún somos capaces de resolver pocos problemas recurriendo a la computación quántica.
La segunda razón consiste en que es muy difícil preservar el estado de un sistema quántico debido a que la superposición se rompe con facilidad a causa de la decoherencia quántica.
Antes de que veamos en qué consiste este fenómeno necesitamos introducir un concepto más que no es otra cosa que una propiedad esencial de los sistemas quánticos:
Este fenómeno no tiene un equivalente en la física clásica, y consiste en que el estado de los sistemas quánticos involucrados, que pueden ser dos o más, es el mismo.
Esto significa que estos objetos, en realidad, forman parte de un mismo sistema, incluso aunque estén separados físicamente.
De hecho, la distancia no importa...
El procesador Sycamore con el que Google consiguió alcanzar la supremacía quántica en 2019 tiene 54 cúbits. El chip de esta fotografía es el procesador Bristlecone, que tiene 72 cúbits.
Si dos partículas, objetos o sistemas están entrelazados mediante este fenómeno quántico, cuando midamos las propiedades físicas de uno de ellos estaremos condicionando instantáneamente las propiedades físicas del otro sistema con el que está entrelazado. Incluso aunque esté en la otra punta del Universo.
Suena a ciencia ficción, es verdad, pero por muy extraño y sorprendente que nos parezca este fenómeno se ha comprobado empíricamente.
De hecho, es, junto a la superposición de estados de la que hemos hablado, uno de los principios fundamentales de la computación quántica.
Volvamos ahora a la decoherencia quántica...
Este fenómeno se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado quántico entrelazado, se mantenga.
Una forma quizá un poco más sencilla de describirlo consiste en verlo como un sistema que deja de comportarse como dictan las reglas de la mecánica quántica cuando se dan unas condiciones determinadas, pasando a comportarse a partir de ese instante como dictan las reglas de la física clásica.
La decoherencia quántica se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado quántico entrelazado se mantenga.
Cuando aparece la decoherencia quántica desaparecen los efectos quánticos. Y, por tanto, también las ventajas que acarrean en el contexto de la computación quántica.
Este fenómeno es muy importante porque nos ayuda a entender por qué muchos sistemas físicos macroscópicos no exhiben efectos quánticos.
O, lo que es lo mismo,
Si tenemos presente lo que acabamos de ver podemos intuir que si se ven afectadas la superposición y el entrelazamiento como consecuencia de la decoherencia del sistema quántico involucrado en el funcionamiento de un ordenador quántico, se producirán errores y los algoritmos no nos devolverán los resultados correctos.
Los estados quánticos se mantienen durante un periodo de tiempo limitado, y este tiempo es, precisamente, el que tenemos para llevar a cabo operaciones lógicas quánticas con los cúbits de nuestro ordenador.
Además, a medida que añadimos cúbits más difícil es mantener bajo control los errores preservando el estado quántico del sistema.
Para evitar que los cúbits cambien de estado quántico de forma espontánea como consecuencia de las perturbaciones introducidas por la energía térmica los ordenadores quánticos actuales trabajan a una temperatura extremadamente baja.
De hecho, está muy cerca del cero absoluto, que es -273,15º C (grados centígrados).
La temperatura de trabajo de los equipos quánticos que tienen compañías como Intel, Google o IBM es de unos 20 milikelvin, que son aproximadamente -273º C, lo que nos permite intuir que el sistema de refrigeración que es necesario poner a punto para alcanzar y mantener una temperatura tan extremadamente baja es complejo.
Precisamente ese sofisticado sistema de refrigeración es el responsable del aspecto extraño que tienen los ordenadores quánticos, que no se parecen absolutamente nada a los ordenadores clásicos con los que todos estamos familiarizados.
La importancia de trabajar a una temperatura lo más cercana posible al cero absoluto reside en que en este estado la energía interna del sistema es la más baja posible, lo que provoca que las partículas fundamentales carezcan de movimiento según los principios de la mecánica clásica.
No obstante, aunque seamos capaces de alcanzar el cero absoluto seguirá existiendo una energía residual, conocida en mecánica quántica como energía del punto cero, que es el nivel de energía más bajo que puede tener un sistema físico.
Qué problemas esperamos resolver con los ordenadores quánticos
Los avances en el diseño de los ordenadores quánticos son esperanzadores, no cabe duda, sobre todo si echamos la vista atrás por un instante y contemplamos lo poco desarrollada que estaba esta disciplina hace solo dos décadas.
Sin embargo, las capacidades de las máquinas de unas pocas decenas de cúbits distan mucho de permitirnos llevar a cabo cálculos realmente relevantes.
James Clarke, el director del laboratorio de computación quántica de Intel, nos confesó durante nuestra visita a sus instalaciones en Delft (Holanda), que para que un ordenador quántico sea significativamente mejor que uno clásico tendrá que trabajar con unos 1000 cúbits.
Solo así llegarán a ser realmente relevantes.
Y para alcanzar este objetivo aún quedan años de investigación que nos ayuden a encontrar la solución a los desafíos que todavía están sobre la mesa.
En algunos escenarios, que ni mucho menos en todos, la computación quántica es exponencialmente más rápida que la clásica. En cualquier caso, ambas están destinadas a convivir.
¿Realmente merece la pena tanto esfuerzo? Sí, sin duda la merece.
En algunos escenarios, que ni mucho menos en todos, la computación quántica es exponencialmente más rápida que la clásica, por lo que los científicos confían en que marque la diferencia en,
...que también podrán verse beneficiadas por la altísima eficiencia que se espera que pongan los ordenadores quánticos en nuestras manos en el futuro.
Aun así, lo razonable es que seamos realistas y tengamos presente que los científicos actualmente están trabajando con muy pocos algoritmos que puedan ejecutarse correctamente sobre un procesador quántico.
De hecho, habitualmente trabajan sobre simuladores y no sobre máquinas quánticas reales.
Ni siquiera está del todo claro cómo debe abordarse el proceso de programación de un ordenador quántico, aunque ya están disponibles plataformas de desarrollo de algoritmos quánticos, como las de Microsoft, IBM o Google, que nos invitan a mirar hacia el futuro con un optimismo razonable.
Qué es la supremacía quántica
Entender este concepto no es difícil.
En realidad no es más que el hito que alcanzaremos cuando un ordenador quántico sea más rápido en la práctica que un ordenador clásico cuando ambos se enfrenten a la resolución de un mismo problema. No obstante, esta definición admite matices.
La idea comúnmente aceptada propone que la máquina quántica consiga resolver en un plazo de tiempo abarcable un problema que un superordenador clásico resolvería en un plazo de tiempo inasumible dada su extensión.
Hasta ahora los dos únicos equipos de investigación que han declarado haber alcanzado este hito han sido el dirigido por John Martinis en Google y el liderado por Jian-Wei Pan en la Universidad de Ciencia y Tecnología de China y la Universidad Tsinghua de Pekín.
El artículo que los investigadores de Google publicaron en su momento en Nature es un texto científico, y, como tal, su contenido es complejo.
Aun así, hay varias ideas interesantes en las que merece la pena que indaguemos sin entrar en detalles demasiado complicados.
La primera de ellas consiste en que el procesador quántico Sycamore utilizado por Google incorpora 53 cúbits superconductores, lo que significa que un estado interno concreto de esta máquina tiene un tamaño de 253.
Para intuir qué significa esto solo tenemos que recordar que en,
Hasta ahora los dos únicos equipos de investigación que han declarado haber alcanzado la supremacía quántica han sido los liderados por John Martinis y Jian-Wei Pan.
Otra idea interesante expuesta por los investigadores de Google en su artículo explica por qué han decidido utilizar en su experimento un generador de números pseudoaleatorios.
Según ellos su elección es la correcta a la hora de poner a prueba la capacidad de su ordenador quántico porque este procedimiento carece de estructura y garantiza un esfuerzo computacional lo suficientemente elevado para que un superordenador clásico no sea capaz de resolverlo en un plazo de tiempo abarcable.
Es posible alcanzar la supremacía quántica utilizando enfoques y tecnologías muy diferentes...
La última explicación de los investigadores del equipo de John Martinis en la que merece la pena que nos detengamos detalla qué método han utilizado para cerciorarse de que tanto su procesador quántico como su algoritmo han funcionado correctamente.
En su artículo explican que han recurrido a un método conocido como prueba de entropía cruzada que, grosso modo, compara la frecuencia con la que se observa experimentalmente cada salida del ordenador quántico con la distribución de probabilidad calculada mediante simulación en un ordenador clásico.
La estrategia utilizada por los investigadores asiáticos es radicalmente diferente a la empleada por el equipo de John Martinis.
Y es que el grupo de Jian-Wei Pan ha puesto a punto un sistema quántico que utiliza un circuito óptico capaz de aprovechar la propiedad quántica que permite a los fotones viajar aleatoriamente en distintas direcciones para llevar a cabo cálculos extraordinariamente complejos.
Lo que nos interesa no es tanto conocer con detalle cómo funciona el experimento que han llevado a cabo los investigadores chinos como fijarnos en que es posible alcanzar la supremacía quántica utilizando enfoques y tecnologías muy diferentes.
De hecho, es muy probable que durante los próximos meses otros grupos de investigación y otras empresas también lleven a cabo un logro equiparable al que ya tienen en su currículo estos investigadores chinos y estadounidenses.
Cuáles son los desafíos que tienen por delante los ordenadores quánticos
Todo lo que hemos visto hasta este momento nos ayuda a intuir algunos de los retos que tiene la computación quántica por delante, una realidad que en ningún caso empaña el enorme potencial que tiene esta disciplina.
Aun así, debemos ser cautos y confiar en que los investigadores sigan trabajando duro para que algún día los ordenadores quánticos nos ayuden a encontrar la solución a algunos de los desafíos a los que se enfrenta la humanidad.
Estos son los cuatro retos de más envergadura en los que están trabajando los investigadores:
No aspiran a llegar a nuestras casas, pero ya están llegando a nuestras vidas
Las computaciones clásica y quántica están condenadas a entenderse.
Los ordenadores quánticos no aspiran a reemplazar los ordenadores clásicos:
La corrección de errores es probablemente el reto más complejo que tendremos que resolver para que los ordenadores quánticos alcancen una supremacía real, y los técnicos que están trabajando en esta disciplina reconocen que este momento está aún relativamente lejos (aunque ya hay avances significativos en este ámbito).
Los ordenadores quánticos no aspiran a reemplazar los ordenadores clásicos; pretenden complementarlos reduciendo drásticamente el tiempo invertido en la ejecución de algunos algoritmos.
James Clarke, el director del laboratorio de computación quántica de Intel, y Lieven Vandersypen, investigador y profesor de tecnología quántica en la Universidad de Delft, creen que, si se mantiene el ritmo de desarrollo actual, tendremos ordenadores quánticos interesantes en cinco años...
Serán máquinas con decenas de cúbits, probablemente incluso con más de un centenar de cúbits, que resultarán muy útiles como campo de pruebas.
Nos ayudarán a seguir avanzando en los métodos de corrección de errores y probablemente también pondrán a nuestro alcance nuevas aplicaciones en las que la computación quántica puede marcar la diferencia.
La computación quántica ya está llegando a los centros de supercomputación. El de la foto es el Barcelona Supercomputing Center, que construyó hace tiempo su propio ordenador quántico de dos cúbits como plataforma de pruebas.
Sin embargo, estos mismos expertos reconocen que los ordenadores quánticos no tendrán un impacto contundente en nuestras vidas, y, por tanto, claramente perceptible, hasta dentro de no menos de quince años...
Esta visión es interesante porque procede de personas que están involucradas de lleno en el diseño y la implementación de ordenadores quánticos, pero no deja de ser una estimación, por lo que puede cumplirse, o no.
La potencia de un ordenador quántico está en gran medida condicionada por la calidad de sus cúbits...
Si nos ceñimos al escenario actual IBM, Intel, Google y Honeywell parecen encontrarse en una posición relativamente cómoda porque todas ellas tienen ordenadores quánticos funcionales con una capacidad interesante como entorno de pruebas e investigación.
Pero no debemos menospreciar en absoluto el rol que pueden jugar otras compañías, como Microsoft, que también están realizando esfuerzos importantes en el terreno de la computación quántica.
La potencia de un ordenador quántico no está definida únicamente por el número de cúbits con el que es capaz de trabajar, sino también por su calidad, entendida como la capacidad de estos cúbits de no resultar perturbados por el ruido, y por la eficiencia de los algoritmos que podemos ejecutar sobre este hardware.
En cualquier caso, ya son lo suficientemente avanzados para que algunos centros de supercomputación, como los franceses y alemanes, hayan decidido introducirlos en su infraestructura como un procesador especializado más que puede marcar la diferencia en la búsqueda de la solución a algunos de los problemas a los que se enfrenta la humanidad.
|