por Juan Carlos López
03 Marzo 2021
del Sitio Web Xataka


 

 


 

 

 

Cómo funcionan,

qué problemas pretenden resolver

y qué desafíos deben superar para lograrlo...




La computación quántica está en el corazón del debate.

 

Durante 2019 y 2020 le hemos dedicado muchos artículos en Xataka porque se han producido avances muy relevantes en esta disciplina en los que merecía la pena indagar.
 

La llegada de la supremacía quántica es el más sorprendente de todos ellos y la ha colocado en el centro de la discusión, pero los expertos en ordenadores y algoritmos quánticos reconocen sin ambigüedad que queda mucho trabajo por hacer.

 

Tanto, de hecho, que hay quien cree que todo este esfuerzo no va a ir a ninguna parte.

 

Uno de los miembros de la comunidad científica más críticos con la computación quántica es el matemático israelí Gil Kalai, profesor en la Universidad de Yale.

 

Según este investigador el incremento del número de estados de los sistemas quánticos y de su complejidad provocará que acaben comportándose como los ordenadores clásicos, por lo que la superioridad de los primeros acabará evaporándose

 

 

La llegada de la supremacía quántica

 ha colocado los ordenadores quánticos

en el centro de la discusión

pero los expertos reconocen sin ambigüedad

que aún queda mucho trabajo por hacer...

 

 

No obstante, la ausencia de un respaldo unánime por parte de la comunidad científica no debe empañar el esfuerzo y los avances notables que están haciendo muchos grupos de investigación, algunos de ellos en instituciones españolas como el CSIC y otros integrados en la estructura de empresas que tienen unos recursos muy abultados, como,

IBM, Google o Intel, entre otras.

Tenemos motivos fundados no para lanzar las campanas al vuelo, pero sí para mirar con razonable optimismo hacia las innovaciones que llegarán en el futuro.

 

Este breve repaso al statu quo de los ordenadores quánticos es el preludio a un artículo en el que nos hemos propuesto recoger toda la información que necesitamos para tener una fotografía lo más certera posible del estado de la computación quántica.

 

Confiamos en que este texto resulte útil a los lectores que tenéis curiosidad por esta disciplina y queréis tener una base sólida sin necesidad de recorrer uno a uno todos los artículos que hemos publicado hasta ahora.

 

 

 

 

Qué es un cúbit

 

La palabra 'cúbit' procede de,

la contracción de los términos en inglés quantum bit, o bit quántico.

En los ordenadores que utilizamos actualmente un bit es la unidad mínima de información.

 

Cada uno de ellos puede adoptar en un momento dado uno de dos valores posibles:

0 o 1...

Pero con un único bit apenas podemos hacer nada, de ahí que sea necesario agruparlos en conjuntos de 8 bits conocidos como bytes u octetos.

 

 

Los cúbits, o bits quánticos,

son en el ámbito de

la computación quántica

lo que los bits en la clásica...

 

 

Por otro lado, los bytes pueden agruparse en «palabras», que pueden tener una longitud de 8 bits (1 byte), 16 bits (2 bytes), 32 bits (4 bytes), etc.

 

Si queremos saber cuántos valores diferentes puede adoptar un conjunto de bits, que puede tener cualquier tamaño (así que lo llamaremos n), solo tenemos que elevar 2 a n (2n).

 

El dos, que es la base, procede del hecho de que cada bit puede adoptar uno de un máximo de dos valores, de ahí que a la notación utilizada por los sistemas digitales en general se la llame notación binaria.

 

 

Los cúbits,

que son la unidad mínima de información

en computación quántica,

a diferencia de los bits

no tienen un único valor en un momento dado;

tienen una combinación de los estados

cero y uno simultáneamente.

 

 

La notación que nosotros utilizamos en nuestro día a día es la decimal debido a que usamos un conjunto de diez valores diferentes que van del 0 al 9, y no solo dos valores (0 y 1), como la notación binaria.

 

Si llevamos a cabo el sencillo cálculo del que acabo de hablaros comprobaremos que con un conjunto de dos bits podemos codificar cuatro valores diferentes (22 = 4), que serían 00, 01, 10 y 11.

 

Con tres bits nuestras opciones se incrementan a ocho valores posibles (23 = 8). Con cuatro bits obtendremos dieciséis valores (24 = 16), y así sucesivamente.

 

Eso sí, un conjunto de bits determinado solo puede adoptar un único valor o estado interno en un instante dado.

 

Es una restricción absolutamente razonable que parece tener un reflejo claro en el mundo que observamos porque una cosa es o no es, pero no puede tener ambas propiedades simultáneamente.

 

Este principio tan evidente y básico, curiosamente, no se da en la computación quántica.

 

Y es que los cúbits, que son la unidad mínima de información en esta disciplina, a diferencia de los bits no tienen un único valor en un momento dado:

lo que tienen es una combinación de los estados cero y uno simultáneamente.

Pueden tener,

mucho de estado cero y poco de estado uno.

 

O mucho de estado uno y poco de estado cero.

 

O lo mismo de ambos.

 

O cualquier otra combinación de estos dos estados que se os ocurra.

 

 

 

Qué son los estados quánticos

 

La física que explica cómo se codifica el estado quántico de un cúbit es compleja.

 

No es necesario que profundicemos en esta parte para seguir adelante con el artículo, pero sí es interesante que sepamos que el estado quántico está asociado a características como el espín de un electrón, que es una propiedad intrínseca de las partículas elementales, al igual que la carga eléctrica, derivada de su momento de rotación angular.

 

Esta idea no resulta intuitiva, pero tiene su origen en uno de los principios fundamentales de la mecánica quántica conocido como principio de superposición de estados.

 

Y es esencial porque en gran medida explica el enorme potencial que tienen los procesadores quánticos.

 

 

En un procesador quántico de n cúbits

un estado concreto de la máquina

es una combinación de todas las

posibles colecciones de n unos y ceros...

 

 

En un ordenador clásico la cantidad de información que podemos codificar en un estado concreto utilizando n bits tiene tamaño n, pero en un procesador quántico de n cúbits un estado concreto de la máquina es una combinación de todas las posibles colecciones de n unos y ceros.

 

Cada una de esas posibles colecciones tiene una probabilidad que nos indica, de alguna forma, cuánto de esa colección en particular hay en el estado interno de la máquina, que está determinado por la combinación de todas las posibles colecciones en una proporción concreta indicada por la probabilidad de cada una de ellas.

 

 

Si en un ordenador quántico pasamos

de trabajar con n cúbits a hacerlo con n+1 cúbits

estaremos duplicando la información

que almacena el estado interno de la máquina,

que pasará de 2n a 2n+1.

 

 

Como veis, esta idea es algo compleja, pero podemos intuirla si aceptamos el principio de superposición quántica y la posibilidad de que el estado de un objeto sea el resultado de la ocurrencia simultánea de varias opciones con distinta probabilidad.

 

Una consecuencia muy importante de esta propiedad de los ordenadores quánticos es que la cantidad de información que contiene un estado concreto de la máquina tiene tamaño 2n, y no n, como en los ordenadores clásicos.

 

Esta diferencia es esencial y explica el potencial de la computación quántica, pero también puede ayudarnos a intuir su complejidad, en la que indagaremos un poco más adelante.

 

Si en un ordenador clásico pasamos de trabajar con n bits a hacerlo con n+1 bits estaremos incrementando la información que almacena el estado interno de la máquina en un único bit.

 

Sin embargo, si en un ordenador quántico pasamos de trabajar con n cúbits a hacerlo con n+1 cúbits estaremos duplicando la información que almacena el estado interno de la máquina, que pasará de 2n a 2n+1.

 

Esto significa, sencillamente, que el incremento de la capacidad de un ordenador clásico a medida que introducimos más bits es lineal, mientras que el de un ordenador quántico a medida que incrementamos el número de cúbits es exponencial.

 

Ya sabemos que el bit y el cúbit son las unidades mínimas de información que manejan los ordenadores clásicos y quánticos, por lo que podemos dar un paso más hacia delante y repasar cómo hacemos operaciones con ellos.

 

Los elementos que nos permiten operar con bits en los ordenadores clásicos son las puertas lógicas, que implementan las operaciones lógicas del Álgebra de Boole.

 

Esta álgebra es una estructura diseñada para trabajar sobre expresiones de la lógica proposicional que tienen la peculiaridad de que solo pueden adoptar,

uno de dos posibles valores, cierto o falso,

...de ahí que sea también perfecta para llevar a cabo operaciones en sistemas digitales binarios, que, por tanto, también pueden adoptar en un instante dado solo uno de dos valores posibles:

0 o 1...

 

Las puertas lógicas quánticas

que hemos conseguido implementar actualmente

en los procesadores quánticos son

CNOT, Pauli, Hadamard, Toffoli o SWAP,

entre otras.

 

 

La,

  • operación lógica AND implementa el producto

  • la operación OR, la suma

  • la operación NOT invierte el resultado de las otras dos,

...con las que puede combinarse para implementar las operaciones NAND y NOR.

 

Estas, junto con la operación de suma exclusiva (XOR) y su negación (XNOR) son las operaciones lógicas básicas con las que trabajan a bajo nivel los ordenadores que todos utilizamos actualmente.

 

Y con ellas son capaces de resolver todas las tareas que llevamos a cabo.

 

Cada una de ellas nos permite modificar el estado interno de la CPU, de manera que podemos definir un algoritmo como una secuencia de operaciones lógicas que modifican el estado interno del procesador hasta que alcance el valor que nos ofrece la solución a un problema dado.

 

Un ordenador quántico solo nos resultará de utilidad si nos permite llevar a cabo operaciones con los cúbits, que, como hemos visto, son las unidades de información que maneja.

 

Nuestro objetivo es utilizarlos para resolver problemas, y el procedimiento para conseguirlo es esencialmente el mismo que hemos descrito cuando hemos hablado de los ordenadores convencionales, solo que, en este caso, las puertas lógicas serán puertas lógicas quánticas diseñadas para llevar a cabo operaciones lógicas quánticas.

 

 

Las puertas lógicas quánticas

se representan bajo la forma de matrices...

 

 

Sabemos que las operaciones lógicas que llevan a cabo los microprocesadores de los ordenadores clásicos son,

AND, OR, XOR, NOT, NAND, NOR y XNOR,

...y con ellas son capaces de llevar a cabo todas las tareas que hacemos con un ordenador hoy en día.

 

Los ordenadores quánticos no son muy diferentes, pero en vez de utilizar estas puertas lógicas usan las puertas lógicas quánticas que hemos conseguido implementar actualmente, que son,

CNOT, Pauli, Hadamard, Toffoli o SWAP,

...entre otras.

 

No vamos a profundizar en su base matemática porque es compleja y no es necesario que la conozcamos para entender las ideas básicas de este artículo, pero es interesante saber que las puertas lógicas quánticas se representan bajo la forma de matrices.

 

De esta manera, para calcular el resultado que obtendremos en la salida de la puerta quántica tenemos que efectuar el producto de la matriz y el vector que representa el estado interno en un instante dado de nuestro ordenador quántico.

 

 

 

 

Qué es la decoherencia quántica y por qué los ordenadores quánticos tienen ese aspecto tan extraño

 

Si diseñamos un algoritmo que recurre a una secuencia dada de operaciones lógicas quánticas podremos ir modificando el estado interno de nuestro ordenador quántico hasta obtener el resultado del problema que le hemos planteado inicialmente.

 

Esta estrategia, como veis, es idéntica a la que utilizamos en los ordenadores clásicos.

 

Sin embargo, sabemos que debido al principio de superposición un bit quántico adopta varios valores simultáneamente, por lo que al realizar una operación lógica quántica a partir de varios bits quánticos no obtendremos un único resultado:

llegaremos simultáneamente a múltiples resultados como consecuencia de la multiplicidad de estados que adoptan los bits involucrados en la operación lógica quántica.

Estamos retomando una vez más la idea que hemos desarrollado unos párrafos más arriba, cuando vimos que,

la capacidad de cálculo de los ordenadores quánticos se incrementa exponencialmente a medida que somos capaces de llevar a cabo operaciones con más cúbits.

 

Debido al principio de superposición

un bit quántico adopta varios valores simultáneamente,

por lo que al realizar una operación lógica quántica

a partir de varios bits quánticos

no obtendremos un único resultado.

 

 

Y esto nos permite llegar a una primera conclusión con la que llevamos coqueteando desde los primeros párrafos del artículo:

los ordenadores quánticos son más potentes que los clásicos en la medida en que cada una de las operaciones lógicas que podemos llevar a cabo con ellos nos devuelve más resultados que una operación lógica clásica.

Esta capacidad se va acumulando a medida que llevamos a cabo más y más operaciones lógicas quánticas hasta completar la secuencia establecida por nuestro algoritmo para resolver un problema concreto, lo que marca una diferencia enorme con la computación clásica.

 

Hasta aquí todo pinta muy bien, pero hay dos razones de mucho peso que explican por qué la computación quántica aún no ha acabado con la computación tradicional.

 

Lo lógico sería pensar que si la primera es tan eficiente debería haber conseguido desplazar a la computación clásica e imponerse con una claridad aplastante en algunos escenarios de uso. Y no ha sido así. Al menos todavía.

 

La primera razón es que por el momento tenemos pocos algoritmos quánticos porque estas máquinas son muy difíciles de programar, y, por tanto, aún somos capaces de resolver pocos problemas recurriendo a la computación quántica.

 

La segunda razón consiste en que es muy difícil preservar el estado de un sistema quántico debido a que la superposición se rompe con facilidad a causa de la decoherencia quántica.

 

Antes de que veamos en qué consiste este fenómeno necesitamos introducir un concepto más que no es otra cosa que una propiedad esencial de los sistemas quánticos:

el entrelazamiento...

Este fenómeno no tiene un equivalente en la física clásica, y consiste en que el estado de los sistemas quánticos involucrados, que pueden ser dos o más, es el mismo.

 

Esto significa que estos objetos, en realidad, forman parte de un mismo sistema, incluso aunque estén separados físicamente.

 

De hecho, la distancia no importa...

 

 

El procesador Sycamore

con el que Google consiguió alcanzar

la supremacía quántica en 2019 tiene 54 cúbits.

El chip de esta fotografía es el procesador

Bristlecone, que tiene 72 cúbits.

 

 

Si dos partículas, objetos o sistemas están entrelazados mediante este fenómeno quántico, cuando midamos las propiedades físicas de uno de ellos estaremos condicionando instantáneamente las propiedades físicas del otro sistema con el que está entrelazado. Incluso aunque esté en la otra punta del Universo.

 

Suena a ciencia ficción, es verdad, pero por muy extraño y sorprendente que nos parezca este fenómeno se ha comprobado empíricamente.

 

De hecho, es, junto a la superposición de estados de la que hemos hablado, uno de los principios fundamentales de la computación quántica.

 

Volvamos ahora a la decoherencia quántica...

 

 

Este fenómeno se produce

cuando desaparecen las condiciones necesarias

para que un sistema que se encuentra

en un estado quántico entrelazado,

se mantenga.

 

 

Una forma quizá un poco más sencilla de describirlo consiste en verlo como un sistema que deja de comportarse como dictan las reglas de la mecánica quántica cuando se dan unas condiciones determinadas, pasando a comportarse a partir de ese instante como dictan las reglas de la física clásica.

 

La decoherencia quántica se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado quántico entrelazado se mantenga.

 

Cuando aparece la decoherencia quántica desaparecen los efectos quánticos. Y, por tanto, también las ventajas que acarrean en el contexto de la computación quántica.

 

Este fenómeno es muy importante porque nos ayuda a entender por qué muchos sistemas físicos macroscópicos no exhiben efectos quánticos.

 

O, lo que es lo mismo,

por qué en nuestro entorno cotidiano no podemos observar los contra-intuitivos efectos de la mecánica quántica.

Si tenemos presente lo que acabamos de ver podemos intuir que si se ven afectadas la superposición y el entrelazamiento como consecuencia de la decoherencia del sistema quántico involucrado en el funcionamiento de un ordenador quántico, se producirán errores y los algoritmos no nos devolverán los resultados correctos.

 

Los estados quánticos se mantienen durante un periodo de tiempo limitado, y este tiempo es, precisamente, el que tenemos para llevar a cabo operaciones lógicas quánticas con los cúbits de nuestro ordenador.

 

Además, a medida que añadimos cúbits más difícil es mantener bajo control los errores preservando el estado quántico del sistema.

 

Para evitar que los cúbits cambien de estado quántico de forma espontánea como consecuencia de las perturbaciones introducidas por la energía térmica los ordenadores quánticos actuales trabajan a una temperatura extremadamente baja.

 

De hecho, está muy cerca del cero absoluto, que es -273,15º C (grados centígrados).

 

La temperatura de trabajo de los equipos quánticos que tienen compañías como Intel, Google o IBM es de unos 20 milikelvin, que son aproximadamente -273º C, lo que nos permite intuir que el sistema de refrigeración que es necesario poner a punto para alcanzar y mantener una temperatura tan extremadamente baja es complejo.

 

Precisamente ese sofisticado sistema de refrigeración es el responsable del aspecto extraño que tienen los ordenadores quánticos, que no se parecen absolutamente nada a los ordenadores clásicos con los que todos estamos familiarizados.

 

La importancia de trabajar a una temperatura lo más cercana posible al cero absoluto reside en que en este estado la energía interna del sistema es la más baja posible, lo que provoca que las partículas fundamentales carezcan de movimiento según los principios de la mecánica clásica.

 

No obstante, aunque seamos capaces de alcanzar el cero absoluto seguirá existiendo una energía residual, conocida en mecánica quántica como energía del punto cero, que es el nivel de energía más bajo que puede tener un sistema físico.

 

 

 

 

Qué problemas esperamos resolver con los ordenadores quánticos

 

Los avances en el diseño de los ordenadores quánticos son esperanzadores, no cabe duda, sobre todo si echamos la vista atrás por un instante y contemplamos lo poco desarrollada que estaba esta disciplina hace solo dos décadas.

 

Sin embargo, las capacidades de las máquinas de unas pocas decenas de cúbits distan mucho de permitirnos llevar a cabo cálculos realmente relevantes.

 

James Clarke, el director del laboratorio de computación quántica de Intel, nos confesó durante nuestra visita a sus instalaciones en Delft (Holanda), que para que un ordenador quántico sea significativamente mejor que uno clásico tendrá que trabajar con unos 1000 cúbits.

 

Solo así llegarán a ser realmente relevantes.

 

Y para alcanzar este objetivo aún quedan años de investigación que nos ayuden a encontrar la solución a los desafíos que todavía están sobre la mesa.

 

 

En algunos escenarios,

que ni mucho menos en todos,

la computación quántica es

exponencialmente más rápida que la clásica.

En cualquier caso,

ambas están destinadas a convivir.

 

 

¿Realmente merece la pena tanto esfuerzo? Sí, sin duda la merece.

 

En algunos escenarios, que ni mucho menos en todos, la computación quántica es exponencialmente más rápida que la clásica, por lo que los científicos confían en que marque la diferencia en,

criptografía, inteligencia artificial, aprendizaje automático y otras disciplinas científicas, como la medicina, la física, la ingeniería o la química,

...que también podrán verse beneficiadas por la altísima eficiencia que se espera que pongan los ordenadores quánticos en nuestras manos en el futuro.

 

Aun así, lo razonable es que seamos realistas y tengamos presente que los científicos actualmente están trabajando con muy pocos algoritmos que puedan ejecutarse correctamente sobre un procesador quántico.

 

De hecho, habitualmente trabajan sobre simuladores y no sobre máquinas quánticas reales.

 

Ni siquiera está del todo claro cómo debe abordarse el proceso de programación de un ordenador quántico, aunque ya están disponibles plataformas de desarrollo de algoritmos quánticos, como las de Microsoft, IBM o Google, que nos invitan a mirar hacia el futuro con un optimismo razonable.

 

 

 

 

Qué es la supremacía quántica

 

Entender este concepto no es difícil.

 

En realidad no es más que el hito que alcanzaremos cuando un ordenador quántico sea más rápido en la práctica que un ordenador clásico cuando ambos se enfrenten a la resolución de un mismo problema. No obstante, esta definición admite matices.

¿En qué medida debe ser más rápido el ordenador quántico?

 

¿Mucho?

 

¿Basta que lo sea solo un poco?

La idea comúnmente aceptada propone que la máquina quántica consiga resolver en un plazo de tiempo abarcable un problema que un superordenador clásico resolvería en un plazo de tiempo inasumible dada su extensión.

 

Hasta ahora los dos únicos equipos de investigación que han declarado haber alcanzado este hito han sido el dirigido por John Martinis en Google y el liderado por Jian-Wei Pan en la Universidad de Ciencia y Tecnología de China y la Universidad Tsinghua de Pekín.

 

El artículo que los investigadores de Google publicaron en su momento en Nature es un texto científico, y, como tal, su contenido es complejo.

 

Aun así, hay varias ideas interesantes en las que merece la pena que indaguemos sin entrar en detalles demasiado complicados.

 

La primera de ellas consiste en que el procesador quántico Sycamore utilizado por Google incorpora 53 cúbits superconductores, lo que significa que un estado interno concreto de esta máquina tiene un tamaño de 253.

 

Para intuir qué significa esto solo tenemos que recordar que en,

un procesador clásico de n bits la cantidad de información que podemos codificar en un estado concreto utilizando esos n bits tiene tamaño n, pero en un procesador quántico de n cúbits un estado concreto de la máquina tiene tamaño 2n.

 

Hasta ahora los dos únicos equipos de investigación

que han declarado haber alcanzado la supremacía quántica

han sido los liderados por John Martinis y Jian-Wei Pan.

 

 

Otra idea interesante expuesta por los investigadores de Google en su artículo explica por qué han decidido utilizar en su experimento un generador de números pseudoaleatorios.

 

Según ellos su elección es la correcta a la hora de poner a prueba la capacidad de su ordenador quántico porque este procedimiento carece de estructura y garantiza un esfuerzo computacional lo suficientemente elevado para que un superordenador clásico no sea capaz de resolverlo en un plazo de tiempo abarcable.

 

 

Es posible alcanzar la supremacía quántica

utilizando enfoques y tecnologías muy diferentes...

 

 

La última explicación de los investigadores del equipo de John Martinis en la que merece la pena que nos detengamos detalla qué método han utilizado para cerciorarse de que tanto su procesador quántico como su algoritmo han funcionado correctamente.

 

En su artículo explican que han recurrido a un método conocido como prueba de entropía cruzada que, grosso modo, compara la frecuencia con la que se observa experimentalmente cada salida del ordenador quántico con la distribución de probabilidad calculada mediante simulación en un ordenador clásico.

 

La estrategia utilizada por los investigadores asiáticos es radicalmente diferente a la empleada por el equipo de John Martinis.

 

Y es que el grupo de Jian-Wei Pan ha puesto a punto un sistema quántico que utiliza un circuito óptico capaz de aprovechar la propiedad quántica que permite a los fotones viajar aleatoriamente en distintas direcciones para llevar a cabo cálculos extraordinariamente complejos.

 

Lo que nos interesa no es tanto conocer con detalle cómo funciona el experimento que han llevado a cabo los investigadores chinos como fijarnos en que es posible alcanzar la supremacía quántica utilizando enfoques y tecnologías muy diferentes.

 

De hecho, es muy probable que durante los próximos meses otros grupos de investigación y otras empresas también lleven a cabo un logro equiparable al que ya tienen en su currículo estos investigadores chinos y estadounidenses.

 

 

 

 

Cuáles son los desafíos que tienen por delante los ordenadores quánticos

 

Todo lo que hemos visto hasta este momento nos ayuda a intuir algunos de los retos que tiene la computación quántica por delante, una realidad que en ningún caso empaña el enorme potencial que tiene esta disciplina.

 

Aun así, debemos ser cautos y confiar en que los investigadores sigan trabajando duro para que algún día los ordenadores quánticos nos ayuden a encontrar la solución a algunos de los desafíos a los que se enfrenta la humanidad.

 

Estos son los cuatro retos de más envergadura en los que están trabajando los investigadores:

  • Necesitamos cúbits de más calidad. La información quántica con la que operan los sistemas quánticos se destruye en un periodo de tiempo breve, por lo que tener cúbits de más calidad nos permitirá dilatar la vida útil de la información quántica y llevar a cabo operaciones más complejas con ella.

     

     

  • Un sistema de corrección de errores nos ayudará a garantizar que los resultados que nos entrega nuestro ordenador quántico son correctos.

     

    Como hemos visto, aún no lo tenemos, y a medida que los grupos de investigación integran más cúbits en los ordenadores quánticos resulta más difícil preservar la integridad del estado quántico del sistema.

     

     

  • Además de tener cúbits de más calidad y sistemas de corrección de errores es necesario desarrollar nuevas herramientas que nos permitan controlarlos con precisión y llevar a cabo más operaciones lógicas con ellos.

     

    Su manipulación se vuelve mucho más compleja a medida que se incrementa el número de cúbits de los sistemas quánticos.

     

     

  • También es necesario desarrollar más la arquitectura de los ordenadores quánticos, como la electrónica de control, el procesador de control quántico o los compiladores quánticos.

     

    Uno de los retos más imponentes a los que se enfrentan los investigadores consiste en implementar nuevos algoritmos quánticos que sean capaces de ayudarnos a abordar los problemas que no podemos resolver con los superordenadores clásicos más potentes que tenemos hoy en día.

     

    Estos algoritmos son los que permitirán a los ordenadores quánticos marcar la diferencia.

 

 

 

No aspiran a llegar a nuestras casas, pero ya están llegando a nuestras vidas

 

Las computaciones clásica y quántica están condenadas a entenderse.

 

Los ordenadores quánticos no aspiran a reemplazar los ordenadores clásicos:

pretenden complementarlos reduciendo drásticamente el tiempo invertido en la ejecución de aquellos algoritmos que actualmente tienen un coste computacional inasumible si nos ceñimos al tiempo que requieren.

La corrección de errores es probablemente el reto más complejo que tendremos que resolver para que los ordenadores quánticos alcancen una supremacía real, y los técnicos que están trabajando en esta disciplina reconocen que este momento está aún relativamente lejos (aunque ya hay avances significativos en este ámbito).

 

 

Los ordenadores quánticos

 no aspiran a reemplazar los ordenadores clásicos;

pretenden complementarlos

reduciendo drásticamente

el tiempo invertido en la ejecución

de algunos algoritmos.

 

 

James Clarke, el director del laboratorio de computación quántica de Intel, y Lieven Vandersypen, investigador y profesor de tecnología quántica en la Universidad de Delft, creen que, si se mantiene el ritmo de desarrollo actual, tendremos ordenadores quánticos interesantes en cinco años...

 

Serán máquinas con decenas de cúbits, probablemente incluso con más de un centenar de cúbits, que resultarán muy útiles como campo de pruebas.

 

Nos ayudarán a seguir avanzando en los métodos de corrección de errores y probablemente también pondrán a nuestro alcance nuevas aplicaciones en las que la computación quántica puede marcar la diferencia.

 

 

La computación quántica

ya está llegando a los centros de supercomputación.

El de la foto es el Barcelona Supercomputing Center,

que construyó hace tiempo su propio ordenador quántico

de dos cúbits como plataforma de pruebas.

 

 

Sin embargo, estos mismos expertos reconocen que los ordenadores quánticos no tendrán un impacto contundente en nuestras vidas, y, por tanto, claramente perceptible, hasta dentro de no menos de quince años...

 

Esta visión es interesante porque procede de personas que están involucradas de lleno en el diseño y la implementación de ordenadores quánticos, pero no deja de ser una estimación, por lo que puede cumplirse, o no.

 

 

La potencia de un ordenador quántico

está en gran medida condicionada

por la calidad de sus cúbits...

 

 

Si nos ceñimos al escenario actual IBM, Intel, Google y Honeywell parecen encontrarse en una posición relativamente cómoda porque todas ellas tienen ordenadores quánticos funcionales con una capacidad interesante como entorno de pruebas e investigación.

 

Pero no debemos menospreciar en absoluto el rol que pueden jugar otras compañías, como Microsoft, que también están realizando esfuerzos importantes en el terreno de la computación quántica.

 

La potencia de un ordenador quántico no está definida únicamente por el número de cúbits con el que es capaz de trabajar, sino también por su calidad, entendida como la capacidad de estos cúbits de no resultar perturbados por el ruido, y por la eficiencia de los algoritmos que podemos ejecutar sobre este hardware.

 

En cualquier caso, ya son lo suficientemente avanzados para que algunos centros de supercomputación, como los franceses y alemanes, hayan decidido introducirlos en su infraestructura como un procesador especializado más que puede marcar la diferencia en la búsqueda de la solución a algunos de los problemas a los que se enfrenta la humanidad.