No es sencillo ubicar con precisión en el tiempo el momento exacto en el que la computación cuántica comenzó a hacer ruido más allá de los ámbitos académico y de investigación. Quizá lo más razonable es aceptar que esta disciplina empezó a ser conocida por el gran público hace aproximadamente dos décadas, un período durante el que los ordenadores clásicos han experimentado un desarrollo muy notable.
Aunque hay científicos que defienden con cierta vehemencia que la computación cuántica a la que aspiramos es imposible, como Gil Kalai, un matemático israelí que da clase en la Universidad de Yale, lo cierto es que ha avanzado mucho durante los últimos años. Desde fuera puede parecer que es una «eterna promesa» más, pero los avances de los que estamos siendo testigos, como la construcción del primer prototipo funcional de 50 qubits en el que está trabajando IBM, nos invitan a ser razonablemente optimistas. Sí, los retos que tienen por delante matemáticos, físicos e ingenieros son casi titánicos, pero esto hace si cabe más apasionante esta disciplina. Comencemos nuestro viaje.
Computación cuántica: qué es y cómo funciona
Esta disciplina tiene fama de ser complicada, y, por tanto, difícil de entender. Y sí, es cierto que si profundizamos lo suficiente en ella la computación cuántica se vuelve muy compleja. La razón es que sus fundamentos se apoyan en principios de la física cuántica que no son en absoluto intuitivos porque sus efectos no podemos observarlos en el mundo macroscópico en el que vivimos.
En otros artículos hemos intentado explicaros qué es la computación cuántica, de dónde viene y hacia dónde va, pero en este texto nos viene bien retomar algunas de esas ideas porque es el punto de partida desde el que podemos intentar arrojar un poco de luz a su estado actual, y también a lo que nos deparará en el futuro. El primer concepto que nos interesa conocer es el de cúbit o qubit, que no es otra cosa que la contracción de las palabras en inglés quantum bit, o bit cuántico. Y para entender qué es un qubit nos viene bien repasar previamente qué es un bit en informática clásica.
En los ordenadores que utilizamos actualmente un bit es la unidad mínima de información. Cada uno de ellos puede adoptar en un momento dado uno de dos valores posibles: 0 o 1. Pero con un único bit apenas podemos hacer nada, de ahí que sea necesario agruparlos en conjuntos de 8 bits conocidos como bytes u octetos. Por otro lado, los bytes pueden agruparse en «palabras», que pueden tener una longitud de 8 bits (1 byte), 16 bits (2 bytes), 32 bits (4 bytes), etc.
Hasta ahora, como veis, no hemos manejado ninguna idea complicada, pero ha llegado el momento de que hagamos un pequeño cálculo. Si queremos saber cuántos valores diferentes puede adoptar un conjunto de bits, que puede tener cualquier tamaño (así que lo llamaremos n), solo tenemos que elevar 2 a n (2n). El dos, que es la base, procede del hecho de que cada bit puede adoptar uno de un máximo de dos valores, de ahí que a la notación utilizada por los sistemas digitales en general se la llame notación binaria. La notación que nosotros utilizamos en nuestro día a día es la decimal debido a que usamos un conjunto de diez valores diferentes que van del 0 al 9, y no solo dos valores (0 y 1), como la notación binaria.
La unidad mínima de información en computación cuántica es el cúbit, qubit o bit cuántico, que tiene una combinación de los estados cero y uno hasta el instante en el que medimos su valor y este colapsa hacia una opción u otra
Si llevamos a cabo el sencillo cálculo del que acabo de hablaros comprobaremos que con un conjunto de dos bits podemos codificar cuatro valores diferentes (22 = 4), que serían 00, 01, 10 y 11. Con tres bits nuestras opciones se incrementan a ocho valores posibles (23 = 8). Con cuatro bits obtendremos dieciséis valores (24 = 16), y así sucesivamente. Eso sí, un conjunto de bits determinado solo puede adoptar un único valor o estado interno en un instante dado. Es una restricción absolutamente razonable que parece tener un reflejo claro en el mundo que observamos porque una cosa es o no es, pero no puede tener ambas propiedades simultáneamente.
Este principio tan evidente y básico, curiosamente, no se da en la computación cuántica. Y es que los qubits, que son la unidad mínima de información en esta disciplina, a diferencia de los bits no tienen un único valor en un momento dado; lo que tienen es una combinación de los estados cero y uno simultáneamente. Pueden tener mucho de estado cero y poco de estado uno. O mucho de estado uno y poco de estado cero. O lo mismo de ambos. O cualquier otra combinación de estos dos estados que se os ocurra.
La física que explica cómo se codifica el estado cuántico de un qubit es compleja. No es necesario que profundicemos en esta parte para seguir adelante con el artículo, pero sí es interesante que sepamos que el estado cuántico está asociado a características como el espín de un electrón, que es una propiedad intrínseca de las partículas elementales, al igual que la carga eléctrica, derivada de su momento de rotación angular.
Estas ideas no resultan intuitivas, pero tienen su origen en uno de los principios fundamentales de la mecánica cuántica, conocido como principio de superposición de estados. Y es esencial porque en gran medida explica el enorme potencial que tienen los procesadores cuánticos. En un ordenador clásico la cantidad de información que podemos codificar en un estado concreto utilizando n bits tiene tamaño n, pero en un procesador cuántico de n qubits un estado concreto de la máquina es una combinación de todas las posibles colecciones de n unos y ceros.
Cada una de esas posibles colecciones tiene una probabilidad que nos indica, de alguna forma, cuánto de esa colección en particular hay en el estado interno de la máquina, que está determinado por la combinación de todas las posibles colecciones en una proporción concreta indicada por la probabilidad de cada una de ellas. Como veis, esta idea es algo compleja, pero podemos intuirla si aceptamos el principio de superposición cuántica y la posibilidad de que el estado de un objeto sea el resultado de la ocurrencia simultánea de varias opciones con distinta probabilidad.
Una consecuencia muy importante de esta propiedad de los ordenadores cuánticos es que la cantidad de información que contiene un estado concreto de la máquina tiene tamaño 2n, y no n, como en los ordenadores clásicos. Esta diferencia es esencial y explica el potencial de la computación cuántica, pero también puede ayudarnos a intuir su complejidad, en la que indagaremos un poco más adelante.
Si en un ordenador clásico pasamos de trabajar con n bits a hacerlo con n+1 bits estaremos incrementando la información que almacena el estado interno de la máquina en un único bit. Sin embargo, si en un ordenador cuántico pasamos de trabajar con n qubits a hacerlo con n+1 qubits estaremos duplicando la información que almacena el estado interno de la máquina, que pasará de 2n a 2n+1. Esto significa, sencillamente, que el incremento de la capacidad de un ordenador clásico a medida que introducimos más bits es lineal, mientras que el de un ordenador cuántico a medida que incrementamos el número de qubits es exponencial.
Ya sabemos que el bit y el qubit son las unidades mínimas de información que manejan los ordenadores clásicos y cuánticos, por lo que podemos dar un paso más hacia delante y repasar cómo hacemos operaciones con ellos. Los elementos que nos permiten operar con bits en los ordenadores clásicos son las puertas lógicas, que implementan las operaciones lógicas del Álgebra de Boole. Este último es una estructura algebraica diseñada para trabajar sobre expresiones de la lógica proposicional, que tienen la peculiaridad de que solo pueden adoptar uno de dos posibles valores, cierto o falso, de ahí que este álgebra sea también perfecta para llevar a cabo operaciones en sistemas digitales binarios, que, por tanto, también pueden adoptar en un instante dado solo uno de dos valores posibles: 0 o 1.
La operación lógica AND implementa el producto; la operación OR, la suma, y la operación NOT invierte el resultado de las otras dos, con las que puede combinarse para implementar las operaciones NAND y NOR. Estas, junto con la operación de suma exclusiva (XOR) y su negación (XNOR) son las operaciones lógicas básicas con las que trabajan a bajo nivel los ordenadores que todos utilizamos actualmente. Y con ellas son capaces de resolver todas las tareas que llevamos a cabo.
Algunas de las puertas lógicas cuánticas utilizadas por los ordenadores cuánticos para llevar a cabo operaciones son CNOT, Pauli, Hadamard, Toffoli o SWAP, entre otras, y es probable, y deseable, que diseñemos más en el futuro
Podemos navegar en Internet, escribir textos, escuchar música y jugar con videojuegos, entre muchas otras posibles aplicaciones, gracias a que el microprocesador de nuestro ordenador es capaz de llevar a cabo estas operaciones lógicas. Cada una de ellas nos permite modificar el estado interno de la CPU, de manera que podemos definir un algoritmo como una secuencia de operaciones lógicas que modifican el estado interno del procesador hasta que alcance el valor que nos ofrece la solución a un problema dado.
Un ordenador cuántico solo nos resultará de utilidad si nos permite llevar a cabo operaciones con los qubits, que, como hemos visto, son las unidades de información que maneja. Nuestro objetivo es utilizarlos para resolver problemas, y el procedimiento para conseguirlo es esencialmente el mismo que hemos descrito cuando hemos hablado de los ordenadores convencionales, solo que, en este caso, las puertas lógicas serán puertas lógicas cuánticas diseñadas para llevar a cabo operaciones lógicas cuánticas.
Sabemos que las operaciones lógicas que llevan a cabo los microprocesadores de los ordenadores clásicos son AND, OR, XOR, NOT, NAND, NOR y XNOR, y con ellas son capaces de llevar a cabo todas las tareas que hacemos con un ordenador hoy en día. Los ordenadores cuánticos no son muy diferentes, pero en vez de utilizar estas puertas lógicas usan las puertas lógicas cuánticas que hemos conseguido implementar actualmente, que son CNOT, Pauli, Hadamard, Toffoli o SWAP, entre otras.
No vamos a profundizar en su base matemática porque es compleja y no es necesario que la conozcamos para entender las ideas básicas de este artículo, pero es interesante saber que las puertas lógicas cuánticas se representan bajo la forma de matrices. De esta manera, para calcular el resultado que obtendremos en la salida de la puerta cuántica tenemos que efectuar el producto de la matriz y el vector que representa el estado interno en un instante dado de nuestro ordenador cuántico.
Este es su estado actual y estos son los problemas que podemos resolver
Si diseñamos un algoritmo que recurre a una secuencia dada de operaciones lógicas cuánticas podremos ir modificando el estado interno de nuestro ordenador cuántico hasta obtener el resultado del problema que le hemos planteado inicialmente. Esta estrategia, como veis, es idéntica a la que utilizamos en los ordenadores clásicos. Sin embargo, sabemos que debido al principio de superposición un bit cuántico adopta varios valores simultáneamente, por lo que al realizar una operación lógica cuántica a partir de varios bits cuánticos no obtendremos un único resultado; llegaremos simultáneamente a múltiples resultados como consecuencia de la multiplicidad de estados que adoptan los bits involucrados en la operación lógica cuántica.
Estamos retomando una vez más la idea que hemos desarrollado unos párrafos más arriba, cuando vimos que la capacidad de cálculo de los ordenadores cuánticos se incrementa exponencialmente a medida que somos capaces de llevar a cabo operaciones con más qubits. Y esto nos permite llegar a una primera conclusión con la que llevamos coqueteando desde los primeros párrafos del artículo: los ordenadores cuánticos son más potentes que los clásicos en la medida en que cada una de las operaciones lógicas que podemos llevar a cabo con ellos nos devuelve más resultados que una operación lógica clásica. Y esta capacidad se va acumulando a medida que llevamos a cabo más y más operaciones lógicas cuánticas hasta completar la secuencia establecida por nuestro algoritmo para resolver un problema concreto, lo que marca una diferencia enorme con la computación clásica.
Hasta aquí todo pinta muy bien, pero hay dos razones de mucho peso que explican por qué la computación cuántica aún no ha arrasado con la computación tradicional. Lo lógico sería pensar que si la primera es tan eficiente debería haber conseguido desplazar a la computación clásica e imponerse con una claridad aplastante en muchos escenarios de uso. Y no ha sido así. Al menos aún. La primera razón es que por el momento tenemos pocos algoritmos cuánticos porque estas máquinas son muy difíciles de programar, y, por tanto, aún somos capaces de resolver pocos problemas recurriendo a la computación cuántica.
La segunda razón consiste en que es muy difícil preservar el estado de un sistema cuántico debido a que la superposición se rompe con facilidad a causa de la decoherencia cuántica. Antes de que veamos en qué consiste este fenómeno necesitamos introducir un concepto más que no es otra cosa que una propiedad esencial de los sistemas cuánticos: el entrelazamiento. Este fenómeno no tiene un equivalente en la física clásica, y consiste en que el estado de los sistemas cuánticos involucrados, que pueden ser dos o más, es el mismo.
Esto significa que estos objetos, en realidad, forman parte de un mismo sistema, incluso aunque estén separados físicamente. De hecho, la distancia no importa. Si dos partículas, objetos o sistemas están entrelazados mediante este fenómeno cuántico, cuando midamos las propiedades físicas de uno de ellos estaremos condicionando instantáneamente las propiedades físicas del otro sistema con el que está entrelazado. Incluso aunque esté en la otra punta del Universo. Suena a ciencia ficción, es verdad, pero por muy extraño y sorprendente que nos parezca este fenómeno se ha comprobado empíricamente. De hecho, es, junto a la superposición de estados de la que hemos hablado, uno de los principios fundamentales de la computación cuántica.
Volvamos ahora a la decoherencia cuántica. Este fenómeno se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado cuántico entrelazado se mantenga. Una forma quizá un poco más sencilla de describirlo consiste en verlo como un sistema que deja de comportarse como dictan las reglas de la mecánica cuántica cuando se dan unas condiciones determinadas, pasando a comportarse a partir de ese instante como dictan las reglas de la física clásica.
Cuando aparece la decoherencia cuántica desaparecen los efectos cuánticos. Y, por tanto, también las ventajas que acarrean en el contexto de la computación cuántica. Este fenómeno es muy importante porque nos ayuda a entender por qué muchos sistemas físicos macroscópicos no exhiben efectos cuánticos. O, lo que es lo mismo, por qué en nuestro entorno cotidiano no podemos observar los contraintuitivos efectos de la mecánica cuántica.
Si tenemos presente lo que acabamos de ver podemos intuir que si se ven afectadas la superposición y el entrelazamiento como consecuencia de la decoherencia del sistema cuántico involucrado en el funcionamiento de un ordenador cuántico, se producirán errores y los algoritmos no nos devolverán los resultados correctos. Los estados cuánticos se mantienen durante un periodo de tiempo limitado, y este tiempo es, precisamente, el que tenemos para llevar a cabo operaciones lógicas cuánticas con los qubits de nuestro ordenador. Además, a medida que añadimos qubits más difícil es mantener bajo control los errores preservando el estado cuántico del sistema.
Para evitar que la energía térmica introduzca perturbaciones que provoquen un cambio de estado espontáneo en los qubits es necesario mantener los ordenadores cuánticos a una temperatura cercana al cero absoluto
Para evitar que los qubits cambien de estado cuántico de forma espontánea como consecuencia de las perturbaciones introducidas por la energía térmica los ordenadores cuánticos actuales trabajan a una temperatura extremadamente baja. De hecho, está muy cerca del cero absoluto, que es -273,15 grados centígrados. La temperatura de trabajo de los equipos cuánticos que tienen compañías como Intel o IBM es de unos 20 milikelvin, que son aproximadamente -273 grados centígrados, lo que nos permite intuir que el sistema de refrigeración que es necesario poner a punto para alcanzar y mantener una temperatura tan extremadamente baja es complejo.
La importancia de trabajar a una temperatura lo más cercana posible al cero absoluto reside en que en este estado la energía interna del sistema es la más baja posible, lo que provoca que las partículas fundamentales carezcan de movimiento según los principios de la mecánica clásica. No obstante, aunque seamos capaces de alcanzar el cero absoluto seguirá existiendo una energía residual, conocida en mecánica cuántica como energía del punto cero, que es el nivel de energía más bajo que puede tener un sistema físico.
Todo lo que hemos visto hasta ahora es importante porque nos ayuda a entender los retos a los que se están enfrentando los grupos de investigación que trabajan en el área de la computación cuántica. Y también cómo esta disciplina ha alcanzado su estado actual y por qué todavía no hay ordenadores cuánticos por todas partes. De todos los desafíos que aún tenemos por delante probablemente el más complejo, y al que los investigadores están dedicando más recursos, es la corrección de errores. El efecto de superposición cuántica solo se mantiene hasta el instante en el que medimos el valor de un qubit. Cuando llevamos a cabo esta operación la superposición colapsa y el qubit adopta un único valor, que será 0 o 1.
El problema es que dada la propia naturaleza de los sistemas cuánticos resulta muy difícil saber si se ha producido o no un error. Una estrategia interesante en la que están trabajando los investigadores para avanzar en la corrección de errores consiste en no medir directamente el valor de los qubits involucrados en una operación lógica cuántica para no provocar el colapso de la superposición. La idea consiste en consultar el valor de otros qubits acoplados a los qubits «principales», pero que no intervienen en los cálculos, para conocer de manera indirecta el valor de estos últimos. La lástima es que esta estrategia tiene un problema importante: para que funcione es necesario que trabajemos con muchísimos qubits.
Algunos investigadores, como el químico de origen mexicano Alán Aspuru-Guzik, de las universidades de Harvard y Toronto, han concluido que son necesarios 10.000 qubits físicos como los que incorporan actualmente los ordenadores cuánticos para implementar un único qubit lógico con capacidad de corrección de errores. Otros científicos son un poco más optimistas y estiman que esta relación no es de 1 a 10.000, sino de 1 a 800. Aun así, por el momento esta solución excede nuestras capacidades debido a que, como veremos enseguida, los ordenadores cuánticos actuales solo incorporan unas pocas decenas de qubits.
Afortunadamente, esta no es la única vía de investigación que está en marcha con el objetivo de diseñar un método de corrección de errores eficaz. Otra estrategia consiste en fabricar qubits robustos que nos permitan corregir con eficacia cualquier error inducido por el ruido externo. Un trabajo muy interesante que defiende esta línea de investigación es el código topológico de color propuesto por el grupo liderado por el físico español Miguel Ángel Martín Delgado. Este modelo teórico defiende la capacidad de corregir errores cuánticos arbitrarios sobre un qubit recurriendo a un sistema robusto que codifica el estado de un qubit lógico utilizando las propiedades de siete qubits físicos.
El esfuerzo que están llevando a cabo actualmente en materia de corrección de errores los grupos de investigación y las empresas comprometidos con la computación cuántica es muy importante porque es la única vía que nos permite obtener resultados válidos durante la secuencia de operaciones lógicas cuánticas que describen los algoritmos.
Aun así, hay investigadores, como el matemático Gil Kalai al que he mencionado unos párrafos más arriba, que aseguran que nunca alcanzaremos la supremacía cuántica porque a medida que se incrementa el número de estados de un sistema cuántico es más probable que se comporte como uno clásico. La supremacía cuántica llegará cuando un ordenador cuántico sea más rápido en la práctica que un ordenador clásico cuando ambos se enfrenten a la resolución de un mismo problema.
Gil Kalai defiende que existe una barrera infranqueable que tiene su origen en el ruido cuántico y que no nos permitirá diseñar algoritmos eficientes protegidos por una corrección de errores robusta. Y sin una corrección de errores lo suficientemente fiable los ordenadores cuánticos pierden su razón de ser porque se transforman en máquinas carísimas que no aportan nada a los ordenadores clásicos.
En cualquier caso, a pesar de las voces más escépticas tenemos motivos para ser razonablemente optimistas si nos ceñimos a los avances que ha experimentado la computación cuántica durante los últimos años. Compañías con una cantidad muy importante de recursos a su disposición como Google, Microsoft, IBM o Intel, entre otras, están trabajando en esta área. Precisamente, las dos últimas son las que parecen haber tomado la delantera porque ya tienen ordenadores cuánticos en funcionamiento con una capacidad interesante.
Intel ha desarrollado junto al Instituto de Investigación en Cuántica de la Universidad Tecnológica de Delft, en Holanda, un ordenador cuántico de 49 qubits. Hace unos meses tuvimos la ocasión de visitar estas instalaciones y los responsables de este equipo de investigación nos confirmaron que una de las principales aplicaciones de esta máquina consiste en encontrar métodos de corrección de errores que hagan posible trabajar con los qubits durante periodos de tiempo prolongados porque, como hemos visto a lo largo del artículo, el estado cuántico del sistema no se mantiene estable durante mucho tiempo.
IBM también dio a conocer a finales de 2017 que había logrado poner a punto un ordenador cuántico de 50 qubits que tiene una coherencia cuántica de 90 microsegundos, un valor muy superior a los pocos nanosegundos de coherencia que tenían los primeros ordenadores cuánticos construidos en la década de los 90. Podemos entender de una manera intuitiva la coherencia cuántica como el lapso de tiempo durante el que un sistema mantiene su estado cuántico, y que perdura hasta que aparece el fenómeno de decoherencia cuántica del que hemos hablado unos párrafos más arriba. Cuanto mayor sea la coherencia cuántica más tiempo tendrá el ordenador para llevar a cabo operaciones sin que aparezcan errores que echen por tierra los cálculos.
Durante la última edición del CES, la feria de electrónica de consumo que se celebra cada año a principios de enero en Las Vegas (Estados Unidos), IBM presentó su Q System One, una máquina llamada a ser el primer ordenador cuántico comercial. Según la compañía estadounidense tiene 20 qubits y está diseñado para aplicaciones científicas y comerciales, aunque lo más prudente es que aceptemos el adjetivo «comercial» con algunas reticencias. Y es que esta máquina parece ser un paso prometedor hacia un ordenador cuántico comercial de pleno derecho, pero incluso sus diseñadores reconocen que aún faltan algunos años para que esta tecnología esté ampliamente disponible desde un punto de vista comercial.
Los avances en el diseño de los ordenadores cuánticos de los que acabamos de hablar son esperanzadores, no cabe duda, sobre todo si echamos la vista atrás por un instante y contemplamos lo poco desarrollada que estaba esta disciplina hace solo dos décadas. Sin embargo, las capacidades de las máquinas de unas pocas decenas de qubits distan mucho de permitirnos llevar a cabo cálculos realmente relevantes.
James Clarke, el director del laboratorio de computación cuántica de Intel, nos confesó hace unos meses, durante nuestra visita a sus instalaciones en Delft (Holanda), que para que un ordenador cuántico sea significativamente mejor que uno clásico tendrá que trabajar con unos 1.000 qubits. Solo así llegarán a ser realmente relevantes, más allá del hito de la supremacía cuántica de la que hemos hablado antes, que es más fácil de alcanzar. Y para alcanzar este objetivo aún quedan años de investigación que nos ayuden a encontrar la solución a los desafíos que todavía están sobre la mesa.
¿Realmente merece la pena tanto esfuerzo? Sí, sin duda la merece. En algunos escenarios, que ni mucho menos en todos, la computación cuántica es exponencialmente más rápida que la clásica, por lo que los científicos confían en que marque la diferencia en criptografía, inteligencia artificial, aprendizaje automático y otras disciplinas científicas, como la medicina, la física o la química, que también podrán verse beneficiadas por la altísima eficiencia que se espera que pongan los ordenadores cuánticos en nuestras manos en el futuro.
Aun así, lo razonable es que seamos realistas y tengamos presente que los científicos actualmente están trabajando con muy pocos algoritmos que puedan ejecutarse correctamente sobre un procesador cuántico. De hecho, habitualmente trabajan sobre simuladores y no sobre máquinas cuánticas reales. Ni siquiera está del todo claro cómo debe abordarse el proceso de programación de un ordenador cuántico. Es evidente que queda mucho trabajo por hacer en materia de corrección de errores, de desarrollo de algoritmos capaces de resolver problemas del mundo real, de mejora de la tecnología de fabricación de los procesadores cuánticos… Los retos que tenemos por delante siguen siendo imponentes.
Esta es la computación cuántica que aspiramos a tener a medio y largo plazo
Las computaciones clásica y cuántica están condenadas a entenderse. Los ordenadores cuánticos no aspiran a reemplazar a los ordenadores clásicos, sino a complementarlos, reduciendo drásticamente el tiempo invertido en la ejecución de aquellos algoritmos que actualmente tienen un coste computacional inasumible si nos ceñimos al tiempo que requieren. La corrección de errores es probablemente el reto más complejo que tendremos que resolver para que los ordenadores cuánticos alcancen una supremacía real, y los técnicos que están trabajando en esta disciplina reconocen que este momento está aún lejos.
James Clarke, el director del laboratorio de computación cuántica de Intel, y Lieven Vandersypen, investigador y profesor de tecnología cuántica en la Universidad de Delft, creen que, si se mantiene el ritmo de desarrollo actual, tendremos ordenadores cuánticos interesantes en cinco años. Serán máquinas con decenas de qubits, probablemente incluso con más de un centenar de qubits, que resultarán muy útiles como campo de pruebas. Nos ayudarán a seguir avanzando en los métodos de corrección de errores y probablemente también pondrán a nuestro alcance nuevas aplicaciones en las que la computación cuántica puede marcar la diferencia.
Sin embargo, estos mismos expertos reconocen que los ordenadores cuánticos no tendrán un impacto contundente en nuestras vidas, y, por tanto, claramente perceptible, hasta dentro de no menos de quince años. Esta visión es interesante porque procede de personas que están involucradas de lleno en el diseño y la implementación de ordenadores cuánticos, pero no deja de ser una estimación, por lo que puede cumplirse, o no.
Si nos ceñimos al escenario actual IBM e Intel parecen encontrarse en una posición relativamente cómoda porque ambas tienen ordenadores cuánticos funcionales con una capacidad interesante como entorno de pruebas e investigación. Pero no debemos menospreciar en absoluto el rol que pueden jugar otras compañías, como Microsoft o Google, que también están realizando esfuerzos importantes en el terreno de la computación cuántica.
La potencia de un ordenador cuántico no está definida únicamente por el número de qubits con el que es capaz de trabajar, sino también por su calidad, entendida como la capacidad de estos qubits de no resultar perturbados por el ruido, y por la eficiencia de los algoritmos que podemos ejecutar sobre este hardware.
Precisamente, la aproximación de Microsoft es interesante porque propone utilizar en la fabricación de los qubits una partícula conocida como fermión de Majorana que, sobre el papel, les permitirá conseguir qubits más estables y con una inmunidad muy superior al ruido externo. Esta estrategia puede funcionar, o no hacerlo, porque esta disciplina es lo suficientemente compleja para que el éxito no esté en absoluto asegurado. Pero, en cualquier caso, parece prometedora.
Google, por su parte, dio a conocer el año pasado que tiene un procesador cuántico de 72 qubits, al que ha llamado Bristlecone, pero las noticias que tenemos parecen reflejar que aún no ha conseguido reducir el margen de error lo necesario para que el rendimiento de este ordenador cuántico sea suficientemente bueno. De nuevo volvemos a tropezar en esa zanja que ha estado presente a lo largo de todo el artículo: el ruido y la corrección de los errores. Este es el auténtico «caballo de batalla» de la computación cuántica, y despegará definitivamente cuando este lastre deje de ser un problema. Confiemos en que tengan razón los científicos que pertenecen a la corriente optimista y ese statu quo llegue lo antes posible. Crucemos los dedos.
Ver 28 comentarios