La supremacía cuántica ya no está en el centro del debate. Lo estuvo a finales de 2019 porque salió a la luz que el equipo de Google liderado por John Martinis había logrado alcanzarla empleando su procesador cuántico Sycamore, y nadie lo había hecho hasta ese momento. El estruendo que ocasionó esta noticia cuando estalló estaba justificado.
Pero un año más tarde, en diciembre de 2020, el grupo de investigadores chinos dirigido por Jian-Wei Pan publicó un artículo en Science en el que demostraba que también la había alcanzado utilizando su procesador superconductor Zuchongzhi. Y un año más tarde, en noviembre de 2021, IBM siguió sus pasos y anunció que había alcanzado este hito empleando su procesador cuántico Eagle, de 127 cúbits.
A estas alturas ya nadie pone en duda que los ordenadores cuánticos se han desarrollado muchísimo. Y, además, lo han hecho en un plazo de tiempo de auténtico récord si tenemos presente que las primeras propuestas teóricas sólidas llegaron a mediados de los 90. Y es que ya son capaces de resolver unos pocos problemas (muy pocos aún) en mucho menos tiempo que los superordenadores más avanzados que tenemos actualmente.
De hecho, en esto consiste la supremacía cuántica: en resolver en un plazo de tiempo breve, de unos minutos o unas pocas horas, un problema en el que un superordenador clásico invertiría muchos años. Incluso varios siglos. O milenios. Ahora mismo no es demasiado importante si estos problemas tienen o no aplicaciones prácticas. Si son o no relevantes. Aún estamos afianzando los cimientos de la computación cuántica, y lo importante es encarar los desafíos que se presentan a la vuelta de la esquina.
En busca de cúbits de más calidad
Uno de los mayores retos a los que se enfrentan los investigadores involucrados en el desarrollo de la computación cuántica consiste en retrasar la aparición de la decoherencia cuántica. Este fenómeno se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado cuántico entrelazado se mantenga.
Una forma quizá un poco más sencilla de describirlo consiste en verlo como un sistema que deja de comportarse como dictan las reglas de la mecánica cuántica cuando se dan unas condiciones determinadas, pasando a comportarse a partir de ese instante como dictan las reglas de la física clásica. Cuando aparece la decoherencia cuántica desaparecen los efectos cuánticos. Y, por tanto, también las ventajas que acarrean en el contexto de la computación cuántica.
Este fenómeno es muy importante porque nos ayuda a entender por qué muchos sistemas físicos macroscópicos no exhiben efectos cuánticos. O, lo que es lo mismo, por qué en nuestro entorno cotidiano no podemos observar los contraintuitivos efectos de la mecánica cuántica. En cualquier caso, lo realmente relevante es que a medida que se incrementa la calidad de los cúbits de un procesador cuántico, más tarda en aparecer la decoherencia cuántica. Y, por esta razón, tenemos más tiempo disponible para realizar operaciones con él.
Las dos tecnologías de fabricación de cúbits que están entregándonos los mejores resultados actualmente son los cúbits superconductores, que se benefician en gran medida de los últimos avances en la litografía del silicio, y las trampas de iones. No obstante, algunos grupos de investigación tienen también sobre la mesa otras tecnologías muy prometedoras a las que merece la pena seguir la pista, como los átomos neutros o los iones implantados en macromoléculas.
Ya rozamos la corrección de errores con la punta de los dedos
El otro gran desafío al que se enfrenta la computación cuántica en estos momentos es la corrección de errores. Los ordenadores cuánticos cometen errores al llevar a cabo algunas operaciones, y cuando sucede esto los resultados que nos devuelven no son correctos, como es lógico. El problema es que implementar un protocolo cuántico de corrección de errores no es trivial. Y, además, si abundan es esencialmente imposible corregirlos y simultáneamente impedir que la eficiencia del procesador cuántico se vaya a pique.
Afortunadamente, tenemos buenas noticias. Como os contamos hace unos días, tres grupos de investigación independientes han conseguido poner a punto cúbits superconductores que tienen una precisión superior al 99%. Esto significa, sencillamente, que cometen errores con muy poca frecuencia, y la buena noticia es que cuando son tan poco habituales es más fácil corregirlos. Mucho más fácil.
De hecho, estos grupos de investigación aseguran que cuando la incidencia de los errores es inferior al 1% a los protocolos cuánticos de corrección de fallos les resulta mucho más fácil llevar a cabo su cometido. De momento están trabajando con solo uno o dos cúbits, y estos procesadores cuánticos son demasiado sencillos para resolver problemas significativos, pero si consiguen escalar esta tecnología a muchos más cúbits los ordenadores cuánticos podrían dejar atrás uno de los mayores desafíos a los que se enfrentan actualmente.
Como acabamos de ver, la computación cuántica está avanzando a un ritmo trepidante. La entrada de las empresas privadas en este sector está acelerando mucho su progreso, pero antes de dejarnos llevar por el entusiasmo es importante que tengamos en cuenta que hay otros desafíos que también es crucial resolver.
Dos de los que tienen más enjundia son la necesidad de controlar los cúbits con más precisión, y también la importancia de implementar nuevos algoritmos cuánticos que sean capaces de ayudarnos a abordar los problemas que no podemos resolver con los superordenadores clásicos más potentes que tenemos hoy en día. Aun así, el futuro de la computación cuántica es esperanzador. Y, sobre todo, muy prometedor.
Imágenes | IBM
Ver todos los comentarios en https://www.xataka.com
VER 23 Comentarios