Para la ciencia, el futuro de la computación cuántica ya está acá, es una realidad aun con las restricciones actuales. Una investigación que publica Nature este miércoles prueba que un procesador de ciento veintisiete cúbits, capacidad ya presente en los ordenadores cuánticos comerciales existentes, es capaz de medir valores aguardados en operaciones de física, aun con los fallos que aún produce esta clase de computación. Para Göran Wendin y Jonas Bylander, estudiosos de la Universidad de Tecnología de Chalmers (Suecia), el trabajo prueba “que los procesadores cuánticos pueden ser potencialmente útiles para algunos cálculos específicos, a pesar de los errores”, solidez a la que aún le quedan ciertos años por delante para ser alcanzada. Esta demostración no establece la supremacía cuántica, entendida como la capacidad de solucionar inconvenientes que los ordenadores usuales no pueden solventar, mas sí avanza hacia ella al probar una ventaja de la computación cuántica actual, la ya libre, para ser eficaz e “ir más allá de las capacidades de los mejores métodos computacionales clásicos actuales” con procesos de mitigación de fallos tras el análisis.
Un superordenador actual, como el Summit de IBM, es capaz de procesar más de doscientos millones de cálculos por segundo. Pero uno cuántico podría ejecutar trillones merced a la superposición, una propiedad que deja a las partículas estar en dos estados o en cualquier superposición de ellos. De esta forma, mientras que dos bits (el bit es la unidad mínima en computación tradicional) pueden guardar un número, dos cúbits pueden contener 4 y diez cúbits, mil veinticuatro estados simultáneos, por lo que se amplía exponencialmente la capacidad por cada cúbit añadido.
El inconveniente es que las superposiciones cuánticas se degradan hasta transformarse en estados tradicionales (decoherencia) por cualquier interacción con el entorno: temperatura, electromagnetismo, vibraciones… Cualquier interferencia genera estruendos, reduce a microsegundos el tiempo en el que se sostienen las superposiciones que multiplican la capacidad de computación y produce fallos que procuran atenuarse con programación, buscando partículas próximas a la sortea Majorana y que sostengan la congruencia, o evitándolos con sistemas muy complejos, apartados y a temperaturas de cero absoluto (-doscientos setenta y tres grados Celsius).
De esta forma, la computación cuántica tolerante a fallos es hoy imposible para las tecnologías existentes y está “fuera del alcance de los procesadores actuales”, conforme los autores de la investigación, si bien empresas como Google han dados pasos de gigante de forma reciente en este sentido.
La demostración que publican ahora Youngseok Kim, Andrew Eddins y Abhinav Kadala, estudiosos de IBM, al lado de otros autores, patentiza que un procesador cuántico y un procesamiento siguiente al análisis pueden producir, manipular y medir de forma fiable estados cuánticos tan complejos que sus propiedades no podrían estimarse de forma precisa a través de aproximaciones tradicionales.
No se trata de velocidad de computación, sino más bien de capacidad. “Ninguna computadora clásica tiene suficiente memoria para codificar las posibilidades calculadas por los 127 cúbits”, aseveran los autores. Wendin y Bylander lo comparten: “La ventaja cuántica fundamental aquí es la escala en lugar de la rapidez: los 127 cúbits codifican un problema para el cual ninguna computadora clásica tiene suficiente memoria”.
Ventaja cuántica
“Estos resultados experimentales son posibles gracias a los avances en la coherencia y calibración del procesador superconductor, así como por la capacidad de caracterizar y manipular de forma controlada el ruido. Estos experimentos evidencian la utilidad de la computación cuántica en una era pretolerante a fallos [la actual] y muestran una herramienta fundamental para la realización de aplicaciones cuánticas a corto plazo”, aseguran los autores.
La medición física ya fue probada por un equipo internacional europeo en el que participó el maestro de la Universidad de Sevilla Adán Cabello, quien consiguió observar el estado cuántico de un ion de estroncio a lo largo de todo el proceso, no solo al comienzo y al final. Esta primera película de algo jamás visto y que dura una millonésima de segundo, fue considerada por Physics World como uno de los avances más señalados de dos mil veinte.
Para la investigación actual se ha recurrido a un modelo de Ising, un paradigma propuesto para estudiar la transición ferromagnética de las partículas. Pero la meta no era el proceso físico, sino más bien probar que una medición fiable sobre un sistema complejo se puede efectuar con un computador cuántico de manera comercial libre, si bien no sea tolerante a fallos. “La pregunta que se plantea el artículo de Nature es: ¿Podemos hacer algo útil con los ordenadores cuánticos actuales, con un número pequeño de cúbits y unas probabilidades de error relativamente altas? La respuesta de los autores es que sí, pero tiene un truco: la mitigación de errores”, asevera Carlos Sabín, estudioso Ramón y Cajal en el departamento de Física Teórica de la Universidad Autónoma de Madrid (UAM), a Science Media Center (SMC).
“Los autores muestran que su máquina [de IBM], tras la mitigación de errores, sí que aporta resultados fiables al calcular magnitudes físicas del sistema”, explica Sabín. Y añade: “Si estos resultados se confirman (por ejemplo, por el equipo de la competencia de Google) significarían un primer paso en la prueba de la utilidad de los ordenadores cuánticos actuales, relativamente pequeños y ruidosos, cuando se les ayuda con mitigación de errores”. “Aunque seguramente este cálculo concreto no tiene aplicación práctica directa (ya que los valores de los parámetros donde se muestra la superioridad cuántica probablemente no se correspondan con sistemas físicos reales), al menos, el modelo de Ising [el utilizado en el experimento] tiene una inspiración física, por lo que es posible que existan modelos de complejidad similar con aplicaciones más inmediatas que también puedan ser atacados por máquinas parecidas y un enfoque basado en mitigación, no corrección, de errores”, concluye
Juan José García-Ripoll, estudioso científico en el Instituto de Física Fundamental IFF-CSIC, destaca a SMC que “el trabajo, de excelente calidad, demuestra la capacidad de cómputo del ordenador cuántico de 127 cúbits de IBM”. García-Ripoll resume las conclusiones de la investigación: “Los ordenadores cuánticos que tenemos, aunque imprecisos, pueden simular problemas de interés para la física que son de una elevada complejidad; aunque el ordenador cuántico comete errores, el protocolo permite cancelarlos y obtener predicciones cuantitativas muy precisas; y las técnicas de simulación en ordenadores clásicos para problemas de este tipo producen resultados menos precisos que el ordenador cuántico”.
Para el físico de España, el resultado “no es necesariamente definitivo”, si bien la computación cuántica haya desarrollado procesadores como el Osprey, asimismo de IBM y con cuatrocientos trece cúbits. “Es posible que otros científicos mejoren el estado del arte en redes de tensores [los sistemas clásicos usados para problemas como el abordado en Nature] y consigan igualar o superar lo que puede hacer este procesador con 127 cúbits”, agrega.
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.