El CESGA propone arquitecturas de red capaces de escalar de forma rápida las capacidades de computación cuántica

Para cuando los ordenadores cuánticos plenamente operativos existan, ya se habrán diseñado sistemas capaces de conectarlos entre sí para abordar tareas de tamaño y complejidad inimaginables. El CESGA aspira a contribuir de manera relevante a este reto mediante su proyecto de desarrollo de arquitecturas de red para computación cuántica distribuida rápidamente escalables que permitan ejecutar y coordinar operaciones colectivas entre múltiples nodos

La década de los 60 del siglo pasado vio germinar uno de los principales hitos de la tecnología informática: la computación distribuida. La red ARPANET, popularmente conocida como la precursora de internet, puso las bases para que múltiples computadoras se conectaran y compartieran recursos.

A partir de ahí, el salto cualitativo que suponía este modelo espoleó los esfuerzos científicos e innovadores de la comunidad investigadora y de la industria tecnológica para exprimir todo su potencial. Gracias al modelo distribuido, la computación clásica alcanza sus mayores cotas de escalabilidad, tolerancia a fallos, eficiencia en el uso de recursos, capacidad de procesamiento paralelo, flexibilidad y coste-beneficio. En pocas palabras, es la clave para procesar grandes volúmenes de datos y realizar cálculos complejos de la manera más eficiente.

Iago Fernández

Con este precedente, no es extraño que una de las grandes líneas de trabajo de quienes están poniendo los cimientos de las tecnologías cuánticas sea el diseño de un modelo de computación distribuida. Con este modelo, la ecuación es claramente prometedora: la exponencialidad de la capacidad de cálculo inherente a la computación cuántica se eleva a cotas aún difíciles de imaginar. Al igual que sus potenciales aplicaciones.

En el marco del Plan Complementario de Comunicaciones Cuánticas (PCCC), el Centro de Supercomputación de Galicia (CESGA) trabaja en el desarrollo de arquitecturas de red para computación cuántica distribuida que permitan ejecutar y coordinar operaciones colectivas entre múltiples nodos o unidades de procesamiento cuántico, conocidas por sus siglas en inglés QPU (quantum processing units).

“Es necesario diseñar cómo deben estar configuradas estas redes y qué funciones han de tener los dispositivos que habilitan las comunicaciones entre sus diferentes nodos”, explica Iago Fernández Llovo, doctor en física por la Universidad de Santiago de Compostela e investigador del Departamento de Comunicaciones del CESGA.

Su proyecto tiene el objetivo de contribuir al diseño de las conexiones entre dispositivos cuánticos para que trabajen conjuntamente en la resolución de problemas que no son abordables para un solo computador, utilizando un número mínimo de operaciones, tiempo y recursos. Este tipo de operaciones permiten que los computadores cuánticos conectados por la red se comporten como un único sistema, “escalable, modular y reconfigurable en función de la aplicación”, como especifica Llovo.

Intercambio de entrelazamiento

“Estamos desarrollando la forma de realizar operaciones colectivas entre varias QPU cuando se dispone de dispositivos cuánticos de red que las conectan”, explica el investigador del CESGA, que aclara que, aunque las funciones de estos dispositivos aún no están bien establecidas, podrían ser más numerosas que las de sus equivalentes clásicos.

Más funciones, de mayor complejidad y también muy distintas, porque conectar y coordinar computadores cuánticos en diferentes ubicaciones físicas es muy diferente a hacerlo con computadores clásicos. Las reglas que rigen la construcción de las redes que los unen y los ponen a trabajar juntos se rigen por las leyes de la mecánica cuántica y esto plantea retos tecnológicos y algorítmicos inéditos.

La propuesta de modelo más extendida para hacerlo posible es el intercambio de entrelazamiento, que busca distribuir pares de cúbits entrelazados, conocidos como pares de Bell, entre QPU distantes –y no conectadas directamente entre sí– utilizando las propiedades de la mecánica cuántica. En esencia, permite extender a través de una red el entrelazamiento entre cúbits que nunca habían interactuado directamente, algo esencial para construir una red DQC (del inglés distributed quantum computing).

Los investigadores del CESGA proponen como caso prototípico una red que involucra a múltiples QPU conectadas por canales cuánticos exclusivamente a dispositivos de red –que, a su vez, pueden estar o no conectados a otros en una capa superior–, formando una especie de árbol.

La tecnología que se utiliza en la investigación sobre canales cuánticos es generalmente fotónica y se basa en realizar un tipo de medidas conocidas como medidas de Bell para generar entrelazamiento. “Estas operaciones no son perfectas y los estados cuánticos de gran pureza son delicados y difíciles de generar, por lo que es necesario simular cómo tienen lugar estas medidas y la física para calcular pérdidas de fidelidad”, aclara Llovo.

En efecto, la generación de pares de Bell de gran fidelidad es un enorme reto experimental en el que trabajan grupos de investigación de todo el mundo. Sus resultados irán generando las diferentes piezas que componen este gran puzle.

La pieza que se está diseñando en el CESGA corresponde a la parte algorítmica, tratando de desentrañar cómo se implementan las operaciones una vez que se dispone de estos pares de Bell. Y aquí es donde el equipo tiene que luchar con los límites de la tecnología actual, que no siempre van a la par de los avances científicos. “En este caso, la mayor limitación es que nuestro trabajo en DQC se basa en simulaciones en ordenadores convencionales. Estas simulaciones son muy costosas a nivel computacional: un solo cúbit adicional duplica la cantidad de memoria RAM necesaria para simular un sistema cuántico, así que rápidamente se hace imposible simular sistemas cuánticos grandes”, expone Llovo. Y no es un problema con el FinisTerrae gallego, sino que incluso toda la memoria del superordenador más potente del mundo es insuficiente para simular un sistema cuántico de tan solo 60 cúbits.

El equipo del CESGA propone una arquitectura de red que permitiría escalar las capacidades de computación cuántica muy rápido. “Hemos desarrollado una técnica para hacer operaciones colectivas en las que participa un router que actúa, para que se entienda, como pegamento entre distintas QPU”, afirma Llovo. En esencia, esto permitirá aumentar la conectividad de las unidades que componen la red con un número reducido de conexiones cuánticas y ahorrando pares de Bell respecto a otras propuestas actuales.

Mucho más que la suma de las partes

La relevancia de los resultados de este proyecto se puede medir con relación a la importancia de la escalabilidad en la computación cuántica, que es clave. Para entenderlo hay que tener en cuenta que la potencia de un computador cuántico se incrementa exponencialmente con cada cúbit adicional. Un aumento de un único cúbit multiplica la cantidad de información que el sistema puede almacenar y procesar simultáneamente por un factor dos. Esto quiere decir que, cuando sea una realidad, un ordenador cuántico distribuido dispondrá de todos los cúbits de los nodos individuales, pero, gracias a su trabajo en común, la potencia de cálculo será muy superior a la de la suma de las partes.

Esto permitirá resolver problemas de una enorme entidad y complejidad, inabordables hoy en día hasta para los supercomputadores más avanzados. En todo caso, los investigadores del CESGA advierten de que para ver la utilidad de estos resultados habrá que esperar al medio y largo plazo. “Nuestra propuesta mejora lo conocido hasta el momento y permite plantearse cómo será un datacenter cuántico una vez que las tecnologías de generación de pares de Bell y de corrección de errores hayan madurado”, explica Fernández Llovo. Estas tecnologías todavía no han llegado, pero solo es cuestión de tiempo, ya que hay muchos grupos de investigación trabajando en ellas en todo el mundo.

El futuro cuántico

“El ciudadano de a pie posiblemente nunca vea o utilice un ordenador cuántico. Estos dispositivos no vienen a reemplazar a los ordenadores convencionales, sino que acelerarán trabajos hasta el punto de permitir que cálculos que llevarían más tiempo que la edad del universo en el más potente de los supercomputadores actuales puedan realizarse en la escala de tiempo del ser humano, es decir, desde segundos hasta meses”.

Esta es la visión de Iago F. Llovo sobre el papel que cumplirá la computación cuántica en el futuro, sin perjuicio de que su impacto sea muy relevante en cuestiones que afectan directamente a todas las personas. En concreto, él destaca que tendrá un gran impacto en la ciencia de materiales y el desarrollo de nuevos medicamentos y que también será de utilidad para campos como la simulación de mercados financieros o la coordinación y previsión de sistemas eléctricos.

La carrera para lograrlo es larga y compleja. A pesar de que los grandes actores del desarrollo tecnológico están empujando muy fuerte para que estos dispositivos estén disponibles, todavía es necesario lograr un solo ordenador cuántico inmune a errores o capaz de corregirlos.

Simultáneamente, se está trabajando de forma experimental en la conexión de distintos computadores. “Hasta entonces no veremos computadores cuánticos distribuidos propiamente dichos, sino los bloques de construcción, la ciencia que llevará a eso. Por eso es importante que la investigación básica disponga del tiempo y de la financiación necesaria para generar el impacto y el seguimiento que merece”, concluye Llovo.