Introducción a la Computación Cuántica

Hola, estimado lector.

Quiero poner en tu conocimiento que, así como el año pasado me concentré en los temas que ocurrieron durante los últimos 15 en el mundo de la TI y, en particular, en nuestro querido GDCA; ahora es tiempo de cambio y de precalentamiento…

En vez de mirar hacia atrás, quiero mirar hacia adelante… hacia los próximos 15 años, y ver qué es lo que probablemente ocurrirá en el mundo de la TI y en el de las industrias asociadas a él. Ya se habla de una Tercera Revolución Mundial (las dos primeras fueron la industrial, a comienzos del siglo pasado y la irrupción de internet hacia fines del mismo). Los buques insignia de este nuevo salto cuántico serán la Inteligencia Artificial y la Computación Cuántica).

Es por ello que durante los meses de Agosto, Septiembre, Octubre y Noviembre iré publicando artículos semanales sobres estos dos temas y otros asociados directamente a ellos, para que puedas ir preparándote con la mayor antelación posible, antes que ocurran.

Mi anhelo es que, así como durante la primera década del año, los profesionales que pasaron por el GDCA pudieron formarse y participar en la tecnología vigente en ese período; durante la tercera década puedan también hacerlo; y a mi modesta contribución la podrán encontrar en este medio.

Así que si has participado en el GDCA te invito cordialmente a que leas los artículos semanales durante estos meses y que si has hayas participado o no del GDCA, pero conoces a otros profesionales que sí lo han hecho, les hagas llegar esta invitación. No se arrepentirán. Desde ya, quedaré muy agradecido por ello.


Bueno, hoy traigo a tu presencia el que posiblemente sea el mayor desafía al que se enfrenta en mundo de la tecnología de la información.

He tratado de llevar la presentación del artículo a un nivel lo más básico posible y genérico posible, a efectos de facilitar su comprensión.

Dada la extensión de esta entrega, he debido dividir su contenido en dos partes. Esta es la primera y la segunda será publicada la semana próxima.

Espero que te agrade, que sea de tu utilidad y, como siempre, nos vemos al final de la lectura.


Tiempo para precalentar….


Computación cuántica (I)

National Academy of Sciences


La mecánica cuántica, el subcampo de la física que describe el comportamiento de partículas muy pequeñas, constituye la base de un nuevo paradigma de la computación.

La computación cuántica (CC o QC) se propuso por primera vez en la década de 1980 como una forma de mejorar el modelo computacional del comportamiento de sistemas físicos muy pequeños ("cuánticos").

El interés en este campo creció en los años 90 con la introducción del algoritmo de Shor, que, si se implementa en un ordenador cuántico, aceleraría exponencialmente una importante clase de criptoanálisis y amenazaría potencialmente algunos de los métodos criptográficos utilizados para proteger las comunicaciones gubernamentales y civiles y los datos almacenados.

De hecho, los ordenadores cuánticos son el único modelo conocido de computación que podría ofrecer una velocidad exponencial sobre los ordenadores actuales.

Aunque estos resultados eran muy emocionantes en los años 90, sólo tenían un interés teórico: nadie conocía un método para construir un ordenador a partir de sistemas cuánticos.

Hoy, 25 años después, los avances en la creación y el control de bits de información cuántica, o "qubits", han avanzado hasta el punto de que varios grupos de investigación han demostrado sus logros.

Estos resultados demostraron el potencial único de los ordenadores cuánticos.

El rendimiento de todos los demás dispositivos informáticos conocidos sólo puede ser más rápido que un ordenador "universal" muy simple, una máquina de Turing probabilística, según la tesis de Church-Turing ampliada.

Los ordenadores cuánticos son la única tecnología informática conocida que viola esta tesis.


Computación cuántica

Un ordenador clásico utiliza bits para representar los valores con los que opera; un ordenador cuántico utiliza bits cuánticos, o qubits.

Un bit puede ser 0 o 1, mientras que un qubit puede representar los valores 0 o 1, o alguna combinación de ambos al mismo tiempo (lo que se conoce como "superposición").

Mientras que el estado de un ordenador clásico viene determinado por los valores binarios de una colección de bits, en cualquier momento el estado de un ordenador cuántico con el mismo número de bits cuánticos puede abarcar todos los estados posibles del ordenador clásico correspondiente, por lo que trabaja en un espacio de problemas exponencialmente mayor.

Sin embargo, la capacidad de utilizar este espacio requiere que todos los qubits estén intrínsecamente interconectados ("enredados"), bien aislados del entorno exterior y controlados con gran precisión.

Muchas innovaciones en los últimos 25 años han permitido a los investigadores construir sistemas físicos que empiezan a proporcionar el aislamiento y el control necesarios para la computación cuántica.

En 2018, se utilizaban dos tecnologías en la mayoría de los ordenadores cuánticos (iones atrapados y "átomos" artificiales generados por circuitos superconductores), pero actualmente se están explorando muchas tecnologías diferentes para la implementación física básica de los qubits, o "qubits físicos".

Dados los rápidos avances en este campo, y las grandes mejoras que aún se necesitan, es demasiado pronto para "apostar" por una tecnología para la computación cuántica.

Incluso si se consigue fabricar qubits de muy alta calidad, la creación y el uso de estos ordenadores cuánticos (QC) conlleva un nuevo conjunto de retos.

Utilizan un conjunto de operaciones diferente al de los ordenadores clásicos, lo que requiere nuevos algoritmos, software, tecnologías de control y hardware propio.


Riesgos técnicos

Los qubits no pueden rechazar intrínsecamente el ruido

Una de las principales diferencias entre un ordenador clásico y un ordenador cuántico radica en la forma de gestionar las pequeñas variaciones no deseadas, o ruido, en el sistema.

Dado que un bit clásico es un uno o un cero, incluso si el valor está ligeramente desviado (algún ruido en el sistema) es fácil que las operaciones sobre esa señal eliminen ese ruido.

De hecho, las puertas clásicas actuales, que operan con bits y se utilizan para crear ordenadores, tienen márgenes de ruido muy amplios: pueden rechazar grandes variaciones en sus entradas y seguir produciendo salidas limpias y sin ruido.

Pero, como un qubit puede ser cualquier combinación de uno y cero, los qubits y las puertas cuánticas no pueden rechazar fácilmente los pequeños errores (ruido) que se producen en los circuitos físicos.

Como resultado, los pequeños errores en la creación de las operaciones cuánticas deseadas, o cualquier señal extraviada que se acople al sistema físico, puede llevar a que aparezcan salidas erróneas en el cálculo.

Así, uno de los parámetros de diseño más importantes para los sistemas que operan con qubits físicos es su tasa de error. Las tasas de error bajas han sido difíciles de conseguir; incluso a mediados de 2018, las tasas de error en sistemas con 5 o más qubits eran muy elevadas. Se han demostrado mejores tasas de error en sistemas más pequeños, pero etas tasas deben trasladarse a sistemas de qubits más grandes para que la computación sea exitosa.


El control cuántico sin errores requiere una corrección cuántica de errores.

Aunque las operaciones físicas de los qubits son sensibles al ruido, es posible ejecutar un algoritmo de corrección de errores cuánticos (QEC) en un ordenador cuántico físico para emular un ordenador cuántico libre de ruido, o "totalmente corregido de errores".

Sin QEC, es poco probable que un programa cuántico complejo, como el que implementa el algoritmo de Shor, se ejecute correctamente en un ordenador cuántico.

Sin embargo, la QEC conlleva importantes sobrecostos, tanto por el número de qubits físicos necesarios para emular un qubit más robusto y estable, denominado "qubit lógico", como por el número de operaciones de qubits primitivos que deben realizarse en los qubits físicos para emular una operación cuántica en este qubit lógico.

Aunque los QEC serán esenciales para crear ordenadores cuánticos sin errores en el futuro, consumen demasiados recursos para ser utilizados a corto plazo: es probable que los ordenadores cuánticos a corto plazo tengan errores.

Esta clase de máquinas se denomina ordenadores cuánticos de escala intermedia con ruido (NISQ).


Las entradas de gran cantidad de datos no pueden cargarse en un ordenador cuántico de forma eficiente

Aunque un ordenador cuántico puede utilizar un pequeño número de qubits para representar una cantidad exponencialmente mayor de datos, no existe aún un método para convertir rápidamente una gran cantidad de datos clásicos en un estado cuántico (de ahí la necesidad de que se generen algorítmicamente).

En el caso de los problemas que requieren una gran cantidad de datos, el tiempo necesario para crear el estado cuántico de entrada dominaría normalmente el tiempo de cálculo y reduciría en gran medida la ventaja cuántica.

Aunque existen propuestas de memorias cuánticas de acceso aleatorio (QRAM) que pueden realizar esta función, aún no existe una tecnología de aplicación práctica.


El diseño de algoritmos cuánticos es un reto

La medición del estado de un ordenador cuántico "colapsa" el gran estado cuántico a un único resultado clásico.

Esto significa que sólo se puede extraer la misma cantidad de datos de un ordenador cuántico que de un ordenador clásico del mismo tamaño.

Para aprovechar las ventajas de un ordenador cuántico, los algoritmos cuánticos deben aprovechar características exclusivamente cuánticas como la interferencia y el entrelazamiento para llegar al resultado clásico final.

Por lo tanto, para lograr la velocidad cuántica se necesitan principios de diseño de algoritmos totalmente nuevos y un diseño de algoritmos muy inteligente.

El desarrollo de algoritmos cuánticos es un aspecto crítico del campo

Como ocurre con todos los ordenadores, construir un dispositivo útil es mucho más complejo que crear el hardware: se necesitan herramientas para crear y depurar el software específico de los ordenadores cuánticos.

Dado que los programas cuánticos son diferentes a los de los ordenadores clásicos, es necesario investigar y desarrollar el conjunto de herramientas de software.

El desarrollo simultáneo de la cadena de herramientas de hardware y software acortará el tiempo de desarrollo de un ordenador cuántico útil.

De hecho, el uso de las primeras herramientas para completar el diseño de punta a punta (desde el diseño de la aplicación hasta los resultados finales) ayuda a dilucidar problemas ocultos y conduce hacia diseños con mayores posibilidades de éxito global; un enfoque ya utilizado en el diseño de ordenadores clásicos.


El estado intermedio de un ordenador cuántico no puede medirse directamente.

Los métodos para depurar el hardware y el software cuánticos son de vital importancia.

Los métodos actuales de depuración de los ordenadores clásicos se basan en la memoria y en la lectura de los estados intermedios de la máquina, pero ninguna de las dos cosas es posible en un ordenador cuántico.

Un estado cuántico no puede copiarse simplemente (según el llamado teorema de no clonación) para su posterior examen, y cualquier medición de un estado cuántico lo colapsa a un conjunto de bits clásicos, deteniendo la computación.

Para el desarrollo de ordenadores cuánticos a gran escala son esenciales nuevos enfoques de depuración.


Plazos para lograr la computación cuántica

Predecir el futuro es siempre arriesgado, pero puede intentarse cuando el producto de interés es una extrapolación de los dispositivos actuales que no abarca demasiados órdenes de magnitud.

Sin embargo, para crear un ordenador cuántico que pueda ejecutar el algoritmo de Shor para encontrar la clave privada de un mensaje cifrado RSA de 1024 bits, es necesario construir una máquina que sea más de cinco órdenes de magnitud y que tenga tasas de error que sean aproximadamente dos órdenes de magnitud mejores que las máquinas actuales, así como desarrollar el entorno de desarrollo de software para soportar esta máquina.

Los avances necesarios para salvar esta brecha hacen imposible proyectar el plazo de un gran ordenador cuántico con corrección de errores, y aunque se siguen produciendo avances significativos en estas áreas, no hay garantía de que se superen todos estos retos.

El proceso de superación de esta brecha podría exponer desafíos imprevistos, requerir técnicas que aún no se han inventado o cambiar debido a los nuevos resultados de la investigación científica fundacional que cambian nuestra comprensión del mundo cuántico.

Actualmente se están diseñando dispositivos que operan de forma complementaria con los procesadores clásicos, de forma análoga a un coprocesador o un acelerador.

En los campos que avanzan con rapidez, en los que hay muchas incógnitas y problemas difíciles, el ritmo de desarrollo general lo marca la capacidad de toda la comunidad para aprovechar los nuevos enfoques y conocimientos.

Afortunadamente, muchos investigadores de la computación cuántica se han mostrado abiertos a compartir los avances realizados hasta la fecha, y el campo se beneficiará enormemente si continúa con esta filosofía.


Un ecosistema abierto que favorezca el cruce de ideas y grupos acelerará el avance de la tecnología.

También está claro que el progreso de una tecnología depende de los recursos, tanto humanos como de capital, que se le dediquen.

Aunque mucha gente piensa que habrá un escalado del tipo de la ley de Moore para el número de qubits en un sistema, es importante recordar que la ley de Moore fue el resultado de un ciclo virtuoso, en el que la mejora de la tecnología generaba ingresos exponencialmente crecientes, lo que permitía reinvertir en investigación y desarrollo (I+D) y atraer nuevos talentos e industrias para ayudar a innovar y escalar la tecnología al siguiente nivel.

Al igual que con la tecnología del silicio, un crecimiento exponencial sostenido del tipo Ley de Moore para los qubits requiere una inversión exponencialmente creciente, mantener esta inversión requerirá probablemente un ciclo virtuoso similar para los ordenadores cuánticos, en el que las máquinas más pequeñas tengan el suficiente éxito comercial para hacer crecer la inversión en el área general.

Dada la sobrecarga de la QEC, las máquinas a corto plazo serán casi con toda seguridad ordenadores cuánticos ruidosos de escala intermedia (NISQ).

Aunque existen muchas aplicaciones interesantes para los grandes ordenadores cuánticos con corrección de errores, actualmente no existen aplicaciones prácticas para los ordenadores NISQ.

La creación de aplicaciones prácticas para los ordenadores NISQ es un área de investigación relativamente nueva y requerirá trabajar en nuevos tipos de algoritmos cuánticos.

El desarrollo de aplicaciones comerciales de los ordenadores NISQ para principios de la década de 2020 será esencial para iniciar este ciclo virtuoso de inversión.


Conclusión clave: La investigación y el desarrollo de aplicaciones comerciales prácticas de los ordenadores cuánticos ruidosos de escala intermedia (NISQ) es una cuestión de urgencia inmediata para el campo. Los resultados de este trabajo tendrán un profundo impacto en el ritmo de desarrollo de los ordenadores cuánticos a gran escala y en el tamaño y la solidez de un mercado comercial de ordenadores cuánticos.

El ruido presente en estos tipos de máquinas limitará la complejidad de los problemas que ellas puedan resolver.

Los "ordenadores cuánticos con corrección total de errores" permiten que los qubits físicos ruidosos emulen a los qubits lógicos estables para que los ordenadores se comporten de forma confiable en cualquier tipo de cálculos.


Bueno, aquí estoy. Como siempre, te comparto mis reflexiones.

Creo que la Computación Cuántica representa un cambio de paradigma en el mundo de la informática, ya que algo que se tomaba como un dogma incuestionable ha sido vulnerado y todo debe repensarse nuevamente.

El hecho de que un bit se considerara binario y ahora pueda adoptar los dos estados simultáneamente hace que las posibilidades crezcan exponencialmente para representar un término cuantificable, aunque la realidad es que será en una forma aún superior a ella.

Un byte (conjunto de 8 bits) en cada momento podía representar a un solo carácter alfanumérico. Un byte cuántico puede representar en ese mismo momento a 2 a la 8 (256) caracteres alfanuméricos simultáneamente. Es la demostración más contundente de los que representa esta nueva concepción de la computación.

Por supuesto que solo estamos en las etapas incipientes de esta nueva tecnología; que es muy difícil lograrla y mantenerla en condiciones estables; que existen riesgos de errores que deben ser subsanados, pero todo ello más lo nuevo que más los nuevos posibles que surjan, se traducen solo en tun mayor iempo de resolución.

Lo verdaderamente importante es este nuevo concepto tecnológico y no deberemos olvidarnos de él de ahora en más.


Me gustaría conocer tu honesta opinión con respecto a este artículo.

Gracias por colaboración".

1 visualización0 comentarios

Entradas relacionadas

Ver todo