La computación cuántica va a cambiar todas las bases de la computación tradicional tal y como las conocemos, pero todavía quedan unos años antes de que esto ocurra. La primera gran pregunta que cualquier desconocedor de esta tecnología se haría, es:

¿En qué consiste la computación cuántica?

Los ordenadores actuales funcionan con unos y ceros, en bits, lo que vendría a equivaler un proceso de encendido y apagado, donde solo se va a leer uno de los dos estados a la vez. Pero, ¿existe la posibilidad de que, de algún modo, un ordenador pueda leer ambos estados, encendido y apagado, a la vez y de forma paralela? La respuesta es sí, estamos hablando de los qubits.

Un qubit no deja de ser una unidad básica de información, pero consolidada bajo las reglas que le otorgan la física cuántica. De esta forma, un qubit puede ser 0, 1, o las dos cosas a la vez. Aunque el concepto nos pueda resultar contra intuitivo, esto es porque es un concepto que no forma parte de nuestro entorno habitual, pero que al aplicar esta lógica al mundo computacional, conseguimos resolver problemas a muy alta velocidad, con múltiples resultados para cada una de las variables, dando pie a ordenadores incomparablemente más potentes que podrán hacer todo tipo de cálculo complejo de forma simultánea y no en cola.

De todas formas, esto no resulta para nada sencillo, pues, para que los qubits funcionen, estos tienen que estar completamente aislados unos de otros, y solo interactuar cuando el proceso lo requiera.

La segunda pregunta que nos podremos hacer, llegado a este punto, es:

Entonces, ¿qué es lo que determina el estado de un qubit?

Aquí interviene la observación. No es hasta el momento en el que se le observa cuando el qubit determina un único estado, por lo que, a nivel técnico, un computador cuántico no deberá ser observado para que pueda funcionar de la manera más óptima. Encontrándose los qubits en un entorno de temperaturas muy bajas (-273 ºC, cercanas al 0 absoluto), condiciones de vacío y no pudiendo ser observados, podremos llegar a hacer hasta 10 millones de millones de operaciones por segundo utilizando, tan solo, 30 qubits dentro de nuestro ordenador cuántico. Tan solo con esta pequeña referencia ya podemos empezar a comprender el sorprendente alcance que nos puede dar esta tecnología.

A corto plazo no se considera posible que todo el mundo sea propietario de uno de estos computadores, pero todo parece indicar que es en la dirección hacia la que vamos, por lo que ya son algunas las personas que se preguntan:

¿Cómo afectará esto al mundo de la programación?

Ya hay desarrolladores que están abordando la tarea de crear nuevos lenguajes cuánticos de programación, siendo Microsoft uno de los pioneros al lanzar uno bajo su firma. Aún muy básicos y privados al uso de grandes laboratorios de investigación avanzada, Microsoft se adelanta y saca Q# (recordando a su conocida línea C#), sumándose a QCL y Quipper, aquellos lenguajes cuánticos que ya existen hoy en día al más alto nivel.

Es de la mano de Krysta Svore, gerente principal en esta línea de investigación dentro de Microsoft, la que avisa: “Es necesario sustituir los lenguajes actuales de programación pues estos no funcionaran en los futuros ordenadores”. Implementando la programación dentro de este tipo de codificación de la información nos impulsamos en campos como por ejemplo la tan deseada y buscada IA (Inteligencia Artificial).

Los lenguajes de programación cuánticos tienen dos grandes funcionalidades, por un lado poder explotar por completo el potencial que esto tiene, aprovechando al máximo las capacidades con software a la altura, y por el otro, poder liberar a los programadores de tener que comprender cómo funcionan realmente estos ordenadores.

Nace con todo esto, un nuevo concepto, pues toda esta información pasa a ser información cuántica que abre una economía del todo nueva, la cual va a necesitar de gente que quiera trabajar como programadores cuánticos, así como desarrolladores de algoritmos e ingenieros.

A pesar de todo, por ahora parece que la computación cuántica se va a limitar a las grandes empresas que necesiten aplicarla a problemas altamente complejos y costosos, aunque éste, si lo recordamos, no deja de ser el mismo inicio que tuvo la computación clásica.