Site Loader

Microsoft ha anunciado lo que según sus investigadores es un importante avance para lograr desarrollar un computador cuántico que sirva para resolver problemas masivos que no es posible tratar con ordenadores (o supercomputadores) tradicionales.

Ese logro se basa en el uso de un tipo de cúbit distinto al que plantean otros proyectos. En el caso de Microsoft la clave está en unas cuasipartículas que hasta ahora eran solo un concepto teórico y que tienen una ventaja fundamental: son más estables y teóricamente estarían libres de los célebres errores de cálculo que afectan a la computación cuántica.

Estos cúbits no son los mismos de los que hablan Google o IBM

En 2007 investigadores de Microsoft publicaban un estudio con uno de esos títulos difíciles de descifrar: «Anyones no-abelianos y Computación Cuántica Topológica».

{«videoId»:»x84u2zn»,»autoplay»:false,»title»:»QUÉ SON LOS ORDENADORES CUÁNTICOS | TE EXPLICAMOS TODO: su funcionamiento, su propósito, hitos y más»}

En ese informe se hablaba de unas cuasipartículas llamadas aniones abelianos que en aquel momento solo existían como concepto teórico. En 2015 Microsoft ya había avanzado en aquella idea, y sus investigadores publicaron una descripción de «procesadores abelianos» que podrían aplicarse en sistemas cuánticos de todo tipo.

La ventaja fundamental de estos aniones no-abelianos está en que el sistema de computación cuántica desarrollado con ellos no necesitaría corrección de errores para funcionar

Los cúbits son frágiles, de modo que la más mínima perturbación térmica o electromagnética introducida por el entorno puede provocar la aparición de la decoherencia cuántica. Y cuando se da este fenómeno desaparecen los efectos cuánticos que dan una ventaja computacional a los ordenadores cuánticos frente a los superordenadores clásicos.

De hecho los ordenadores cuánticos cometen errores al llevar a cabo algunas operaciones, y cuando esto sucede los resultados que nos devuelven no son correctos.

Esos cúbits que tradicionalmente manejan gigantes como Google o IBM en sus desarrollos —y no solo ellos— tienen esa desventaja, y aunque algunos avances han permitido llegar a precisiones de cálculo por encima del 99%, eso no es suficiente y se sigue trabajando para lograr esa perfecta corrección de errores.

Revisa la fuente original del articulo

Post Author: Gonzalo