Un equipo de investigadores de IBM, unido con UC Berkeley y la Universidad de Purdue, extrajo con éxito computación cuántica útil de una de las computadoras Noisy Intermediate Scale Quantum (NISQ) actuales. El equipo utilizó una de las últimas unidades de procesamiento cuántico (QPU) de IBM, Eagle, para realizar cálculos que estaban condenados a arreglar en medio del ruido de los cúbits. Sin retención, mediante el uso de un mecanismo de feedback inteligente entre la QPU Eagle 127 qubit de IBM y las supercomputadoras de UC Berkeley y la Universidad de Purdue, IBM pudo demostrar que podía obtener resultados bártulos de una QPU ruidosa. La puerta a la utilidad cuántica está abierta, y estamos muy adelantados.
Nuestras computadoras cuánticas de la era NISQ están conectadas a nuestras supercomputadoras standard: las máquinas más poderosas conocidas por la humanidad, capaces de realizar billones de operaciones por segundo. Tan poderosos como son, es una verdad universal que cuando dos sujetos están atados juntos, solo se mueven tan rápido como lo permite el más cachazudo de ellos. Y la supercomputadora ya se estiró para este examen, utilizando técnicas avanzadas para mantenerse al día con la complejidad de la simulación.
Cuando la simulación de qubits se volvió demasiado compleja para que la supercomputadora simplemente "brutara" los resultados, los investigadores de UC Berkeley comenzaron a usar algoritmos de compresión: estados de red de tensor. Estos estados de red tensoriales (matrices) son esencialmente cubos de datos, donde los números que componen los cálculos se representan en un espacio tridimensional (x, y, z) capaz de manejar relaciones y volúmenes de información más complejos que una opción 2D más habitual. - piense en una simple tabla de Excel 2D (x, y) y las muchas otras filas que tendría que recorrer en esta configuración si tuviera que considerar otro plano de información (z).
"La esencia del trabajo es que ahora podemos usar los 127 qubits de Eagle para ejecutar un circuito harto noble y profundo, y los números son correctos".
kristan temme
Esto significa que ya hay alguna utilidad que se puede extraer de las computadoras cuánticas NISQ: hay cosas en las que pueden producir resultados que estarían fuera del efecto, al menos en términos de tiempo y efectivo, para las supercomputadoras standard, o donde se necesitan los aros. obtener esos resultados haría que el esfuerzo superara la beneficio.
Ahora hay un ida y envés entre las soluciones proporcionadas por nuestras computadoras cuánticas de la era NISQ que cuentan con unos pocos cientos de qubits (en el mejor de los casos) y nuestras supercomputadoras standard que cuentan con billones de transistores. A medida que aumente la cantidad de qubits bártulos disponibles, se explorarán los circuitos con profundidades más profundas 60 utilizados en el documento. A medida que aumenta la cantidad y la calidad de los qubits, las supercomputadoras standard igualmente tendrán que seguir el ritmo, procesando los números y verificando una nalgas de resultados de computación cuántica tan profunda como sea posible.
"Subraya inmediatamente la falta de nuevos métodos clásicos", Anand dijo. Y ya están estudiando estos métodos. "Ahora preguntamos si podemos tomar el mismo concepto de mitigación de errores y aplicarlo a las simulaciones de redes de tensores clásicas para ver si podemos obtener mejores resultados clásicos".
Esencialmente, cuanto más exactamente pueda predecir la progreso del ruido en su sistema cuántico, mejor sabrá cómo ese ruido envenena los resultados correctos. La forma en que aprendes a predecir poco es simplemente empujarlo y observar lo que sucede suficientes veces para poder identificar las palancas que lo hacen funcionar.
Algunas de estas palancas tienen que ver con cómo y cuándo activas tus qubits (algunos circuitos usan más qubits, otros requieren que esos qubits estén dispuestos en puertas más o menos cuánticas, con enredos más complejos entre ciertos qubits...) Los investigadores de IBM tuvieron que cultivarse con precisión cuánto y qué ruido resultó al mover cada una de estas perillas en su Quantum Eagle de 127 qubits, porque si sabe cómo introducir ruido, entonces comienza a controlarlo. Si comprende cómo aparece en primer división, puede tenerlo en cuenta, lo que a su vez le permite tratar de evitar o explotar lo que sucede.
Pero si solo está ejecutando cálculos en su computadora ruidosa, ¿cómo puede retener que esos cálculos son correctos? Aquí es donde entran las supercomputadoras standard, y la búsqueda de la verdad sobre el ámbito.
El equipo de IBM tuvo camino a dos supercomputadoras: el Centro Doméstico de Ciencias de la Computación para la Investigación de la Energía (NERSC) en el Laboratorio Doméstico de Berkeley y la supercomputadora Anvil financiada por la NSF en la Universidad de Purdue. Estas supercomputadoras calcularían las mismas simulaciones cuánticas que IBM ejecutó en su Eagle QPU de 127 qubits, distribuidas según sea necesario adentro de ellas, y de tal guisa que permitan la comparación de las dos panorama de la supercomputadora. Ahora tiene la verdad básica: la opción que sabe que es correcta, realizada y verificada por supercomputadoras standard. Ahora la luz está en verde para comparar tus resultados ruidosos con los buenos.
“IBM preguntó a nuestro agrupación si estaríamos interesados en admitir el tesina, sabiendo que nuestro agrupación estaba especializado en las herramientas informáticas necesarias para este tipo de experiencias”, dijo el investigador investido Sajant Anand de UC Berkeley. "Pensé que era un tesina interesante, al principio, pero no esperaba que los resultados fueran como lo fueron".
Entonces es "simplemente" resolver un pasatiempo de "encontrar la diferencia": una vez que se da cuenta de cuánto ha distorsionado los resultados la presencia de ruido, puede compensar su presencia y obtener la misma "verdad del ámbito" que estaba presente en los resultados de supercomputadoras standard. IBM fuego a esta técnica Zero Noise Extrapolation (ZNE).
Es un proceso simbiótico: el equipo de IBM responsable del artículo igualmente escudriñamiento padecer sus técnicas de mitigación de errores, y sus equivalentes de extrapolación sin ruido, a las supercomputadoras standard. Entre el aumento de la potencia bruta de los desarrollos de hardware más recientes y las optimizaciones de algoritmos y técnicas (como el uso de algoritmos de compresión inteligente), aumentará la potencia bruta de la supercomputación, lo que nos permitirá revisar nuestro trabajo de computación cuántica un paso más allá. la era de las computadoras cuánticas posteriores a NISQ y su implementación de la corrección de errores cuánticos.
Este es el momento en que la cuerda se rompe y la cuántica estará relativamente desocupado de la falta de revisar sus resultados con técnicas clásicas. Esto es lo que ralentiza la computación cuántica (más allá de la desatiendo de corrección de errores que permitirá a los qubits realizar los propios cálculos, claro).
En una entrevista con Tom's Hardware para este artículo, el Dr. Abhinav Kandala, Director de Capacidades Cuánticas y Demostraciones en IBM Quantum, lo expresó maravillosamente:
"... Incluso si tiene una lectura ruidosa de este estado, puede calibrar las propiedades de este estado en marcha de ruido".
Dr. Abhinav Kandala
Excepto con cuántica, entonces puede aumentar la complejidad del problema más allá de lo que pueden manejar las supercomputadoras, y adecuado a que ha modelado correctamente el impacto del ruido en el sistema, aún puede realizar los pasos de agilidad en sus resultados ruidosos... con algunos cargo de confianza Cuanto más se aleje de los resultados "conclusivos y veraces" proporcionados por las supercomputadoras standard, más probable es que introduzca errores fatales en los cálculos que no se tuvieron en cuenta (y no se pudieron tener) en su maniquí de ruido.
Pero si correctamente puede entregarse en manos en sus resultados, en ingenuidad ha proporcionado capacidades de procesamiento cuántico que son bártulos y van más allá de lo que se puede alcanzar con las máquinas de Turing clásicas de la concepción flagrante, como la supercomputadora de Berkeley. . Igualmente va más allá de lo que se creía posible en nuestras computadoras actuales de la era NISQ (Noisy Intermediate Stage Quantum). Y resulta que muchos algoritmos diseñados para dispositivos cuánticos a corto plazo podrían encajar en los 127 qubits de Eagle QPU de IBM, que puede proporcionar profundidades de circuito superiores a 60 pasos "que valen" puertas cuánticas.
El Dr. Kandala luego agregó"Lo que estamos haciendo con la mitigación de errores que ejecuta circuitos cuánticos a poca profundidad y mide lo que se fuego títulos esperados que miden las propiedades del estado, eso no es lo único que la masa quiere hacer con las computadoras cuánticas, me refiero a desbloquear todo el uno potencialmente necesita la corrección de errores cuánticos y la sensación predominante era que para hacer cualquier cosa útil, solo se puede aceptar a ella una vez que se tiene una computadora cuántica con errores corregidos.
“El factor crítico fue poder manipular el ruido más allá de estirar los pulsos”, dijo el Dr. Kandala. "Una vez que esto comenzó a funcionar, pudimos hacer extrapolaciones más complicadas que podrían eliminar el sesgo de ruido de formas que no podíamos hacer antaño".
Es probable que ZNE se convierta en un factor esencial de cualquier enfoque de computación cuántica: la mitigación de errores es un requisito esencial para las computadoras NISQ propensas a errores que tenemos hoy y probablemente será necesario incluso cuando lleguemos al borde de la corrección de errores. ve ciertos qubits cargados con funciones relacionadas con la corrección de errores en los cálculos de otros qubits.
El trabajo realizado por IBM aquí ya ha tenido un impacto en la hoja de ruta de la empresa: ZNE tiene esta cualidad atractiva de crear mejores qubits a partir de los que ya podemos controlar adentro de una mecanismo de procesamiento cuántico (QPU). Es casi como si tuviéramos un aumento de megahercios: más rendimiento (menos ruido) sin ninguna método adicional. Podemos estar seguros de que estas lecciones se tienen en cuenta y se implementan tanto como sea posible en el camino con destino a un "millón + qubits".
Igualmente es difícil ignorar cómo este trabajo muestra que verdaderamente no hay una carrera entre cuántico y clásico: el futuro es Fusion, para recrearse un poco con el inscripción de AMD del pasado. Esta fusión verá principios de TI específicos que satisfarán evacuación de procesamiento específicas. Cada problema, por engorroso que sea, tiene su aparejo, desde la clásica hasta la cuántica; y el ingenio humano exige que sobresalgamos en el uso de todos los nuestros.
Esta cuerda proverbial entre las supercomputadoras standard y las computadoras cuánticas solo se extiende hasta cierto punto, pero IBM está encontrando formas cada vez más inteligentes de extender su distancia. Gracias a esta investigación, los ordenadores cuánticos ya empiezan a ver un poco más allá. Quizás el Dr. Kandala vea lo que paciencia antaño de lo esperado: el campo de articulación de la utilidad cuántica ahora está despejado antaño de lo esperado. Veamos qué pueden hacer los humanos al respecto, ¿de acuerdo?
Deja una respuesta