Los ordenadores cuánticos superan el umbral de error crítico | Revista Quanta

Como
Gustó

Fecha:

¿Cómo se construye una máquina perfecta a partir de piezas imperfectas? Ese es el principal desafío para los investigadores que construyen computadoras cuánticas. El problema es que sus componentes básicos, llamados cúbits, son extremadamente sensibles a las perturbaciones del mundo exterior. Los prototipos de computadoras cuánticas actuales son demasiado propensos a errores como para hacer algo útil.

En la década de 1990, los investigadores elaboraron las bases teóricas para encontrar una forma de superar estos errores, denominada corrección de error cuánticoLa idea clave era lograr que un conjunto de cúbits físicos trabajaran juntos como un único “cúbit lógico” de alta calidad. La computadora utilizaría entonces muchos de esos cúbits lógicos para realizar cálculos. Crearían esa máquina perfecta transmutando muchos componentes defectuosos en unos pocos componentes fiables.

“Ese es realmente el único camino que conocemos para construir una computadora cuántica a gran escala”, dijo Michael Newman, investigador de corrección de errores en Google Quantum AI.

Esta alquimia computacional tiene sus límites. Si los cúbits físicos son demasiado propensos a fallar, la corrección de errores es contraproducente: agregar más cúbits físicos empeorará los cúbits lógicos, no los mejorará. Pero si la tasa de error cae por debajo de un umbral específico, la balanza se inclina: cuantos más cúbits físicos se agreguen, más resistente será cada cúbit lógico.

Ahora, en un publicado hoy en NaturalezaNewman y sus colegas de Google Quantum AI finalmente cruzaron el umbral. Transformaron un grupo de cúbits físicos en un solo cúbit lógico y luego demostraron que a medida que agregaban más cúbits físicos al grupo, la tasa de error del cúbit lógico disminuía drásticamente.

“Toda la historia depende de ese tipo de escala”, dijo david hayes, físico de la empresa de computación cuántica Quantinuum. “Es realmente emocionante ver que esto se convierte en realidad”.

Reglas de mayoría

La versión más simple de corrección de errores funciona en computadoras “clásicas” comunes, que representan la información como una cadena de bits, o 0 y 1. Cualquier falla aleatoria que invierta el valor de un bit causará un error.

Puede protegerse contra los errores distribuyendo la información en varios bits. El método más básico consiste en reescribir cada 0 como 000 y cada 1 como 111. Siempre que los tres bits de un grupo no tengan el mismo valor, sabrá que se ha producido un error y un voto mayoritario solucionará el bit defectuoso.

Pero el procedimiento no siempre funciona. Si dos bits de cualquier triplete sufren errores simultáneamente, el voto mayoritario devolverá la respuesta incorrecta.

Para evitarlo, podría aumentar la cantidad de bits en cada grupo. Por ejemplo, una versión de cinco bits de este "código de repetición" puede tolerar dos errores por grupo. Pero, si bien este código más grande puede manejar más errores, también ha introducido más formas en que las cosas pueden salir mal. El efecto neto solo es beneficioso si la tasa de error de cada bit individual está por debajo de un umbral específico. Si no lo está, entonces agregar más bits solo empeora el problema de errores.

Como es habitual, en el mundo cuántico la situación es más complicada. Los cúbits son propensos a más tipos de errores que sus primos clásicos. También es mucho más difícil manipularlos. Cada paso en un cálculo cuántico es otra fuente de error, al igual que el propio procedimiento de corrección de errores. Además, no hay forma de medir el estado de un cúbit sin alterarlo irreversiblemente: hay que diagnosticar los errores de alguna manera sin observarlos directamente. Todo esto significa que la información cuántica debe manejarse con sumo cuidado.

“Es intrínsecamente más delicado”, dijo Juan Preskill, físico cuántico del Instituto Tecnológico de California. “Hay que preocuparse por todo lo que pueda salir mal”.

Al principio, muchos investigadores pensaron que la corrección de errores cuánticos sería imposible. A mediados de los años 1990, cuando los investigadores idearon ejemplos sencillos de códigos de corrección de errores cuánticos, se demostró que estaban equivocados. Pero eso sólo cambió el pronóstico de desesperanzador a desalentador.

Cuando los investigadores trabajaron en los detalles, se dieron cuenta de que tendrían que lograr que la tasa de error para cada operación en cúbits físicos fuera inferior al 0.01 % (solo una de cada 10,000 XNUMX podría salir mal). Y eso los llevaría solo al umbral. En realidad, tendrían que ir mucho más allá de eso; de lo contrario, las tasas de error de los cúbits lógicos disminuirían de manera insoportablemente lenta a medida que se agregaran más cúbits físicos, y la corrección de errores nunca funcionaría en la práctica.

Nadie sabía cómo hacer que un cúbit fuera lo suficientemente bueno, pero resultó que esos primeros códigos solo arañaban la superficie de lo que era posible.

El código de superficie

En 1995, el físico ruso Alexéi Kitaev He oído hablar de un gran avance teórico en la computación cuántica. El año anterior, el matemático aplicado estadounidense Peter Shor había ideado Un algoritmo cuántico para descomponer números grandes en sus factores primos.Kitaev no pudo conseguir una copia del artículo de Shor, por lo que decidió... su propia versión del algoritmo desde cero, uno que resultó ser más versátil que el de Shor. Preskill se entusiasmó con el resultado e invitó a Kitaev a visitar su grupo en Caltech.

“Alexei es realmente un genio”, afirmó Preskill. “Conocí a muy pocas personas con ese nivel de brillantez”.

Esa breve visita, en la primavera de 1997, fue extraordinariamente productiva. Kitaev le contó a Preskill dos nuevas ideas que estaba desarrollando: una Enfoque “topológico” de la computación cuántica que no necesitaría corrección activa de errores en absoluto, y un código de corrección de errores cuántico basado en matemáticas similares. Al principio, no pensó que ese código sería útil para los cálculos cuánticos. Preskill era más optimista y convenció a Kitaev de que un ligera variación Valía la pena perseguir su idea original.

Esa variación, llamada código de superficie, se basa en dos cuadrículas superpuestas de cúbits físicos. Los de la primera cuadrícula son cúbits de “datos”, que en conjunto codifican un único cúbit lógico. Los de la segunda son cúbits de “medición”, que permiten a los investigadores detectar errores de forma indirecta, sin perturbar el cálculo.

Se trata de una gran cantidad de cúbits, pero el código de superficie tiene otras ventajas. Su esquema de comprobación de errores es mucho más simple que el de los códigos cuánticos de la competencia. Además, solo implica interacciones entre cúbits vecinos, la característica que Preskill encontró tan atractiva.

En los años siguientes, Kitaev, Preskill y un puñado de colegas Desarrolló los detalles del código de superficie. En 2006, dos investigadores showed que una versión optimizada del código tenía un umbral de error de alrededor del 1%, 100 veces más alto que los umbrales de los códigos cuánticos anteriores. Estos índices de error todavía estaban fuera del alcance de los cúbits rudimentarios de mediados de la década de 2000, pero ya no parecían tan inalcanzables.

A pesar de estos avances, el interés por el código de superficie permaneció confinado a una pequeña comunidad de teóricos, personas que no trabajaban con cúbits en el laboratorio. Sus artículos utilizaban un marco matemático abstracto ajeno a los experimentalistas que sí lo hacían.

“Fue realmente difícil entender qué estaba pasando”, recordó. Juan Martinis, un físico de la Universidad de California en Santa Bárbara que es uno de esos experimentalistas. “Fue como leer un artículo sobre la teoría de cuerdas”.

En 2008, un teórico llamado austin fowler Fowler se propuso cambiar eso promoviendo las ventajas del código de superficie entre los experimentadores de todo Estados Unidos. Después de cuatro años, encontró un público receptivo en el grupo de Santa Bárbara dirigido por Martinis. Fowler, Martinis y otros dos investigadores escribieron un Papel 50-página En él se esbozaba una implementación práctica del código de superficie. Calculaban que, con suficiente ingeniería inteligente, podrían reducir las tasas de error de sus cúbits físicos al 0.1 %, muy por debajo del umbral del código de superficie. Luego, en principio, podrían ampliar el tamaño de la red para reducir la tasa de error de los cúbits lógicos a un nivel arbitrariamente bajo. Era un modelo para una computadora cuántica a gran escala.

Por supuesto, construir uno no sería fácil. Estimaciones superficiales sugerían que una aplicación práctica del algoritmo de factorización de Shor requeriría billones de operaciones. Un error no corregido en cualquiera de ellas arruinaría todo el proceso. Debido a esta restricción, necesitaban reducir la tasa de error de cada cúbit lógico a muy por debajo de uno en un billón. Para eso necesitarían una enorme red de cúbits físicos. Las primeras estimaciones del grupo de Santa Bárbara sugerían que cada cúbit lógico podría requerir miles de cúbits físicos.

“Eso asustó a todos”, dijo Martinis. “A mí también me asusta un poco”.

Pero Martinis y sus colegas siguieron adelante a pesar de todo y publicaron un... experimento de prueba de principio En 2014, se utilizó un algoritmo de cinco cúbits. El resultado llamó la atención de un ejecutivo de Google, que pronto contrató a Martinis para dirigir un grupo interno de investigación en computación cuántica. Antes de intentar controlar miles de cúbits a la vez, tendrían que lograr que el código de superficie funcionara a menor escala. Para lograrlo, se necesitaría una década de minucioso trabajo experimental.

Cruzando el umbral

Cuando se pone en práctica la teoría de la computación cuántica, el primer paso es quizás el más importante: ¿qué hardware se utiliza? Hay muchos sistemas físicos diferentes que pueden servir como cúbits, y cada uno tiene sus propias fortalezas y debilidades. Martinis y sus colegas se especializaron en los llamados cúbits superconductores, que son pequeños circuitos eléctricos hechos de metal superconductor sobre chips de silicio. Un solo chip puede albergar muchos cúbits dispuestos en una cuadrícula, precisamente la disposición que exige el código de superficie.

El equipo de inteligencia artificial cuántica de Google pasó años mejorando sus procedimientos de diseño y fabricación de cúbits, pasando de un puñado de cúbits a docenas y perfeccionando su capacidad para manipular muchos cúbits a la vez. En 2021, finalmente estaban listos para probar la corrección de errores con el código de superficie por primera vez. Sabían que podían construir cúbits físicos individuales con tasas de error por debajo del umbral del código de superficie, pero tenían que ver si esos cúbits podían trabajar juntos para crear un cúbit lógico que fuera mejor que la suma de sus partes. En concreto, necesitaban demostrar que a medida que ampliaban la escala del código (utilizando un parche más grande de la red de cúbits físicos para codificar el cúbit lógico), la tasa de error se reduciría.

Comenzaron con el código de superficie más pequeño posible, llamado código de “distancia 3”, que utiliza una cuadrícula de 3 por 3 de cúbits físicos para codificar un cúbit lógico (más otros ocho cúbits para medición, para un total de 17). Luego dieron un paso más y llegaron a un código de superficie de distancia 5, que tiene un total de 49 cúbits (solo son útiles las distancias de código impares).

En un papel 2023El equipo informó que la tasa de error del código de distancia 5 era apenas un poco menor que la del código de distancia 3. Fue un resultado alentador, pero no concluyente: todavía no podían cantar victoria. Y en un nivel práctico, si cada paso hacia arriba solo reduce la tasa de error en una pizca, la ampliación no será factible. Para avanzar, necesitarían mejores cúbits.

El equipo dedicó el resto de 2023 a otra ronda de mejoras de hardware. A principios de 2024, tenían un nuevo chip de 72 cúbits, cuyo nombre en código era Willow, para probar. Pasaron unas semanas configurando todo el equipo necesario para medir y manipular los cúbits. Luego, en febrero, comenzaron a recopilar datos. Una docena de investigadores se agolparon en una sala de conferencias para ver cómo llegaban los primeros resultados.

“Nadie estaba seguro de lo que iba a pasar”, dijo Kevin Satzinger, un físico de Google Quantum AI que codirigió el esfuerzo con Newman. “Hay muchos detalles que se deben tener en cuenta para que estos experimentos funcionen”.

Luego apareció un gráfico en la pantalla. La tasa de error del código de distancia 5 no era marginalmente menor que la del código de distancia 3. Había bajado un 40%. Durante los meses siguientes, el equipo mejoró esa cifra al 50%: un paso más en la distancia del código redujo la tasa de error del cúbit lógico a la mitad.

“Fue una época muy emocionante”, dijo Satzinger. “Había una atmósfera electrizante en el laboratorio”.

El equipo también quería ver qué sucedería cuando siguieran ampliando la escala, pero un código de distancia 7 necesitaría 97 cúbits en total, más que la cantidad total de su chip. En agosto, salió un nuevo lote de chips Willow de 105 cúbits, pero para entonces el equipo se estaba acercando a una fecha límite estricta: el ciclo de pruebas para la siguiente ronda de mejoras de diseño estaba a punto de comenzar. Satzinger comenzó a aceptar la idea de que no tendrían tiempo para realizar esos experimentos finales.

“Me estaba deshaciendo mentalmente de la distancia 7”, dijo. Luego, la noche antes de la fecha límite, dos nuevos miembros del equipo, Gabrielle Roberts y Alec Eickbusch, se quedaron despiertos hasta las 3 a. m. para que todo funcionara lo suficientemente bien como para recopilar datos. Cuando el grupo regresó a la mañana siguiente, vieron que pasar de un código de distancia 5 a uno de distancia 7 había vuelto a reducir a la mitad la tasa de error del cúbit lógico. Este tipo de escala exponencial (donde la tasa de error cae en el mismo factor con cada paso hacia arriba en la distancia del código) es precisamente lo que predice la teoría. Fue una señal inequívoca de que habían reducido las tasas de error de los cúbits físicos muy por debajo del umbral del código de superficie.

“Hay una diferencia entre creer en algo y verlo funcionar”, dijo Newman. “Esa fue la primera vez que pensé: ‘Esto realmente va a funcionar’”.

El largo camino por delante

El resultado también ha entusiasmado a otros investigadores de la computación cuántica.

“Creo que es increíble”, dijo Bárbara Terhal, físico teórico de la Universidad Tecnológica de Delft. “En realidad no esperaba que atravesaran el umbral de esta manera”.

Al mismo tiempo, los investigadores reconocen que aún les queda un largo camino por recorrer. El equipo de inteligencia artificial cuántica de Google solo demostró la corrección de errores utilizando un único cúbit lógico. Agregar interacciones entre múltiples cúbits lógicos introducirá nuevos desafíos experimentales.

Luego está la cuestión de la ampliación. Para conseguir que las tasas de error sean lo suficientemente bajas como para realizar cálculos cuánticos útiles, los investigadores tendrán que mejorar aún más sus cúbits físicos. También tendrán que crear cúbits lógicos a partir de algo mucho más grande que un código de distancia 7. Por último, tendrán que combinar miles de estos cúbits lógicos, es decir, más de un millón de cúbits físicos.

Mientras tanto, otros investigadores han hecho impresionante avances Utilizando diferentes tecnologías de cúbits, aunque todavía no han demostrado que puedan reducir las tasas de error mediante una ampliación de escala. Estas tecnologías alternativas pueden tener una implementación más sencilla nuevos códigos de corrección de errores que exigen menos cúbits físicos. La computación cuántica todavía está en pañales. Es demasiado pronto para decir qué enfoque ganará.

Martinis, que dejó Google Quantum AI en 2020, sigue siendo optimista a pesar de los numerosos desafíos. “Viví la experiencia de pasar de un puñado de transistores a miles de millones”, dijo. “Con el tiempo suficiente, si somos lo suficientemente inteligentes, podríamos lograrlo”.

Artículos relacionados

punto_img

Artículos Recientes

punto_img