Mostrando entradas con la etiqueta Técnica. Mostrar todas las entradas
Mostrando entradas con la etiqueta Técnica. Mostrar todas las entradas

martes, 10 de diciembre de 2024

Avances en computación cuántica

Raúl Limón, en El País, 9 dic 2024: "Google presenta Willow, un chip cuántico que resuelve en 5 minutos una tarea que un superordenador tardaría cuatrillones de años":

La multinacional asegura que el procesador y la corrección de errores alcanzada anticipan el desarrollo de un ordenador a gran escala y tolerante a fallos

La computación cuántica está en plena ebullición y los pasos previstos para finales de esta década se adelantan. Microsoft y Atom Computing proclamaron el pasado mes un récord cuántico que les lleva a anunciar para el próximo año un ordenador con esta tecnología que supera a las capacidades clásicas. Casi de forma simultánea, IBM presentaba avances en hardware (el procesador Heron) y software (Qiskit) para ejecutar algoritmos complejos 50 veces más rápidamente que con los métodos convencionales y a una escala y precisión inéditas. Este lunes, Google presenta en Nature a Willow, un chip (superconductor) cuántico que permite resolver en cinco minutos una tarea de referencia (RCS) que el superordenador más veloz “tardaría en completar 10 septillones de años [cuatrillones en el sistema europeo, que equivalen a 10 seguido de 24 ceros]”, según explica Harmut Neven, científico y fundador del Quantum Artificial Intelligence Lab de Google.

El desarrollo de Willow se completa con el avance, publicado en verano en Arxiv, en corrección de errores. Estos son los fallos que se generan en computación cuántica por las perturbaciones que alteran la superposición de partículas, la propiedad física de estar en dos estados a la vez de forma simultánea y que permiten elevar exponencialmente la capacidad de procesamiento en sistemas cuánticos.

“Los errores”, precisa Michael Newman, científico investigador en Google Quantum AI, “pueden ser causados por una variedad de cosas que van desde defectos microscópicos de materiales hasta rayos cósmicos o radiación ionizante. Por estas razones, solo podemos ejecutar cientos de operaciones antes de ver un error”. Salvarlos con avances como los anunciados hoy se considera el desafío más crítico de la computación con esta tecnología.

La agrupación de cúbits físicos (átomos, iones, fotones o sistemas superconductores) en cúbits lógicos entrelazados que actúan como uno solo permite, con corrección de errores, una mayor precisión y una vida útil más allá de los nanosegundos. Pero, hasta ahora, el uso de más unidades físicas para generar lógicas y crecer en capacidad implicaba más errores.

“Hay una línea mágica”, según detalla Newman, “que llamamos el umbral de corrección de errores cuánticos, donde estas dos fuerzas opuestas son exactamente iguales y, si el procesador es lo suficientemente bueno como para estar por debajo de esta línea, donde los cúbits y las operaciones están funcionando lo suficientemente bien, a medida que se consiguen agrupaciones más grandes [cúbit lógico], la tasa de error es más baja y disminuye exponencialmente de forma muy rápida”.

Ese “procesador suficientemente bueno” es Willow, según el científico. “Lo hemos usado por debajo de este punto de inflexión esencial y, a medida que usa más cúbits, observamos una supresión de errores exponencial”, destaca Newman.

“Esto resuelve un desafío clave en la corrección de errores cuánticos que se ha perseguido durante casi 30 años. Quiero enfatizar lo que esto significa: por primera vez, un sistema se vuelve más cuántico a medida que se hace más grande, en lugar de más clásico”, resalta Neven.

Por primera vez, un sistema se vuelve más cuántico a medida que se hace más grande, en lugar de más clásico

De esta forma, Google asegura haber conjurado la maldición y reducido exponencialmente los fallos en un factor de dos (la mitad y la mitad de la mitad sucesivamente) a medida que se agregan más cúbits. No obstante, “ese rendimiento [lógico] está limitado por eventos de error correlacionados raros que ocurren aproximadamente una vez por hora”, según advierte la investigación publicada en agosto.

Para medir le eficacia de Willow, de 105 cúbits, Google ha recurrido al muestreo aleatorio de circuitos (RCS), una prueba de selección estocástica (aleatoria) que garantiza que cada circuito tenga la misma probabilidad de ser elegido. El RCS es, según apunta Google, la prueba más difícil que puede realizarse actualmente en un ordenador cuántico para determinar si su ejecución sería imposible en un ordenador clásico. Esta misma prueba se utilizó para probar el Sycamore, el ordenador cuántico de la compañía, en 2019 y el pasado octubre. “En comparación, Willow es aproximadamente el doble de bueno”, destaca Newman

Tanto el chip como la corrección de errores son pasos cruciales para el desarrollo de un ordenador cuántico a gran escala y tolerante a fallos que permita aplicaciones revolucionarias, como el descubrimiento de medicamentos, la creación de baterías más eficientes para vehículos eléctricos o avances en energía de fusión nuclear, entre otros ejemplos. “La misión de nuestro equipo es desarrollar computación cuántica para problemas que, de otro modo, serían irresolubles, problemas para los que las computadoras clásicas son herramientas inadecuadas”, explica Neven.

La carrera de IBM

En el mismo camino se encuentra IBM, otro gigante de la computación cuántica con una hoja de ruta propia que lleva a la multinacional a anunciar la ventaja o utilidad cuántica (capacidad de realizar operaciones imposibles para un sistema clásico en un tiempo razonable) para 2029.

Su sistema se fundamenta en la combinación de chips mejorados año a año, como el Heron R2, que ya ha alcanzado los 156 cúbits, con un sistema de programación (Qiskit) capaz de duplicar la capacidad de ejecución alcanzada hace solo un año (recogida por Nature) a una velocidad 50 veces superior.

Para IBM, y de acuerdo con los resultados recopilados y publicados en arXiv, Qiskit es “el software cuántico de mayor rendimiento del mundo y permite a los desarrolladores construir más fácilmente circuitos cuánticos complejos con estabilidad, precisión y velocidad”.

“Los avances en nuestro hardware (equipos) y Qiskit están permitiendo a nuestros usuarios construir nuevos algoritmos en los que los recursos cuánticos avanzados y de supercomputación clásica se pueden unir para combinar sus respectivas fortalezas”, afirma Jay Gambetta, vicepresidente de IBM Quantum.

La compañía prueba ahora Quantum Flamingo, que combina dos chips Heron R2 con cuatro conectores La tasa de error detectada es 3,5% para una operación de 235 nanosegundos y se espera mejorarla para lanzar un sistema basado en Flamingo a finales de 2025.

La combinación de recursos clásicos y cuánticos es un denominador común, especialmente con la incorporación de la inteligencia artificial. El ordenador anunciado por Microsoft y Atom Computing, además del sistema cuántico desarrollado a partir de los átomos neutros, integrará nube de computación de alto rendimiento (HPC) y modelos avanzados de inteligencia artificial a partir de la plataforma Azure Elements.