1304098-22.jpg

IBM y el CERN utilizan la computación cuántica para cazar el escurridizo bosón de Higgs

Es probable que las futuras computadoras cuánticas aumenten significativamente la comprensión del gigantesco colisionador de partículas del CERN.

Imagen: CERN / Maximilien Brice

El potencial de las computadoras cuánticas se está discutiendo actualmente en entornos que van desde los barcos de Bankstomerchant, y ahora la tecnología se ha llevado aún más lejos o más bien, más abajo.

Cien metros por debajo de la frontera franco-suiza se encuentra la máquina más grande del mundo, el Gran Colisionador de Hadrones (LHC), operado por el laboratorio europeo de física de partículas, CERN. Y para comprender mejor las montañas de datos producidos por un sistema tan colosal, los científicos del CERN han estado pidiendo ayuda al equipo cuántico de IBM.

Computación cuántica

  • Criptografía cuántica: un cable de fibra óptica puede transportar claves que no se pueden piratear
  • La computación cuántica podría ayudar a combatir el cambio climático
  • La computación cuántica se encuentra en una etapa temprana. Los inversores ya están emocionados
  • ¿Qué es la computación cuántica? Todo lo que necesitas saber

La asociación ha sido exitosa: en un nuevo artículo, que aún no ha sido revisado por pares, los investigadores de IBM han establecido que los algoritmos cuánticos pueden ayudar a dar sentido a los datos del LHC, lo que significa que es probable que las futuras computadoras cuánticas impulsen significativamente los descubrimientos científicos. en el CERN.

VER: Kit de contratación: Ingeniero de hardware informático (TechRepublic Premium)

Dado que la declaración de la misión del CERN es comprender por qué sucede algo en el universo, esto podría tener grandes implicaciones para cualquier persona interesada en todo lo relacionado con la materia, la antimateria, la materia oscura, etc.

El LHC es una de las herramientas más importantes del CERN para comprender las leyes fundamentales que gobiernan las partículas y fuerzas que componen el universo. Con la forma de un anillo de 27 kilómetros de largo, el sistema acelera haces de partículas como protones y electrones justo por debajo de la velocidad de la luz, antes de aplastar esos haces en colisiones que los científicos observan gracias a ocho detectores de alta precisión que se encuentran dentro del acelerador. .

Cada segundo, las partículas chocan aproximadamente mil millones de veces dentro del LHC, produciendo un petabyte de datos que actualmente es procesado por un millón de CPU en 170 ubicaciones en todo el mundo, una extensión geográfica que se debe al hecho de que no se pueden almacenar cantidades tan enormes de información. en un solo lugar.

No se trata solo de almacenar datos, por supuesto. Toda la información generada por el LHC está disponible para ser procesada y analizada, para que los científicos formulen hipótesis, prueben y descubran.

Así es como, al observar las partículas aplastadas juntas, los investigadores del CERN descubrieron en 2012 la existencia de una partícula elemental llamada bosón de Higgs, que da masa a todas las demás partículas fundamentales y fue aclamada como un gran logro en el campo de la física.

Los científicos, hasta ahora, han estado utilizando las mejores herramientas informáticas clásicas disponibles para ayudar en su trabajo. En la práctica, esto significa utilizar algoritmos sofisticados de aprendizaje automático que sean capaces de transmitir los datos producidos por el LHC para distinguir entre colisiones útiles, como las que producen bosones de Higgs, y basura.

“Hasta ahora, los científicos han estado usando técnicas clásicas de aprendizaje automático para analizar datos sin procesar capturados por los detectores de partículas, seleccionando automáticamente los mejores eventos candidatos”, escribieron los investigadores de IBM Ivano Tavernelli y Panagiotis Barkoutsos en una publicación de blog. “Pero creemos que podemos mejorar enormemente este proceso de selección impulsando el aprendizaje automático con la tecnología cuántica”.

A medida que crece el volumen de datos, los modelos clásicos de aprendizaje automático se acercan rápidamente a los límites de sus capacidades, y es aquí donde es probable que las computadoras cuánticas desempeñen un papel útil. Los qubits versátiles que componen las computadoras cuánticas pueden contener mucha más información que los bits clásicos, lo que significa que pueden visualizar y manejar muchas más dimensiones que los dispositivos clásicos.

Por lo tanto, una computadora cuántica equipada con suficientes qubits podría, en principio, ejecutar cálculos extremadamente complejos que tardarían siglos en resolverse las computadoras clásicas.

Con esto en mente, el CERN se asoció con el equipo cuántico de IBM ya en 2018, con el objetivo de descubrir cómo se podrían aplicar exactamente las tecnologías cuánticas para avanzar en los descubrimientos científicos.

El aprendizaje automático cuántico surgió rápidamente como una aplicación potencial. El enfoque consiste en aprovechar las capacidades de los qubits para expandir lo que se conoce como el espacio de características, la colección de características en las que el algoritmo basa su decisión de clasificación. Usando un espacio de características más grande, una computadora cuántica podrá ver patrones y realizar tareas de clasificación incluso en un conjunto de datos enorme, donde una computadora clásica solo puede ver ruido aleatorio.

Aplicado a la investigación del CERN, un algoritmo de aprendizaje automático cuántico podría examinar los datos sin procesar del LHC y reconocer las ocurrencias del comportamiento de los bosones de Higgs, por ejemplo, cuando las computadoras clásicas podrían tener dificultades para ver algo en absoluto.

El equipo de IBM procedió a crear un algoritmo cuántico llamado máquina de vectores de soporte cuántico (QSVM), diseñado para identificar colisiones que producen bosones de Higgs. El algoritmo se entrenó con un conjunto de datos de prueba basado en información generada por uno de los detectores del LHC y se ejecutó tanto en simuladores cuánticos como en hardware cuántico físico.

En ambos casos, los resultados fueron prometedores. El estudio de simulación, que se ejecutó en Google Tensorflow Quantum, IBM Quantum y Amazon Braket, utilizó hasta 20 qubits y un conjunto de datos de 50.000 eventos, y funcionó tan bien, si no mejor, que sus homólogos clásicos que tienen el mismo problema.

  • La primera red cuántica de múltiples nodos allana el camino para la Internet cuántica
  • El nuevo Galaxy Quantum 2 de Samsung utiliza criptografía cuántica para proteger las aplicaciones
  • AWS revela un nuevo método para construir una computadora cuántica más precisa

El experimento de hardware se ejecutó en los propios dispositivos cuánticos de IBM utilizando 15 qubits y un conjunto de datos de 100 eventos, y los resultados mostraron que, a pesar del ruido que afecta a los cálculos cuánticos, la calidad de la clasificación sigue siendo comparable a los mejores resultados de simulación clásica.

“Esto confirma una vez más el potencial del algoritmo cuántico para esta clase de problemas”, escribieron Tavernelli y Barkoutsos. “La calidad de nuestros resultados apunta hacia una posible demostración de una ventaja cuántica para la clasificación de datos con máquinas vectoriales de soporte cuántico en un futuro próximo”.

Eso no quiere decir que la ventaja haya sido probada todavía. El algoritmo cuántico desarrollado por IBM funcionó de manera comparable a los métodos clásicos en los procesadores cuánticos limitados que existen en la actualidad, pero esos sistemas aún se encuentran en sus primeras etapas.

Y con solo una pequeña cantidad de qubits, las computadoras cuánticas de hoy en día no son capaces de realizar cálculos que sean útiles. También permanecen paralizados por la fragilidad de los qubits, que son muy sensibles a los cambios ambientales y aún son propensos a errores.

Por el contrario, IBM y CERN confían en futuras mejoras en el hardware cuántico para demostrar de forma tangible, y no solo teórica, que los algoritmos cuánticos tienen una ventaja.

“Nuestros resultados muestran que los algoritmos de aprendizaje automático cuántico para la clasificación de datos pueden ser tan precisos como los clásicos en computadoras cuánticas ruidosas, allanando el camino para la demostración de una ventaja cuántica en un futuro cercano”, concluyeron Tavernelli y Barkoutsos.

Ciertamente, los científicos del CERN tienen grandes esperanzas de que este sea el caso. El LHC se está actualizando actualmente, y se espera que la próxima iteración del sistema, que estará en línea en 2027, produzca diez veces más colisiones que la máquina actual. El volumen de datos que se genera solo va en una dirección y no pasará mucho tiempo antes de que los procesadores clásicos no puedan administrarlo todo.

Innovación

  • Los investigadores desarrollan un sistema de inteligencia artificial para mejorar la detección de enfermedades oculares
  • United Airlines quiere que los clientes paguen por algo escandaloso
  • A medida que aumentan las colisiones de animales, las cámaras térmicas ofrecen esperanza
  • ¿Qué es la IA? Todo lo que necesitas saber

Similar Posts

Leave a Reply