Este joven físico de partículas ha ganado una ayuda 'Starting Grant' dotada con 1,5 millones de euros
Su proyecto INTREPID será esencial para procesar la información que entregará el LHC de alta luminosidad
Santiago Folgueras es un joven físico de partículas formado en la Universidad de Oviedo; la Universidad Purdue, en Indiana (EEUU), y el CERN (Suiza). En 2017 regresó a la Universidad de Oviedo con un contrato de profesor ayudante. Desde entonces trabaja en esta institución dentro del mismo grupo en el que se formó, pero explorando una línea de investigación diferente a aquella en la que trabajaba este grupo cuando Santiago hizo su doctorado.
Su pasión por la física le sobrevino muy pronto, y su capacidad didáctica, como estáis a punto de comprobar, está fuera de toda duda. Además, Santiago ejemplifica a la perfección lo que es posible lograr con esfuerzo y dedicación. Y es que ha ganado una ayuda Starting Grant del Consejo Europeo de Investigación dotada con 1,5 millones de euros para liderar INTREPID.
Este ambicioso proyecto de al menos cinco años de duración persigue utilizar la inteligencia artificial y tarjetas programables de última generación para mejorar el sistema de filtrado del experimento CMS del CERN. Así es como Santiago quiere participar en el esclarecimiento de los misterios del universo.
INTREPID tendrá un rol crucial en la búsqueda de la tan ansiada nueva física
Para entender bien en qué consiste INTREPID, el proyecto que lideras en el CERN, creo que es necesario que sepamos antes qué es un sistema de trigger…
Así es. Son herramientas electrónicas e informáticas necesarias para controlar los experimentos de física de partículas. En el LHC en particular se producen 40 millones de colisiones por segundo, y esto genera una cantidad de información enorme que no se puede guardar en ningún sitio. Por esta razón necesitamos un sistema que sea capaz de analizar los datos en tiempo real y tomar una decisión respecto a la colisión que se acaba de producir.
La decisión en definitiva consiste en determinar si debo guardar esta información o descartarla. Precisamente el sistema de trigger se encarga de llevar a cabo este proceso de análisis y filtrado, así como de reducir los datos, pasando de 40 millones a 750.000 colisiones por segundo. Después una segunda pasada reduce aún más el número de colisiones hasta unas 5.000 por segundo.
Estas son las especificaciones del sistema de trigger que estamos construyendo y que tendremos listo en 2030. El que utilizamos actualmente es ligeramente distinto, pero la idea es la misma. En cualquier caso, el primero de los dos pasos es electrónico porque están involucradas en él tarjetas programables, mientras que el segundo paso lo lleva a cabo una granja de ordenadores que es capaz de realizar un filtrado más exhaustivo.
INTREPID es una iniciativa muy ambiciosa. ¿Puedes explicar de la forma más didáctica posible en qué consiste?
Lo que queremos hacer con el proyecto INTREPID es diseñar unos algoritmos o mejoras para el sistema de trigger que vamos a construir para 2030. Las placas que utilizamos son tarjetas programables FPGA, y la idea que subyace en el proyecto es intentar llevar un poco más allá el sistema de trigger que estamos construyendo. Desde un punto de vista tecnológico queremos probar unas tarjetas nuevas que tienen unos nodos de inteligencia artificial y que esencialmente te permiten hacer inferencia de redes neuronales dentro de la propia tarjeta.
También necesitamos probar si estas tarjetas son capaces de funcionar dentro del rango de latencias que tenemos. Es lo que nosotros llamamos tiempo real. Los vendedores de las tarjetas te dan el tiempo real en el rango de los milisegundos, pero nosotros necesitamos microsegundos. Necesitamos ir a 12 microsegundos para que funcione.
Uno de los grandes pilares del proyecto consiste en intentar ver si esta tecnología es aplicable a nuestro problema de trigger, y el segundo pilar requiere tratar de ser más sensibles a un tipo de partículas desplazadas que se producen no en el punto de interacción de las colisiones, que es donde se generan la mayor parte de las partículas, sino en otro punto.
Puede ser que alguna partícula haya viajado un poco y se desintegre más adelante, en mitad del detector. El sistema que estamos utilizando tiene cierta sensibilidad a este tipo de partículas, pero puede dejarlas fuera debido a que tratamos una gran cantidad de ellas. Con INTREPID planeamos cambiar la arquitectura del sistema de trigger y ver si podemos recuperar esas partículas que se producen más lejos, hasta diez metros más allá del punto de interacción.
Intuyo que buscar señales casi indetectables entre la vorágine de información que recoge el experimento CMS debe de ser como buscar una aguja en un pajar. ¿Cuál es la estrategia que tienes en mente a la hora de aplicar la inteligencia artificial para filtrar ese enorme volumen de información que generan las colisiones de partículas del LHC?
Lo que intentas hacer es buscar cosas que conoces. Es un problema de reconstrucción en el que es necesario identificar patrones. Tienes que unir puntos. Las partículas nos dejan señales puntuales en diferentes capas, por lo que tenemos que unir los puntos como si utilizásemos un lápiz. El ser humano puede llevar a cabo esta tarea fantásticamente bien, pero un ordenador no lo hace nada bien.
Los algoritmos de inteligencia artificial, sobre todo los de grafos, deberían ser muy eficientes al hacer este tipo de uniones de puntos que determinan la trayectoria de la partícula. Además, el problema se va complicando dependiendo de la región del detector con la que trabajemos.
Hay regiones que son muy fáciles en el sentido de que el campo magnético es muy uniforme y no hay huecos, por lo que los algoritmos analíticos en este escenario funcionan de maravilla. Sin embargo, en otras regiones del detector el campo magnético ya no es uniforme, por lo que la geometría cambia. Ya tampoco es uniforme.
El ojo humano lo ve muy bien, pero un algoritmo analítico ya no lo ve tan bien, por lo que acaba reconstruyendo mucho ruido que es necesario filtrar a posteriori. Creo que la inteligencia artificial nos va a ayudar bastante porque está pensada precisamente para esto. Para replicar el pensamiento humano.
La inteligencia artificial ya marca la diferencia en los experimentos del CERN
¿Qué respuestas esperas encontrar en estas señales tan tenues, casi indetectables, vinculadas a las partículas que pretendéis identificar gracias a vuestro sofisticado sistema de filtrado?
La clave es que llevamos tomando datos unos cuantos años y hasta ahora encajan a la perfección con las predicciones del Modelo Estándar. No hay ningún tipo de desviación, y todas las que ha habido al final o las hemos acabado entendiendo o desmintiendo.
En este contexto uno se pregunta si realmente estamos mirando en todos los sitios, y una de las cosas que no estamos mirando son estas partículas desplazadas. Hay varios modelos teóricos que predicen este tipo de señales, por lo que es un poco como la gallina y el huevo: no sabes qué vino antes.
Puede que el hecho de que no hayamos encontrado nada haya provocado que desarrollemos modelos teóricos, o al revés. En cualquier caso, está claro que son señales que no estamos siendo capaces de detectar. Ahora creemos que somos capaces de identificarlas más o menos con una eficiencia del 20%. La limitación la impone el propio sistema.
Si la nueva física está en estas señales ahora mismo nos la estamos perdiendo. Estamos ciegos ante ella. Por esta razón nuestro propósito es intentar recuperarlas, si existen, de manera que las podamos ver. Si lo conseguimos se desencadenará una revolución en la física porque será necesario explicar de dónde vienen estas partículas y por qué aparecen.
Tendremos que elaborar nuevos modelos que sean capaces de acomodarlas e ir más allá del Modelo Estándar. Cabe la posibilidad de que nos ayuden a entender mejor la materia oscura. O de que nos expliquen por qué los neutrinos tienen masa. O por qué no hay antimateria en el universo.
No sabemos con certeza qué respuestas vamos a encontrar, pero está claro que si encontramos algo tan exótico como lo que estamos buscando obtendremos alguna respuesta. Sería el fin del Modelo Estándar. Habremos encontrado nueva física y tendremos que empezar a rascarnos las cabezas otra vez.
¿Hay algún otro ámbito más allá del reconocimiento de patrones en el que la inteligencia artificial puede marcar la diferencia en la investigación en física de partículas?
Por supuesto. Actualmente estamos utilizándola en todos los niveles. La usamos en problemas de clasificación, que es otro desafío clásico cuando estás analizando una gran cantidad de datos. Nosotros [los físicos del CERN] fuimos los que en su momento pusimos la palabra ‘big’ delante de ‘data’. Google nos ha adelantado por la derecha, pero en su momento nosotros éramos los grandes generadores y consumidores de datos.
Al final estamos ante la aguja en el pajar de la que hablabas tú antes. La estamos buscando muchas veces para encontrar patrones, y una vez que los hemos encontrado intentamos identificar qué procesos de física están involucrados.
Todo son procesos de fondo debido a que la mayor parte de lo que vemos es el fondo, que no es otra cosa que todo aquello que está contemplado por el Modelo Estándar y que, por tanto, ya hemos medido y entendemos con cierta precisión. Lo que queremos es buscar por encima de esta señal abrumadora descrita por el Modelo Estándar para encontrar procesos nuevos que se producen muy pocas veces y que pueden estar asociados a nueva física.
En este contexto lo que tenemos que hacer es un ejercicio de clasificación para separar el fondo de la señal, y la inteligencia artificial es la herramienta que utilizamos diariamente para clasificar todo tipo de cosas, desde procesos de física de señal de fondo hasta objetos, como electrones o muones. Incluso la usamos para optimizar nuestros algoritmos de reconstrucción.
¿Contemplas con optimismo la posibilidad de que esta nueva física tan ansiada llegue en un plazo de tiempo relativamente breve?
Sí, confío en ello. De lo contrario nuestro campo estaría absolutamente perdido. Verdaderamente pienso que el HL-LHC (LHC de alta luminosidad) nos va a orientar un poquito. Seguramente no será el momento de hacer un gran descubrimiento debido a que la energía que tendremos será todavía muy modesta, pero la cantidad de datos que vamos a ser capaces de tomar nos va a dar probablemente algo de información valiosa.
Algo con la capacidad de indicarnos cómo debe ser la siguiente máquina que tenemos que construir; si tenemos que irnos a un colisionador hadrónico a una cierta energía o si es preferible un colisionador de electrones más preciso. Espero que con el HL-LHC y con todo lo que vamos a desarrollar para entonces, que es muchísimo, podamos tener alguna evidencia que nos haga plantearnos una nueva física.
Todavía no tenemos la respuesta a dos preguntas fundamentales: cuál es la naturaleza de la materia oscura y cuál es el origen de la masa de los neutrinos. ¿Confías en que INTREPID pueda realizar aportaciones importantes en esta búsqueda en particular?
Sí, de hecho es el gran objetivo del proyecto. Todas las mejoras que desarrollemos van a ser previas a la puesta en funcionamiento del HL-LHC, y nuestro propósito es que estén listas para entrar en funcionamiento a la vez que el HL-LHC. Si se produce un descubrimiento la respuesta llegará después del proyecto porque su consecuencia será la semilla de esos resultados más que una consecuencia directa del propio proyecto.
El gran objetivo de INTREPID es recoger los datos que ahora nos estamos perdiendo. Puede que nos los estemos perdiendo porque no están ahí, pero también es posible que nos los estemos perdiendo porque no los estamos viendo.
El FCC es el candidato número 1 a suceder al LHC de alta luminosidad
¿Qué vendrá después del HL-LHC? Lo razonable después de incrementar la luminosidad del acelerador es aumentar el nivel de energía, ¿verdad?
Desde luego. Para nosotros esta es la clave. Si quieres seguir haciendo una máquina de descubrimientos tienes que irte a una energía más alta. Ya estamos teniendo conversaciones y diseñando estrategias para construir otro acelerador nuevo mucho más grande y capaz de llegar a energías mucho más altas. La duda que tenemos es si nos interesa que sea un acelerador de electrones o de protones.
Además hay varios proyectos de otro tipo de aceleradores, como colisionadores de muones o aceleradores lineales que también pueden ser interesantes. La comunidad científica está valorando qué vía tomar. Parece claro que el FCC (Futuro Colisionador Circular) es la máquina que queremos construir, pero si aparece algo en el HL-LHC todavía tenemos margen de maniobra para virar y tomar otra decisión.
¿Qué les dirías a las personas que creen que no merece la pena invertir el dinero de los contribuyentes en el CERN? ¿Por qué es importante apoyar la ciencia de vanguardia y el trabajo de los científicos que trabajáis en física de partículas?
En primer lugar porque creo que el conocimiento por el conocimiento es fundamental. Siempre ha habido algunas personas que nos hemos dedicado al conocimiento por el conocimiento. Pero además la investigación en ciencia básica entrega grandes avances tecnológicos a la sociedad. Si no hay personas haciendo ciencia básica esto no ocurre. Además, estos desarrollos tecnológicos llegan gratis a la sociedad porque no producen patentes.
En el CERN se han desarrollado, entre muchas otras innovaciones tecnológicas, la world wide web, la tecnología de aceleradores de partículas que se emplea actualmente para tratar el cáncer, los sistemas de crioterapia o criogenia que ya están llegando a la sociedad y la tecnología de levitación magnética empleada por algunos trenes de última generación.
Mi última pregunta es un poco más personal. Si tuvieses la oportunidad de encontrar únicamente la respuesta a una de las grandes preguntas de las que hemos hablado durante nuestra conversación ¿cuál sería esa pregunta? ¿Qué es lo que más te ilusiona y aquello a lo que más te gustaría contribuir?
La materia oscura. Me gustaría saber qué es la materia oscura. Sabemos que acapara el 25% del universo. Me parece algo salvaje que a pesar de nuestros esfuerzos tan solo conozcamos actualmente el 5% del universo, que es el porcentaje de materia ordinaria del cosmos.
Ser capaz de dar una respuesta a ese 25% del universo sería crucial, aunque todavía nos faltaría mucho más por conocer porque creemos que el 70% restante es energía oscura. Creo que esto sería apasionante. Llevamos trabajando en esta línea muchos años de diferentes maneras, pero siempre buscando la respuesta a esta pregunta tan apasionante.
Imágenes: CERN
En Xataka: El CERN tiene un plan para lograr un hito histórico: encontrar la materia oscura supersimétrica
Ver todos los comentarios en https://www.xataka.com
VER 7 Comentarios