11
Sep

Física de partículas, Big Data y transferencia de conocimiento

 

física de partículas

La física de partículas ha sido desde mediados del siglo XX una de las puntas de lanza en la investigación fundamental. La caracterización de las distintas partículas y sus interacciones nos ha permitido avanzar en la comprensión de los componentes fundamentales de la materia y del Universo primitivo. Para tener acceso a este mundo microscópico, a lo largo de los años se han construido diferentes aceleradores de partículas, cada vez más potentes, capaces de hacer colisionar partículas a alta energía. A su vez, para analizar los productos de las colisiones, detectores de partículas registran cada una de las colisiones y seleccionan aquellas de mayor interés.

Hoy en día, el LHC (del inglés, Large Hadron Collider) es el mayor acelerador del mundo. Situado en el laboratorio europeo de física nuclear, CERN, en la frontera entre Francia y Suiza, el LHC produce 600 millones de colisiones por segundo. La cantidad de datos producidos no puede ser almacenado en tiempo real, por lo que es necesario filtrarlos para su posterior procesado y análisis.

Durante décadas, investigadores en física experimental de partículas han trabajado con grandes cantidades de datos, procesándolos en granjas de computación, lo que hoy en día conocemos como Big Data. El análisis de estos datos se utiliza fundamentalmente para medir propiedades de partículas conocidas o para la búsqueda de nuevas partículas, y requiere del tratamiento de múltiples variables al mismo tiempo. Esta tarea se realiza, en muchos casos, utilizando algoritmos automáticos que aprenden de los datos (machine learning). Ejemplos de machine learning son las redes neuronales o los árboles de decisión. Estas técnicas de análisis han sido fundamentales, por ejemplo, para el descubrimiento del bosón de Higgs en 2012 por parte de los experimentos Atlas y CMS en el LHC.

Equipos interdisciplinares

En los últimos años hemos visto cómo la adquisición de datos y su posterior análisis se ha convertido en pieza fundamental de las empresas tecnológicas. Poco a poco se ha ido introduciendo también en nuestra vida diaria a través de teléfonos móviles, cuando realizamos compras en plataformas online, o en redes sociales.

Pero su uso no es patrimonio exclusivo de las empresas tecnológicas, es una tecnología madura que puede ayudar a optimizar cualquier proceso industrial. En este camino de inclusión de la inteligencia artificial en los modelos productivos, las empresas que trabajan con equipos interdisciplinares tienen un valor añadido. Profesionales de distintos ámbitos, como puede ser la física de partículas, añaden experiencia internacional y aseguran una visión amplia para resolver los problemas específicos de cada industria.

Esta es la filosofía de Artabro Tech, una empresa que apuesta por la transferencia de conocimiento, incorporando profesionales de la investigación para garantizar la flexibilidad y solidez de cada proyecto.

 

Ártabro Tech es una empresa de base tecnológica cuyas capacidades se focalizan en el diseño de soluciones para la Industria 4.0. La firma ha desarrollado una innovadora herramienta, Legato, para la implementación de software que integre Big Data, Machine Learning, Visión Artificial e Internet de las Cosas, ofreciendo así desarrollos a medida del cliente en el mínimo tiempo y con la máxima eficiencia.