¿Cómo?
En este proyecto hemos utilizado para el análisis de datos y la predicción del comportamiento de la línea de fabricación. En una primera fase trabajamos con datos históricos (elaboración del modelo teórico) para, en una segunda fase, explotar datos reales y realizar predicciones al ritmo que exigía la línea de fabricación.
En primer lugar hemos analizado un conjunto de unos 60.000 registros correspondientes a unas 70 variables diferentes (pesos, presiones, velocidades, niveles, alturas…) recogidos a lo largo de una semana. Con estos datos históricos, determinamos cuales eran las variables que, en la fase de fabricación objeto de estudio, resultaban más determinantes en la calidad del producto final. Para ello fue necesario aplicar un conjunto de tecnologías de Big Data que ordenasen, clasificasen, limpiasen y cualificasen los datos. Posteriormente se calculó la función de transferencia que describe, a lo largo del tiempo, el comportamiento del proceso.
Una vez obtenido este valioso y nuevo conocimiento, ya sabíamos cómo se habían hecho las cosas, cual había sido el resultado y qué factores y en qué medida habían intervenido en el mismo. Podíamos, pues, empezar a determinar los criterios de mejora.
Como paso final, hemos creado un cuadro de mando que en tiempo real ofrece toda esta información. A continuación, tras un intenso trabajo de prueba y selección de la combinación de algoritmos más eficaces, aplicando tecnología de Machine Learning, introdujo en este cuadro de mando los gráficos descriptivos de su predicción, indicando en que medida debía ser ajustada una determinada variable, identificada como crítica, para la obtención de un resultado muy cercano al 100% de fiabilidad respecto al previamente definido.