La aplicación de algoritmos de Machine Learning (“ML”) requiere la existencia de una gran cantidad de datos para desencadenar la toma de decisiones en varios procesos industriales.
En este sentido, la implementación de paradigmas tecnológicos novedosos, como IoT, posibilita la generación de diferentes tipos de estructuras de datos, tal y como se ha observado en trabajos centrados en Big Data Analytics.
En general, los datos tienen un ciclo de vida específico como: fuente, recopilación, almacenamiento, procesamiento, visualización, transmisión y aplicación.
Sin embargo, la mayoría de las veces, los datos recopilados que se procesarán en pasos posteriores se confunden con datos ruidosos generados en el entorno circundante, lo que dificulta la separación del conjunto de datos original del ruido.
Por otro lado, los entornos dinámicos que cambian rápidamente y los diferentes estados de funcionamiento de la máquina imponen desafíos importantes para la detección de fallas basada en ML.
En general, surge la necesidad de transmisión y computación en tiempo real confiables y precisos, mientras que los problemas de seguridad se vuelven cada vez más serios, debido al mayor nivel de interconexión entre los diferentes subsistemas.
Los algoritmos ML se pueden clasificar en algoritmos de aprendizaje supervisado, aprendizaje no supervisado, aprendizaje reforzado (RL) y aprendizaje profundo (DL).
Cada categoría se describe brevemente a continuación:
o El aprendizaje supervisado es un método en el que un experto inserta salidas conocidas para entradas específicas para entrenar el algoritmo y se usa ampliamente para clasificación y regresión. Por lo tanto, el ML supervisado generalmente se emplea en escenarios con disponibilidad de datos etiquetados. Los algoritmos populares incluyen redes neuronales artificiales (ANN) y máquinas de vectores de soporte (
o Aprendizaje no supervisado donde no se proporciona retroalimentación de nadie y el algoritmo encuentra patrones en conjuntos de datos desconocidos (agrupamiento, reglas de asociación, mapas autoorganizados) y, por lo tanto, los datos no etiquetados se utilizan con fines de capacitación. El algoritmo no supervisado más popular y conocido es el análisis de componentes principales (PCA), que se utiliza principalmente con fines de supervisión.
o El aprendizaje por refuerzo se refiere a la operación de AA no supervisada, que examina si una acción elegida resultó en una recompensa, para una métrica de desempeño específica. RL exige acciones secuenciales y prueba su resultado, seleccionando aquellas que se adaptan mejor al problema en cuestión. Por lo tanto, RL se aparta significativamente de otras categorías de aprendizaje que se basan en aprovechar los datos históricos, creando inteligencia a partir de decisiones y recompensas anteriores.
o Aprendizaje profundo donde se han empleado múltiples capas para construir una RNA, que es capaz de tomar decisiones inteligentes, manejando grandes cantidades de datos de alta complejidad, sin ninguna intervención humana. Algunos algoritmos de DL son redes neuronales convolucionales (CNN), máquina de Boltzmann restringida (RBM) y codificadores automáticos (AE).
Es evidente que a medida que nos acercamos a la era de la Industria 4.0, existe un nivel de adopción cada vez mayor de algoritmos ML para satisfacer las necesidades de diferentes aspectos de los entornos industriales. Estos incluyen monitoreo de procesos y control de calidad, detección y diagnóstico de fallas, así como monitoreo del estado de la máquina y mantenimiento predictivo. Además, las capacidades de ML, con respecto al procesamiento oportuno de una gran cantidad de datos, son fundamentales para salvaguardar la ciberseguridad de los entornos de fabricación interconectados habilitados para el Internet de las cosas industrial, detectando y mitigando las amenazas con precisión.