Simplemente conecte Ignition y AWS Greengrass para el aprendizaje automático
Cerrando las brechas entre TI y TO para el aprendizaje automático con Ignition y AWS Greengrass
Cerrar las brechas entre TI y TO ahora es más fácil utilizando las herramientas que ofrece Ignition Platform con el módulo de transmisión Cirrus Link MQTT y las ofertas de productos Greengrass de AWS. El software Ignition de Inductive Automation es la plataforma SCADA / HMI líder en la industria, que utiliza el módulo de transmisión MQTT para enviar datos de forma segura mediante MQTT. AWS Greengrass es el último entorno de modelado predictivo que se ejecuta en hardware de borde junto a la planta, lo que reduce significativamente el costo de enviar grandes cantidades de datos a la nube de forma continua para ejecutar algoritmos de aprendizaje automático. Estas herramientas permiten a los clientes aprovechar rápidamente el aprendizaje automático y el mantenimiento predictivo para impulsar la eficiencia operativa y aumentar las ganancias.
El diagrama anterior muestra lo fácil que es utilizar la plataforma de encendido y el módulo de transmisión MQTT para conectar los datos de TO al aprendizaje automático de TI. Se conecta con configuraciones simples a sistemas de encendido existentes, nuevos sistemas de encendido y a cualquier plataforma HMI / SCADA existente que proporcione una conexión OPC-UA / DA. Los datos de PLC, RTU, sensores o cualquier otro dispositivo IOT están disponibles de forma segura para el aprendizaje automático que no requiere código, lo que reduce enormemente el tiempo y el esfuerzo. Los datos se publican utilizando MQTT en el Greengrass Core de AWS en un formato MQTT Sparkplug JSON que incluye metadatos de descripción de etiquetas. Con MQTT, los datos de TO son 100% autodescubribles, incluidos todos los metadatos, como factores de escala, unidades de ingeniería y nombres de etiquetas adecuados, lo que ahorra miles de horas configurando etiquetas manualmente en varios sistemas. Los datos también incluyen información de marca de tiempo de cuándo se midió para un análisis preciso de series de tiempo.
Según el diagrama anterior, la conectividad se logra mediante el uso de Ignition o Ignition Edge en el núcleo de Greengrass. Un factor clave es que el núcleo de Greengrass puede ejecutarse en el mismo hardware Edge que Ignition o en un dispositivo Edge separado que proporciona algoritmos y modelos locales para análisis en tiempo real. Esto minimiza el tráfico de datos que va a la nube y reduce los costos al tiempo que aumenta los tiempos de respuesta del sistema. AWS Greengrass es un software que le permite ejecutar capacidades locales de computación, mensajería, almacenamiento en caché de datos y sincronización para dispositivos conectados de forma segura. Con AWS Greengrass, los dispositivos conectados pueden ejecutar funciones de AWS Lambda, mantener los datos del dispositivo sincronizados y comunicarse con otros dispositivos de forma segura, incluso cuando no están conectados a Internet.
Ahora, con la capacidad de inferencia de aprendizaje automático (ML) de Greengrass, también puede realizar fácilmente inferencias de aprendizaje automático localmente en dispositivos conectados. El aprendizaje automático funciona mediante el uso de potentes algoritmos para descubrir patrones en los datos y construir modelos matemáticos complejos utilizando estos patrones. Una vez que se crea el modelo, realiza la inferencia aplicando nuevos datos al modelo entrenado para hacer predicciones para su aplicación. La creación y el entrenamiento de modelos de aprendizaje automático requieren recursos informáticos masivos, por lo que es un ajuste natural para la nube. Sin embargo, la inferencia requiere mucha menos potencia de cálculo y, por lo general, se realiza en tiempo real cuando hay nuevos datos disponibles, por lo que obtener resultados de inferencia con una latencia muy baja es importante para asegurarse de que sus aplicaciones puedan responder rápidamente a los eventos locales.
La inferencia de AWS Greengrass ML le ofrece lo mejor de ambos mundos. Utiliza modelos de aprendizaje automático que se crean y entrena en la nube e implementa y ejecuta la inferencia de aprendizaje automático de forma local en los dispositivos conectados. Por ejemplo, puede crear un modelo predictivo en la nube sobre las cabezas de diamante de los equipos de perforación y luego ejecutarlo bajo tierra donde no haya conectividad en la nube para predecir el desgaste y el uso del diamante.
Uso de Amazon SageMaker con Greengrass
Amazon SageMaker es un servicio de aprendizaje automático de un extremo a otro totalmente administrado que permite a los científicos de datos, desarrolladores y expertos en aprendizaje automático crear, capacitar y alojar rápidamente modelos de aprendizaje automático a escala. Esto acelera drásticamente todos sus esfuerzos de aprendizaje automático y le permite agregar el aprendizaje automático a sus aplicaciones de producción rápidamente. El siguiente diagrama muestra la arquitectura de un extremo a otro de la solución cuando se utiliza Amazon SageMaker.
Hay 3 componentes principales de Amazon SageMaker:
Creación: IDE de portátiles Jupyter alojados sin configuración para la exploración, limpieza y preprocesamiento de datos. Puede ejecutarlos en tipos de instancias generales o instancias con tecnología de GPU.
Model Training: Servicio distribuido de creación, formación y validación de modelos. Puede utilizar marcos y algoritmos de aprendizaje supervisados y no supervisados comunes integrados o crear su propio entrenamiento con contenedores Docker. La capacitación se puede escalar a decenas de instancias para admitir una construcción de modelos más rápida. Los datos de entrenamiento se leen desde S3 y los artefactos del modelo se colocan en S3. Los artefactos del modelo son los parámetros del modelo que dependen de los datos, no el código que le permite hacer inferencias a partir de su modelo. Esta separación de preocupaciones facilita la implementación de modelos entrenados por Amazon SageMaker en otras plataformas como el dispositivo IoT.
Alojamiento de modelos: Un servicio de alojamiento de modelos con extremos HTTP para invocar sus modelos y obtener inferencias en tiempo real. Estos puntos finales se pueden escalar para admitir el tráfico y le permiten realizar pruebas A / B de varios modelos simultáneamente. Nuevamente, puede construir estos puntos finales usando el SDK integrado o proporcionar sus propias configuraciones con imágenes de Docker.
Cada uno de estos componentes se puede utilizar de forma aislada, lo que facilita la adopción de Amazon SageMaker para llenar los vacíos en sus canalizaciones existentes. Dicho esto, hay algunas cosas poderosas que se habilitan cuando usa el servicio de un extremo a otro. El siguiente diagrama muestra el proceso de modelado con SageMaker.
Beneficios
- Cierra la brecha entre TI y TO
Con las herramientas que ofrecen Ignition y MQTT Transmission, puede configurar y publicar datos rápidamente en AWS Greengrass para cerrar la brecha entre TI y TO, ya sea en un centro de control o en Edge. No se necesita ningún código para escribir para obtener acceso a los datos. Los datos se envían de forma segura y no se solicitan a TI. Esto elimina la necesidad de abrir puertos TCP / IP para TI y proporciona un proceso seguro para pasar de la zona DMZ de la capa 3 a la capa 4 del modelo ISA 95 Purdue.
- Ejecute fácilmente ML Inference en dispositivos conectados
Realizar inferencias localmente en dispositivos conectados reduce la latencia y el costo de enviar datos del dispositivo a la nube para hacer una predicción. En lugar de enviar todos los datos a la nube para la inferencia de ML, la inferencia de ML se realiza directamente en los dispositivos y los datos se envían a la nube solo cuando requiere más procesamiento.
- Flexible
Puede elegir un modelo de aprendizaje automático para cada uno de sus dispositivos conectados creados y entrenados con el servicio Amazon SageMaker o almacenados en Amazon EC2. AWS Greengrass ML Inference funciona con Apache MXNet, TensorFlow, Caffe2 y CNTK. Para los dispositivos NVIDIA Jetson, Intel Apollo Lake y Raspberry Pi, AWS Greengrass ML Inference incluye un paquete Apache MXNet prediseñado, por lo que no tiene que crear o configurar el marco de ML para su dispositivo desde cero.
- Transfiera modelos a su dispositivo conectado con unos pocos clics
AWS Greengrass ML Inference facilita la transferencia de su modelo de aprendizaje automático desde la nube a sus dispositivos con solo unos pocos clics en la consola de Greengrass. Desde la consola de Greengrass, puede seleccionar el modelo de aprendizaje automático deseado junto con el código AWS Lambda y luego se implementará y ejecutará en los dispositivos conectados.
Referencias:
- Sitio web de Amazon: https://aws.amazon.com/sagemaker/
- Entrada de blog - Amazon SageMaker - Acelerando el aprendizaje automático por Randall Hunt - 20 de noviembre de 2017 - https://aws.amazon.com/blogs/aws/sagemaker/
- Sitio web de Amazon: https://aws.amazon.com/greengrass/ml/
Publicado en español el 23 de Agosto del 2021.
Fuente original: