El pasado jueves 11 de abril tuvo lugar en Barcelona el Congreso de Advanced Factories que se ha consolidado como uno de los pocos eventos generalistas que ha sobrevivido al hype del Industry 4.0 de hace ya algunos años y del que, parece que todavía algunos no han descubierto que ponerle números correlativos (5.0, etcétera) no va a hacer que su producto o servicio aporte más valor.
En su octava edición, Advanced Factories ha congregado a más de 27,000 directivos y profesionales ansiosos por explorar las últimas innovaciones en automatización, robótica industrial, inteligencia artificial y más, presentadas por más de 500 expositores.
Durante el congreso, nuestro Managing Director y socio fundador, Alejandro Alija participó en calidad de Beckhoff Solution Provider en el Industry 4.0 Congress como unos de los principales ponentes en una interesante mesa redonda organizada por Automática e Instrumentación. En la mesa redonda estuvo acompañado por otros líderes del sector como Sergio Hernandez de AG SOLUTION GROUP, Albert Forgas de Becolve Digital y Diego Jiménez de IGUS España, y contó con David Marco Freire de BeDisruptive como moderador. Muchas gracias desde aquí por cierto a Roberto Iraola, Branch Manager y Xavi Martos, Director General de Beckhoff España respectivamente por la invitación.
Alejandro tuvo la oportunidad de compartir su visión y experiencia sobre los desafíos y oportunidades que ofrece actualmente la digitalización en la industria y también abordó temas críticos para el futuro del sector, incluida la extracción de valor de los datos de producción y la implementación efectiva de modelos analíticos avanzados.
En el debate Alejandro destacó que, aunque las empresas tienen claros sus objetivos comerciales, a menudo carecen de la comprensión necesaria sobre cómo abordar proyectos de tecnología y datos resaltando la importancia de establecer una visión estratégica a medio plazo, liderada por la dirección de la empresa, para garantizar el éxito en la implementación de soluciones digitales.
La conversación también giró en torno a las arquitecturas y servicios recomendados para la utilización de modelos analíticos avanzados en el sector manufacturero. Aquí, Alejandro abogó por un enfoque híbrido que combine la potencia del procesamiento en la nube con la capacidad de ejecución en el borde (Edge). Destacó la importancia de adoptar tecnologías que permitan la integración fluida entre el mundo físico de la producción y el entorno digital.
Aquí tenéis un resumen de los principales «highlights» de su intervención:
Moderador: ¿Están las compañías manufactureras preparadas para extraer valor de los datos de producción?
Alejandro: «No. Las compañías saben lo que quieren desde una perspectiva de negocio pero dada la complejidad del ecosistema, no saben cómo abordar los proyectos. En un proyecto de datos, como casi en cualquiera, hay que tener claros ciertos indicadores de partida: ¿Qué tienes en campo? ¿Cual es tu inventario de equipos, sistemas y repositorios de datos?
La dificultad también radica en diseñar y ejecutar proyectos habilitadores previos a los casos de uso. Los enablers siempre son difíciles de vender, pero son necesarios. De ahí que la visión estratégica de medio plazo fijada por la dirección de la compañía sea vital.»
¿Cuáles son los casos de uso más habituales?
Alejandro, en un tono incisivo y desafiante discrepó en este punto de la tónica general al comentar que hablar de casos de uso generalistas no sirve para nada. «Hablar de eficiencia energética o mantenimiento predictivo de forma general no o aporta muy poco. Eso son dominios generales. Lo que aporta valor son las descripciones de los casos de uso con nombre y apellido».
¿Cómo se llevan a producción los modelos analíticos? ¿Se informa al operador? ¿Se modifican consignas o parámetros en el propio sistema de control?
En palabras de Alejandro: “Efectivamente, construir modelos y operacionalizar modelos son dos disciplinas diferentes, altamente relacionadas, pero diferentes. Y creo que es un error que han cometido muchas compañías. Pensar que fichar y construir un equipo de Data Scientists es todo lo que tienes que hacer para implementar analítica avanzada en la organización es un error. Nosotros llamamos a esto «el síndrome del experimento» o un poco más macarra «el virus de las PoCs». No hay ningún concepto que probar para determinadas tecnologías y prácticas que son maduras ya en el mercado. Lo que hay que validar es que primero, eres capaz de implementarlas en producción en tu organización, y segundo que aportan o retornan u optimizan lo que esperabas.
Sobre la segunda parte de la pregunta contestó «en el momento en el que eres maduro para tener el modelo en producción enganchado en el workflow de datos y servicios productivo, tienes mucha flexibilidad. El sentido común y así lo hemos visto en algunos de nuestros clientes es que, en procesos críticos comenzamos generando una alerta/notificación al operador y una vez refinado el proceso y entrenado el operador, pasamos a maniobrar en automático sobre el sistema de control, el CDS, o lo que toque dependiendo de la industria.
No es un proceso muy diferente al que hemos vivido con los coches, el control de crucero sin ir más lejos, en los comienzos era un automatismo on/off en el que el operador, el conductor activa y desactiva, para convertirse en nuestros días en un sistema integrado con los ADAS y el resto de los sistemas del coche para maniobrar por completo en base al estado de la carretera.»
¿Cómo son las arquitecturas y servicios más recomendables para la utilización de modelos analíticos avanzados en el sector manufacturero? ¿Soluciones en el Edge, en nube, híbridas?
«Por su puesto, estamos convencidos de que este mundo es híbrido y complejo por definición. Es innegable que los procesos de fabricación ocurren pegados a los activos y eso ya define en sí mismo un terreno de juego que es lo que llamamos el Edge. Pero al mismo tiempo, el concepto de Edge solo tiene sentido si hay un Cloud (el héroe o el vilano o la partícula y la antipartícula). Yo creo que el cloud nos ha aportado lecciones y prácticas maravillosas y supereficientes para fabricar SW. creo que la aproximación adecuada es coger esas lecciones, prácticas y tecnologías cloud y llevarlas al Edge. Pongo un ejemplo: en el Cloud, gracias a la progresiva homogenización de las tecnologías, sabemos perfectamente hacer releases de software de una forma integrada, automática, auditada, etc. En el mundo de la manufactura, pegada al activo en el entorno de los PLCs y los controladores locales…¿Quién sabe hacer release management de SW a la moderna? ¿Qué es una pipeline de CI/CD en un entorno de tiempo real?
Nosotros aquí, precisamente por esto, desde el principio, hemos apostado por Beckhoff como uno de nuestros fabricantes de referencia. ¿Por qué? Beckhoff fabrica equipos de control de tiempo real pero basados en una arquitectura de PC. Esto permite, por ejemplo, ejecutar SW contenerizado (microservicios) a la vez que las cargas deterministas de tiempo real.
En definitiva, es muy importante que pensemos que nuestros dispositivos Edge van a tener que soportar ejecuciones de SW a diferentes niveles, desde el nivel firmware que será el más crítico y menos extensible hasta el SW moderno basado en arquitectura de microservicios que se ejecuta en el Edge, pero a todos los efectos estará gobernado desde el cloud.»