¿Quiere integrar la inteligencia artificial (IA) en el diseño de su próximo producto? ¿Y el aprendizaje automático (ML) y el aprendizaje profundo (DL)? Puede empezar por conocer las diferencias entre estos tres conceptos y el funcionamiento de cada modelo, así como las soluciones disponibles en la actualidad para poder integrar rápidamente estas tecnologías en sus diseños.

Por favor, tómese un momento para rellenar el siguiente formulario y obtener acceso instantáneo a este seminario web grabado.
 portada

Webinar grabado

AI at the Edge: Machine Learning in Embedded Systems

Oct 07, 2021 | Duración: 39:05

¿Quiere integrar la inteligencia artificial (IA) en el diseño de su próximo producto? ¿Y el aprendizaje automático (ML) y el aprendizaje profundo (DL)? Puede empezar por conocer las diferencias entre estos tres conceptos y el funcionamiento de cada modelo, así como las soluciones disponibles en la actualidad para poder integrar rápidamente estas tecnologías en sus diseños.

Tanto si está empezando a conocer estas potentes tecnologías como si está planificando un proyecto específico, este seminario web grabado acelerará su viaje hacia la IA, el ML y la DL. También aprenderá cómo las soluciones de desarrollo integradas de Digi (el ecosistema Digi XBee® y el sistema integrado en plataforma modular Digi ConnectCore®) pueden ayudarle a alcanzar sus objetivos.

Conectar con Digi

¿Quiere saber más sobre cómo puede ayudarle Digi? He aquí algunos pasos a seguir:

Preguntas y respuestas del seminario web de seguimiento

Gracias de nuevo por asistir a nuestra sesión sobre AI at the Edge: Machine Learning in Embedded Systems. Aquí están las preguntas que siguieron a la presentación y sus respuestas. Si tiene más preguntas, no dude en ponerse en contacto con nosotros.

¿Qué recursos adicionales, procesador, memoria, etc., se necesitan para implantar el aprendizaje automático en un sistema integrado?

Realmente depende. Las aplicaciones del aprendizaje automático abarcan todo un espectro. Como hemos visto, hay aplicaciones más sencillas, como el ejemplo de monitorizar unos cuantos sensores para detectar cambios en los patrones de vibración como caso de uso para servicios de mantenimiento predictivo de esa máquina de construcción. Para este caso de uso, un microcontrolador pequeño con muy poca memoria puede ser suficiente. Y hay aplicaciones de gama alta, como la detección de objetos en secuencias de vídeo de alta resolución, que obviamente necesitan mucha potencia de cálculo y ancho de banda de memoria para barajar los datos.

Hoy en día, muchas aplicaciones de aprendizaje automático tienen su origen en el desarrollo en la nube, donde se dispone de muchos recursos informáticos. Los desarrolladores no se preocupan por los recursos informáticos, lo que contrasta mucho con los dispositivos integrados. Y ahora, con el objetivo o el deseo de trasladar esa funcionalidad a la periferia, donde no se dispone de todo ese rendimiento informático, la tarea se complica. Con el aprendizaje automático en el perímetro, hay que prestar más atención al uso del modelo y a las optimizaciones para dispositivos integrados con recursos limitados.

Y hay proveedores como nuestro socio Au-Zone, que también hemos visto en la demostración, que son expertos en esto y proporcionan un motor de inferencia integrado y herramientas de optimización de modelos para prepararlo para funcionar en estos dispositivos integrados limitados con poca memoria y tiempos de inferencia rápidos incluso cuando hay pocos recursos informáticos disponibles.

Y hemos visto el ejemplo del reconocimiento de voz. Sólo para destacar de nuevo, vamos a proporcionar una solución de este tipo con nuestra oferta de soluciones ConnectCore SoM, y que está optimizado para dispositivos integrados. Así que no hace falta una unidad de procesamiento de red neuronal de lujo, que también es costosa. Puedes ejecutar esa aplicación de reconocimiento de voz con miles de palabras y vocabulario en un solo núcleo Cortex-A con menos del 50% de carga, mientras que podrías necesitar una NPU si haces lo mismo con un marco de aprendizaje automático de código abierto no optimizado.

¿Es posible el aprendizaje profundo para datos de texto como el tratamiento de la poesía para identificar diferentes géneros?

Es ciertamente posible procesar texto y hacer clasificación de elementos de texto. Eso es posible con el aprendizaje automático. Y hay un montón de casos de uso para que, por ejemplo, sus filtros de spam de procesamiento de texto y mensajes de correo electrónico y la clasificación de spam o no spam. No es exactamente poesía en esos correos electrónicos, pero está relacionado, supongo.

¿Cómo afectan a la seguridad la inteligencia artificial y el aprendizaje automático en un dispositivo?

Existen amenazas de seguridad dirigidas a las aplicaciones de aprendizaje automático, si esa es la cuestión. Por ejemplo, los atacantes tratan de modificar las entradas en el modelo de aprendizaje automático con una determinada técnica para engañar al modelo de manera que clasifique erróneamente un objeto, por ejemplo, o incluso una señal de tráfico en una aplicación de tráfico. Y entonces también daría, con las manipulaciones adecuadas, un alto factor de confianza para estos y esto ciertamente es un problema de seguridad y también un problema de seguridad.

Un ataque de este tipo se denominaría ataque de ejemplo adversarial y existen métodos para endurecer el modelo contra este tipo de ataques, que pueden aplicarse durante el entrenamiento y el desarrollo del modelo. Y otros problemas de seguridad con el aprendizaje automático incluyen el robo de modelos o los ataques a la versión del modelo. Digi ofrece las contramedidas disponibles de NXP y las herramientas de aprendizaje automático eIQ para abordar algunos de estos problemas de seguridad específicos del aprendizaje automático.

Pero también es importante la seguridad general del sistema y es necesario activar otras funciones de seguridad como el arranque seguro, el sistema de archivos cifrado, los puertos protegidos y la detección de manipulaciones. El marco de seguridad que ofrecemos como parte de ConnectCore, Digi TrustFence, es un marco de seguridad completo disponible en Digi ConnectCore SoM. Y todas las funciones que acabo de mencionar están totalmente integradas en el cargador de arranque, el kernel, el sistema de archivos raíz, listas para usar sin necesidad de convertirse en un experto en seguridad o pasar muchas semanas para habilitarlas. Funcionan en todas las capas de hardware y software.

¿Se grabará la presentación para poder verla más tarde?

Por supuesto. La grabación estará disponible para su reproducción posterior en la plataforma BrightTALK aquí. También publicaremos el enlace en www.digi.com, nuestro sitio web. En la sección de recursos, verá una sección de seminarios web. Aquí es donde publicamos todos los seminarios web para su posterior visionado.

¿Cómo se valida la precisión del modelo de aprendizaje automático?

Eso se hace durante la fase de entrenamiento. Normalmente se dispone de un gran conjunto de datos para entrenar el modelo. Y luego, se reservan diferentes datos para hacer las pruebas reales y verificar la exactitud del modelo. Y una vez que estás satisfecho con la precisión, ya está. Pero si no estás satisfecho con la precisión, necesitas más datos de entrenamiento, los introduces en un modelo, lo entrenas más y vuelves a probarlo con datos diferentes y repites el proceso hasta que estés satisfecho con la precisión. En pocas palabras.

Hay otra pregunta sobre ejemplos disponibles para aprender muchos canales de señales de baja velocidad.

No estoy seguro de haber entendido bien la pregunta. Pero hay dos maneras. Puedes construir un modelo desde cero y hacerlo todo por tu cuenta, y necesitas montones y montones de datos. Pero normalmente, se utiliza un modelo preentrenado y luego se aplica algo llamado aprendizaje por transferencia. Existen modelos preentrenados para el reconocimiento de imágenes, de voz, de texto y para muchas otras cosas, y hay que encontrar un caso de uso o un modelo que lo cubra. Y luego aplicar el aprendizaje de transferencia para ajustar o modificar ese modelo de manera que realmente sirva para tu caso de uso exacto.

¿Cómo se ha medido la latencia de la wake word en el núcleo Cortex-M? ¿Es posible configurar una wake word? ¿Requiere aprendizaje adicional?

Así que, en ese escenario, la palabra de despertador se puede configurar. Puedes definir tus propias palabras y aprenderlas en ese modelo. Así que en realidad pondría su entrada en términos de lo que los comandos que desea aprender y luego grabar eso, y aplicar diferentes hablando, y luego el motor reconocería esas palabras. Y también transferir el modelo para hacerlo funcionar en el dispositivo integrado para el núcleo Cortex-M y optimizarlo para que funcione eficientemente en ese motor. La latencia de esa palabra de despertador no era terriblemente importante, diría yo. Quiero decir, se trata de humanos interactuando con la máquina. Así que si eso está tomando unos milisegundos más, eso no es realmente un problema. Así que no era necesario ser un verdadero baja latencia. Pero aún así, para ser ágil en términos de personas que lo utilizan. Pero la latencia no era terriblemente importante. Y estaba por debajo de un segundo por lo que era perfecto para encender la máquina.

¿Tiene algún ejemplo de uso de FPGA para el aprendizaje automático en el ámbito de los sistemas integrados? ¿En qué se diferencian en términos de requisitos y rendimiento?

Lo siento, no puedo responder a esa pregunta. No tengo experiencia con FPGAs. Estoy seguro de que se puede utilizar para imitar un motor de procesamiento de red neuronal. Estoy seguro de que hay alguna IP por ahí para ejecutar esa funcionalidad en una FPGA. Pero tienes todos esos núcleos disponibles. Y los SoCs embebidos de hoy, sistema en chips, a menudo tienes una GPU que no estás usando. Tienes múltiples núcleos Cortex-A. A menudo tienes un núcleo Cortex-M separado. Así que con estos SoCs altamente integrados, tienes un montón de núcleos y un montón de opciones en esos SoCs. Usar una FPGA externa solo añadiría costes y complejidad de diseño. Pero si es necesario, estoy seguro de que hay opciones para ejecutar aceleradores de redes neuronales en una FPGA.

Vea nuestro vídeo sobre diseño integrado
Aprenda a afrontar correctamente los retos del diseño integrado

Contenido relacionado

IoT y la cadena de suministro: cómo el aprendizaje automático alivia los cuellos de botella IoT y la cadena de suministro: cómo el aprendizaje automático alivia los cuellos de botella IoT y la cadena de suministro van hoy de la mano, y de hecho el seguimiento logístico es uno de los... LEER EL BLOG ¿Cómo se desarrolla y crece la infraestructura de los vehículos eléctricos en Estados Unidos? ¿Cómo se desarrolla y crece la infraestructura de los vehículos eléctricos en Estados Unidos? En Estados Unidos, las iniciativas públicas han servido para impulsar los esfuerzos de sostenibilidad, incluida la construcción de ciudades sostenibles. Pero el futuro... LEER EL BLOG Digi Embedded Android y Android Extension Tools Digi Embedded Android y Android Extension Tools En la actualidad, muchos desarrolladores de sistemas embebidos eligen el sistema operativo Android para el desarrollo de aplicaciones tanto... VER VÍDEO Técnicas de gestión de la energía en sistemas empotrados Técnicas de gestión de la energía en sistemas empotrados La utilización de técnicas clave de gestión de la energía en sus diseños de sistemas embebidos puede tener enormes beneficios, desde la duración de la batería... LEER EL BLOG Digi ConnectCore 8M Nano Development Kit Desembalaje y puesta en marcha Digi ConnectCore 8M Nano Development Kit Desembalaje y puesta en marcha El módulo de sistema Digi ConnectCore® 8M Nano es una excelente plataforma de desarrollo para la creación rápida de prototipos de productos integrados ... VER VÍDEO Digi ConnectCore 8M Mini Digi ConnectCore 8M Mini Sistema en módulo integrado basado en el procesador NXP i.MX 8M Mini con unidad de procesamiento de vídeo (VPU) incorporada; diseñado para la longevidad y la escalabilidad en aplicaciones industriales IoT . VER PRODUCTO Digi ConnectCore Soluciones SOM Digi ConnectCore Soluciones SOM Módulos de sistema integrado basados exclusivamente en los procesadores de aplicaciones NXP i.MX, diseñados para una mayor duración y escalabilidad, en aplicaciones industriales IoT VER PDF Demostración de aprendizaje automático con Digi ConnectCore y ByteSnap SnapUI Demostración de aprendizaje automático con Digi ConnectCore y ByteSnap SnapUI Digi International y ByteSnap Design han colaborado en el desarrollo de una interesante y entretenida demo con un juego de piratas... VER VÍDEO Digi XBee Ecosistema | Todo lo que necesita para explorar y crear conectividad inalámbrica Digi XBee Ecosistema | Todo lo que necesita para explorar y crear conectividad inalámbrica El ecosistema completo de Digi XBee incluye módulos de rf, bibliotecas de código y el galardonado conjunto de herramientas, Digi XBee Tools. VER PRODUCTOS Simplifique y acelere su desarrollo con los SOM basados en Digi ConnectCore i.MX Simplifique y acelere su desarrollo con los SOM basados en Digi ConnectCore i.MX Desarrollar un producto en IoT es todo un reto y, por ello, un gran porcentaje de los proyectos de diseño embebido fracasan debido... SEMINARIO WEB GRABADO Digi ConnectCore 8M Nano: Recursos para desarrolladores, seguridad y escalabilidad Digi ConnectCore 8M Nano: Recursos para desarrolladores, seguridad y escalabilidad Digi International ha anunciado recientemente la disponibilidad del kit de desarrollo Digi ConnectCore 8M Nano. El Digi ConnectCore® 8M... LEER EL BLOG Digi ConnectCore 8M Nano Digi ConnectCore 8M Nano Sistema en módulo integrado basado en el procesador NXP i.MX 8M Nano; diseñado para la longevidad y la escalabilidad en aplicaciones industriales IoT VER PRODUCTO Construir o comprar: Navegando por la elección Construir o comprar: Navegando por la elección En este libro blanco, le ayudamos a evaluar la mejor manera de optimizar su IP y a tomar la decisión correcta de construir o comprar para alcanzar sus objetivos. VER PDF

¿Tiene alguna pregunta? Póngase en contacto con un miembro del equipo de Digi hoy mismo.