Soluciones

La mochila con tecnología de inteligencia artificial de Intel

Ayuda a detectar los desafíos comunes como letreros de tráfico, obstáculos suspendidos, cruces peatonales, objetos en movimiento y elevaciones cambiantes, todo mientras se ejecuta en un dispositivo interactivo de bajo consumo de energía.

El desarrollador de inteligencia artificial (IA) Jagadish K. Mahendran y su equipo diseñaron una mochila con tecnología de inteligencia artificial, activada por voz, que puede ayudar a las personas que viven con alguna discapacidad visual a navegar y percibir el mundo que los rodea.  La mochila ayuda a detectar los desafíos comunes como letreros de tráfico, obstáculos suspendidos, cruces peatonales, objetos en movimiento y elevaciones cambiantes, todo mientras se ejecuta en un dispositivo interactivo de bajo consumo de energía.  

“El año pasado, cuando me reuní con un amigo que vive con una discapacidad visual, me impresionó enormemente la ironía de que mientras yo enseño a robots a ver, hay mucha gente que no puede ver y necesita ayuda. Esto me motivó a construir el sistema de asistencia visual con el kit de inteligencia artificial con profundidad (OAK-D) de OpenCV, impulsado por Intel.”

Intel: Esta mochila con Inteligencia Artificial ayuda a personas con  problemas de visión | RPP Noticias

Jagadish K. Mahendran, Instituto para la Inteligencia Artificial de la Universidad de Georgia 

Por qué es importante: La Organización Mundial de la Salud estima que, a nivel mundial, 285 M de personas viven con discapacidad visual. Por el momento, los sistemas de asistencia visual para navegación son bastante limitados y oscilan de aplicaciones de smartphones asistidas por voz, basadas en el Sistema de Posicionamiento Global (GPS), a soluciones de bastones inteligentes activados por cámara. Estos sistemas carecen de la percepción de profundidad necesaria para facilitar la navegación independiente.  

Hema Chamraj
Hema Chamraj

“Es increíble ver a un desarrollador tomar la tecnología de inteligencia artificial de Intel en  el edge y construir una solución para hacer que la vida de su amigo sea más fácil,” señaló Hema Chamraj, director de Promoción de Tecnología y de AI4Good en Intel. “La tecnología existe; solo estamos limitados por la imaginación de la comunidad de desarrolladores.”

Cómo funciona: El sistema está alojado dentro de una pequeña mochila que contiene una unidad de cómputo central, parecida a una computadora portátil. En un chaleco se encuentra oculta una cámara, y en una cangurera contiene una batería tamaño bolsillo, capaz de proporcionar aproximadamente ocho horas de uso. Se puede añadir una cámara de inteligencia artificial espacial Luxonis OAK-D al chaleco o la cangurera, y después conectarla a la unidad de cómputo de la mochila. Tres pequeños agujeros en el chaleco sirven como ventanas de visualización para la OAK-D, que está colocada en el interior del chaleco.

Brandon Gilles
Brandon Gilles

“En Luxonis tenemos la misión de permitir que los ingenieros construyan cosas que sean importantes y al mismo tiempo los ayuden a aprovechar rápidamente el poder de la tecnología de IA de Intel,” manifestó Brandon Gilles, fundador y director general de Luxonis. “Es increíblemente satisfactorio ver algo tan valioso y notable como la mochila alimentada con inteligencia artificial ser construido usando OAK-D, en tan poco tiempo.”

La unidad OAK-D es un dispositivo de inteligencia artificial versátil y poderoso que se ejecuta en la VPU Intel Movidius y el kit de herramientas Intel Distribution of OpenVINO para inferencia de inteligencia artificial de edge en chip. Tiene la capacidad de ejecutar redes neuronales avanzadas mientras proporciona funciones de visión por computador acelerada y un mapa de profundidad en tiempo real desde su par estereofónico, así como información de color desde una sola cámara 4k.

Una mochila con tecnología de inteligencia artificial de Intel que ayuda a  usuaarios con discapacidad visual - PortalGeek

Un auricular habilitado por Bluetooth permite que el usuario interactúe con el sistema a través de consultas y comandos de voz, y el sistema responde con información verbal. A medida que el usuario se desplaza en su entorno, el sistema transmite audiblemente información sobre los obstáculos comunes, que incluyen letreros, ramas de árboles y peatones. También advierte sobre cruces peatonales, banquetas, escaleras y vías de acceso próximos.  

Autor

[mdx-adserve-bstreet region="MED"]

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba