Saltar al contenido principalSaltar al pie de página

Robótica / Inteligencia Artificial

Perro robótico con IA: visión y memoria humanas para misiones de rescate

Un modelo multimodal permite al robot ver, recordar y responder como un rescatista en zonas de desastre

De la misma forma que los humanos, el robot utiliza comportamientos reactivos y deliberativos y una toma de decisiones reflexiva en situaciones de emergencia.

De la misma forma que los humanos, el robot utiliza comportamientos reactivos y deliberativos y una toma de decisiones reflexiva en situaciones de emergencia. / Crédito: Logan Jinks/Texas A&M Engineering.

Pablo Javier Piacente / T21

Pensado para navegar con precisión en zonas de desastre, el robot controlado por IA podría revolucionar las misiones de búsqueda y rescate, junto a otras operaciones de emergencia.

Un equipo de especialistas de la Universidad Texas A&M, en Estados Unidos, presentó un perro robótico impulsado por Inteligencia Artificial (IA) que “ve, recuerda y piensa” con capacidades de navegación y respuesta similares a las humanas, en entornos caóticos como zonas de desastre.

El prototipo combina cámaras, control híbrido y un modelo de lenguaje multimodal con memoria visual para planificar rutas, evitar obstáculos y responder a comandos de voz, una serie de características que lo hacen especialmente útil para misiones de búsqueda y rescate.

De acuerdo a una nota de prensa, la plataforma se basa en un robot terrestre equipado con un sistema de navegación basado en memoria e impulsado por un MLLM o modelo de lenguaje multimodal, capaz de interpretar entradas visuales y generar decisiones de enrutamiento y planificación con alta eficiencia.

Memoria visual y un sistema de navegación inteligente

La arquitectura informática integra comportamientos reactivos para evitar colisiones, y deliberativos para trazar rutas precisas reutilizando trayectos ya explorados. En la práctica, el equipo adaptó un robot Unitree GO1 con cámara y desarrolló una infraestructura ROS2, que posibilita capturar imágenes del entorno, almacenarlas en una memoria visual y consultarlas cuando el robot necesita volver a un punto o reconocer un objeto.

Los experimentos muestran que la navegación basada en memoria reduce la exploración repetida y mejora la capacidad de retrasar rutas en espacios no mapeados o sin GPS. La investigación fue presentada en la 22ª Conferencia Internacional sobre Robots Ubicuos, donde el equipo demostró el comportamiento del perro robótico en escenarios controlados.

Referencia

A Walk to Remember: Mllm Memory-Driven Visual Navigation. Sandun S. Vitharana et al. 22nd International Conference on Ubiquitous Robots (UR) (2025). DOI:https://doi.org/10.1109/UR65550.2025.11078086

Una mejor cooperación humano-máquina

Los autores destacan que desplegar la lógica del MLLM permite al robot tener "consciencia situacional inmediata" y una interacción más natural con los rescatistas mediante comandos de voz, entre otras ventajas. Además de las situaciones de rescate, los responsables del proyecto imaginan aplicaciones en hospitales, almacenes, apoyo a personas con discapacidad visual, e incluso labores de reconocimiento en zonas peligrosas.

Los desarrolladores creen que el sistema debe convertirse en un “compañero empático” y no solo ser una herramienta, simplificando así la cooperación humano-máquina en momentos críticos. Los desafíos más importantes incluyen operar el sistema de forma eficiente en entornos altamente dinámicos, garantizar la seguridad y confidencialidad de los datos visuales o verificar el comportamiento del MLLM frente a errores o adversidades.

Tracking Pixel Contents