Los investigadores están diseñando un entorno virtual para impulsar el desarrollo de útiles robots domésticos.


Sin mucha experiencia, los niños pueden identificar las intenciones de otras personas y desarrollar planes para ayudarlos a lograr sus objetivos en escenarios novedosos. Por el contrario, incluso los sistemas de inteligencia artificial más sofisticados hasta la fecha todavía luchan con las interacciones sociales básicas. Es por eso que los investigadores del MIT, Nvidia y ETH Zurich han desarrollado Watch-And-Help (WAH), un desafío que requiere que los agentes de inteligencia artificial incorporados comprendan los objetivos al ver una demostración de un ser humano que realiza una tarea y Coordine con la persona para resolver la tarea problemática lo antes posible.

El concepto de IA incorporada se basa en conocimiento incorporado, la teoría de que muchas características de la psicología, humana o no, están determinadas por aspectos de todo el cuerpo de un organismo. Al aplicar esta lógica a la IA, los investigadores esperan mejorar el rendimiento de los sistemas de IA como chatbots, robots, vehículos autónomos e incluso altavoces inteligentes que interactúan con su entorno, personas y otra IA. Por ejemplo, un robot realmente incorporado podría verificar si una puerta está cerrada con llave o verificar un teléfono inteligente que suena en un dormitorio de arriba.

En la primera fase de WAH, a la que los investigadores se refieren como la fase de observación, un agente de IA observa a un agente similar a un humano realizando una tarea y deriva un objetivo de sus acciones. En la segunda fase, el nivel de asistencia, el agente de IA ayuda al agente de apariencia humana a lograr plenamente el mismo objetivo. diferente Alrededores. Los investigadores afirman que este marco de dos niveles presenta desafíos únicos para la colaboración humano-IA, ya que el agente de IA debe pensar en la intención del agente similar a un humano y generalizar su conocimiento del objetivo.

Observa y ayuda

Para habilitar las interacciones asociadas con WAH, los investigadores tuvieron que expandir la plataforma de código abierto VirtualHome y crear un entorno de múltiples agentes llamado VirtualHome-Social. VirtualHome-Social simula la configuración del hogar para que los agentes puedan interactuar con varios objetos y agentes, p. Ej. B. abriendo un recipiente o sacando un utensilio de un cajón. VirtualHome-Social también ofrece agentes integrados que emulan el comportamiento humano y una interfaz para jugadores humanos. Esto permite realizar pruebas con personas reales y actividades humanas que se muestran en entornos semirrealistas.

El agente con apariencia humana representa un agente integrado en VirtualHome-Social. Planifica sus acciones en función de un objetivo y su observación del medio ambiente. Durante la fase de ayuda, el agente de IA recibe observaciones del sistema en cada paso y envía un comando de acción para controlar un avatar virtual. Mientras tanto, el agente similar a un humano, que también puede ser controlado por un humano, actualiza su programa en función de su última observación para reflejar cualquier cambio de estado causado por el agente de IA.

Los investigadores diseñaron un protocolo de evaluación y proporcionaron puntos de referencia para WAH, incluido un modelo objetivo para la fase de monitoreo y varias líneas de base para la planificación y el aprendizaje automático para la fase de ayuda. El equipo dice que los resultados indican que los agentes de IA deben adquirir una fuerte conciencia social y estrategias de ayuda generalizables para tener éxito en WAH, como se sospecha.

“Nuestro objetivo final es desarrollar agentes de IA que puedan trabajar con personas reales. Nuestra plataforma abre direcciones interesantes para el trabajo futuro, como la inferencia de objetivos en línea y la comunicación directa entre agentes ”, escribieron los investigadores. «Esperamos que el desafío propuesto y el entorno virtual puedan impulsar la investigación futura sobre la construcción de inteligencia social de máquinas más compleja».


El problema del audio:

Descubra cómo las nuevas soluciones de API basadas en la nube resuelven el audio frustrante e incompleto en las videoconferencias. Accede aquí


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *