Facebook anunció una serie de novedades en el campo del IoT, ampliando los límites de los asistentes robóticos impulsado con Inteligencia Artificial (IA).

Por Carolina Valdovinos (dpl)

Por medio de la Plataforma se simulación AI Habitat, un algoritmo de aprendizaje por refuerzo distribuido (RL) que permite el entrenamiento a gran escala de agentes de ÇIA que puedan realizar una navegación punto-objetivo, asimismo.

El sistema IA Habitat es el núcleo de los nuevos sistemas incorporados que ayuda a impulsar a los agentes a aprender más habilidades humanas desde la comprensión sensorial multimodal hasta el razonamiento complejo sobre objetos y lugares.

La plataforma de simulación puede entrenar robots virtuales en entornos 3D fotorrealistas, capaces de funcionar a más de 10,000 cuadros por segundo en una sola GPU, más de 100 veces más rápido que el tiempo real.

SoundSpaces

Es el primer conjunto de datos de representaciones de audio de su tipo, basado en simulaciones acústicas geométricas para entornos 3D complejos, construido sobre AI Habitat. SoundSpaces proporciona un sensor de audio, lo que le permite insertar simulaciones realistas de alta fidelidad de cualquier fuente de sonido en una variedad de entornos escaneados del mundo real.

A diferencia de los sistemas de navegación tradicionales que abordan la navegación por puntos, SoundSpaces no requiere un puntero a la ubicación del objetivo. Lo cual significa que un agente ahora puede actuar sobre “buscar el teléfono que suena” en lugar de “ir al teléfono que está a 25 pies al suroeste de su posición actual”. Puede descubrir la posición de la meta por sí solo mediante la detección multimodal.

Facebook compartió que para construir SoundSpaces se utilizaron algoritmos de última generación para el modelado de la acústica de la sala y un algoritmo de rastreo de ruta bidireccional para modelar los reflejos de sonido en la geometría de la sala.

“SoundSpaces también modela las propiedades del material acústico de las superficies principales, capturando propiedades acústicas de grano fino como la propagación del sonido a través de las paredes. SoundSpaces también permite renderizar múltiples fuentes de sonido concurrentes ubicadas en múltiples ubicaciones en el entorno”, compartió Facebook en su blog.

Semantic MapNet

Un módulo de agentes IA incorporados que utiliza una plataforma de memoria espacio-semántica para registrar las representaciones o características de los objetos observados en marcos egocéntricos mientras explora su entorno.

“Semantic Mapnet establece un nuevo estado de la técnica para predecir dónde se ubican objetos particulares, como un sofá o el fregadero de la cocina, en el mapa de arriba hacia abajo a nivel de píxeles que crea. Supera los enfoques y las líneas de base anteriores en mean-IoU, una métrica ampliamente utilizada para la superposición entre la predicción y la verdad del terreno”, señaló el gigante tecnológico.

Semantic MapNet es la construcción de una memoria alocéntrica espacio-semántica y mejora los métodos mediante el uso de un marco de aprendizaje de extremo a extremo que extrae características visuales de sus observaciones egocéntricas para después proyectarlo en ubicaciones apropiadas.

Los mapas alocéntricos semánticos espacio-temporales producidos por Semantic MapNet pueden aprovecharse para tareas de razonamiento incorporadas posteriores.

“Estos esfuerzos son parte del objetivo a largo plazo de Facebook AI de construir sistemas de inteligencia artificial inteligentes que puedan pensar, planificar y razonar intuitivamente sobre el mundo real, donde incluso las condiciones de rutina son altamente complejas e impredecibles”, agregó Facebook.