Adding audio data when training robots helps them do a better job
Evaluación de limpieza.Arriba: Diferentes escenarios de prueba.Abajo: Casos típicos de falla y tasa de éxito de la tarea.La política [solo visión] a menudo no logra mantener el contacto adecuado (por ejemplo, presionar demasiado hacia lo amplio o flotar).La política [de fusión de MLP] a menudo no logra eliminar por completo el dibujo y finalizar antes de tiempo.Crédito:arXiv(2024).DOI: 10.48550/arxiv.2406.19464

Un equipo combinado de robóticos de la Universidad de Stanford y el Instituto de Investigación Toyota ha descubierto que agregar datos de audio a datos visuales cuando se entrena a robots ayuda a mejorar sus habilidades de aprendizaje.El equipo ha publicado suinvestigaciónen elarXivservidor de preimpresión.

Los investigadores observaron que prácticamente todo el entrenamiento realizado con robots basados ​​en IA implica exponerlos a una gran cantidad de información visual, ignorando el audio asociado.Se preguntaron si agregar micrófonos a los robots y permitirles recopilar datos sobre cómo se supone que debe sonar algo mientras se hace podría ayudarlos a aprender mejor una tarea.

Por ejemplo, si unSi se supone que debe aprender a abrir una caja de cereal y llenar un tazón con ella, puede ser útil escuchar los sonidos de una caja al abrirse y la sequedad del cereal al caer en cascada en un tazón.Para averiguarlo, el equipo diseñó y llevó a cabo cuatro experimentos de aprendizaje con robots.

El primer experimento implicó enseñar a un robot a darle la vuelta a un bagel en una sartén con una espátula.El segundo implicó enseñar a un robot a usar un borrador para borrar una imagen en una pizarra.El tercero era verter los dados contenidos en un vaso en otro vaso y el cuarto era elegir el tamaño correcto de cinta entre tres muestras disponibles y usarlo para pegar un cable a una tira de plástico.

Todos los experimentos implicaron el uso del mismo robot equipado con una garra de agarre.Todos ellos también se realizaron de dos maneras, usando solo video y usando video y audio.El equipo de investigación también varió factores de enseñanza y rendimiento como la altura de la mesa, el tipo de cinta o el tipo de imagen en la pizarra.

Después de realizar todos sus experimentos, los investigadores compararon los resultados juzgando la rapidez y facilidad con la que los robots pudieron aprender y realizar las tareas y también su precisión.Descubrieron que agregar audio mejoraba significativamente la velocidad y la precisión en algunas tareas, pero no en otras.

Agregar audio a la tarea de tirar dados, por ejemplo, mejoró drásticamente la capacidad del robot para descubrir si había alguno.dadosTambién ayudó al robot a comprender si estaba ejerciendo la cantidad correcta de presión sobre el borrador, debido al sonido único que se produjo.Por otro lado, agregar sonido no ayudó mucho a determinar si el panecillo se había girado exitosamente o si toda la imagen se había eliminado exitosamente de una pizarra blanca.

El equipo concluye sugiriendo que su trabajo muestra que agregar audio aEl material para robots de IA podría proporcionar mejores resultados para algunas aplicaciones.

Más información:Zeyi Liu et al, ManiWAV: Aprendizaje de la manipulación de robots a partir de datos audiovisuales salvajes,arXiv(2024).DOI: 10.48550/arxiv.2406.19464

Página del proyecto:mani-wav.github.io/

Información de la revista: arXiv

© 2024 Red Ciencia X

Citación:Agregar datos de audio al entrenar robots les ayuda a hacer un mejor trabajo (2024, 5 de julio)recuperado el 5 de julio de 2024de https://techxplore.com/news/2024-07-adding-audio-robots-job.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.