SMU researchers to present new tool for enhancing AI transparency and accuracy at IEEE Conference
La investigación de Clark y Buongiorno explora el potencial de GAME-KG en dos demostraciones.El primero utiliza el videojuego Dark Shadows.Crédito: SMU

Si bien los modelos de lenguajes grandes (LLM) han demostrado capacidades notables para extraer datos y generar respuestas conectadas, existen preguntas reales sobre cómo estos modelos de inteligencia artificial (IA) alcanzan sus respuestas.Está en juego la posibilidad de que se produzcan sesgos no deseados o la generación de "alucinaciones" sin sentido o inexactas, las cuales pueden conducir a datos falsos.

Es por eso que los investigadores de SMU Corey Clark y Steph Buongiorno presentarán un artículo en la próximaConferencia IEEE sobre juegos, programado del 5 al 8 de agosto en Milán, Italia.Compartirán su creación de un marco GAME-KG, que significa "Juegos para aumentar metadatos y mejorar gráficos de conocimiento".El

investigaciónpublicadoen elarXivservidor de preimpresión.A

gráfico de conocimientoOrganiza los datos en nodos (que representan entidades) y bordes (que representan relaciones entre entidades).Los humanos crean y mantienen gráficos de conocimiento, combinando su experiencia con herramientas y algoritmos automatizados.

El marco desarrollado por Clark y Buongiorno modifica las conexiones explícitas e implícitas en los gráficos de conocimiento, lo que puede mejorar la capacidad de un LLM para proporcionar respuestas precisas.

Si bien los gráficos de conocimiento mejoran las capacidades de razonamiento y el rendimiento de un LLM, su creación puede ser un desafío debido a la complejidad de capturar, organizar e integrar datos de diversas fuentes.El marco GAME-KG utiliza videojuegos para recopilar comentarios humanos para modificar y validar gráficos de conocimiento para superar estas dificultades.

"GAME-KG es una forma para que los humanos interactúen con los KG para integrar nuevos conocimientos o modificar malentendidos", explica Clark, subdirector de Guildhall, el programa de posgrado en diseño de videojuegos de SMU."Hace que sea más fácil para los humanos corregir una IA cuando empezamos a ver alucinaciones. Y cuando haces una pregunta, la IA utiliza nuestros gráficos de conocimiento modificados para proporcionar una respuesta. Entonces podemos ver cómo la IA llegó a su conclusión porque el conocimientoEl gráfico nos permite rastrear la información utilizada."

La investigación de Clark y Buongiorno explora el potencial de GAME-KG en dos demostraciones.El primero utiliza elSombras oscuras.Este misterio al estilo del cine negrorecopila comentarios de los jugadores para modificar y validar gráficos de conocimiento creados a partir de datos recopilados de comunicados de prensa del Departamento de Justicia de EE. UU. sobre trata de personas.

La segunda demostración utiliza GPT-4 de OpenAI para responder preguntas sobre comunicados de prensa sobre trata de personas.Al programa de IA se le solicitan respuestas basadas en un gráfico de conocimiento original creado a partir de las publicaciones.Luego, un humano modifica el gráfico de conocimiento conectando y agregando relaciones implícitas entre entidades.

Según sus resultados, los investigadores creen que el marco GAME-KG es un paso importante hacia el aprovechamiento de los juegos para modificar los gráficos de conocimiento y ayudar a los LLM con la producción de datos precisos.

"Hemos estado trabajando en el uso de LLM para tipos críticos de situaciones, como.Comprender cómo la IA llegó a su respuesta es crucial", dijo Buongiorno, investigador postdoctoral en SMU. "Necesitamos preguntarnos: ¿Cómo podemos hacer que los LLM sean más precisos?¿Cómo podemos inspeccionar datos y reducir las alucinaciones?Nuestra investigación muestra que la IA es una herramienta que requiere la interacción humana para guiarla y dirigirla.Depende de nosotros crear la metodología para hacer que los LLM sean más útiles y confiables".

Más información:Steph Buongiorno et al, Un marco para aprovechar los juegos de computación humana para mejorar los gráficos de conocimiento para aplicaciones de IA generativa críticas de precisión,arXiv(2024).DOI: 10.48550/arxiv.2404.19729

Información de la revista: arXiv

Citación:Investigadores presentarán una nueva herramienta para mejorar la transparencia y precisión de la IA en una conferencia (30 de julio de 2024)recuperado el 30 de julio de 2024de https://techxplore.com/news/2024-07-tool-ai-transparency-accuracy-conference.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.