Exploring the fundamental reasoning abilities of LLMs
Experimentos comparativos que utilizan una tarea consistente en diferentes contextos, cada uno de los cuales enfatiza el razonamiento deductivo (es decir, los métodos (a) y (b)) o el inductivo (es decir, los métodos (c) y (d)).Crédito: Cheng et al.

El razonamiento, el proceso mediante el cual los seres humanos procesan mentalmente información para sacar conclusiones específicas o resolver problemas, se puede dividir en dos categorías principales.El primer tipo de razonamiento, conocido como razonamiento deductivo, implica partir de una regla o premisa general y luego utilizar esta regla para sacar conclusiones sobre casos específicos.

Esto podría significar, por ejemplo, partir de la premisa de que "todos los perros tienen orejas" y "los chihuahuas son perros" para concluir que "los chihuahuas tienen orejas".

La segunda forma de razonamiento más utilizada es el razonamiento inductivo, que consiste en generalizar (es decir, formular reglas generales) basándose en observaciones específicas.Esto podría significar, por ejemplo, suponer que todos los cisnes son blancos porque todos los cisnes que encontramos durante nuestra vida eran blancos.

Numerosos estudios de investigación anteriores han investigado cómo los humanos utilizan el razonamiento deductivo e inductivo en su vida cotidiana.Sin embargo, la medida en que(IA) que emplean estas diferentes estrategias de razonamiento rara vez se ha explorado hasta ahora.

Un equipo de investigación de Amazon y la Universidad de California en Los Ángeles llevó a cabo recientemente un estudio que explora las capacidades de razonamiento fundamentales de los grandes modelos de lenguaje (LLM), grandes sistemas de inteligencia artificial que pueden procesar, generar y adaptar textos en lenguajes humanos.Surecomendaciones, publicado en elarXivservidor de preimpresión, sugieren que estos modelos tienen fuertes capacidades de razonamiento inductivo, mientras que a menudo exhiben un razonamiento deductivo deficiente.

El objetivo del artículo era comprender mejor las lagunas en el razonamiento de los LLM e identificar por qué los LLM exhiben un menor rendimiento en tareas de razonamiento "contrafactuales" que se desvían de la norma.

Exploring the fundamental reasoning abilities of LLMs
Descripción general del marco del equipo SolverLearner para razonamiento inductivo.SolverLearner sigue un proceso de dos pasos para separar el aprendizaje de funciones de mapeo de entrada-salida de la aplicación de estas funciones para la inferencia.En concreto, las funciones se aplican a través de intérpretes de código externos, para evitar incorporar razonamientos deductivos basados ​​en LLM.Crédito: Cheng et al.

Varios estudios anteriores evaluaron las habilidades de razonamiento deductivo de los LLM probando su capacidad para seguir instrucciones como parte de tareas de razonamiento básico.Sin embargo, su razonamiento inductivo (es decir, su capacidad para hacer predicciones generales basadas en la información que procesaron en el pasado) no había sido examinado de cerca.

Para distinguir claramente el razonamiento inductivo del deductivo, los investigadores introdujeron un nuevo modelo, llamado SolverLearner.El modelo utiliza un enfoque de dos pasos para separar el proceso de aprender reglas del de aplicarlas a casos específicos.En particular, las reglas se aplican a través de herramientas externas, como intérpretes de códigos, para evitar depender de la capacidad de razonamiento deductivo del LLM, según un portavoz de Amazon.

Utilizando el marco SolverLearner que desarrollaron, el equipo de Amazon capacitó a los LLM para aprender funciones que asignan puntos de datos de entrada a sus salidas correspondientes, utilizando ejemplos específicos.Esto, a su vez, les permitió investigar hasta qué punto los modelos podían aprender reglas generales basadas en los ejemplos que se les proporcionaban.

Los investigadores descubrieron que los LLM tienen una capacidad de razonamiento inductivo más fuerte que el deductivo, especialmente para tareas que involucran escenarios "contrafactuales" que se desvían de la norma.Estos hallazgos pueden ayudar a las personas a comprender mejor cuándo y cómo utilizar los LLM.Por ejemplo, al diseñar sistemas de agentes, como chatbots, puede ser mejor aprovechar las sólidas capacidades inductivas de los LLM.

En general, los investigadores encontraron que los LLM se desempeñaron notablemente bien en tareas de razonamiento inductivo, pero a menudo carecían de habilidades de razonamiento deductivo.Su razonamiento deductivo parecía ser particularmente deficiente en escenarios que se basaban en suposiciones hipotéticas o se desviaban de la norma.

Los resultados recopilados como parte de este estudio podrían inspirar a los desarrolladores de IA a aprovechar las sólidas capacidades de razonamiento inductivo de los LLM para abordar tareas específicas.Además, podrían allanar el camino para futuros esfuerzos destinados a comprender los procesos de razonamiento del LLM.

Según un portavoz de Amazon, las investigaciones futuras en esta área podrían centrarse en explorar cómo la capacidad de un LLM para comprimir información se relaciona con sus fuertes capacidades inductivas.Esta perspectiva puede mejorar aún más las capacidades de razonamiento inductivo del LLM.

Más información:Kewei Cheng et al, ¿Inductivo o Deductivo?Repensar las habilidades de razonamiento fundamentales de los LLM,arXiv(2024).DOI: 10.48550/arxiv.2408.00114

Información de la revista: arXiv

© 2024 Red Ciencia X

Citación:Explorando las capacidades de razonamiento fundamentales de los LLM (2024, 31 de agosto)recuperado el 2 de septiembre de 2024de https://techxplore.com/news/2024-08-exploring-fundamental-abilities-llms.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.