Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) son muy buenos para responder preguntas simples, pero requieren técnicas especiales de promoción para manejar tareas complejas que necesitan razonamiento y planificación. Estas técnicas de promoción, a menudo referidas como técnicas del «Sistema 2», mejoran las capacidades de razonamiento de los LLMs al forzarlos a generar pasos intermedios hacia la resolución de un problema. Aunque efectivas, estas técnicas hacen que las aplicaciones de LLM sean lentas y computacionalmente costosas.
Distilación del Sistema 2
En un nuevo documento, investigadores de Meta FAIR presentan la «destilación del Sistema 2», una técnica que enseña a los LLMs tareas complejas sin necesidad de pasos intermedios. Esta técnica enseña a los LLMs tareas complejas sin requerir pasos intermedios de razonamiento. En la ciencia cognitiva, el Sistema 1 y el Sistema 2 se refieren a dos modos de pensamiento distintos.
Los LLMs suelen considerarse análogos al pensamiento del Sistema 1. Pueden generar texto muy rápidamente, pero tienen dificultades con tareas que requieren razonamiento y planificación deliberada. En años recientes, los investigadores de inteligencia artificial han demostrado que los LLMs pueden ser entrenados para imitar el pensamiento del Sistema 2 al indicarles que generen pasos de razonamiento intermedios antes de dar su respuesta final.
Los investigadores evaluaron su método en una variedad de tareas de razonamiento y en cuatro técnicas diferentes de promoción del Sistema 2. Los resultados muestran que la destilación del Sistema 2 puede mejorar significativamente el rendimiento de los LLMs en tareas de razonamiento complejas, a menudo igualando o superando la precisión de los métodos originales del Sistema 2. Además, los modelos destilados pueden generar respuestas mucho más rápido y con menos recursos computacionales porque no tienen que pasar por los pasos de razonamiento intermedios.
Deja una respuesta