La práctica de hablar solo, a menudo percibida como una característica humana, podría convertirse en un activo importante para las inteligencias artificiales. Así como este diálogo interno nos ayuda a reflexionar o a elegir una dirección, también permite a los sistemas de IA aprender de manera más eficiente y ajustarse a nuevas circunstancias con una cantidad reducida de información.
Una investigación publicada en
Neural Computation demuestra que combinar este monólogo interno con una memoria a corto plazo especialmente diseñada mejora notablemente el rendimiento de los modelos.
La arquitectura de memoria de trabajo y discurso interior mejora el rendimiento de la IA en desafíos de generación de patrones complejos.
Crédito: Kaori Serakaki/OIST
Los científicos del Instituto de Ciencia y Tecnología de Okinawa observaron que este método permite a los sistemas procesar múltiples tareas en paralelo y resolver problemas elaborados con mayor facilidad. Para lograrlo, el equipo organizó los datos de entrenamiento para enseñar a la IA el arte de hablarse a sí misma.
Este enfoque se basa en una memoria de trabajo que retiene temporalmente datos, de manera similar a nuestro cerebro cuando sigue instrucciones o realiza cálculos rápidos. Las pruebas compararon diferentes estructuras de memoria, revelando diferencias notables. Los modelos equipados con múltiples espacios de memoria temporal superaron mejor ciertas pruebas, como invertir secuencias o reproducir patrones. Eran capaces de mantener varios elementos "en mente" y manipularlos.
La introducción de objetivos de 'murmullo' interno, donde se invita al sistema a hablarse a sí mismo un número definido de veces, aumentó aún más su eficacia. Los avances más claros se registraron en la multitarea y los problemas de múltiples pasos. Además, esta combinación funciona incluso con conjuntos de datos limitados, a diferencia de los grandes volúmenes normalmente requeridos para el entrenamiento. Por lo tanto, ofrece una alternativa ligera y complementaria.
Los investigadores ahora planean aplicar este método a entornos más realistas y menos estructurados. En efecto, las decisiones a menudo se toman en entornos ruidosos e impredecibles. Reproducir estas condiciones permitiría acercarse al aprendizaje del desarrollo humano. Este avance también ayuda a aclarar algunos mecanismos cerebrales, trazando el camino hacia aplicaciones concretas.
Fuente: Neural Computation