Adrien - Lunes 9 Febrero 2026

🤖 La inteligencia artificial sorprende al usar una "voz interior"

La práctica de hablar solo, a menudo percibida como una característica humana, podría convertirse en un activo importante para las inteligencias artificiales. Así como este diálogo interno nos ayuda a reflexionar o a elegir una dirección, también permite a los sistemas de IA aprender de manera más eficiente y ajustarse a nuevas circunstancias con una cantidad reducida de información.

Una investigación publicada en Neural Computation demuestra que combinar este monólogo interno con una memoria a corto plazo especialmente diseñada mejora notablemente el rendimiento de los modelos.


La arquitectura de memoria de trabajo y discurso interior mejora el rendimiento de la IA en desafíos de generación de patrones complejos.
Crédito: Kaori Serakaki/OIST

Los científicos del Instituto de Ciencia y Tecnología de Okinawa observaron que este método permite a los sistemas procesar múltiples tareas en paralelo y resolver problemas elaborados con mayor facilidad. Para lograrlo, el equipo organizó los datos de entrenamiento para enseñar a la IA el arte de hablarse a sí misma.


Este enfoque se basa en una memoria de trabajo que retiene temporalmente datos, de manera similar a nuestro cerebro cuando sigue instrucciones o realiza cálculos rápidos. Las pruebas compararon diferentes estructuras de memoria, revelando diferencias notables. Los modelos equipados con múltiples espacios de memoria temporal superaron mejor ciertas pruebas, como invertir secuencias o reproducir patrones. Eran capaces de mantener varios elementos "en mente" y manipularlos.

La introducción de objetivos de 'murmullo' interno, donde se invita al sistema a hablarse a sí mismo un número definido de veces, aumentó aún más su eficacia. Los avances más claros se registraron en la multitarea y los problemas de múltiples pasos. Además, esta combinación funciona incluso con conjuntos de datos limitados, a diferencia de los grandes volúmenes normalmente requeridos para el entrenamiento. Por lo tanto, ofrece una alternativa ligera y complementaria.

Los investigadores ahora planean aplicar este método a entornos más realistas y menos estructurados. En efecto, las decisiones a menudo se toman en entornos ruidosos e impredecibles. Reproducir estas condiciones permitiría acercarse al aprendizaje del desarrollo humano. Este avance también ayuda a aclarar algunos mecanismos cerebrales, trazando el camino hacia aplicaciones concretas.

Fuente: Neural Computation
Ce site fait l'objet d'une déclaration à la CNIL
sous le numéro de dossier 1037632
Informations légales