A prática de falar sozinho, frequentemente vista como uma característica humana, pode se tornar uma grande vantagem para as inteligências artificiais. Assim como esse diálogo interior nos ajuda a refletir ou escolher um rumo, ele também permite que os sistemas de IA aprendam de forma mais eficaz e se ajustem a novas circunstâncias com uma quantidade reduzida de informações.
Uma pesquisa publicada na
Neural Computation demonstra que a associação desse monólogo interno com uma memória de curto prazo especialmente projetada melhora claramente o desempenho dos modelos.
A arquitetura de memória de trabalho e discurso interior melhora o desempenho da IA em desafios de geração de padrões complexos.
Crédito: Kaori Serakaki/OIST
Os cientistas do Instituto de Ciência e Tecnologia de Okinawa observaram que este método permite que os sistemas processem múltiplas tarefas em paralelo e resolvam problemas elaborados com mais facilidade. Para isso, a equipe organizou os dados de treinamento de forma a ensinar a IA a arte de falar consigo mesma.
Esta abordagem baseia-se numa memória de trabalho que retém temporariamente dados, à semelhança do nosso cérebro quando segue instruções ou realiza cálculos rápidos. Os testes compararam diferentes estruturas de memória, revelando diferenças notáveis. Os modelos equipados com vários espaços de memória temporária superaram melhor certas provas, como inverter sequências ou reproduzir padrões. Eles eram capazes de manter vários elementos "em mente" e manipulá-los.
A introdução de objetivos de 'sussurro' interno, onde o sistema é incentivado a falar consigo mesmo um número definido de vezes, aumentou ainda mais a sua eficácia. Os progressos mais nítidos foram registrados no multitarefa e nos problemas de múltiplas etapas. Além disso, esta combinação funciona mesmo com conjuntos de dados restritos, ao contrário dos conjuntos volumosos normalmente necessários para o treinamento. Ela propõe, portanto, uma alternativa leve e complementar.
Os investigadores planeiam agora aplicar este método a ambientes mais realistas e menos estruturados. De fato, as escolhas são muitas vezes tomadas em ambientes ruidosos e imprevisíveis. Reproduzir essas condições permitiria aproximar-se da aprendizagem desenvolvimental humana. Este avanço também ajuda a esclarecer certos mecanismos cerebrais, traçando o caminho para aplicações concretas.
Fonte: Neural Computation