Adrien - Segunda-feira 8 Dezembro 2025

🧠 IA: algumas arquiteturas revelam-se fundamentalmente próximas do cérebro humano

Alguns modelos de inteligência artificial já podem assemelhar-se ao cérebro humano antes mesmo de aprenderem qualquer coisa. Esta constatação surpreendente vem de um estudo que questiona as abordagens tradicionais da aprendizagem automática, frequentemente baseadas na análise massiva de dados.

Esta investigação, conduzida na Universidade Johns Hopkins e publicada na Nature Machine Intelligence, indica que a conceção inicial de um sistema de IA poderá ter mais importância do que os longos processos de treino. Estes últimos consomem habitualmente muita energia e tempo. A equipa comparou vários tipos de arquiteturas de redes neurais para ver quais produziam padrões de atividade semelhantes aos observados no cérebro.


Os investigadores examinaram três grandes tipos de design: os transformadores, as redes totalmente conectadas e as redes convolucionais. Criaram dezenas de variantes destes modelos e depois expuseram-nos a imagens sem qualquer treino. As reações destes sistemas foram depois comparadas com a atividade cerebral registada em seres humanos e primatas perante os mesmos estímulos visuais.


Entre todas as arquiteturas testadas, as redes convolucionais mostraram um comportamento particular. Quando se aumentava o número dos seus neurónios artificiais, a sua atividade interna aproximava-se mais dos padrões cerebrais humanos. Esta capacidade estava presente desde o início, sem que quaisquer dados tivessem sido usados para ajustar os parâmetros do modelo.

Estas redes convolucionais não treinadas mostraram-se comparáveis a sistemas de IA convencionais que, por sua vez, necessitam habitualmente de milhões de imagens para aprender. O responsável pelo estudo explicou que, se o treino com massas de dados fosse realmente determinante, tais resultados não teriam sido possíveis apenas com a modificação da arquitetura.

Esta observação oferece novos caminhos para o desenvolvimento futuro da inteligência artificial. Partindo de um design inicial melhor concebido, inspirado pela biologia, poderá ser possível reduzir consideravelmente os recursos necessários para a aprendizagem. Os trabalhos continuam agora para integrar algoritmos simples, também inspirados nos seres vivos, em novos quadros de desenvolvimento.

Assim, o caminho para sistemas de IA mais eficientes poderá passar menos pela força bruta dos dados e mais por uma conceção astuciosa, inspirando-se diretamente nos princípios comprovados pela evolução biológica.

Como uma rede convolucional estrutura a informação visual


Uma rede neuronal convolucional está organizada em camadas sucessivas, um pouco como o córtex visual no nosso cérebro. Cada camada está especializada na deteção de características cada vez mais complexas. A primeira pode detetar contornos ou mudanças de cor, enquanto as seguintes identificam formas ou conjuntos.

Esta estrutura hierárquica permite um processamento muito eficaz de imagens. Em vez de analisar cada pixel independentemente, a rede extrai progressivamente os elementos significativos. É esta organização que parece dar, naturalmente, uma atividade interna próxima da do cérebro, mesmo sem aprendizagem prévia.

O facto de estas redes não treinadas mostrarem já uma tal semelhança com a atividade cerebral indica que o seu 'plano de construção' é fundamentalmente adaptado à tarefa visual. Isto mostra a importância de bem escolher a arquitetura de partida, antes mesmo de começar a alimentar o sistema com dados para o aperfeiçoar.

Por que razão a conceção inicial pode acelerar a aprendizagem



A aprendizagem em inteligência artificial baseia-se frequentemente no ajuste de milhões, ou mesmo milhares de milhões, de parâmetros internos. Este processo, chamado treino, exige habitualmente quantidades enormes de exemplos e de potência de cálculo. Parte geralmente de um estado inicial aleatório ou muito simples.

Se o modelo parte já de um estado próximo da solução, como indica este estudo, o caminho a percorrer para atingir um bom nível de desempenho é muito mais curto.

Esta é a vantagem potencial de uma arquitetura 'alinhada com o córtex' desde o início. Coloca o sistema numa configuração favorável, reduzindo a necessidade de dados e de iterações. Isto poderá conduzir a modelos que aprendem mais depressa, com menos energia, inspirando-se nos princípios de eficiência descobertos pela evolução biológica.

Fonte: Nature Machine Intelligence
Ce site fait l'objet d'une déclaration à la CNIL
sous le numéro de dossier 1037632
Informations légales