Os golfinhos poderão em breve ter um interlocutor inesperado: a inteligência artificial. O Google está desenvolvendo um modelo capaz de decifrar suas trocas sonoras, abrindo perspectivas inéditas sobre sua comunicação.
Esta iniciativa baseia-se em décadas de pesquisas realizadas pelo Wild Dolphin Project (WDP). Combinando observações de campo e tecnologias avançadas, os cientistas esperam desvendar os segredos dos cliques, assobios e outros sons emitidos por esses cetáceos.
DolphinGemma: um tradutor para cetáceos
O DolphinGemma utiliza uma arquitetura inspirada nos modelos de linguagem humana, mas adaptada às especificidades acústicas dos golfinhos. O sistema analisa sequências sonoras para identificar padrões recorrentes, com uma precisão impossível de alcançar manualmente.
Graças à tecnologia SoundStream, as vocalizações são convertidas em dados utilizáveis pela IA. O modelo, otimizado para funcionar em smartphones, permite uma análise em tempo real durante as expedições.
Os primeiros testes sugerem que o DolphinGemma poderia prever certas sequências sonoras. Esse avanço facilitaria a identificação de estruturas potencialmente portadoras de significado, sem no entanto provar a existência de uma linguagem propriamente dita.
CHAT: rumo a um diálogo entre espécies
Em paralelo, o sistema CHAT explora uma abordagem mais interativa. Ele associa assobios sintéticos a objetos concretos, como algas ou brinquedos, para estabelecer um vocabulário comum com os golfinhos.
Os pesquisadores utilizam smartphones Pixel para captar e processar os sons debaixo d'água. Essa solução leve evita o uso de equipamentos volumosos, ao mesmo tempo que oferece desempenho suficiente para experimentos em ambiente natural.
O objetivo não é traduzir a complexidade das trocas naturais, mas criar pontes simples. Se os golfinhos reproduzirem os assobios aprendidos, isso marcaria um passo em direção a uma comunicação voluntária entre espécies.
Como funciona o aprendizado do modelo?
O DolphinGemma é treinado com milhares de horas de gravações fornecidas pelo WDP. Esses dados, anotados com o contexto comportamental, permitem que o sistema relacione certos sons a situações específicas.
O modelo utiliza um método semelhante ao dos assistentes de voz, mas adaptado às frequências e modulações dos golfinhos. Cada som é dividido em segmentos analisáveis e depois comparado a outras ocorrências.
Essa abordagem revela similaridades imperceptíveis ao ouvido humano. Por exemplo, variações mínimas poderiam corresponder a "dialetos" diferentes entre grupos de golfinhos.
Quais são os limites dessa tecnologia?
Nenhuma evidência permite ainda afirmar que os golfinhos utilizam uma linguagem estruturada. Os sons identificados poderiam simplesmente refletir emoções ou intenções básicas, sem uma sintaxe elaborada.
Os ruídos subaquáticos (ondas, barcos) também complicam a gravação das vocalizações. Os algoritmos precisam filtrar essas interferências para isolar os sons relevantes.
Por fim, a adaptação do modelo a outras espécies exigirá ajustes. Os golfinhos-pintados-do-Atlântico, estudados pelo WDP, não têm as mesmas vocalizações que os golfinhos-nariz-de-garrafa ou as orcas.
Autor do artigo: Cédric DEPOND
Fonte: Google AI Blog