Los delfines podrían tener pronto un interlocutor inesperado: la inteligencia artificial. Google está desarrollando un modelo capaz de descifrar sus intercambios sonoros, abriendo perspectivas inéditas sobre su comunicación.
Esta iniciativa se basa en décadas de investigación llevadas a cabo por el Wild Dolphin Project (WDP). Combinando observaciones de campo y tecnologías avanzadas, los científicos esperan descifrar los secretos de los clics, silbidos y otros sonidos emitidos por estos cetáceos.
DolphinGemma: un traductor para cetáceos
DolphinGemma se apoya en una arquitectura inspirada en los modelos de lenguaje humano, pero adaptada a las particularidades acústicas de los delfines. El sistema analiza secuencias sonoras para identificar patrones recurrentes, con una precisión imposible de lograr manualmente.
Gracias a la tecnología SoundStream, las vocalizaciones se convierten en datos utilizables por la IA. El modelo, optimizado para funcionar en smartphones, permite un análisis en tiempo real durante las expediciones.
Las primeras pruebas sugieren que DolphinGemma podría predecir ciertas secuencias sonoras. Este avance facilitaría la identificación de estructuras potencialmente portadoras de significado, sin llegar a demostrar la existencia de un lenguaje propiamente dicho.
CHAT: hacia un diálogo inter-especies
En paralelo, el sistema CHAT explora un enfoque más interactivo. Asocia silbidos sintéticos a objetos concretos, como algas o juguetes, para establecer un vocabulario común con los delfines.
Los investigadores utilizan smartphones Pixel para captar y procesar los sonidos bajo el agua. Esta solución ligera evita el uso de equipos voluminosos, al tiempo que ofrece un rendimiento suficiente para experimentos en entornos naturales.
El objetivo no es traducir la complejidad de los intercambios naturales, sino crear puentes simples. Si los delfines reproducen los silbidos aprendidos, esto marcaría un paso hacia una comunicación voluntaria entre especies.
¿Cómo funciona el aprendizaje del modelo?
DolphinGemma se entrena con miles de horas de grabaciones proporcionadas por el WDP. Estos datos, anotados con el contexto comportamental, permiten al sistema relacionar ciertos sonidos con situaciones específicas.
El modelo utiliza un método similar al de los asistentes de voz, pero adaptado a las frecuencias y modulaciones de los delfines. Cada sonido se divide en segmentos analizables, que luego se comparan con otras ocurrencias.
Este enfoque revela similitudes imperceptibles para el oído humano. Por ejemplo, variaciones mínimas podrían corresponder a "dialectos" diferentes según los grupos de delfines.
¿Cuáles son los límites de esta tecnología?
No hay pruebas que permitan afirmar aún que los delfines usen un lenguaje estructurado. Los sonidos identificados podrían simplemente reflejar emociones o intenciones básicas, sin una sintaxis elaborada.
Los ruidos submarinos (olas, barcos) también complican la grabación de las vocalizaciones. Los algoritmos deben filtrar estas interferencias para aislar los sonidos relevantes.
Por último, la adaptación del modelo a otras especies requerirá ajustes. Los delfines moteados del Atlántico, estudiados por el WDP, no tienen las mismas vocalizaciones que los delfines mulares o las orcas.
Autor del artículo: Cédric DEPOND
Fuente: Google AI Blog