Comprendre les Dolphins n’est plus seulement un rêve pour les éthologues et les fans du monde marin: aujourd’hui, grâce à laintelligence artificielleNouveaux chemins ouverts à une communication plus profonde entre les êtres humains et les cétacés. À l’occasion du Journée mondiale de Delfini, Google a annoncé un résultat extraordinaire: Dolphinxun modèle à développer en collaboration avec le Georgia Institute of Technology et le WDP (Projet Wild Dolphin), est capable d’analyser les vocalisations des dauphins et de générer de nouveaux sons similaires de manière réaliste. Ce projet représente un pas en avant important dans le Compréhension de la « langue » des dauphins macuolés de l’Atlantique (Stenella frontalis), une espèce étudiée en profondeur pendant plus de trente ans.
En combinant une énorme quantité de données collectées sous l’eau avec des algorithmes audio avancés, DolphingEmmma peut identifier les modèles sonores récurrents, ouvrant la voie à une communication interactive entre l’espèce. Et cela ne se termine pas ici: à travers un système appelé Chatdes formes de dialogue bidirectionnel sont également testées, en utilisant des sons artificiels pour faciliter l’interaction avec les animaux.
La naissance du modèle DolphingEmmma
Pendant des décennies, la langue des dauphins a été un mystère fascinant. Les sifflets, les clics, les bourdonnements et les sons impulsifs ont rempli les archives audio des chercheurs, mais l’interprétation de leur sens a toujours été une tâche complexe. Le Projet Wild Dolphinactif depuis 1985 dans les eaux des Bahamas, il a mené la plus longue enquête sur le terrain jamais effectuée sur une seule communauté de dauphins. Son approche non invasive – résumé dans la devise « dans leur monde, dans leurs conditions » – a permis de collecter une seule archive: des décennies de vidéo audio et sous-marine avec soin avec soin des comportements et des identités individuelles des dauphins observés. Ces actifs de données ont permis de commencer connecter des sons spécifiques aux situations comportementales récurrentes: par exemple, je « Sifflets caractéristiques »similaire aux noms propres, utilisé pour se rappeler ou « Cri » intermittent, associé aux conflits entre les individus.
C’est sur ce très riche corpus que la technologie Google a été greffée. Dolphinx est un Modèle audio avancé Basé sur l’architecture Gemmeune série de modèles linguistiques légers et ouverts. Contrairement aux modèles textuels, Dolphingemma est audio et audio-out: Écoutez une séquence sonore des dauphins, analyse la structure interne et génère une continuation cohérente, tout comme les modèles linguistiques prédictifs le font avec les mots. La technologie de base s’appuie sur Sonneurun tokenizer audio capable de représenter efficacement des signaux vocaux complexes, et un modèle avec environ 400 millions de paramètresdimensionné pour travailler même sur les smartphones, en particulier je Google Pixel utilisé directement sur le terrain.

En plus de l’analyse des sons naturels, le projet comprend un autre front de recherche: le communication bidirectionnelle. Ici, le système entre en jeu Chat (Télémétrie d’audience auditive des cétacés), une interface sous-marine développée avec Georgia Tech. Le chat ne vise pas à traduire directement la langue des dauphins, mais à créer un vocabulaire partagé à partir de sifflets artificiels. Ces sons, associés à des objets familiaux avec des dauphins, tels que des algues ou des jeux, sont présentés dans le contexte naturel. Si un dauphin imite le coup de sifflet correspondant, il peut recevoir l’objet en question, renforçant ainsi l’association.
L’utilisation de téléphones Google Pixel dans ces expériences représente un avantage important: il permet de réduire le besoin de matériel spécifique, de réduire les coûts, de consommation et de taille de l’équipement. Les derniers modèles du smartphone « Big G », comme Pixel 9, sont en mesure d’effectuer les deux modèles de Apprentissage en profondeur comme un dolphinx qui algorithmes de Modèle correspondantc’est-à-dire de comparaison avec des sons déjà connus, améliorant la capacité du système à répondre rapidement aux vocalisations des dauphins. Les chercheurs peuvent ainsi recevoir des commentaires immédiats grâce à des écouteurs de conduction osseuse, restant immergés dans le milieu marin.
L’ouverture du projet à la communauté scientifique
Un aspect crucial du projet est son Ouverture à la communauté scientifique. Google a annoncé qu’il partagera Dolphingemma comme Modèle open source à l’été 2025le rendant à la disposition des chercheurs qui travaillent également sur d’autres espèces de cétacés, tels que les turopi ou les dauphins avec une longue rostre. Bien qu’il sera nécessaire d’adapter le modèle aux vocalisations spécifiques de chaque espèce, la structure modulaire de Dolphingemma facilite sa personnalisation et son évolutivité.