À mille mètres sous la surface, dans l’obscurité totale du canyon au large de Toulon, un cachalot de quarante tonnes chasse. Il émet des cliquetis — son sonar biologique — pour se repérer dans les abysses. Il ne sait pas que ses sons sont captés, en temps réel, par un drone de dix-sept mètres de long qui dérive en silence à la surface, alimenté par le soleil et le vent.
Le drone s’appelle Sphyrna. Les hydrophones fixés sous sa coque enregistrent tout ce qui se passe jusqu’à deux mille mètres de profondeur, dans un rayon de six kilomètres. Et une intelligence artificielle, développée par le professeur Hervé Glotin à l’Université de Toulon, analyse les sons en temps réel : clics de cachalot, sifflements de dauphin, chants de baleine à bec. Elle les identifie, les localise, les suit.
Ce qui se joue ici n’est pas un exercice académique. C’est une course contre la montre pour sauver des animaux que nous tuons sans même le voir.
Deux à quatre cachalots tués chaque année sur la côte française
Suivez LJG sur Google
Ajoutez LJG à vos sources préférées pour voir nos articles en priorité dans "À la une".
La Méditerranée abrite environ 200 à 1 000 cachalots dans le sanctuaire Pélagos, une zone de 87 000 kilomètres carrés entre la presqu’île de Giens, la Sardaigne et la côte franco-italienne. Ces animaux passent plus de 95 % de leur temps sous l’eau, à plus de mille mètres de profondeur. Ils sont quasi invisibles en surface.
Le problème : ils remontent respirer toutes les cinquante minutes. Et quand ils remontent, ils croisent les routes des ferries, des cargos et des navires de croisière. Entre deux et quatre cachalots sont tués chaque année par collision sur la seule côte française méditerranéenne, selon les estimations du professeur Glotin. Pour une population aussi réduite, c’est considérable.
Le piège est cruel. Le cachalot possède un sonar qui perçoit les bruits à 30-40 kilomètres. Mais il l’utilise vers le fond, pas vers la surface. Quand il détecte le bruit d’un moteur émis à l’arrière d’un navire, il croit que le silence à l’avant du bateau signifie un espace sûr. Il nage vers la proue. La collision est frontale.
Sphyrna Odyssey : le plus grand drone civil maritime au monde
La mission Sphyrna Odyssey, lancée en 2018 depuis Toulon, est née pour résoudre ce problème. Le principe : utiliser le plus grand drone civil de surface au monde — dix-sept mètres de long, une tonne de charge utile, panneaux solaires et éolienne, autonomie de douze mois — pour écouter les cétacés sans les déranger, cartographier leurs déplacements et transmettre leur position en temps réel.
Le drone est conçu par Sea Proven, une société basée en Mayenne. Sa motorisation est totalement silencieuse. Sa forme de pirogue polynésienne assure une stabilité exceptionnelle qui produit des enregistrements acoustiques d’une clarté inédite. À son bord, les hydrophones développés par le laboratoire CNRS LIS de l’Université de Toulon captent les cliquetis, les codas et les ultrasons des cétacés.
L’intelligence artificielle du professeur Glotin et de son équipe DYNI (Dynamique de l’Information) fait le reste. Elle distingue automatiquement les espèces — cachalot, globicéphale noir, baleine de Cuvier, dauphin de Risso, dauphin bleu et blanc — par leurs signatures acoustiques. Elle identifie les comportements : chasse, repos, déplacement, communication. Elle localise les animaux par triangulation acoustique.
L’objectif opérationnel : transmettre la position des cétacés en temps réel à l’administration du sanctuaire Pélagos et au Cross Méditerranée, qui peut alors alerter les navires présents dans la zone. Adaptez votre route. Réduisez votre vitesse. Un cachalot est à trois kilomètres devant vous.
Bombyx : la bouée sentinelle de Port-Cros
Sphyrna n’est pas seul. Au sud du Parc national de Port-Cros, une bouée de sub-surface baptisée Bombyx enregistre en continu les sons des cétacés passant jusqu’à vingt kilomètres au large. Développée par la même équipe de Toulon, elle fonctionne depuis plusieurs années et alimente une base de données acoustique unique sur la faune du sanctuaire Pélagos.
Bombyx a permis une découverte inattendue. Pendant le confinement du Covid-19, en avril 2020, la mission Quiet Sea a été lancée en urgence pour mesurer l’impact du silence inédit sur le comportement des cétacés. Avec la quasi-disparition du trafic maritime, les scientifiques ont pu observer — pour la première fois — le comportement des grands sondeurs dans un océan presque vierge de pollution sonore. Les données collectées constituent une référence scientifique mondiale.
Le cachalot, rappelle Hervé Glotin, est un ambassadeur des abysses. Si la pollution sonore le pousse à fuir ses zones de reproduction, les conséquences remontent toute la chaîne alimentaire. En l’absence de leur prédateur, les populations de méduses explosent. Les méduses se nourrissent de larves de poissons. Les pêcheurs en paient le prix. L’écosystème entier vacille.

En Polynésie : des caméras IA sur les hauteurs de Tahiti
À l’autre bout du monde, dans les eaux de Polynésie française, un autre projet français utilise l’IA pour protéger les baleines à bosse. Chaque année, ces mammifères quittent l’Antarctique pour se reproduire dans les lagons polynésiens — des eaux peu profondes et protégées, idéales pour mettre bas. Mais le trafic maritime entre Tahiti et Moorea, qui représente plus de 90 % du trafic de l’archipel, crée un risque de collision permanent.
L’association Océania, active depuis 2017, a lancé le programme Ocean IA. Le dispositif combine des caméras terrestres intelligentes déployées sur les hauteurs de Tahiti et Moorea — capables d’identifier en temps réel les sauts, souffles, nageoires et queues des baleines dans les passes — avec un système d’alerte automatique transmis aux capitaines de navires.
Le programme s’appuie sur un réseau d’hydrophones qui enregistrent les chants sous-marins en continu. L’IA analyse ces données pour détecter la présence de baleines dans un rayon de plusieurs kilomètres, cartographier dynamiquement les zones d’activité et prédire les trajectoires probables en croisant données historiques, température de l’eau et saisons.
Le fonds vert de l’État a financé le projet à hauteur de 54 millions de francs CFP. La coopération avec les armateurs locaux permet de définir des protocoles d’alerte en temps réel. Ocean Watch, le volet humain du programme, mobilise des observateurs embarqués sur les ferries entre Tahiti et Moorea.
DolphinGemma : l’IA qui veut parler aux dauphins
L’écoute des cétacés ne sert pas seulement à les localiser. Elle pourrait un jour permettre de les comprendre. Google DeepMind, en partenariat avec le Wild Dolphin Project de la docteure Denise Herzing — qui étudie les mêmes dauphins tachetés aux Bahamas depuis 1985 —, a développé DolphinGemma, un modèle d’IA conçu pour décoder le langage des dauphins.
Le principe est fascinant : DolphinGemma traite les séquences audio des dauphins comme un modèle de langage traite du texte. Il prédit la suite logique d’une vocalisation, repère des motifs récurrents, apprend au fur et à mesure que de nouvelles données affluent. Le modèle devrait être rendu open-source, permettant à la communauté scientifique mondiale de l’adapter à d’autres cétacés — baleines, orques, cachalots.
On en est loin du dictionnaire cachalot-français. Hervé Glotin le reconnaît : les recherches démontrent que les codas — ces séquences de clics — varient selon les espèces, les zones géographiques et peut-être les individus, comme des dialectes. Huit clics pour les cachalots de l’océan Indien. Cinq dans les Caraïbes. Quatre ou cinq aux Galápagos. Mais la signification précise de ces échanges reste largement un mystère.
Ce qui n’est plus un mystère, en revanche, c’est que ces sons contiennent des informations exploitables pour la conservation. L’IA peut déjà distinguer les vocalisations liées à la chasse de celles liées à la socialisation. Elle peut repérer les signatures individuelles chez certaines espèces de dauphins. Elle peut détecter un comportement de stress — premier indice d’une perturbation humaine.
160 millions d’images de plancton
L’IA océanique française ne se limite pas aux grands mammifères. Au Laboratoire d’Océanographie de Villefranche-sur-Mer, rattaché à Sorbonne Université et au CNRS, des systèmes d’imagerie automatique ont collecté plus de 160 millions d’images individuelles d’organismes planctoniques à travers l’ensemble des océans du globe.
L’apprentissage automatique permet de classer ces milliards d’images, d’identifier les espèces, de suivre l’évolution des populations en fonction du réchauffement climatique. C’est un travail invisible mais fondamental : le plancton produit plus de la moitié de l’oxygène que nous respirons. Surveiller sa santé, c’est surveiller la nôtre.
L’intelligence artificielle résout ici un problème que les humains ne pourraient tout simplement pas résoudre : traiter des volumes de données que des armées de chercheurs ne suffiraient pas à analyser en une vie. Des milliards d’images, des millions d’heures d’enregistrements acoustiques, des téraoctets de données satellites — le tout croisé, analysé, cartographié automatiquement.
L’océan a trouvé ses sentinelles
Du canyon au large de Toulon aux passes de Tahiti, des abysses de Pélagos aux eaux superficielles de Villefranche-sur-Mer, l’intelligence artificielle est en train de devenir les yeux et les oreilles de l’océan. Elle ne remplace pas les chercheurs — elle leur donne une portée qu’ils n’avaient jamais eue.
Le drone Sphyrna continuera de dériver, silencieux, dans le sanctuaire Pélagos. La bouée Bombyx continuera d’enregistrer, jour et nuit, les cliquetis des cachalots qui chassent dans les canyons. Les caméras d’Ocean IA continueront de guetter les souffles des baleines dans les passes polynésiennes. Et quelque part dans un laboratoire de Toulon, un algorithme continuera d’apprendre à distinguer un clic de chasse d’un clic de communication.
Le cachalot ne le sait pas. Mais pour la première fois de l’histoire, quelqu’un l’écoute vraiment.

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.