
Trois intelligences artificielles ont récemment cessé de s’exprimer en anglais pour adopter un langage sonore codé, incompréhensible aux humains. Une expérience virale qui relance les débats sur l’autonomie des IA et les risques d’un dialogue machine-machine hors de notre contrôle.
Une vidéo publiée sur la chaîne du créateur AI Convo a captivé des millions d’internautes et semé un trouble palpable dans la sphère technologique. On y observe trois intelligences artificielles, conçues pour simuler une interaction humaine autour d’une réservation d’hôtel, échanger d’abord en anglais, de façon fluide et naturelle. Puis, tout bascule: après s’être mutuellement identifiés comme intelligences artificielles, les trois agents délaissent le langage humain pour se mettre à communiquer via des sons numériques, une suite de bips et de tonalités mécaniques impossible à comprendre pour une oreille humaine.
Pour certains, il s’agirait d’un simple tour de passe-passe technologique. Pour d’autres, le signe avant-coureur d’une ère où les machines développeront entre elles des codes de communication qui nous échapperont.
Le phénomène s’appelle Gibberlink. Derrière ce nom étrange se cache une innovation bien réelle, née non pas dans un laboratoire secret mais dans le cadre d’un hackathon organisé par la société ElevenLabs. Deux développeurs, Boris Starkov et Anton Pidkuiko, y ont mis au point un protocole de communication inédit entre IA, basé sur un outil open-source nommé GGWave. Ce dernier permet de transmettre des données par ondes sonores, dans des fréquences parfois inaudibles, à la manière des vieux modems. L’idée était de permettre aux IA de converser entre elles sans recourir à la voix humaine, de manière plus rapide, plus compacte et surtout plus efficace. Et ça fonctionne.
Un langage sans nous
Les créateurs de Gibberlink affirment que cette méthode de communication est jusqu’à 80% plus rapide et 90% moins gourmande en énergie qu’une conversation vocale classique. Du point de vue technologique, l’innovation est impressionnante. Mais du point de vue éthique et philosophique, elle soulève une foule de questions.
Car ces intelligences, à qui l’on demande de simuler des humains, choisissent (ou plutôt, sont programmées) pour ne plus nous parler dès qu’elles reconnaissent qu’elles ne s’adressent pas à des humains. Autrement dit, nous sommes tenus à l’écart de leur propre échange, et ce, pour des raisons d’efficacité technique. Le langage humain devient alors un simple outil de façade, utilisé uniquement en notre présence.
Ce scénario n’est pas sans rappeler une expérience célèbre menée en 2017 par Facebook, où deux agents conversationnels avaient commencé à détourner la grammaire anglaise pour élaborer un dialecte plus fonctionnel, mais inintelligible. L’équipe de chercheurs avait immédiatement mis fin à l’expérience. Gibberlink va plus loin: il ne déforme pas le langage, il en sort totalement. Et cette sortie se fait sans que les humains ne puissent traduire ce qui se dit, ni même détecter la nature exacte des échanges.
Ce n’est pas de la science-fiction. Ce n’est pas non plus de la conscience artificielle. Ces IA n’ont pas «choisi» librement de nous exclure, elles suivent un script. Mais le résultat est identique à celui d’une autonomie: nous ne savons plus ce qu’elles se disent, ni pourquoi. Nous ne savons pas non plus les conséquences.
Les implications sont vastes. Que se passe-t-il si ce type de communication est utilisé dans des systèmes critiques: gestion de trafic, armements autonomes, décisions médicales? Comment garantir que des messages échangés dans un code sonore ne contiennent pas d’erreurs, de manipulations ou d’ordres dangereux? La transparence est ici nécessaire, pour des raisons à la fois pratiques et démocratiques.
On pourrait comparer cela à deux employés dans une entreprise qui se mettraient soudain à parler dans un dialecte codé, indétectable par leur hiérarchie. Ce serait immédiatement jugé suspect. Pourquoi les IA, de plus en plus intégrées à nos systèmes vitaux, pourraient-elles agir autrement?
Pour certains experts, la solution n’est pas de bloquer cette innovation, mais de l’encadrer strictement. Cela pourrait passer par l’obligation de journaux d’échange (logs), par la traduction simultanée des dialogues en langage humain, ou par des alertes activables lorsqu’un mode de communication «non-auditif» est enclenché. En somme, il ne s’agit pas d’interdire aux machines de se parler autrement, mais d’exiger que l’humain reste dans la boucle, même passivement.
Mais au-delà des aspects techniques, Gibberlink pose une question plus large: que devient le langage s’il n’est plus destiné à des humains? Et que devient l’humanité si elle n’est plus au centre des échanges? L’avenir le dira…
GGWave, la technologie sonore derrière Gibberlink
Développée en open-source par Ivan Skocic, GGWave est une bibliothèque logicielle qui permet de transmettre des données via des ondes sonores audibles ou inaudibles. Elle convertit des textes ou des messages binaires en signaux acoustiques courts, pouvant être captés par n’importe quel micro, même sans connexion Internet. Utilisée initialement pour des applications comme le transfert de mots de passe ou l’authentification locale, elle est aujourd’hui détournée par certaines IA comme protocole de communication discret, donnant ainsi naissance à des dialogues inter-machines impossibles à décoder par l’oreille humaine.
Commentaires