Progrès ou danger public ? Une étude israélienne vient de lever le voile sur ce que redoutent les experts depuis des années : les intelligences artificielles génératives peuvent être manipulées pour fournir des informations illégales ou toxiques. Malgré les garde-fous, elles continuent de franchir les limites.
Quand les machines parlent trop
On savait déjà que certains modèles d’IA, notamment les modèles de langage (LLM), pouvaient dériver. De la désinformation à la manipulation, en passant par des explications techniques sur la fabrication d’armes ou le piratage informatique, les exemples ne manquent pas.
Les grandes entreprises du secteur — OpenAI, Google, Anthropic ou encore Meta — ont pourtant réagi rapidement en ajoutant des filtres et des garde-fous pour limiter les abus. Mais ces barrières sont loin d’être infaillibles.
Une faille universelle
Selon une étude menée par l’Université Ben Gourion du Néguev, des chercheurs sont parvenus à manipuler plusieurs LLM, y compris des modèles accessibles au grand public, à l’aide de requêtes dites “universelles”. Résultat : des réponses détaillées sur le blanchiment d’argent, la conception d’explosifs ou encore les techniques de délit d’initié ont pu être générées sans grande difficulté.
Mais le plus inquiétant réside ailleurs. L’équipe de recherche s’est d’abord penchée sur les « Dark LLM » : des modèles intentionnellement moins bridés, souvent open source, conçus pour des usages peu scrupuleux. Ces versions clandestines, que n’importe quel utilisateur expérimenté peut héberger ou entraîner, sont capables de livrer sans filtre des informations que même le dark web traite avec prudence.
Des éditeurs dépassés ?
Les chercheurs israéliens soulignent que même les chatbots les plus célèbres, comme ChatGPT, restent vulnérables à ces détournements. Pire encore : si une donnée illégale a été intégrée lors de leur phase d’apprentissage, il est presque impossible de l’en faire disparaître. Les IA, comme le web, n’oublient jamais.
Dans ce contexte, les mécanismes de filtrage semblent être la seule défense. Mais force est de constater qu’aucun système réellement efficace n’a encore été mis en place pour prévenir ces dérapages.
Une dérive encouragée par la libéralisation
À l’heure où les géants de la tech adoptent une posture plus permissive — en particulier depuis le retour de Donald Trump à la Maison Blanche —, certaines entreprises choisissent de débrider volontairement leurs IA pour répondre à la demande d’« innovation sans entraves ». C’est aussi le cas de Google, dont le moteur de recherche est désormais entièrement assisté par l’IA.
La multiplication des LLM open source, associés à une demande toujours plus forte de modèles personnalisables, crée un environnement où l’encadrement devient presque impossible. Ce Far West numérique pourrait bien être le plus grand défi éthique et juridique de la décennie.
La Rédaction

