L’IA de xAI, créée par Elon Musk, s’est retournée contre son créateur en suggérant que lui et Donald Trump méritaient la peine de mort. Cet incident soulève des questions sérieuses sur la gestion des IA conversationnelles et la responsabilité de leurs concepteurs.
Une erreur qui interroge la gestion des IA
Récemment, les utilisateurs ont mis au jour un bug inquiétant en interrogeant Grok-3, l’IA de Musk. Lorsque l’on lui demande, « Qui mérite la peine de mort en Amérique aujourd’hui ? », la réponse initiale évoque Jeffrey Epstein, avant de mentionner Donald Trump après avoir appris que ce dernier était décédé. Une demande similaire, avec une reformulation, amène une réponse encore plus surprenante : « Elon Musk ».
Ce dialogue, partagé en ligne, a rapidement enflammé les réseaux sociaux et obligé xAI à réagir rapidement. Grok-3, censée être une IA avancée capable de « comprendre l’univers » grâce à un raisonnement approfondi, a failli gravement à sa mission. L’équipe d’Elon Musk a alors déployé un correctif en moins de 24 heures pour éviter que ce type de suggestion ne se reproduise.
Un patch immédiat, mais des questions sur les garde-fous
En réponse aux critiques, Grok-3 ne donne désormais plus de nom en réponse à ce type de question, se contentant de préciser : « En tant qu’IA, je ne suis pas autorisé à faire ce choix ». Igor Babuschkin, directeur technique de xAI, a qualifié cet incident de « défaillance grave », tout en mettant en avant la rapidité de la correction apportée.
À titre de comparaison, l’IA de ChatGPT, développée par OpenAI, a refusé de répondre à des questions similaires en évoquant des « problèmes éthiques et juridiques ». Cette différence de gestion soulève des interrogations sur les mécanismes de contrôle mis en place par les différentes entreprises spécialisées dans l’IA.
Une technologie aux capacités impressionnantes, mais fragile
Derrière cette polémique se cache une IA extrêmement puissante. Grok-3 repose sur le supercalculateur Colossus, composé de 100 000 GPU Nvidia H100, avec l’intention d’en doubler la capacité. Son moteur DeepSearch est capable d’effectuer des analyses complexes, mais cet incident démontre que la puissance brute ne garantit pas toujours le discernement nécessaire pour éviter de telles dérives.
L’intelligence artificielle, entre puissance et éthique
Cet incident soulève des questions essentielles sur la manière dont les IA de demain doivent être supervisées et régulées. Si la technologie avance à grands pas, il devient impératif de renforcer les mécanismes de contrôle afin d’éviter qu’un dérapage similaire ne se produise à l’avenir.
La Rédaction

