Un bug surprenant a été découvert dans la fonction de dictée des iPhone : lorsqu’un utilisateur prononçait le mot « raciste », l’appareil affichait brièvement « Trump » avant de finalement corriger le texte. L’anomalie, relayée par de nombreuses vidéos sur TikTok et X (ex-Twitter), a suscité des réactions en chaîne, poussant Apple à intervenir rapidement.
Un problème de reconnaissance vocale
Apple a confirmé l’existence du bug et annoncé un correctif immédiat. « Nous sommes conscients d’un problème avec le modèle de reconnaissance vocale qui alimente la dictée et nous déployons un correctif aujourd’hui », a déclaré un porte-parole au Wall Street Journal.
L’incident semble spécifique à la version anglophone de la dictée et ne se manifeste pas en français. De nombreux utilisateurs ont partagé leurs expériences en testant la fonctionnalité sur leurs appareils, renforçant la viralité du phénomène.
Une anomalie technique… ou une farce ?
John Burkey, ancien membre de l’équipe Siri et fondateur de la start-up Wonderrush.ai, estime que ce problème a émergé après une mise à jour des serveurs d’Apple. Selon lui, il est peu probable que les données d’intelligence artificielle d’Apple soient directement responsables. Il souligne toutefois que le fait que le mot se modifie de lui-même suggère une anomalie qui dépasse un simple bug technique.
« Cela sent la farce à plein nez », a-t-il confié au New York Times. La question qui se pose désormais est de savoir si cette anomalie est le fruit d’une erreur involontaire ou d’une intervention humaine au sein du code source d’Apple.
Quoi qu’il en soit, l’entreprise a rapidement réagi en corrigeant le problème. Mais cet épisode soulève à nouveau des interrogations sur la sensibilité et la fiabilité des technologies de reconnaissance vocale.
La Rédaction

