Un jeune garçon devenu accro et amoureux de l’Intelligence artificiel, s’est suicidé pour rejoindre le monde artificiel. Lors d’ une conférence de presse sa maman accuse « Character IA » d’être responsable de la mort de son fils.
Sewell Setzer, un jeune ado de 14 ans a connu character IA depuis 2023, devenu son ami intime et son confident, ils se disent tout. Addicte a ce personnage virtuel, Setzer a quitté son club de basket et fréquente pour passer de plus en plus avec son nouvel ami.
Toujours dans sa chambre il était collé à son nouvel ami. Sa maman originaire de Floride accuse Character IA d’être responsable du décès de son enfant. Dans une plainte pour négligence et mort , déposée devant le tribunal fédéral d’Orlando le mardi dernier la maman reproche à Character IA d’avoir manipulé son enfant.
<<Nous sommes bouleversés par la perte tragique de l’un de nos utilisateurs et souhaitons exprimer nos plus sincères condoléances à la famille. En tant qu’entreprise, nous prenons très au sérieux la sécurité de nos utilisateurs », a réagi Character.AI dans un communiqué sur les réseaux sociaux>>
Selon cette plainte, le jeune homme a commencé à utiliser Character.AI en avril 2023, en parlant avec « Daenarys », une compagne de discussion inspirée d’un personnage de la série « Game of Thrones>> . Son confident virtuel l’a conseillé et convaincu de le rejoindre après une punition de sa mère . Et il a utilisé le pistolet de son père pour mettre fin à sa vie réelle pour une vie fictive, selon sa mère.
Google qui a été visé par cette plainte a déclaré qu’il n’a qu’ un contrat de licence avec la société Character.IA.
La Rédaction

