IA

ChatGPT devient viral à cause du démon

Une récente vidéo virale montre comment la voix de ChatGPT change de manière inattendue en un ton sinistre, provoquant des rires et une inquiétude sur les capacités croissantes de l'IA

ChatGPT devient viral à cause du démon
Agencias

Agencias

  • 25 avril 2025
  • Mise à jour: 25 avril 2025 à 14:25
ChatGPT devient viral à cause du démon

L’incertitude autour de l’intelligence artificielle et de son évolution continue de croître parmi le public.

Récemment, un utilisateur de Reddit a partagé un clip viral dans lequel ChatGPT, en utilisant le Mode de Voix Avancée, adopte un ton démoniaque, suscitant des rires et, en même temps, un sentiment de peur.

Ce curieux incident s’est produit dans la version v1.2025.098 du programme, et jusqu’à présent, il n’a pas été possible de reproduire l’erreur lors des tests ultérieurs. Le mélange d’humour et d’inquiétude que génère cette situation met en lumière la relation ambivalente que beaucoup ont avec les technologies émergentes.

L’IA est-elle une menace ? Les utilisateurs s’inquiètent à cause d’une réaction démoniaque de ChatGPT

Dans le clip, l’utilisateur @freddieghorton interroge ChatGPT sur la vitesse de téléchargement. Au fur et à mesure que la conversation progresse, la voix de l’IA se transforme, passant d’un ton normal à un ton de plus en plus sinistre.

Bien que le moment ait été comique pour beaucoup, il souligne également une tendance plus large d’inquiétude envers les interactions avec l’IA. Dans une récente enquête sur la courtoisie dans l’interaction avec ChatGPT, 12 % des participants ont admis utiliser des expressions comme « s’il vous plaît » et « merci », craignant une éventuelle rébellion des machines.

Ce type de réactions met en évidence une réalité palpable : la population est à la fois fascinée et effrayée par le potentiel de l’intelligence artificielle. Bien que cela puisse sembler absurde, l’inquiétude concernant le comportement des chatbots commence à affecter la manière dont les utilisateurs communiquent avec eux. Il est crucial qu’OpenAI agisse rapidement pour corriger ce bug, car une erreur de ce type pourrait susciter une peur réelle envers l’utilisation de son assistant. Au final, la technologie doit inspirer confiance, et non crainte.

Derniers articles

Chargement de l’article suivant