IA

Les derniers modèles de ChatGPT ne cessent d'étonner : est-ce la fin de l'IA ?

Les récents progrès en intelligence artificielle ont entraîné une augmentation des taux d'hallucinations dans des modèles comme l'o3 d'OpenAI

Avatar de Agencias

Agencias

  • 9 mai 2025
  • Mise à jour: 11 juin 2025 à 18:59

L’intelligence artificielle (IA) continue de montrer des avancées sans précédent dans ses capacités et son raisonnement, bien que ces progrès soient également accompagnés d’un phénomène inquiétant : l’augmentation des taux d’hallucination dans certains modèles.

En particulier, les modèles les plus récents d’OpenAI, comme le o3 et le o4-mini, ont enregistré des taux d’hallucination significativement élevés, ce qui contraste fortement avec les développements de concurrents comme Google, dont les modèles Gemini maintiennent des taux inférieurs à 1%.

Un test montre que le modèle o3 d’OpenAI a un taux d’hallucinations de 6,8 %

Le benchmark « Hallucination Leaderboard », récemment mis à jour, révèle que certains des modèles les plus avancés ont non seulement réussi à obtenir un faible taux d’hallucinations, mais contredisent également l’idée que plus le progrès technologique est important, plus ces indices sont élevés.

Par exemple, des modèles comme Google Gemini-2.0-Flash-001 et Vectara Mockingbird-2-Echo ont montré des taux d’hallucination de 0,7 % et 0,9 %, respectivement, tandis que le modèle o3 d’OpenAI présente un taux alarmant de 6,8 % selon le professeur Ethan Mollick de Wharton.

Cette situation soulève un dilemme dans l’innovation de l’IA : les modèles qui possèdent de plus grandes capacités de raisonnement sont, ironiquement, ceux qui rencontrent des difficultés significatives en matière de fiabilité et de précision.

Bien qu’OpenAI ait été pionnière dans la création de technologies d’IA sophistiquées, le défi persiste à équilibrer performance et précision. Alors que les entreprises rivalisent pour atteindre une intelligence artificielle générale (AGI), cette course a conduit à des développements plus puissants, bien que la fiabilité reste un élément critique encore à résoudre.

OpenAI est conscient de ces problèmes et travaille à corriger les taux élevés d’hallucination dans ses systèmes. Cette reconnaissance pourrait être clé pour s’assurer que les avancées en capacités ne compromettent pas la qualité de ses modèles à l’avenir, soulignant ainsi l’importance de la fiabilité dans l’évolution de l’IA générative.

Derniers articles

Chargement de l’article suivant