Le départ (et le retour ultérieur) de Sam Altman chez OpenAI a fait la une plusières fois. Et ce n’est pas pour rien. La révolution de l’intelligence artificielle est menée par cette entreprise, qui ironiquement, a commencé en tant qu’organisation à but non lucratif. Avec une situation un peu plus apaisée, les problèmes entourant OpenAI continuent de soulever des questions sans réponse : qu’est-ce qui a causé le licenciement de Sam Altman ? Une lettre écrite par plusieurs chercheurs de l’équipe semble avoir la réponse.
Selon Reuters, cette lettre mettait en garde contre une grande découverte en matière d’intelligence artificielle qui pourrait menacer l’humanité. Cette découverte, ajoutée à la lettre, auraient été les deux événements clés ayant conduit au licenciement d’Altman.
Une autre grande préoccupation du conseil d’OpenAI était la commercialisation de ses avancées, sans presque prendre le temps de réfléchir aux conséquences. À travers des messages internes, OpenAI a confirmé l’existence d’un projet nommé Q*, ou Q Star. Les employés de l’entreprise croient fermement que Q Star pourrait représenter une avancée majeure dans le domaine de l’Intelligence Artificielle Générale (AGI en anglais). En substance, il s’agit d’un système qui surpasserait les humains dans de nombreuses tâches
Ce nouveau modèle, beaucoup plus avancé, utilise d’importantes ressources informatiques pour fonctionner et est déjà capable de résoudre des problèmes mathématiques par lui-même. Il est vrai que, pour l’instant, son niveau est comparable à celui d’un élève de primaire. Néanmoins, chez OpenAI, on se montre très optimiste quant à son potentiel futur.
Pour les chercheurs, ce fait est clé, car les mathématiques restent une frontière à franchir pour l’intelligence artificielle. Développer une IA capable de résoudre des calculs mathématiques impliquerait une chose : sa capacité de raisonnement serait déjà très semblable à celle de l’humain. Car une calculatrice peut résoudre certaines opérations jusqu’à une limite, mais un AGI pourrait apprendre et comprendre ce qu’il fait.
ChatGPT est capable de générer du texte cohérent sur la base de statistiques, comme s’il s’agissait d’un clavier prédictif très puissant. Cependant, il ne comprend pas ce qu’il écrit. Avec Q Star, l’IA commencerait à imiter le raisonnement humain. Dans la lettre dont nous parlons au début, les chercheurs soulignent le danger potentiel que pourrait représenter cette technologie