Publicité

Infos

OpenAI supprime les subtilités concernant l’utilisation « militaire » de sa technologie d’IA

La victoire de Sam Altman semble commencer à se faire sentir

OpenAI supprime les subtilités concernant l’utilisation « militaire » de sa technologie d’IA
Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • Mise à jour:

OpenAI, le créateur de ChatGPT, a ajusté les détails de ses politiques d’utilisation pour supprimer le texte spécifique relatif à l’utilisation de sa technologie d’IA ou de grands modèles linguistiques à des « fins militaires et belliqueuses ».

ChatGPT TÉLÉCHARGER

Avant le changement des règles le 10 janvier dernier, la politique d’utilisation interdisait spécifiquement l’utilisation des modèles d’OpenAI dans la conception d’armes, et le développement militaire et belliqueux, ainsi que les contenus qui promeuvent, encouragent ou représentent des actes d’automutilation.

OpenAI affirme que les politiques mises à jour récapitulent la liste et rendent le document plus « lisible », tout en offrant « des orientations spécifiques pour chaque service ».

Est-ce vraiment plus facile d’utiliser la technologie à des fins militaires ?

La liste a maintenant été condensée en ce que l’entreprise appelle des Politiques Universelles, qui interdisent à quiconque d’utiliser ses services pour nuire à autrui et interdisent la réutilisation ou la distribution de tout résultat de ses modèles pour nuire à autrui.

Bien que l’alternance des politiques soit interprétée comme un affaiblissement progressif de la position de l’entreprise vis-à-vis de la collaboration avec des organisations liées à la défense ou à l’armée, plusieurs experts, dont Sam Altman, PDG d’OpenAI, ont déjà souligné les « risques frontières » posés par l’IA.

Bien que nous devions encore voir ses implications dans la vie réelle, ce changement de rédaction intervient alors que les agences militaires du monde entier manifestent un intérêt pour l’utilisation de l’IA.

La mention explicite de « militaire et belliqueux » dans la liste des utilisations interdites indiquait qu’OpenAI ne pouvait pas travailler avec des organismes gouvernementaux tels que le Département de la Défense, qui offre généralement des contrats lucratifs aux entrepreneurs.

Pour l’instant, l’entreprise n’a pas de produit qui puisse tuer ou causer directement des dommages physiques à quiconque. Cependant, comme l’a dit The Intercept, sa technologie pourrait être utilisée pour des tâches telles que l’écriture de code et le traitement des commandes d’acquisition de choses qui pourraient être utilisées pour tuer des personnes.

ChatGPT TÉLÉCHARGER

Lorsqu’on lui a demandé pourquoi il avait modifié sa politique, le porte-parole d’OpenAI, Niko Felix, a déclaré à la publication que l’entreprise « avait l’intention de créer un ensemble de principes universels faciles à retenir et à appliquer, surtout compte tenu du fait que nos outils sont déjà utilisés à l’échelle mondiale par des utilisateurs ordinaires qui peuvent désormais également créer des GPT ».

Chema Carvajal Sarabia

Chema Carvajal Sarabia

Journaliste spécialisé dans la technologie, le divertissement et les jeux vidéo. Écrire sur ce qui me passionne (gadgets, jeux et films) me permet de rester sain d'esprit et de me réveiller avec le sourire aux lèvres quand le réveil sonne. PS : cela n'est pas vrai 100 % du temps.

Nouveautés de Chema Carvajal Sarabia

Directives éditoriales