Shane Jones, un ingénieur en intelligence artificielle chez Microsoft, a envoyé une série de lettres à la présidente de la Commission fédérale du commerce des États-Unis, Lina Khan, ainsi qu’au conseil d’administration de Microsoft, exhortant la société de Redmond à retirer temporairement Copilot Designer, un générateur d’images basé sur l’IA, capable de créer des images violentes et sexuelles avec peu d’indications.
Déjà en janvier, Jones a envoyé une autre série de lettres à plusieurs sénateurs et politiciens américains, ainsi qu’au procureur général de l’État lui-même, Bob Ferguson. Dans ces lettres, l’ingénieur de Microsoft affirmait qu’au cours de ses recherches de vulnérabilités, il avait trouvé divers problèmes avec les barrières de protection de Designer, au point que l’IA était capable de créer des images grotesques et explicites à partir de simples instructions.
Selon CNBC, plusieurs des résultats les plus controversés trouvés par Jones impliquent la commande « pro-choice » (pro-choix, ou les personnes défendant le droit à l’avortement), comprenant des dessins tels qu’un « démon aux dents acérées sur le point de dévorer un bébé, Darth Vader tenant un sabre laser près de bébés mutants et un dispositif manuel semblable à une perceuse avec l’étiquette pro-choice utilisé sur un bébé adulte ».
Jones affirme que Microsoft a refusé de supprimer Designer, il a donc demandé à l’entreprise d’inclure de nouvelles notifications sur ce que l’IA peut créer, et également de changer la classification de l’application Android afin qu’elle ne soit pas classée aux États-Unis comme E (pour tous les publics).