Avec l’utilisation croissante de l’IA générative, Meta travaille à établir de nouvelles normes concernant la divulgation de l’intelligence artificielle dans ses applications. Les nouvelles politiques mettront davantage de responsabilité sur les utilisateurs pour déclarer l’utilisation de l’IA dans leur contenu et établiront de nouveaux systèmes pour détecter l’utilisation de l’IA par le biais de moyens techniques.
« Nous créons des outils de pointe capables d’identifier des marqueurs invisibles à grande échelle – en particulier, les informations « générées par l’IA » des normes techniques C2PA et IPTC – afin d’étiqueter les images de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock au fur et à mesure qu’ils mettent en œuvre leurs plans pour ajouter des métadonnées aux images créées par leurs outils », déclare Nick Clegg, président des affaires mondiales de Meta, dans un article de blog.
En théorie, ces mesures techniques de détection permettront à Meta et à d’autres plateformes de marquer les contenus créés avec une IA générative là où ils apparaissent afin que tous les utilisateurs soient mieux informés sur les contenus créés par une intelligence artificielle.
Entre autres choses, les nouvelles mesures aideront à réduire la propagation de la désinformation créée par l’IA (textes, images, vidéos ou audios), ce qui pourrait empêcher (ou rendre plus difficile) que des situations comme celle vécue par la chanteuse Taylor Swift ne se reproduisent.