IA

Voici comment les gouvernements peuvent apprivoiser l’IA avant qu’il ne soit trop tard

L'avenir de l'IA est prometteur, mais seulement si nous la réglementons à temps. Sinon, l'avenir peut être effrayant

Avatar de Chema Carvajal Sarabia

Chema Carvajal Sarabia

  • 30 novembre 2024
  • Mise à jour: 12 juin 2025 à 09:23

Les systèmes d’IA sont intégrés dans presque tous les aspects de la vie moderne. Ils suggèrent quels programmes et films vous devriez regarder, ils aident même les employeurs à décider qui ils veulent embaucher.

Mais que se passe-t-il lorsque ces systèmes, souvent considérés comme neutres, commencent à prendre des décisions qui désavantagent certains groupes ou, pire encore, causent des dommages dans le monde réel ? Des milliers de professionnels se posent cette question.

Les conséquences des applications de l’IA, souvent négligées, exigent des cadres réglementaires capables de suivre le rythme de cette technologie en évolution rapide. Et une experte dans ce domaine, Sylvia Lu, a étudié l’intersection entre le droit et la technologie pour esquisser un cadre juridique pour faire précisément cela.

Une régulation qui ne va jamais aussi vite que l’innovation

Malgré ces dangers croissants, les cadres juridiques du monde entier ont eu du mal à suivre le rythme. Aux États-Unis, une approche réglementaire qui met l’accent sur l’innovation a rendu difficile l’imposition de normes strictes sur la manière dont ces systèmes sont utilisés dans de multiples contextes.

Les tribunaux et les organismes de réglementation sont habitués à traiter des dommages concrets, mais les dommages algorithmiques sont souvent plus subtils, cumulatifs et difficiles à détecter. Les réglementations n’abordent souvent pas les effets plus larges que les systèmes d’IA peuvent avoir au fil du temps.

Les algorithmes des réseaux sociaux, par exemple, peuvent éroder progressivement la santé mentale des utilisateurs, mais comme ces dommages s’accumulent lentement, ils sont difficiles à aborder dans les limites des normes juridiques actuelles.

Créer une véritable responsabilité

Catégoriser les types de dommages algorithmiques délimite les frontières légales de la régulation de l’IA et présente des réformes juridiques possibles pour combler cette lacune de responsabilité.

Les changements que l’experte pense utiles incluent des évaluations d’impact algorithmique obligatoires qui exigent que les entreprises documentent et abordent les dommages immédiats et cumulatifs d’une application d’IA sur la vie privée, l’autonomie, l’égalité et la sécurité, avant et après son déploiement.

Par exemple, les entreprises qui utilisent des systèmes de reconnaissance faciale devraient évaluer l’impact de ces systèmes tout au long de leur cycle de vie.

Un autre changement utile serait le renforcement des droits individuels concernant l’utilisation des systèmes d’IA, permettant aux personnes de choisir de ne pas participer à des pratiques nuisibles et obligeant certaines applications d’IA à obtenir le consentement pour participer.

Par exemple, exiger un régime d’inclusion volontaire pour le traitement des données par les entreprises utilisant des systèmes de reconnaissance faciale et permettre aux utilisateurs de se retirer à tout moment.

Enfin, l’experte suggère d’exiger des entreprises qu’elles révèlent l’utilisation de la technologie de l’IA et les dommages prévus. Par exemple, cela pourrait inclure la notification aux clients de l’utilisation de systèmes de reconnaissance faciale et des dommages prévus dans les domaines décrits dans la typologie.

À mesure que l’utilisation des systèmes d’IA se généralise dans des fonctions sociales critiques (de la santé à l’éducation et à l’emploi), la nécessité de réguler les dommages qu’ils peuvent causer devient plus urgente. Sans intervention, il est probable que ces dommages invisibles continuent de s’accumuler, affectant presque tout le monde et touchant de manière disproportionnée les plus vulnérables.

Avec l’IA générative multipliant et exacerbant les dommages de l’IA, l’experte estime qu’« il est important que les responsables politiques, les tribunaux, les développeurs de technologie et la société civile reconnaissent les dommages juridiques de l’IA ». Cela nécessite non seulement de meilleures lois, mais aussi une approche plus réfléchie de la technologie de pointe de l’IA, qui donne la priorité aux droits civils et à la justice face aux avancées technologiques rapides.

Comme le dit Sylvia Lu dans son article, l’avenir de l’IA est incroyablement prometteur, mais sans les cadres juridiques appropriés, elle pourrait également renforcer les inégalités et éroder les mêmes droits civils qu’elle est, dans de nombreux cas, conçue pour améliorer.

Avatar de Chema Carvajal Sarabia

Chema Carvajal Sarabia

Journaliste spécialisé dans la technologie, le divertissement et les jeux vidéo. Écrire sur ce qui me passionne (gadgets, jeux et films) me permet de rester sain d'esprit et de me réveiller avec le sourire aux lèvres quand le réveil sonne. PS : cela n'est pas vrai 100 % du temps.

Directives éditoriales

Derniers articles

Chargement de l’article suivant