La « déclaration des droits de l’IA » de la Maison Blanche énonce cinq principes visant à rendre l’intelligence artificielle plus sûre, plus transparente et moins discriminatoire.

Malgré le rôle important et sans cesse croissant de l’intelligence artificielle dans de nombreux domaines de la société moderne, il existe très peu de politiques ou de réglementations régissant le développement et l’utilisation des systèmes d’IA aux États-Unis. Les entreprises technologiques ont été largement laissées à elles-mêmes dans ce domaine, ce qui a pu conduire à des décisions et des situations qui ont suscité des critiques.

Google a licencié un employé qui avait publiquement exprimé ses inquiétudes quant à la façon dont un certain type d’IA peut contribuer à des problèmes environnementaux et sociaux. D’autres entreprises d’IA ont développé des produits utilisés par des organisations telles que le département de police de Los Angeles, où il a été démontré qu’ils renforçaient les politiques existantes fondées sur des préjugés raciaux.

Il existe certaines recommandations et orientations gouvernementales concernant l’utilisation de l’IA. Mais au début du mois d’octobre 2022, le Bureau de la politique scientifique et technologique de la Maison-Blanche a considérablement renforcé les orientations fédérales en publiant le Blueprint for an AI Bill of Rights.

L’Office of Science and Technology affirme que les protections décrites dans le document devraient être appliquées à tous les systèmes automatisés. Le plan directeur énonce « cinq principes qui devraient guider la conception, l’utilisation et le déploiement des systèmes automatisés afin de protéger le public américain à l’ère de l’intelligence artificielle« . L’espoir est que ce document puisse servir de guide pour empêcher les systèmes d’IA de limiter les droits des résidents américains.

En tant qu’informaticien qui étudie la façon dont les gens interagissent avec les systèmes d’IA – et en particulier la façon dont l’anti-Noirité médiatise ces interactions – je trouve que ce guide est un pas dans la bonne direction, même s’il a quelques trous et n’est pas applicable.

Améliorer les systèmes pour tous

Les deux premiers principes visent à garantir la sécurité et l’efficacité des systèmes d’IA, ainsi que le risque majeur que l’IA favorise la discrimination.

Pour améliorer la sécurité et l’efficacité de l’IA, le premier principe suggère que les systèmes d’IA soient développés non seulement par des experts, mais aussi avec la contribution directe des personnes et des communautés qui vont utiliser et être affectées par les systèmes. Les communautés exploitées et marginalisées doivent souvent faire face aux conséquences des systèmes d’IA sans avoir leur mot à dire dans leur développement. La recherche a montré que la participation directe et authentique des communautés au processus de développement est importante pour déployer des technologies qui ont un impact positif et durable sur ces communautés.

Le deuxième principe porte sur le problème connu de la discrimination algorithmique au sein des systèmes d’IA. Un exemple bien connu de ce problème est la façon dont les algorithmes d’approbation des prêts hypothécaires discriminent les minorités. Le document demande aux entreprises de développer des systèmes d’IA qui ne traitent pas les gens différemment en fonction de leur race, de leur sexe ou de toute autre classe protégée. Il suggère que les entreprises utilisent des outils tels que les évaluations de l’équité, qui peuvent aider à déterminer comment un système d’IA peut avoir un impact sur les membres des communautés exploitées et marginalisées.

Ces deux premiers principes abordent les grandes questions de partialité et d’équité que l’on retrouve dans le développement et l’utilisation de l’IA.

Vie privée, transparence et contrôle

Les trois derniers principes décrivent les moyens de donner aux gens plus de contrôle lorsqu’ils interagissent avec les systèmes d’IA.

Le troisième principe concerne la confidentialité des données. Il vise à faire en sorte que les personnes aient davantage leur mot à dire sur la manière dont leurs données sont utilisées et soient protégées contre les pratiques abusives en matière de données. Cette section vise à remédier aux situations où, par exemple, les entreprises utilisent une conception trompeuse pour manipuler les utilisateurs et les amener à donner leurs données. Le plan d’action préconise des pratiques telles que le fait de ne pas collecter les données d’une personne sans son consentement et de le lui demander d’une manière compréhensible pour elle.

Le principe suivant porte sur « la notification et l’explication ». Il souligne l’importance de la transparence : les personnes doivent savoir comment un système d’IA est utilisé et comment l’IA contribue aux résultats qui peuvent les affecter. Prenons, par exemple, l’administration des services de l’enfance de la ville de New York. Des recherches ont montré que l’agence utilise des systèmes d’IA externalisés pour prédire la maltraitance des enfants, des systèmes dont la plupart des gens ne réalisent pas qu’ils sont utilisés, même lorsqu’ils font l’objet d’une enquête.

La Charte des droits de l’IA fournit une ligne directrice selon laquelle les personnes à New York dans cet exemple qui sont affectées par les systèmes d’IA utilisés devraient être informées qu’une IA a été impliquée et avoir accès à une explication de ce que l’IA a fait. La recherche a montré que l’intégration de la transparence dans les systèmes d’IA peut réduire le risque d’erreurs ou de mauvaise utilisation.

Le dernier principe de la Charte des droits de l’IA décrit un cadre pour les alternatives, la prise en compte et le retour d’information de l’homme. Il précise que les personnes devraient pouvoir refuser l’utilisation de l’IA ou d’autres systèmes automatisés en faveur d’une alternative humaine lorsque cela est raisonnable.

Pour illustrer la manière dont ces deux derniers principes peuvent s’appliquer, prenons le cas d’une personne qui demande un prêt hypothécaire. Elle serait informée si un algorithme d’IA a été utilisé pour examiner sa demande et aurait la possibilité de refuser cette utilisation de l’IA en faveur d’une personne réelle.

Des directives intelligentes, mais pas d’applicabilité

Les cinq principes énoncés dans la Charte des droits de l’IA répondent à bon nombre des questions soulevées par les universitaires concernant la conception et l’utilisation de l’IA. Néanmoins, il s’agit d’un document non contraignant qui n’est pas applicable à l’heure actuelle.

Il est peut-être exagéré d’espérer que l’industrie et les agences gouvernementales mettront en œuvre ces idées de la manière exacte préconisée par la Maison Blanche. Si la bataille réglementaire en cours sur la confidentialité des données offre une orientation, les entreprises technologiques continueront à faire pression en faveur de l’autorégulation.

Un autre problème que je vois dans la déclaration des droits de l’IA est qu’elle ne mentionne pas directement les systèmes d’oppression – comme le racisme ou le sexisme – et la manière dont ils peuvent influencer l’utilisation et le développement de l’IA. Par exemple, des études ont montré que des hypothèses inexactes intégrées dans les algorithmes d’IA utilisés dans le domaine de la santé ont conduit à des soins moins bons pour les patients noirs. J’ai fait valoir que le racisme anti-Noir devrait être abordé directement lors du développement de systèmes d’IA. Bien que la Charte des droits de l’IA aborde les idées de partialité et d’équité, le manque d’attention portée aux systèmes d’oppression est une lacune notable et un problème connu dans le développement de l’IA.

Malgré ces lacunes, ce projet pourrait être une étape positive vers de meilleurs systèmes d’IA, et peut-être le premier pas vers une réglementation. Un document comme celui-ci, même s’il ne s’agit pas d’une politique, peut être une référence puissante pour les personnes qui militent pour des changements dans la manière dont une organisation développe et utilise les systèmes d’IA.

intelligence artificielle

SEO INSIDE est une agence de netlinking (notamment…).

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.