Bruxelles répond à l’appel en faveur d’une réglementation plus cohérente de l’IA.

L’UE est sur le point de devenir le premier grand marché à créer un cadre législatif couvrant spécifiquement les technologies de l’IA. On espère que d’autres suivront son exemple.

Lorsque Microsoft a lâché Tay, son chatbot alimenté par l’IA, sur Twitter le 23 mars 2016, l’espoir du géant du logiciel était qu’il allait « engager et divertir les gens… à travers une conversation décontractée et ludique ».

Acronyme de « penser à vous », Tay a été conçu pour imiter les modèles de langage d’une jeune Américaine de 19 ans et apprendre en interagissant avec des utilisateurs humains sur le réseau social.

En quelques heures, les choses ont mal tourné. Des trolls ont tweeté des phrases politiquement incorrectes au robot dans le but de manipuler son comportement. Tay a alors commencé à cracher des messages racistes, sexistes et autres messages incendiaires à ses plus de 100 000 utilisateurs. Moins d’un jour plus tard, Microsoft a été contraint de verrouiller indéfiniment le compte @TayandYou, mais pas avant que sa création n’ait tweeté plus de 96 000 fois.

Les systèmes d’IA sont, bien sûr, adaptatifs, apprenant des indices de leur environnement et modifiant leur comportement de manière autonome. Cela signifie qu’une fois qu’ils sont mis en place, des ramifications imprévues peuvent s’ensuivre, pour lesquelles les humains peuvent assez facilement éviter toute responsabilité. Ils peuvent également constituer une main invisible qui influence discrètement nos choix dans une mesure qui dépasse notre compréhension et/ou nos souhaits.

Face à la prolifération de ces risques, les législateurs ont souligné la nécessité de disposer de cadres réglementaires plus clairs et plus cohérents pour y faire face. Jusqu’à présent, les principales économies du monde n’ont pas encore établi de telles mesures, s’appuyant plutôt sur un patchwork sous-optimal de vieilles lois et de normes pour faire la police dans le secteur.

Mais cela va changer lorsque la loi sur l’intelligence artificielle proposée par la Commission européenne deviendra une loi. Présentée comme le premier cadre juridique au monde conçu spécifiquement pour couvrir l’IA, cette loi cherchera à identifier et à réglementer les formes les plus risquées de cette technologie – l’identification biométrique, par exemple. Il imposera aux développeurs des obligations de grande envergure, couvrant les normes de gouvernance, de conception, de transparence et de sécurité des données. Ceux qui ne s’y conformeront pas pourront être soumis à de lourdes amendes.

Nous savons que la partialité est un problème qui apparaît dans de nombreux systèmes d’apprentissage automatique

Une fois adoptée, la loi devra encore passer par le Parlement européen pour être adoptée – et il faudra encore au moins deux ans avant qu’elle ne devienne exécutoire.

D’autres marchés clés n’ont pas encore conçu de régime réglementaire spécifique à l’IA, bien que la Chine ait publié des principes directeurs pour sa réglementation en 2017 et, en mars dernier, une loi sur la confidentialité des données appelée « Internet Information Service Algorithm Recommendation Management Provisions ».

Le Royaume-Uni attend la publication d’un livre blanc du gouvernement sur la réglementation de l’IA, tandis que la Maison Blanche a entamé des discussions préliminaires sur la nécessité de ce qu’elle a appelé « une déclaration des droits pour un monde alimenté par l’IA » en novembre 2021.

Le Dr Mariarosaria Taddeo est professeur associé à l’Oxford Internet Institute et membre de la faculté de l’Alan Turing Institute. Elle estime qu’un « effet Bruxelles » manifeste donne le ton à suivre aux autres administrations.

« En commençant par le règlement général sur la protection des données et en poursuivant avec la loi sur les services numériques, la loi sur les marchés numériques et maintenant la loi sur l’IA, l’UE a créé un cadre pour une réglementation cohérente des technologies numériques. Tout fournisseur de technologie souhaitant accéder au marché unique devra s’y conformer », dit-elle. « Je soupçonne que nous allons passer à un ‘effet transatlantique’, car l’UE et les États-Unis ont renforcé leurs liens au cours de l’année écoulée et ont cherché des points communs pour aligner leurs réglementations. D’autres marchés sont susceptibles de suivre. »

Une partie du problème avec le méli-mélo actuel de réglementations est qu’il crée de l’incohérence. Les entreprises basées sur l’IA seraient bien mieux servies par un ensemble de normes internationales partagées si elles veulent construire une industrie mondiale florissante.

Le Dr Cosmina Dorobantu, codirecteur du programme de recherche sur les politiques publiques de l’Alan Turing Institute, note qu’en termes pratiques, l’IA est une « technologie à usage général » qui touche tous les secteurs. Cela signifie que certaines questions requièrent une approche commune, mais souvent, elles seront contrôlées par des organismes de réglementation distincts, chacun d’entre eux pouvant adopter une approche différente.

« Nous savons que la partialité est un problème qui apparaît dans de nombreux systèmes d’apprentissage automatique », déclare Dorobantu. « Nous le verrons dans les algorithmes de notation de crédit utilisés par les prêteurs hypothécaires, les technologies de reconnaissance faciale utilisées par les forces de police et les systèmes de triage automatisé utilisés par les hôpitaux, pour ne citer que quelques exemples. »

Au Royaume-Uni, ces applications relèvent de la compétence de différents chiens de garde, ce qui augmente le risque d’arbitrage réglementaire, par lequel les utilisateurs cherchent le chemin de moindre résistance, prévient-elle. De plus, des problèmes importants pourraient passer entre les mailles du filet si un régulateur supposait – à tort – qu’une autre autorité s’en occupe.

La loi sur l’IA de l’UE n’est pas sans faiblesses. La consultation de la Commission européenne sur le projet de législation a attiré plus de 300 commentaires – une réponse bien plus forte que celle que ses autres projets de loi sur la technologie ont suscitée. Les critiques se sont concentrées sur la définition trop large de l’IA et sur ce qu’elle considère comme des utilisations à haut risque de la technologie qui seront soumises à des contrôles plus stricts. Les défenseurs des droits de l’homme, quant à eux, craignent que la loi ne soit pas assez stricte pour contrôler l’utilisation de l’IA dans les applications d’application de la loi, comme la prédiction du comportement des criminels et la surveillance de masse à l’aide de systèmes de reconnaissance faciale.

Au fur et à mesure que le marché mondial de l’IA se développe, nous pourrions assister à des points de tension lorsque les approches des différentes juridictions en matière de réglementation s’affrontent, prédit M. Taddeo. L’approche de l’UE en matière de gouvernance numérique s’est historiquement fondée sur des valeurs telles que la dignité humaine. Aux États-Unis, l’accent a été mis beaucoup plus sur la préservation de la liberté, de parole ou de marché. Mais tous deux accordent de l’importance aux valeurs démocratiques et aux droits de l’homme fondamentaux, même s’ils peuvent les interpréter différemment. L’attitude de la Chine sur ces questions sera plus difficile à concilier. Elle a déjà promis d’interdire les systèmes d’IA tels que le système dit de crédit social de Pékin, qui permet de suivre et d’évaluer la fiabilité des organisations et des personnes.

Selon M. Taddeo, malgré leurs approches différentes, les pays démocratiques chercheront probablement à aligner leurs réglementations dans la mesure du possible afin de libérer les opportunités créées par l’IA.

Même s’ils ne parviennent pas à un alignement total, dit-elle, une certaine mesure de convergence permettra au moins de « créer un terrain de jeu permettant aux différents acteurs de collaborer ».

intelligence artificielle

SEO Inside est une agence SEO.

Pour aller plus loin:

Quand l’IA sait qu’elle sait…

Google utilise le deep learning pour créer des puces plus rapides en IA

Comprendre: l’IA et le connexionnisme

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.