Nous avons besoin d’un débat beaucoup plus intelligent sur l’intelligence artificielle.

Les modes de pensée du XXe siècle ne nous aideront pas à relever les énormes défis réglementaires que pose cette technologie.

Le débat public sur l’intelligence artificielle (IA) est divisé entre ceux qui la considèrent comme une menace potentielle et ceux qui pensent qu’elle peut être exploitée pour stimuler l’innovation et la croissance économique. Cependant, il existe quatre façons d’envisager l’IA qui pourraient être acceptables pour les deux parties. Premièrement, il n’est pas utile de débattre de la réglementation en se référant à une crise, une technologie, une personne ou une entreprise particulière. Deuxièmement, les nouvelles avancées en matière d’IA doivent être analysées de manière objective, sans faire de comparaisons avec la pensée humaine. Troisièmement, les défis posés par l’IA sont intrinsèquement politiques et nous devons reconnaître que les nouvelles technologies auront inévitablement un impact sur notre démocratie, notre justice et notre liberté. Enfin, les discussions sur la réglementation doivent être réalistes et nous avons besoin d’une nouvelle approche avec de nouvelles lois, de nouveaux organismes publics, de nouvelles institutions, de nouveaux droits et devoirs et de nouveaux codes de conduite pour l’industrie technologique.

Le débat public sur l’intelligence artificielle semble parfois se dérouler dans deux réalités alternatives.

Dans la première, l’IA est considérée comme une avancée remarquable mais potentiellement dangereuse dans les affaires humaines, qui nécessite des formes de gouvernance nouvelles et prudentes. C’est le point de vue de plus d’un millier d’éminentes personnalités du monde universitaire, de la politique et de l’industrie technologique qui, dans une lettre ouverte publiée cette semaine, ont demandé un moratoire de six mois sur la formation de certains systèmes d’intelligence artificielle. Selon eux, les laboratoires d’IA sont « engagés dans une course incontrôlée pour développer et déployer des esprits numériques de plus en plus puissants ». Ces systèmes pourraient « poser des risques profonds pour la société et l’humanité ».

Le même jour que la lettre ouverte, mais dans un univers parallèle, le gouvernement britannique a décidé que l’objectif principal du pays devait être de stimuler l’innovation. Le livre blanc sur la gouvernance de l’IA n’avait pas grand-chose à dire sur l’atténuation des risques existentiels, mais beaucoup à dire sur la croissance économique. Il propose une réglementation des plus légères et met en garde contre les « charges inutiles qui pourraient étouffer l’innovation ». En bref : on ne peut épeler « laissez-faire » sans « IA ».

La différence entre ces points de vue est profonde. Si l’on prend la lettre ouverte au pied de la lettre, l’approche du gouvernement britannique n’est pas seulement erronée, elle est aussi irresponsable. Pourtant, les deux points de vue sont défendus par des personnes raisonnables qui connaissent leurs oignons. Ils reflètent un désaccord politique persistant qui est en train de s’imposer comme une priorité.

Malgré ces divergences, il existe quatre façons d’envisager l’IA qui devraient être acceptables pour les deux parties.

Premièrement, il est généralement inutile de débattre des mérites de la réglementation en se référant à une crise particulière (Cambridge Analytica), à une technologie (GPT-4), à une personne (Musk) ou à une entreprise (Meta). Chacune d’entre elles comporte ses propres problèmes et ses propres passions. Un système réglementaire solide sera fondé sur des hypothèses suffisamment générales pour ne pas être immédiatement supplantées par la prochaine grande nouveauté. Il faut regarder le signal, pas le bruit.

Deuxièmement, nous devons faire preuve de lucidité dans la manière dont nous analysons les nouvelles avancées. Cela signifie qu’il faut éviter le piège qui consiste à se demander si les nouveaux systèmes d’intelligence artificielle nous ressemblent, puis à les écarter s’ils ne nous ressemblent pas.

En réalité, les systèmes d’apprentissage automatique ne nous ressemblent pas du tout dans leur conception, mais ils n’en sont pas moins importants pour autant. Pour ne prendre qu’un exemple : le fait que des systèmes d’IA non humains, peut-être dotés de visages et de voix, seront bientôt capables de participer au débat politique de manière sophistiquée sera probablement plus important pour l’avenir de la démocratie que le fait qu’ils ne « pensent » pas comme les humains. En effet, se demander si un système d’apprentissage automatique peut « penser » comme un humain est souvent aussi utile que de se demander si une voiture peut galoper aussi vite qu’un cheval.

Troisièmement, nous devrions tous reconnaître aujourd’hui que les défis posés par l’IA sont de nature politique. Les systèmes qui participent à l’écosystème de la liberté d’expression, ou qui le modèrent, auront inévitablement un impact sur la nature de notre démocratie. Les algorithmes qui déterminent l’accès au logement, au crédit, à l’assurance ou à l’emploi auront de réelles implications pour la justice sociale. Et les règles codées dans les technologies omniprésentes élargiront ou réduiront notre liberté. Démocratie, justice, liberté : lorsque nous parlons de nouvelles technologies, nous parlons souvent de politique, que nous en soyons conscients ou non. Le numérique est politique.

Enfin, les discussions sur la réglementation doivent être réalistes. Il y avait quelque chose de naïf dans l’implication de la lettre ouverte selon laquelle les problèmes de gouvernance de l’IA pourraient être résolus de manière substantielle au cours d’un moratoire de six mois. Le gouvernement britannique n’aura probablement pas communiqué les résultats de sa consultation dans les six mois, et encore moins promulgué une législation significative. En même temps, si nous attendons que les États-Unis, la Chine et l’UE conviennent de règles pour la gouvernance de l’IA, nous allons attendre éternellement. Le problème de la réglementation de l’IA est un défi générationnel. Les solutions ne seront pas trouvées dans un bref élan d’énergie législative, comme un codeur qui passerait une nuit blanche.

Nous aurons besoin d’une nouvelle approche : de nouvelles lois, de nouveaux organismes et institutions publics, de nouveaux droits et devoirs, de nouveaux codes de conduite pour l’industrie technologique. La politique du vingtième siècle a été définie par un débat sur la part de l’activité humaine qui devait être déterminée par l’État et celle qui devait être laissée aux forces du marché et à la société civile. Au cours de ce siècle, une nouvelle question se pose : dans quelle mesure nos vies doivent-elles être dirigées par de puissants systèmes numériques, et à quelles conditions ? Il faudra du temps pour savoir si notre discours public peut atteindre le niveau de sophistication nécessaire.

intelligence artificielle

SEO INSIDE est une agence SEO à Reims (notamment…).

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.