L’utilisation passionnante et impressionnante de nouveaux modèles d’IA puissants pourrait nuire aux individus et à la société.

Lorsqu’un des chercheurs principaux de Google a demandé au chatbot LaMDA de l’entreprise s’il était un « zombie philosophique » (présentant un comportement de type humain sans avoir de vie intérieure, de conscience ou de sensibilité), il a répondu : « Bien sûr que non. » Peu convaincu, Blaise Aguera y Arcas a demandé au chatbot doté d’une IA comment il pouvait savoir que c’était vrai. « Vous devrez simplement me croire sur parole. Vous ne pouvez pas non plus prouver que vous n’êtes pas un zombie philosophe », a répondu LaMDA.

Nos machines deviennent plus intelligentes – et plus insolentes – à une vitesse étonnante et déconcertante. LaMDA fait partie d’une nouvelle génération de modèles de grands langages, ou modèles de base, qui utilisent des techniques d’apprentissage automatique pour identifier des modèles de mots dans de vastes ensembles de données et les reproduire automatiquement à la demande. Ils fonctionnent comme des fonctions d’autocomplétion rapides, mais sans préférences instinctives ou acquises, sans mémoire et sans notion d’histoire ou d’identité. « LaMDA est en effet, pour utiliser un terme brutal (bien qu’humanisant, il faut l’admettre), en train de raconter des conneries », écrit Aguera y Arcas.

Lorsqu’OpenAI, une société de recherche basée à San Francisco, a lancé l’un des premiers modèles de base, appelé GPT-3, en 2020, il a stupéfié de nombreux utilisateurs par sa capacité à générer des rames de texte plausible à une vitesse remarquable. Depuis lors, ces modèles sont devenus plus grands et plus puissants, s’étendant du texte au code informatique, aux images et à la vidéo. Ils sortent également des environnements de recherche protégés pour entrer dans le monde réel et sont de plus en plus utilisés dans le marketing, la finance, la recherche scientifique et les soins de santé. La question cruciale est de savoir dans quelle mesure ces outils technologiques doivent être contrôlés. Le risque est que des machines plus intelligentes ne rendent les humains plus stupides.

Les utilisations commerciales positives de la technologie sont soulignées par Kunle Olukotun, professeur à l’université de Stanford et cofondateur de SambaNova Systems, une start-up de la Silicon Valley qui aide ses clients à déployer l’IA. « Le rythme de l’innovation et la taille des modèles augmentent de façon spectaculaire », dit-il. « Juste au moment où vous pensiez que nous avions atteint nos limites, les gens trouvent de nouvelles astuces ».

Ces nouveaux modèles peuvent non seulement générer du texte et des images, mais aussi les interpréter. Cela permet au même système d’apprendre dans différents contextes et de gérer plusieurs tâches. Par exemple, la banque hongroise OTP travaille avec le gouvernement et SambaNova pour déployer des services alimentés par l’IA dans toute son activité. La banque souhaite utiliser cette technologie pour ajouter des agents automatisés dans ses centres d’appels, personnaliser les services offerts à ses 17 millions de clients particuliers et rationaliser ses processus internes en analysant des documents. « Personne ne sait vraiment à quoi ressemblera le secteur bancaire dans 10 ans – ou à quoi ressemblera la technologie. Mais je suis sûr à 100 % que l’IA jouera un rôle clé », déclare Peter Csanyi, directeur numérique d’OTP.

Certaines des entreprises qui ont développé de puissants modèles de base, comme Google, Microsoft et OpenAI, limitent l’accès à la technologie aux utilisateurs connus. Mais d’autres, dont Meta et EleutherAI, la partagent avec une base de clients plus large. Il existe une tension entre le fait de permettre à des experts extérieurs d’aider à détecter les failles et les biais et celui d’empêcher une utilisation plus sinistre par des personnes sans scrupules.

Les modèles de la Fondation peuvent être « vraiment passionnants et impressionnants », mais ils peuvent donner lieu à des abus car ils sont « conçus pour être sournois », explique Carissa Véliz, professeur associé à l’Institute for Ethics in AI de l’université d’Oxford. S’ils sont formés sur des ensembles de données historiquement biaisés, les modèles de la fondation peuvent produire des résultats nuisibles. Ils peuvent menacer la vie privée en extrayant des détails numériques sur un individu et en utilisant des bots pour remodeler les personnalités en ligne. Ils peuvent également dévaloriser la monnaie de la vérité en inondant l’internet de fausses informations.

M. Véliz fait une analogie avec les systèmes financiers : « On peut faire confiance à l’argent tant qu’il n’y a pas trop de contrefaçons. Mais s’il y a plus de fausse monnaie que de vraie, le système s’effondre. Nous créons des outils et des systèmes que nous ne pouvons pas contrôler. » Cela plaide pour la mise en œuvre d’essais de contrôle aléatoires pour les modèles de fondation avant leur diffusion, dit-elle, tout comme pour les médicaments pharmaceutiques.

L’Institut Stanford pour l’IA centrée sur l’humain a préconisé la création d’un comité d’experts chargé de définir des normes communautaires, de partager les meilleures pratiques et de convenir de règles d’accès normalisées avant la diffusion des modèles de base. La démocratie n’est pas seulement une question de transparence et d’ouverture. Il s’agit également d’une conception institutionnelle de la gouvernance collective. Nous sommes, comme le dit Rob Reich, de l’institut Stanford, dans une course entre « la perturbation et la démocratie ».

Tant qu’une gouvernance collective efficace ne sera pas mise en place pour contrôler l’utilisation des modèles de fondation, il est loin d’être évident que la démocratie l’emportera.

intelligence

SEO INSIDE est une agence de référencement naturel (notamment…)

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.