IA générative : comment la nouvelle ère de l’apprentissage automatique vous affectera-t-elle ?

Des systèmes comme ChatGPT peuvent produire du contenu sur commande, menaçant non seulement des emplois mais aussi une vague de désinformation.

Il y a un peu plus de 10 ans, trois chercheurs en intelligence artificielle ont réalisé une percée qui a changé le domaine à jamais.

Intelligence artificielle et IA générative

Le système « AlexNet », entraîné sur 1,2 million d’images provenant du Web, a reconnu des objets aussi différents qu’un porte-conteneurs et un léopard avec une précision bien supérieure à celle des ordinateurs.

Cet exploit a permis aux développeurs Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton de remporter un concours annuel obscur appelé ImageNet. Il a également illustré le potentiel de l’apprentissage automatique et a déclenché une course dans le monde de la technologie pour faire entrer l’IA dans le courant dominant.

Depuis lors, l’ère de l’IA s’est dessinée dans les coulisses de l’informatique. L’apprentissage automatique, une technologie sous-jacente qui implique que les ordinateurs apprennent à partir de données, a été largement utilisé dans des tâches telles que l’identification des fraudes à la carte de crédit et l’amélioration de la pertinence du contenu et de la publicité en ligne. Si les robots commencent à prendre tous les emplois, cela s’est passé en grande partie à l’abri des regards.

Enfin, jusqu’à présent. Une autre percée de l’IA vient de bouleverser le monde de la technologie. Cette fois-ci, les machines opèrent à la vue de tous – et elles pourraient finalement être prêtes à mettre à exécution leur menace de remplacer des millions d’emplois.

ChatGPT, un système de réponse aux questions et de génération de texte lancé fin novembre, a fait irruption dans la conscience publique d’une manière rarement vue en dehors du domaine de la science-fiction. Créé par OpenAI, une société de recherche basée à San Francisco, il est le plus visible d’une nouvelle vague de systèmes d’IA dits « génératifs », capables de produire du contenu sur commande.

Si vous tapez une requête dans ChatGPT, il vous répondra par un court paragraphe présentant la réponse et le contexte. Demandez-lui par exemple qui a remporté l’élection présidentielle de 2020, il vous donnera les résultats et vous dira quand Joe Biden a été inauguré.

Simple d’utilisation et capable de fournir en un instant des résultats qui semblent avoir été produits par un humain, ChatGPT promet de propulser l’IA dans la vie quotidienne. La nouvelle selon laquelle Microsoft a investi plusieurs milliards de dollars dans OpenAI – cofondée par le créateur d’AlexNet, M. Sutskever – a pratiquement confirmé le rôle central que cette technologie jouera dans la prochaine phase de la révolution de l’IA.

ChatGPT est la dernière d’une série de démonstrations publiques de plus en plus spectaculaires. Un autre système OpenAI, le système d’écriture automatique GPT-3, a électrisé le monde de la technologie lorsqu’il a été dévoilé au milieu de l’année 2020. D’autres entreprises ont ensuite développé des modèles de langage de grande envergure, avant que le domaine ne s’étende l’année dernière à la génération d’images avec des systèmes tels que Dall-E 2 d’OpenAI, le système open-source Stable Diffusion de Stability AI et Midjourney.

Ces percées ont déclenché une course effrénée pour trouver de nouvelles applications à cette technologie. Alexandr Wang, directeur général de la plateforme de données Scale AI, parle d’une « explosion cambrienne des cas d’utilisation », qu’il compare au moment préhistorique où la vie animale moderne a commencé à se développer.

Si les ordinateurs sont capables d’écrire et de créer des images, y a-t-il quelque chose qu’ils ne pourraient pas produire, s’ils sont entraînés avec les bonnes données ? Google a déjà présenté deux systèmes expérimentaux capables de générer une vidéo à partir d’une simple invite, ainsi qu’un système capable de répondre à des problèmes mathématiques. Des entreprises telles que Stability AI ont appliqué cette technique à la musique.

Cette technologie peut également être utilisée pour suggérer de nouvelles lignes de code, voire des programmes entiers, aux développeurs de logiciels. Les entreprises pharmaceutiques rêvent de l’utiliser pour générer des idées de nouveaux médicaments de manière plus ciblée. La société de biotechnologie Absci a déclaré ce mois-ci qu’elle avait conçu de nouveaux anticorps à l’aide de l’IA, ce qui, selon elle, pourrait réduire de plus de deux ans le délai d’environ quatre ans nécessaire à la mise en place d’essais cliniques pour un médicament.

Mais alors que l’industrie technologique s’empresse de présenter cette nouvelle technologie à un public mondial, il faut tenir compte de ses effets sociaux potentiellement profonds.

Demandez à ChatGPT d’écrire une dissertation sur la bataille de Waterloo dans le style d’un enfant de 12 ans, par exemple, et vous obtenez un devoir d’écolier livré à la demande. Plus sérieusement, l’IA peut être utilisée délibérément pour générer de grandes quantités de fausses informations, et elle pourrait automatiser un grand nombre d’emplois qui vont bien au-delà des types de travaux créatifs qui sont les plus évidents dans la ligne de mire.

« Ces modèles vont changer la façon dont les gens interagissent avec les ordinateurs », déclare Eric Boyd, responsable des plateformes d’IA chez Microsoft. Ils vont « comprendre votre intention d’une manière qui n’était pas possible auparavant et la traduire en actions informatiques ». En conséquence, ajoute-t-il, l’IA deviendra une technologie fondamentale, « touchant presque tout ce qui existe ».

Le problème de la fiabilité

Les partisans de l’IA générative affirment que ces systèmes peuvent rendre les travailleurs plus productifs et plus créatifs. Selon Microsoft, un système de génération de code de sa division GitHub génère déjà 40 % du code produit par les développeurs de logiciels qui l’utilisent.

Selon James Manyika, vice-président senior chez Google, qui étudie l’impact de la technologie sur la société, les résultats de systèmes de ce type peuvent « débloquer l’esprit » de tous ceux qui doivent trouver de nouvelles idées dans leur travail. Intégrés à des outils logiciels courants, ils pourraient suggérer des idées, vérifier le travail ou même produire de gros volumes de contenu.

Pourtant, malgré sa facilité d’utilisation et son potentiel à bouleverser une grande partie du paysage technologique, l’IA générative présente de profonds défis pour les entreprises qui la conçoivent et tentent de l’appliquer dans la pratique, ainsi que pour les nombreuses personnes qui risquent de la rencontrer d’ici peu dans leur travail ou leur vie personnelle.

Le plus important est le problème de la fiabilité. Les ordinateurs peuvent donner des réponses qui semblent crédibles, mais il est impossible de faire totalement confiance à ce qu’ils disent. Ils font leur meilleure estimation sur la base d’hypothèses probabilistes fondées sur l’étude de montagnes de données, sans vraiment comprendre ce qu’ils produisent.

« Ils n’ont aucune mémoire en dehors d’une seule conversation, ils ne peuvent pas apprendre à vous connaître et ils n’ont aucune notion de la signification des mots dans le monde réel », explique Melanie Mitchell, professeur à l’Institut Santa Fe. Se contentant de débiter des réponses à l’apparence convaincante en réponse à n’importe quel message, ils sont des imitateurs brillants mais sans cervelle, sans garantie que leur production soit autre chose qu’une hallucination numérique.

C’est un outil que les gens peuvent utiliser de manière morale ou immorale, légale ou illégale, éthique ou non éthique.

Il y a déjà eu des démonstrations graphiques de la façon dont la technologie peut produire des résultats qui semblent crédibles mais qui ne sont pas dignes de confiance.

À la fin de l’année dernière, par exemple, Meta, la société mère de Facebook, a présenté un système génératif appelé Galactica qui a été entraîné sur des articles universitaires. Il s’est rapidement avéré que le système crachait des recherches à l’apparence crédible mais fausses sur demande, ce qui a conduit Facebook à retirer le système quelques jours plus tard.

Les créateurs de ChatGPT admettent les lacunes du système. Le système donne parfois des réponses « absurdes » car, lorsqu’il s’agit de former l’IA, « il n’y a actuellement aucune source de vérité », a déclaré OpenAI. L’utilisation d’humains pour former directement le système, plutôt que de le laisser apprendre par lui-même – une méthode connue sous le nom d’apprentissage supervisé – n’a pas fonctionné car le système était souvent meilleur pour trouver « la réponse idéale » que ses enseignants humains, a ajouté OpenAI.

Une solution potentielle consiste à soumettre les résultats des systèmes génératifs à un contrôle de sens avant leur diffusion. Le système expérimental LaMDA de Google, qui a été annoncé en 2021, propose environ 20 réponses différentes à chaque demande, puis évalue chacune d’entre elles en termes de « sécurité, de toxicité et d’ancrage », explique Manyika. « Nous faisons un appel à la recherche pour voir si c’est bien réel ».

Pourtant, tout système qui s’appuie sur des humains pour valider les résultats de l’IA pose ses propres problèmes, explique Percy Liang, professeur associé d’informatique à l’université de Stanford. Cela pourrait apprendre à l’IA à « générer des choses trompeuses mais crédibles qui trompent réellement les humains », dit-il. « Le fait que la vérité soit si glissante, et que les humains ne soient pas terriblement doués pour cela, est potentiellement inquiétant. »

Selon les défenseurs de la technologie, il existe des moyens pratiques de l’utiliser sans essayer de répondre à ces questions philosophiques plus profondes. À l’instar d’un moteur de recherche sur Internet, qui peut donner des informations erronées ou des résultats utiles, les gens trouveront le moyen de tirer le meilleur parti de ces systèmes, affirme Oren Etzioni, conseiller et membre du conseil d’administration d’A12, l’institut de recherche sur l’IA créé par Paul Allen, cofondateur de Microsoft.

« Je pense que les consommateurs vont simplement apprendre à utiliser ces outils à leur avantage. J’espère simplement que cela n’impliquera pas que les enfants trichent à l’école », ajoute-t-il.

Un moteur d’IA en action

Voici comment des invites peuvent être utilisées pour modifier les résultats du générateur d’IA Midjourney.

Invite : Un robot dans un bureau, en détail

Voici le résultat obtenu par Midjourney pour l’invite la plus simple. Les utilisateurs avancés peuvent ajouter des détails pour le ratio d’aspect, l’éclairage, le style et d’autres variables.

Invite : Un robot dans un bureau, dessin à l’encre, sumi-e

Invite : Un robot dans un bureau, détaillé, dans le style de Van Gogh.

Les images de Van Gogh sont très répandues sur Internet, la reproduction du style caractéristique de l’artiste est donc fidèle.

Prompt : Un robot au centre d’une peinture murale de Shepard Fairey, détaillé

L’IA ne sait pas si nous voulons voir la fresque murale in situ ou non, elle propose donc souvent les deux options.

Mais laisser aux humains le soin d’évaluer les machines n’est pas toujours la solution. L’utilisation de systèmes d’apprentissage automatique dans des contextes professionnels a déjà montré que les gens « font trop confiance aux prédictions des systèmes et modèles d’IA », déclare Rebecca Finlay, directrice générale du Partnership on AI, un groupe industriel technologique qui étudie les utilisations de l’IA.

Le problème, ajoute-t-elle, est que les gens ont tendance à « imprégner différents aspects de ce que signifie être humain lorsque nous interagissons avec ces modèles », ce qui signifie qu’ils oublient que les systèmes n’ont pas de réelle « compréhension » de ce qu’ils disent.

Ces questions de confiance et de fiabilité ouvrent la voie à une utilisation abusive par de mauvais acteurs. Pour quiconque cherche délibérément à induire en erreur, les machines pourraient devenir des usines à désinformation, capables de produire de gros volumes de contenu pour inonder les médias sociaux et d’autres canaux. Formées aux bons exemples, elles pourraient également imiter le style d’écriture ou la voix de certaines personnes. « Il sera extrêmement facile, bon marché et généralisé de créer du faux contenu », affirme M. Etzioni.

Tous les grands fournisseurs de contenu du monde pensaient avoir besoin d’une stratégie de métavers : ils ont tous besoin d’une stratégie de médias génératifs.

C’est un problème inhérent à l’IA en général, explique Emad Mostaque, responsable de Stability AI. « C’est un outil que les gens peuvent utiliser de manière morale ou immorale, légale ou illégale, éthique ou non éthique », dit-il. « Les méchants ont déjà une intelligence artificielle avancée ». La seule défense, affirme-t-il, est de diffuser la technologie aussi largement que possible et de la rendre ouverte à tous.

Il s’agit d’une prescription controversée parmi les experts de l’IA, qui sont nombreux à préconiser de limiter l’accès à la technologie sous-jacente. M. Boyd, de Microsoft, affirme que l’entreprise « travaille avec ses clients pour comprendre leurs cas d’utilisation et s’assurer que l’IA est vraiment une utilisation responsable pour ce scénario ».

Il ajoute que l’éditeur de logiciels s’efforce également d’empêcher les gens « d’essayer de tromper le modèle et de faire quelque chose que nous ne voudrions pas vraiment voir ». Microsoft fournit à ses clients des outils permettant d’analyser les résultats des systèmes d’intelligence artificielle à la recherche de contenus offensants ou de termes particuliers qu’ils souhaitent bloquer. L’entreprise a appris à ses dépens que les chatbots peuvent être dévoyés : son robot Tay a dû être retiré à la hâte en 2016 après avoir émis des propos racistes et d’autres réactions incendiaires.

Dans une certaine mesure, la technologie elle-même peut aider à contrôler l’utilisation abusive des nouveaux systèmes d’IA. Manyika, par exemple, explique que Google a mis au point un système linguistique capable de détecter avec une précision de 99 % si un discours a été produit de manière synthétique. Aucun de ses modèles de recherche ne génère l’image d’une personne réelle, ajoute-t-il, ce qui limite le potentiel de création de « faux profonds ».

Des emplois menacés

L’essor de l’IA générative a également déclenché le dernier round du débat de longue haleine sur l’impact de l’IA et de l’automatisation sur l’emploi. Les machines vont-elles remplacer les travailleurs ou, en prenant en charge les tâches routinières d’un emploi, vont-elles rendre les travailleurs existants plus productifs et accroître leur sentiment d’accomplissement ?

De toute évidence, les emplois qui comportent un élément substantiel de conception ou d’écriture sont menacés. Lorsque Stability Diffusion est apparue à la fin de l’été dernier, sa promesse d’une imagerie instantanée correspondant à n’importe quelle demande a fait frémir le monde de l’art et du design commercial.

Comment quatre des générateurs d’images d’IA en ligne traitent le sujet « joueur de football dans un stade dans le style de Warhol ».

Certaines entreprises technologiques tentent déjà d’appliquer cette technologie à la publicité, notamment Scale AI, qui a entraîné un modèle d’IA sur des images publicitaires. Cela pourrait permettre de produire des images d’aspect professionnel à partir de produits vendus par « de petits détaillants et de petites marques qui n’ont pas les moyens de faire des séances de photos pour leurs produits », explique Wang.

Cela menace potentiellement le gagne-pain de tous ceux qui créent du contenu, quel qu’il soit. « Cela révolutionne l’ensemble de l’industrie des médias », déclare Mostaque. « Tous les grands fournisseurs de contenu du monde pensaient avoir besoin d’une stratégie métaverse : ils ont tous besoin d’une stratégie de médias génératifs. »

Selon certains des humains qui risquent d’être déplacés, l’enjeu est plus important qu’un simple chèque de paie. Présenté avec des chansons écrites par ChatGPT pour ressembler à ses propres œuvres, le chanteur et auteur-compositeur Nick Cave était atterré. « Les chansons naissent de la souffrance, je veux dire par là qu’elles sont fondées sur la lutte humaine complexe et interne de la création et, eh bien, pour autant que je sache, les algorithmes ne ressentent rien », a-t-il écrit en ligne. « Les données ne souffrent pas. »

Les techno-optimistes pensent que la technologie pourrait amplifier, plutôt que remplacer, la créativité humaine. Armé d’un générateur d’images IA, un designer pourrait devenir « plus ambitieux », explique Liang à Stanford. « Au lieu de ne créer que des images uniques, vous pourriez créer des vidéos entières ou de toutes nouvelles collections ».

Le système de droits d’auteur pourrait finir par jouer un rôle important. Les entreprises qui appliquent la technologie affirment qu’elles sont libres d’entraîner leurs systèmes sur toutes les données disponibles grâce au « fair use », l’exception légale aux États-Unis qui permet une utilisation limitée de matériel protégé par le droit d’auteur.

D’autres ne sont pas d’accord. Dans le cadre des premières procédures judiciaires visant à contester l’utilisation prodigue par les sociétés d’IA d’images protégées par le droit d’auteur pour entraîner leurs systèmes, Getty Images et trois artistes ont engagé la semaine dernière des actions aux États-Unis et au Royaume-Uni contre Stability AI et d’autres sociétés.

Selon un avocat qui représente deux sociétés d’IA, tous les acteurs du secteur se sont préparés aux inévitables poursuites judiciaires qui fixeront les règles du jeu. La bataille sur le rôle des données dans la formation de l’IA pourrait devenir aussi importante pour l’industrie technologique que la guerre des brevets à l’aube de l’ère des smartphones.

En fin de compte, ce sont les tribunaux qui fixeront les conditions de la nouvelle ère de l’IA – ou même les législateurs, s’ils décident que la technologie brise les anciennes hypothèses sur lesquelles repose la législation actuelle sur le droit d’auteur.

D’ici là, alors que les ordinateurs s’empressent d’absorber une plus grande partie des données du monde, la saison est ouverte dans le monde de l’IA générative.

intelligence artificielle

SEO INSIDE est un spécialiste de l’intelligence artificielle (notamment…).

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.