ChatGPT est fluide, intelligent et dangereusement créatif.

Le chatbot IA en langage naturel peut écrire de la poésie et rédiger des lettres juridiques, mais il n’est pas digne de confiance.

Cette semaine, j’ai commandé un haïku sur le grand incendie de Londres en 1666 à un jeune poète prometteur, le chatbot d’intelligence artificielle ChatGPT. Quelques secondes plus tard, il a produit ceci : « Les cendres tombent comme de la neige/Grand incendie balaie la ville de Londres/Destruction règne en maître. »

Pas mal. Il y a une comparaison saisonnière dans la première ligne. Je suis moins convaincu par le deuxième, qui se lit de façon suspecte comme la mission elle-même. Le troisième contient trop de syllabes mais aussi un double jeu de mots sur « reigns », invoquant à la fois la monarchie anglaise et la pluie de cendres. Était-ce délibéré ?

Il bat le sonnet que j’ai demandé à ChatGPT d’écrire sur le même sujet, qui avait un mètre douteux et des rimes stridentes (« In the end, the fire was finally quenched/Leaving a legacy of courage and strength »). Considérez également son refrain de musique country sur le réveillon du Nouvel An : « Je lève mon verre à l’ancien et je porte un toast au nouveau / Apportez les feux d’artifice et les acclamations / Il est temps de recommencer ».

Il est difficile de savoir d’où vient tout cet ersatz de créativité. Comme l’a répondu ChatGPT lorsque je lui ai posé la question, « les grands modèles de langage comme le mien sont formés sur de vastes quantités de données textuelles, dont la taille peut aller de plusieurs centaines de gigaoctets à plusieurs téraoctets. » Mais il y a beaucoup plus de données : alors que je tapais diverses commandes dans une zone de texte, il a rempli la plupart d’entre elles rapidement.

Beaucoup d’autres personnes se sont amusées avec ChatGPT depuis qu’il a été lancé la semaine dernière par OpenAI, une société californienne. L’oracle de l’apprentissage automatique a craqué sous la pression des demandes de plus d’un million d’utilisateurs, allant de la rédaction de courts essais à la réponse à des questions. Il a écrit des lettres, donné des conseils médicaux de base et résumé l’histoire.

ChatGPT est sinistrement impressionnant, tout comme Dall-E, le générateur d’images numériques à partir de textes, dévoilé pour la première fois par OpenAI l’année dernière. Après avoir essayé ces deux outils, il est impossible de ne pas penser que les agents en langage naturel vont bouleverser de nombreux domaines, de la musique aux jeux vidéo en passant par le droit, la médecine et le journalisme. Les chatbots arrivent rapidement pour nous, les professionnels.

Mais ChatGPT est aussi comme certaines personnes que je connais : il peut transformer des informations sommaires en réponses fluides et convaincantes. Il a l’air d’avoir raison même lorsqu’il invente des choses sur la base de quelque chose qu’il a lu quelque part et qui a lui-même été régurgité à partir d’autres sources. Sa voix douce et articulée est généralement persuasive, mais on ne peut pas s’y fier entièrement.

Prenez l’essai de cinq paragraphes qu’il a produit lorsque je lui ai demandé de décrire le traitement d’Ophélie par Hamlet dans la pièce de Shakespeare. Le résumé était correct (« Tout au long de la pièce, Hamlet est déchiré entre son devoir de venger le meurtre de son père et son amour pour Ophélie ») mais affirmait que « les actions d’Hamlet sont motivées par le désir de protéger ceux qu’il aime ». Vraiment ?

Puis il y a eu la lettre juridique qu’il a rédigée à ma demande à l’intention de l’autre conducteur dans un accident de voiture fictif. « D’après le rapport de police, vous étiez en excès de vitesse et n’avez pas respecté le feu rouge, ce qui a provoqué la collision avec ma voiture…. Je vous demande donc de m’accorder une indemnisation complète et équitable pour les dommages que j’ai subis », écrit-il. Lucide, mais imaginaire.

Le danger est que ChatGPT et d’autres agents d’IA créent une version technologique de la loi de Gresham sur la falsification de la monnaie du 16e siècle, selon laquelle « la mauvaise monnaie chasse la bonne ». Si une compilation linguistique peu fiable est librement accessible, alors que la recherche originale est coûteuse et laborieuse, la première prospérera.

C’est pourquoi Stack Overflow, un forum de conseils pour les codeurs et les programmeurs, a imposé cette semaine une interdiction temporaire à ses utilisateurs de partager les réponses de ChatGPT. « Le principal problème est que, bien que les réponses qu’il produit aient un taux élevé d’erreurs, elles ont généralement l’air d’être bonnes », ont écrit ses modérateurs.

Les œuvres créatives de ChatGPT sont moins susceptibles d’être exposées comme fantaisistes. Même lorsqu’ils sont médiocres, ses sonnets et les images de Dall-E ne sont pas définitivement faux. Mais Sam Altman, directeur général d’OpenAI, pense que son agent évoluera pour devenir un outil de recherche utile. Nous pouvons imaginer une « IA de bureau » qui répondrait aux demandes en langage naturel comme le ferait un humain, écrit-il.

C’est ce que j’imagine : j’ai déjà l’impression d’en être un. Des essais approfondis sur Hamlet s’avèrent être un exercice difficile, mais il pourrait énumérer avec précision les scènes dans lesquelles Hamlet et Ophélie apparaissent tous les deux. Il a également donné un résumé concis des meilleurs pilotes de Formule 1 dans le passé. Ce type de recherche fondamentale fait gagner du temps aux humains.

Mais elle doit être déployée avec précaution, et c’est là que le bât blesse. ChatGPT est comme une version urbaine et trop sûre d’elle de Wikipedia ou de la recherche Google : utile comme point de départ mais pas pour obtenir des réponses complètes. Il correspond trop bien au résumé que le journaliste Nicholas Tomalin faisait des qualités essentielles pour son métier : « Une ruse de rat, une manière plausible et un peu d’habileté littéraire ».

Il est inutile d’essayer d’arrêter ChatGPT, car il s’est maintenant déchaîné et va probablement s’améliorer. Avec le temps, nous découvrirons des utilisations des agents d’IA en langage naturel que nous n’imaginons pas encore. En attendant, j’espère que la destruction ne règnera pas en maître.

netlinking

SEO INSIDE est une agence de netlinking (notamment…).

 

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.