L’intelligence artificielle (IA)


L’intelligence artificielle se dessine comme la révolution du 21ème Siècle. Mais concrètement, qu’est que l’IA, pour quoi faire ? Comment ça marche ? On vous dit tout sur l’intelligence artificielle.

Qu’est-ce que l’intelligence artificielle ?

L’intelligence artificielle (IA) est la capacité d’un ordinateur ou d’un robot contrôlé par un ordinateur à effectuer des tâches qui sont habituellement effectuées par des humains parce qu’elles requièrent de l’intelligence et du discernement humains. Bien qu’il n’existe pas d’IA capable d’effectuer la grande variété de tâches qu’un humain ordinaire peut accomplir, certaines IA peuvent égaler les humains dans des tâches spécifiques.

L’intelligence artificielle et l’apprentissage automatique sont-ils identiques ?

Non, l’intelligence artificielle et l’apprentissage automatique ne sont pas identiques, mais ils sont étroitement liés. L’apprentissage automatique est la méthode permettant d’entraîner un ordinateur à apprendre à partir de ses entrées, mais sans programmation explicite pour chaque circonstance. L’apprentissage automatique aide un ordinateur à atteindre l’intelligence artificielle.

Quel est l’impact de l’intelligence artificielle (IA) sur la société ?

L’impact de l’intelligence artificielle sur la société est largement débattu. Nombreux sont ceux qui affirment que l’IA améliore la qualité de la vie quotidienne en accomplissant des tâches routinières et même compliquées mieux que les humains, ce qui rend la vie plus simple, plus sûre et plus efficace. D’autres soutiennent que l’IA pose des risques dangereux pour la vie privée, exacerbe le racisme en standardisant les personnes et coûte aux travailleurs leur emploi, ce qui entraîne une hausse du chômage.

intelligence artificielle

Introduction à l’intelligence artificielle

L’intelligence artificielle (IA) est la capacité d’un ordinateur numérique ou d’un robot contrôlé par ordinateur à effectuer des tâches généralement associées à des êtres intelligents. Le terme s’applique fréquemment au projet de développement de systèmes dotés des processus intellectuels caractéristiques des humains, tels que la capacité de raisonner, de découvrir du sens, de généraliser ou d’apprendre à partir d’expériences passées. Depuis le développement de l’ordinateur numérique dans les années 1940, il a été démontré que les ordinateurs peuvent être programmés pour effectuer des tâches très complexes – comme, par exemple, découvrir les preuves de théorèmes mathématiques ou jouer aux échecs – avec une grande compétence. Pourtant, malgré les progrès constants de la vitesse de traitement et de la capacité de mémoire des ordinateurs, il n’existe pas encore de programmes capables d’égaler la flexibilité de l’homme dans des domaines plus vastes ou dans des tâches exigeant de grandes connaissances quotidiennes. D’autre part, certains programmes ont atteint les niveaux de performance des experts et des professionnels humains dans l’exécution de certaines tâches spécifiques, de sorte que l’intelligence artificielle dans ce sens limité se retrouve dans des applications aussi diverses que le diagnostic médical, les moteurs de recherche informatiques et la reconnaissance de la voix ou de l’écriture.

Qu’est-ce que l’intelligence ?

Tous les comportements humains, à l’exception des plus simples, sont attribués à l’intelligence, tandis que même le comportement le plus compliqué des insectes n’est jamais considéré comme une indication d’intelligence. Quelle est la différence ? Prenons le comportement de la guêpe fouisseuse, Sphex ichneumoneus. Lorsque la femelle revient dans son terrier avec de la nourriture, elle la dépose d’abord sur le seuil, vérifie qu’il n’y a pas d’intrus à l’intérieur du terrier, et seulement ensuite, si la voie est libre, elle porte sa nourriture à l’intérieur. La vraie nature du comportement instinctif de la guêpe est révélée si la nourriture est déplacée de quelques centimètres de l’entrée de son terrier pendant qu’elle est à l’intérieur : à la sortie, elle répétera toute la procédure aussi souvent que la nourriture est déplacée. L’intelligence – manifestement absente dans le cas de Sphex – doit inclure la capacité à s’adapter à de nouvelles circonstances.

Les psychologues ne caractérisent généralement pas l’intelligence humaine par un seul trait mais par la combinaison de nombreuses capacités diverses. La recherche en IA s’est principalement concentrée sur les composantes suivantes de l’intelligence : apprentissage, raisonnement, résolution de problèmes, perception et utilisation du langage.

Apprentissage

Il existe un certain nombre de formes différentes d’apprentissage appliquées à l’intelligence artificielle. La plus simple est l’apprentissage par essais et erreurs. Par exemple, un programme informatique simple destiné à résoudre des problèmes d’échecs de type « mat en un » pourrait essayer des coups au hasard jusqu’à ce que le mat soit trouvé. Le programme pourrait alors stocker la solution avec la position, de sorte que la prochaine fois que l’ordinateur rencontrera la même position, il se souviendra de la solution. Cette simple mémorisation d’éléments et de procédures individuels – appelée apprentissage par cœur – est relativement facile à mettre en œuvre sur un ordinateur. Le problème de la mise en œuvre de ce que l’on appelle la généralisation est plus difficile. La généralisation consiste à appliquer l’expérience passée à de nouvelles situations analogues. Par exemple, un programme qui apprend par cœur le passé des verbes anglais réguliers ne sera pas capable de produire le passé d’un mot tel que jump à moins qu’on ne lui ait présenté jumped auparavant, alors qu’un programme capable de généraliser peut apprendre la règle « add ed » et ainsi former le passé de jump sur la base de l’expérience avec des verbes similaires.

Raisonnement

Raisonner, c’est tirer des déductions appropriées à la situation. Les déductions sont classées en deux catégories : déductives et inductives. Un exemple de la première catégorie est le suivant : « Fred doit être soit dans le musée, soit dans le café. Il n’est pas dans le café, donc il est dans le musée », et dans le second cas, « Les précédents accidents de ce type étaient dus à une défaillance des instruments, donc cet accident est dû à une défaillance des instruments ». La différence la plus significative entre ces formes de raisonnement est que dans le cas déductif, la vérité des prémisses garantit la vérité de la conclusion, alors que dans le cas inductif, la vérité des prémisses apporte un soutien à la conclusion sans en donner l’assurance absolue. Le raisonnement inductif est courant en science, où des données sont collectées et des modèles provisoires sont élaborés pour décrire et prédire le comportement futur – jusqu’à ce que l’apparition de données anormales oblige à réviser le modèle. Le raisonnement déductif est courant en mathématiques et en logique, où des structures élaborées de théorèmes irréfutables sont construites à partir d’un petit ensemble d’axiomes et de règles de base.

La programmation d’ordinateurs pour tirer des déductions, en particulier des déductions déductives, a connu un succès considérable. Cependant, un véritable raisonnement implique plus que de simples déductions ; il implique des déductions pertinentes pour la solution d’une tâche ou d’une situation particulière. C’est l’un des problèmes les plus difficiles auxquels l’IA est confrontée.

Résolution de problèmes

La résolution de problèmes, en particulier dans le domaine de l’intelligence artificielle, peut être caractérisée comme une recherche systématique dans un éventail d’actions possibles afin d’atteindre un objectif ou une solution prédéfinie. Les méthodes de résolution de problèmes se divisent en deux catégories : les méthodes à usage spécifique et les méthodes à usage général. Une méthode à usage spécifique est conçue sur mesure pour un problème particulier et exploite souvent des caractéristiques très spécifiques de la situation dans laquelle le problème s’inscrit. En revanche, une méthode à usage général est applicable à une grande variété de problèmes. L’une des techniques générales utilisées en IA est l’analyse des moyens – une réduction étape par étape, ou incrémentale, de la différence entre l’état actuel et l’objectif final. Le programme sélectionne des actions à partir d’une liste de moyens – dans le cas d’un simple robot, il peut s’agir de ATTRAPE, POSE, AVANCE, RECULE, VA A GAUCHE et VA A DROITE – jusqu’à ce que le but soit atteint.

De nombreux problèmes divers ont été résolus par des programmes d’intelligence artificielle. Par exemple, trouver le coup (ou la séquence de coups) gagnant dans un jeu de société, élaborer des preuves mathématiques et manipuler des « objets virtuels » dans un monde généré par ordinateur.

Perception

Dans la perception, l’environnement est balayé au moyen de divers organes sensoriels, réels ou artificiels, et la scène est décomposée en objets distincts dans diverses relations spatiales. L’analyse est compliquée par le fait qu’un objet peut apparaître différemment selon l’angle sous lequel il est vu, la direction et l’intensité de l’éclairage de la scène, et le contraste de l’objet avec le champ environnant.

À l’heure actuelle, la perception artificielle est suffisamment avancée pour permettre à des capteurs optiques d’identifier des individus, à des véhicules autonomes de rouler à des vitesses modérées sur la route et à des robots de parcourir des bâtiments pour collecter des canettes de soda vides. L’un des premiers systèmes à intégrer la perception et l’action était FREDDY, un robot stationnaire doté d’un œil de télévision mobile et d’une main à pince, construit à l’université d’Édimbourg, en Écosse, entre 1966 et 1973, sous la direction de Donald Michie. FREDDY était capable de reconnaître une variété d’objets et pouvait recevoir l’ordre d’assembler des objets simples, tels qu’une voiture miniature, à partir d’un tas aléatoire de composants.

Langue

Une langue est un système de signes ayant une signification par convention. En ce sens, le langage ne se limite pas nécessairement à la parole. Les panneaux de signalisation, par exemple, constituent un minilangage, puisque, par convention, ⚠ signifie « danger à venir » dans certains pays. Les langues se caractérisent par le fait que les unités linguistiques possèdent une signification par convention, et la signification linguistique est très différente de ce que l’on appelle la signification naturelle, illustrée par des affirmations telles que « Ces nuages signifient qu’il va pleuvoir » et « La chute de pression signifie que la valve fonctionne mal ».

Une caractéristique importante des langues humaines à part entière – contrairement aux cris d’oiseaux et aux panneaux de signalisation – est leur productivité. Une langue productive peut formuler une variété illimitée de phrases.

Il est relativement facile d’écrire des programmes informatiques qui semblent capables, dans des contextes très restreints, de répondre couramment dans une langue humaine à des questions et des déclarations. Bien qu’aucun de ces programmes ne comprenne réellement le langage, ils peuvent, en principe, atteindre le point où leur maîtrise d’une langue est indiscernable de celle d’un humain normal. En quoi consiste donc une véritable compréhension, si même un ordinateur qui utilise le langage comme un locuteur humain natif n’est pas reconnu comme comprenant ? Il n’existe pas de réponse universellement acceptée à cette question difficile. Selon une théorie, le fait de comprendre ou non dépend non seulement de son comportement, mais aussi de son histoire : pour qu’on puisse dire qu’on comprend, il faut avoir appris la langue et avoir été formé à prendre sa place dans la communauté linguistique par le biais d’interactions avec d’autres utilisateurs de la langue.

Metavers

Méthodes et objectifs en IA

Approches symbolique et connexionniste

La recherche en IA suit deux méthodes distinctes, et dans une certaine mesure concurrentes, l’approche symbolique (ou « descendante ») et l’approche connexionniste (ou « ascendante »). L’approche descendante cherche à reproduire l’intelligence en analysant la cognition indépendamment de la structure biologique du cerveau, en termes de traitement des symboles, d’où l’étiquette symbolique. L’approche ascendante, quant à elle, consiste à créer des réseaux neuronaux artificiels en imitant la structure du cerveau, d’où le terme connexionniste.

Pour illustrer la différence entre ces approches, considérons la tâche consistant à construire un système, équipé d’un lecteur optique, qui reconnaît les lettres de l’alphabet. Une approche ascendante consiste généralement à former un réseau neuronal artificiel en lui présentant les lettres une par une, puis à améliorer progressivement les performances en « réglant » le réseau. (Le réglage ajuste la réactivité des différentes voies neuronales à différents stimuli). En revanche, une approche descendante consiste généralement à écrire un programme informatique qui compare chaque lettre à des descriptions géométriques. En d’autres termes, les activités neuronales sont à la base de l’approche ascendante, tandis que les descriptions symboliques sont à la base de l’approche descendante.

Dans The Fundamentals of Learning (1932), Edward Thorndike, psychologue à l’université Columbia de New York, a suggéré pour la première fois que l’apprentissage humain consistait en une propriété inconnue des connexions entre les neurones du cerveau. Dans The Organization of Behavior (1949), Donald Hebb, psychologue à l’université McGill de Montréal (Canada), a suggéré que l’apprentissage consiste spécifiquement à renforcer certains schémas d’activité neuronale en augmentant la probabilité (poids) de l’allumage des neurones induits entre les connexions associées. La notion de connexions pondérées est décrite dans une section ultérieure, le connexionnisme.

En 1957, deux vigoureux défenseurs de l’IA symbolique – Allen Newell, chercheur à la RAND Corporation de Santa Monica (Californie), et Herbert Simon, psychologue et informaticien à l’université Carnegie Mellon de Pittsburgh (Pennsylvanie) – ont résumé l’approche descendante dans ce qu’ils ont appelé l’hypothèse du système de symboles physiques. Cette hypothèse stipule que le traitement de structures de symboles est suffisant, en principe, pour produire une intelligence artificielle dans un ordinateur numérique et que, de plus, l’intelligence humaine est le résultat du même type de manipulations symboliques.

Dans les années 50 et 60, les approches descendante et ascendante ont été poursuivies simultanément, et toutes deux ont obtenu des résultats notables, bien que limités. Dans les années 70, cependant, l’IA ascendante a été négligée, et ce n’est que dans les années 80 que cette approche est redevenue importante. Aujourd’hui, les deux approches sont suivies, et toutes deux sont reconnues comme étant confrontées à des difficultés. Les techniques symboliques fonctionnent dans des domaines simplifiés mais s’effondrent généralement lorsqu’elles sont confrontées au monde réel ; quant aux chercheurs de l’approche ascendante, ils ont été incapables de reproduire les systèmes nerveux des êtres vivants les plus simples. Caenorhabditis elegans, un ver très étudié, possède environ 300 neurones dont le schéma d’interconnexion est parfaitement connu. Pourtant, les modèles connexionnistes n’ont même pas réussi à imiter ce ver. De toute évidence, les neurones de la théorie connexionniste sont des simplifications grossières de la réalité.

IA forte, IA appliquée et simulation cognitive

En utilisant les méthodes décrites ci-dessus, la recherche en IA tente d’atteindre l’un des trois objectifs suivants : IA forte, IA appliquée ou simulation cognitive. L’IA forte vise à construire des machines qui pensent. (Le terme IA forte a été introduit pour cette catégorie de recherche en 1980 par le philosophe John Searle de l’Université de Californie à Berkeley). L’ambition ultime de l’IA forte est de produire une machine dont la capacité intellectuelle globale est indiscernable de celle d’un être humain. Comme nous le décrivons dans la section Les premiers jalons de l’IA, cet objectif a suscité un grand intérêt dans les années 1950 et 1960, mais cet optimisme a cédé la place à une prise de conscience des difficultés extrêmes que cela implique. Jusqu’à présent, les progrès ont été maigres. Certains critiques doutent que la recherche produise ne serait-ce qu’un système ayant la capacité intellectuelle globale d’une fourmi dans un avenir prévisible. En effet, certains chercheurs travaillant dans les deux autres branches de l’IA considèrent que l’IA forte ne vaut pas la peine d’être poursuivie.

L’IA appliquée, également connue sous le nom de traitement avancé de l’information, vise à produire des systèmes « intelligents » commercialement viables, par exemple des systèmes de diagnostic médical « experts » et des systèmes de négociation boursière. L’IA appliquée a connu un succès considérable, comme décrit dans la section Systèmes experts.

Dans la simulation cognitive, les ordinateurs sont utilisés pour tester des théories sur le fonctionnement de l’esprit humain – par exemple, des théories sur la façon dont les gens reconnaissent les visages ou se rappellent des souvenirs. La simulation cognitive est déjà un outil puissant dans le domaine des neurosciences et de la psychologie cognitive.

intelligence artificielle

Alan Turing et les débuts de l’IA

Alan Turing

Les premiers travaux substantiels dans le domaine de l’intelligence artificielle ont été réalisés au milieu du 20e siècle par le logicien britannique et pionnier de l’informatique Alan Turing. En 1935, Turing a décrit une machine à calculer abstraite composée d’une mémoire illimitée et d’un scanner qui va et vient dans la mémoire, symbole par symbole, lisant ce qu’il trouve et écrivant d’autres symboles. Les actions du scanner sont dictées par un programme d’instructions qui est également stocké dans la mémoire sous forme de symboles. C’est le concept de programme stocké de Turing, dans lequel est implicite la possibilité pour la machine d’opérer sur son propre programme, et donc de le modifier ou de l’améliorer. La conception de Turing est aujourd’hui connue simplement comme la machine de Turing universelle. Tous les ordinateurs modernes sont, par essence, des machines de Turing universelles.

Pendant la Seconde Guerre mondiale, Turing était un cryptanalyste de premier plan à la Government Code and Cypher School de Bletchley Park, dans le Buckinghamshire, en Angleterre. Turing n’a pu se consacrer au projet de construction d’une machine de calcul électronique à programme enregistré qu’après la cessation des hostilités en Europe en 1945. Néanmoins, pendant la guerre, il a beaucoup réfléchi à la question de l’intelligence des machines. L’un des collègues de Turing à Bletchley Park, Donald Michie (qui fonda plus tard le département de l’intelligence artificielle et de la perception à l’université d’Édimbourg), se rappela plus tard que Turing discutait souvent de la manière dont les ordinateurs pouvaient tirer des leçons de l’expérience et résoudre de nouveaux problèmes en utilisant des principes directeurs – un processus aujourd’hui connu sous le nom de résolution heuristique des problèmes.

Turing a probablement donné la première conférence publique (Londres, 1947) à mentionner l’intelligence informatique, en déclarant que « ce que nous voulons, c’est une machine qui puisse apprendre par l’expérience » et que « la possibilité de laisser la machine modifier ses propres instructions fournit le mécanisme pour cela ». En 1948, il a présenté un grand nombre des concepts centraux de l’IA dans un rapport intitulé « Intelligent Machinery« . Cependant, Turing n’a pas publié ce document, et nombre de ses idées ont été réinventées plus tard par d’autres. Par exemple, l’une des idées originales de Turing consistait à entraîner un réseau de neurones artificiels pour qu’ils effectuent des tâches spécifiques, une approche décrite dans la section « Connectionism ».

Échecs

À Bletchley Park, Turing a illustré ses idées sur l’intelligence des machines en se référant aux échecs – une source utile de problèmes stimulants et clairement définis par rapport auxquels les méthodes proposées pour la résolution de problèmes pouvaient être testées. En principe, un ordinateur jouant aux échecs pourrait jouer en recherchant de manière exhaustive tous les coups disponibles, mais en pratique, cela est impossible car cela impliquerait l’examen d’un nombre astronomique de coups. Des heuristiques sont nécessaires pour guider une recherche plus étroite et plus discriminante. Bien que Turing ait expérimenté la conception de programmes d’échecs, il a dû se contenter de la théorie en l’absence d’un ordinateur pour exécuter son programme d’échecs. Les premiers véritables programmes d’IA ont dû attendre l’arrivée des ordinateurs numériques électroniques à programme enregistré.

En 1945, Turing a prédit que les ordinateurs joueraient un jour très bien aux échecs, et un peu plus de 50 ans plus tard, en 1997, Deep Blue, un ordinateur d’échecs construit par l’International Business Machines Corporation (IBM), a battu le champion du monde en titre, Garry Kasparov, dans un match de six parties. Si la prédiction de Turing s’est réalisée, son espoir de voir la programmation des échecs contribuer à la compréhension de la façon dont les êtres humains pensent ne s’est pas réalisé. Les 256 processeurs parallèles de Deep Blue lui permettent d’examiner 200 millions de coups possibles par seconde et d’anticiper jusqu’à 14 tours de jeu. Nombreux sont ceux qui partagent l’avis de Noam Chomsky, linguiste au Massachusetts Institute of Technology (MIT), selon lequel un ordinateur battant un grand maître aux échecs est aussi intéressant qu’un bulldozer remportant une compétition olympique d’haltérophilie.

Le test de Turing

En 1950, Turing a contourné le débat traditionnel sur la définition de l’intelligence en introduisant un test pratique de l’intelligence des ordinateurs, connu aujourd’hui sous le nom de test de Turing. Le test de Turing implique trois participants : un ordinateur, un interrogateur humain et un fleuret humain. L’interrogateur tente de déterminer, en posant des questions aux deux autres participants, qui est l’ordinateur. Toute communication se fait par le biais du clavier et de l’écran. L’interrogateur peut poser des questions aussi pénétrantes et étendues qu’il le souhaite, et l’ordinateur est autorisé à faire tout son possible pour forcer une mauvaise identification. (Par exemple, l’ordinateur peut répondre « Non » à la question « Êtes-vous un ordinateur ? » et peut suivre une demande de multiplication d’un grand nombre par un autre avec une longue pause et une réponse incorrecte). Le fleuret doit aider l’interrogateur à procéder à une identification correcte. Un certain nombre de personnes différentes jouent les rôles d’interrogateur et de menteur et, si une proportion suffisante d’interrogateurs est incapable de distinguer l’ordinateur de l’être humain, alors (selon les partisans du test de Turing) l’ordinateur est considéré comme une entité intelligente et pensante.

En 1991, le philanthrope américain Hugh Loebner a lancé le concours annuel du prix Loebner, promettant une somme de 100 000 dollars au premier ordinateur qui réussirait le test de Turing et attribuant chaque année 2 000 dollars au meilleur effort. Cependant, aucun programme d’IA ne s’est approché de la réussite d’un test de Turing non dilué.

ia et défense

Les premiers jalons de l’IA

Les premiers programmes d’IA

Le premier programme d’IA réussi a été écrit en 1951 par Christopher Strachey, qui deviendra plus tard directeur du Programming Research Group de l’université d’Oxford. Le programme de dames de Strachey fonctionnait sur l’ordinateur Ferranti Mark I de l’université de Manchester, en Angleterre. Au cours de l’été 1952, ce programme pouvait jouer une partie complète de dames à une vitesse raisonnable.

Des informations sur la première démonstration réussie d’apprentissage automatique ont été publiées en 1952. Shopper, écrit par Anthony Oettinger à l’université de Cambridge, fonctionnait sur l’ordinateur EDSAC. Le monde simulé par Shopper était un centre commercial composé de huit magasins. Lorsqu’on lui demandait d’acheter un article, Shopper le cherchait, visitant les magasins au hasard jusqu’à ce que l’article soit trouvé. Pendant sa recherche, Shopper mémorisait quelques-uns des articles stockés dans chaque magasin visité (comme le ferait un acheteur humain). La prochaine fois que Shopper est envoyé à la recherche du même article, ou d’un autre article qu’il a déjà trouvé, il se rend immédiatement dans le bon magasin. Cette forme simple d’apprentissage, comme le souligne la section d’introduction Qu’est-ce que l’intelligence ? est appelée apprentissage par cœur.

Le premier programme d’IA à fonctionner aux États-Unis était également un programme de dames, écrit en 1952 par Arthur Samuel pour le prototype de l’IBM 701. Samuel a repris l’essentiel du programme de dames de Strachey et l’a considérablement étendu pendant plusieurs années. En 1955, il a ajouté des fonctions permettant au programme d’apprendre par l’expérience. Samuel a inclus des mécanismes d’apprentissage par cœur et de généralisation, améliorations qui ont finalement permis à son programme de gagner une partie contre un ancien champion de dames du Connecticut en 1962.

L’informatique évolutive

Le programme de dames de Samuel est également remarquable pour avoir été l’une des premières tentatives d’informatique évolutive. (Son programme « évoluait » en opposant une copie modifiée à la meilleure version actuelle de son programme, le vainqueur devenant la nouvelle norme). L’informatique évolutive implique généralement l’utilisation d’une méthode automatique de génération et d’évaluation de « générations » successives d’un programme, jusqu’à ce qu’une solution très performante apparaisse.

L’un des principaux partisans du calcul évolutif, John Holland, a également écrit des logiciels de test pour le prototype de l’ordinateur IBM 701. Il a notamment participé à la conception d’un rat « virtuel » doté d’un réseau neuronal, qui pouvait être entraîné à se déplacer dans un labyrinthe. Ce travail a convaincu Holland de l’efficacité de l’approche ascendante. Tout en continuant à travailler comme consultant pour IBM, Holland est entré à l’université du Michigan en 1952 pour y passer un doctorat en mathématiques. Il s’oriente cependant rapidement vers un nouveau programme interdisciplinaire en informatique et traitement de l’information (connu plus tard sous le nom de science des communications) créé par Arthur Burks, l’un des constructeurs de l’ENIAC et de son successeur l’EDVAC. Dans sa thèse de 1959, probablement le premier doctorat en informatique au monde, Holland propose un nouveau type d’ordinateur – un ordinateur multiprocesseur – qui assignerait chaque neurone artificiel d’un réseau à un processeur distinct. (En 1985, Daniel Hillis a résolu les difficultés techniques pour construire le premier ordinateur de ce type, le superordinateur de 65 536 processeurs de la Thinking Machines Corporation).

Après l’obtention de son diplôme, Holland a rejoint la faculté du Michigan et, au cours des quatre décennies suivantes, il a dirigé une grande partie des recherches sur les méthodes d’automatisation du calcul évolutif, un processus désormais connu sous le nom d’algorithmes génétiques. Les systèmes mis en œuvre dans le laboratoire de Holland comprenaient un programme d’échecs, des modèles d’organismes biologiques unicellulaires et un système de classification permettant de contrôler un réseau simulé de gazoducs. Les algorithmes génétiques ne sont toutefois plus limités aux démonstrations « académiques » ; dans une importante application pratique, un algorithme génétique coopère avec le témoin d’un crime afin de générer un portrait du criminel.

Raisonnement logique et résolution de problèmes

La capacité de raisonner logiquement est un aspect important de l’intelligence et a toujours été au centre de la recherche en IA. Une étape importante dans ce domaine a été un programme de résolution de théorèmes écrit en 1955-56 par Allen Newell et J. Clifford Shaw de la RAND Corporation et Herbert Simon de l’Université Carnegie Mellon. Le Logic Theorist, comme le programme est devenu connu, a été conçu pour prouver des théorèmes de Principia Mathematica (1910-13), un ouvrage en trois volumes des philosophes-mathématiciens britanniques Alfred North Whitehead et Bertrand Russell. Dans un cas, une preuve élaborée par le programme était plus élégante que la preuve donnée dans les livres.

Newell, Simon et Shaw ont ensuite écrit un programme plus puissant, le General Problem Solver, ou GPS. La première version du GPS a été lancée en 1957, et les travaux se sont poursuivis sur le projet pendant une dizaine d’années. Le GPS pouvait résoudre une variété impressionnante d’énigmes en utilisant une approche par essais et erreurs. Cependant, une critique du GPS, et des programmes similaires qui n’ont aucune capacité d’apprentissage, est que l’intelligence du programme est entièrement secondaire, provenant de toute information que le programmeur inclut explicitement.

Dialogue en anglais

Deux des premiers programmes d’IA les plus connus, Eliza et Parry, donnaient un semblant étrange de conversation intelligente. (Les détails de ces deux programmes ont été publiés pour la première fois en 1966.) Eliza, écrit par Joseph Weizenbaum du laboratoire d’IA du MIT, simulait un thérapeute humain. Parry, écrit par le psychiatre Kenneth Colby de l’Université de Stanford, simulait un paranoïaque humain. Les psychiatres à qui l’on demandait de décider s’ils communiquaient avec Parry ou un paranoïaque humain étaient souvent incapables de le dire. Néanmoins, ni Parry ni Eliza ne peuvent être raisonnablement décrits comme intelligents. Les contributions de Parry à la conversation étaient en conserve, c’est-à-dire conçues à l’avance par le programmeur et stockées dans la mémoire de l’ordinateur. Eliza, elle aussi, s’appuyait sur des phrases toutes faites et des astuces de programmation simples.

Les langages de programmation de l’IA

Au cours de leurs travaux sur le théoricien de la logique et le GPS, Newell, Simon et Shaw ont développé leur langage de traitement de l’information (IPL), un langage informatique adapté à la programmation de l’IA. Au cœur de l’IPL se trouve une structure de données très flexible qu’ils ont appelée liste. Une liste est simplement une séquence ordonnée d’éléments de données. Tout ou partie des éléments d’une liste peuvent eux-mêmes être des listes. Ce schéma conduit à des structures richement ramifiées.

En 1960, John McCarthy a combiné des éléments de l’IPL avec le lambda calculus (un système mathématique-logique formel) pour produire le langage de programmation LISP (List Processor), qui reste le principal langage pour les travaux d’IA aux États-Unis. (Le lambda calculus lui-même a été inventé en 1936 par Alonzo Church, logicien de Princeton, alors qu’il étudiait le Entscheidungsproblem abstrait, ou « problème de décision », pour la logique des prédicats – le même problème auquel Turing s’était attaqué en inventant la machine de Turing universelle).

Le langage de programmation logique PROLOG (Programmation en Logique) a été conçu par Alain Colmerauer à l’Université d’Aix-Marseille, en France, où le langage a été implémenté pour la première fois en 1973. PROLOG a été développé par le logicien Robert Kowalski, membre du groupe AI de l’Université d’Edimbourg. Ce langage fait usage d’une puissante technique de résolution de théorèmes connue sous le nom de résolution, inventée en 1963 au laboratoire national Argonne de la Commission américaine de l’énergie atomique dans l’Illinois par le logicien britannique Alan Robinson. PROLOG peut déterminer si un énoncé donné découle logiquement ou non d’autres énoncés donnés. Par exemple, étant donné les affirmations « Tous les logiciens sont rationnels » et « Robinson est un logicien », un programme PROLOG répond par l’affirmative à la question « Robinson est rationnel ? ». PROLOG est largement utilisé pour les travaux d’IA, en particulier en Europe et au Japon.

Les chercheurs de l’Institut pour la technologie informatique de nouvelle génération à Tokyo ont utilisé PROLOG comme base pour des langages de programmation logique sophistiqués. Connus sous le nom de langages de cinquième génération, ils sont utilisés sur des ordinateurs parallèles non numériques développés à l’Institut.

D’autres travaux récents comprennent le développement de langages permettant de raisonner sur des données dépendant du temps, comme « le compte a été payé hier ». Ces langages sont basés sur la logique temporelle, qui permet de situer les énoncés dans le flux temporel. (La logique tensorielle a été inventée en 1953 par le philosophe Arthur Prior à l’Université de Canterbury, Christchurch, Nouvelle-Zélande).

Programmes de micromondes

Pour faire face à la complexité déconcertante du monde réel, les scientifiques ignorent souvent des détails moins pertinents ; par exemple, les physiciens ignorent souvent la friction et l’élasticité dans leurs modèles. En 1970, Marvin Minsky et Seymour Papert, du laboratoire d’intelligence artificielle du MIT, ont proposé que la recherche en intelligence artificielle se concentre sur le développement de programmes capables d’adopter un comportement intelligent dans des environnements artificiels plus simples, appelés micromondes. Une grande partie de la recherche s’est concentrée sur le monde dit des blocs, qui consiste en des blocs colorés de formes et de tailles diverses disposés sur une surface plane.

Un des premiers succès de l’approche des micromondes a été SHRDLU, écrit par Terry Winograd du MIT. (Les détails du programme ont été publiés en 1972.) SHRDLU contrôlait un bras de robot qui opérait au-dessus d’une surface plane parsemée de blocs de jeu. Le bras et les blocs étaient virtuels. SHRDLU répondait à des commandes tapées en anglais naturel, telles que : « Voulez-vous bien empiler les deux blocs rouges et un cube vert ou une pyramide ». Bien que SHRDLU ait été initialement salué comme une avancée majeure, Winograd a rapidement annoncé que le programme était en fait une impasse. Les techniques mises au point dans le cadre du programme se sont révélées inadaptées à une application dans des mondes plus vastes et plus intéressants. De plus, l’apparence que donnait SHRDLU de comprendre le micromonde des blocs, et les déclarations anglaises le concernant, était en fait une illusion. SHRDLU n’avait aucune idée de ce qu’était un bloc vert.

Shakey

Un autre produit de l’approche du micromonde était Shakey, un robot mobile développé au Stanford Research Institute par Bertram Raphael, Nils Nilsson, et d’autres pendant la période 1968-72. Le robot occupait un micromonde spécialement construit, composé de murs, de portes et de quelques blocs de bois de forme simple. Chaque mur avait une plinthe soigneusement peinte pour permettre au robot de « voir » où le mur rejoint le sol (une simplification de la réalité qui est typique de l’approche du micromonde). Shakey disposait d’une douzaine de capacités de base, telles que TOURNE, POUSSE et MONTE-RAMPE.

Les critiques ont souligné la nature hautement simplifiée de l’environnement de Shakey et ont insisté sur le fait que, malgré ces simplifications, Shakey fonctionnait atrocement lentement ; une série d’actions qu’un humain pourrait planifier et exécuter en quelques minutes prenait des jours à Shakey.

La plus grande réussite de l’approche du micromonde est un type de programme connu sous le nom de système expert, décrit dans la section suivante.

intelligence artificielle

Systèmes experts

Les systèmes experts occupent un type de micromonde – par exemple, un modèle de la cale d’un navire et de sa cargaison – qui est autonome et relativement peu complexe. Pour ces systèmes d’IA, tous les efforts sont faits pour intégrer toutes les informations sur un domaine étroit qu’un expert (ou un groupe d’experts) connaîtrait, de sorte qu’un bon système expert peut souvent surpasser n’importe quel expert humain. Il existe de nombreux systèmes experts commerciaux, notamment des programmes de diagnostic médical, d’analyse chimique, d’autorisation de crédit, de gestion financière, de planification d’entreprise, de routage de documents financiers, de prospection pétrolière et minière, de génie génétique, de conception et de fabrication d’automobiles, de conception d’objectifs d’appareils photo, de conception d’installations informatiques, de programmation de compagnies aériennes, de placement de marchandises et de services d’aide automatique pour les propriétaires d’ordinateurs domestiques.

Connaissance et inférence

Les composants de base d’un système expert sont une base de connaissances, ou KB, et un moteur d’inférence. Les informations à stocker dans la base de connaissances sont obtenues en interrogeant des personnes expertes dans le domaine en question. L’enquêteur, ou ingénieur des connaissances, organise les informations obtenues auprès des experts en une collection de règles, généralement de structure « si-alors ». Les règles de ce type sont appelées règles de production. Le moteur d’inférence permet au système expert de tirer des déductions à partir des règles de la base de connaissances. Par exemple, si la base de connaissances contient les règles de production « si x, alors y » et « si y, alors z », le moteur d’inférence est capable de déduire « si x, alors z ». Le système expert pourrait alors demander à son utilisateur : « Est-ce que x est vrai dans la situation que nous considérons ? » Si la réponse est affirmative, le système procède à la déduction de z.

Certains systèmes experts utilisent la logique floue. En logique standard, il n’existe que deux valeurs de vérité, vrai et faux. Cette précision absolue rend les attributs ou les situations vagues difficiles à caractériser. (Quand, précisément, une chevelure clairsemée devient-elle chauve ?) Souvent, les règles utilisées par les experts humains contiennent des expressions vagues, et il est donc utile que le moteur d’inférence d’un système expert utilise la logique floue.

DENDRAL

En 1965, le chercheur en IA Edward Feigenbaum et le généticien Joshua Lederberg, tous deux de l’université de Stanford, ont commencé à travailler sur l’heuristique DENDRAL (plus tard abrégée en DENDRAL), un système expert d’analyse chimique. La substance à analyser peut, par exemple, être un composé complexe de carbone, d’hydrogène et d’azote. À partir des données spectrographiques obtenues de la substance, DENDRAL émettait des hypothèses sur la structure moléculaire de la substance. Les performances de DENDRAL rivalisaient avec celles des chimistes experts dans cette tâche, et le programme était utilisé dans l’industrie et dans les universités.

MYCIN

Le travail sur MYCIN, un système expert pour le traitement des infections sanguines, a commencé à l’université de Stanford en 1972. MYCIN tentait de diagnostiquer les patients sur la base des symptômes rapportés et des résultats des tests médicaux. Le programme pouvait demander d’autres informations concernant le patient, ainsi que suggérer des tests de laboratoire supplémentaires, pour parvenir à un diagnostic probable, après quoi il recommandait un traitement. Sur demande, MYCIN explique le raisonnement qui a conduit à son diagnostic et à sa recommandation. En utilisant environ 500 règles de production, MYCIN fonctionnait à peu près au même niveau de compétence que les spécialistes humains des infections du sang et plutôt mieux que les médecins généralistes.

Néanmoins, les systèmes experts n’ont aucun sens commun ni aucune compréhension des limites de leur expertise. Par exemple, si l’on disait à MYCIN qu’un patient ayant reçu une blessure par balle se vidait de son sang, le programme tenterait de diagnostiquer une cause bactérienne aux symptômes du patient. Les systèmes experts peuvent également agir sur des erreurs d’écriture absurdes, comme la prescription d’un dosage manifestement incorrect d’un médicament pour un patient dont les données relatives au poids et à l’âge ont été accidentellement transposées.

Le projet CYC

CYC est une vaste expérience d’IA symbolique. Le projet a débuté en 1984 sous les auspices de la Microelectronics and Computer Technology Corporation, un consortium de fabricants d’ordinateurs, de semi-conducteurs et d’électronique. En 1995, Douglas Lenat, le directeur du projet CYC, a donné au projet le nom de Cycorp, Inc. basé à Austin, au Texas. L’objectif le plus ambitieux de Cycorp était de construire une base de données contenant un pourcentage significatif des connaissances de sens commun d’un être humain. Des millions d’assertions de bon sens, ou règles, ont été codées dans CYC. L’objectif était que cette « masse critique » permette au système lui-même d’extraire d’autres règles directement de la prose ordinaire et serve finalement de base aux futures générations de systèmes experts.

Avec seulement une fraction de sa base de connaissances de sens commun compilée, CYC pouvait tirer des déductions qui auraient mis en échec des systèmes plus simples. Par exemple, CYC pourrait déduire « Garcia est mouillée » de l’énoncé « Garcia termine un marathon » en utilisant ses règles selon lesquelles courir un marathon implique un effort important, que les gens transpirent à des niveaux d’effort élevés et que lorsque quelque chose transpire, il est mouillé. Parmi les problèmes restants, on peut citer les questions relatives à la recherche et à la résolution de problèmes – par exemple, comment rechercher automatiquement dans la base de connaissances les informations pertinentes pour un problème donné. Les chercheurs en IA appellent le problème de la mise à jour, de la recherche et de la manipulation d’une grande structure de symboles dans des délais réalistes le problème du cadre. Certains détracteurs de l’IA symbolique pensent que le problème du cadre est largement insoluble et soutiennent donc que l’approche symbolique ne produira jamais de systèmes véritablement intelligents. Il est possible que CYC, par exemple, succombe au problème du cadre bien avant que le système n’atteigne des niveaux de connaissance humains.

innovation

Connectionisme

Le connexionnisme, ou informatique neuronale, s’est développé à partir de tentatives de compréhension du fonctionnement du cerveau humain au niveau neuronal et, en particulier, de la façon dont les gens apprennent et se souviennent. En 1943, le neurophysiologiste Warren McCulloch de l’université de l’Illinois et le mathématicien Walter Pitts de l’université de Chicago ont publié un traité influent sur les réseaux neuronaux et les automates, selon lequel chaque neurone du cerveau est un simple processeur numérique et le cerveau dans son ensemble est une forme de machine à calculer. Comme l’a dit McCulloch par la suite, « Ce que nous pensions faire (et je pense que nous avons assez bien réussi) était de traiter le cerveau comme une machine de Turing. »

Création d’un réseau neuronal artificiel

Ce n’est toutefois qu’en 1954 que Belmont Farley et Wesley Clark du MIT ont réussi à faire fonctionner le premier réseau neuronal artificiel – bien que limité par la mémoire de l’ordinateur à un maximum de 128 neurones. Ils sont parvenus à entraîner leurs réseaux à reconnaître des modèles simples. En outre, ils ont découvert que la destruction aléatoire de jusqu’à 10 % des neurones d’un réseau entraîné n’affectait pas les performances du réseau – une caractéristique qui rappelle la capacité du cerveau à tolérer des dommages limités infligés par une chirurgie, un accident ou une maladie.

Perceptrons

En 1957, Frank Rosenblatt, du laboratoire aéronautique de l’université Cornell à Ithaca (New York), a commencé à étudier les réseaux neuronaux artificiels qu’il a appelés perceptrons. Il a apporté des contributions majeures au domaine de l’IA, à la fois par des recherches expérimentales sur les propriétés des réseaux neuronaux (à l’aide de simulations informatiques) et par une analyse mathématique détaillée. Rosenblatt était un communicateur charismatique, et de nombreux groupes de recherche ont rapidement étudié les perceptrons aux États-Unis. Rosenblatt et ses disciples ont appelé leur approche connexionniste pour souligner l’importance dans l’apprentissage de la création et de la modification des connexions entre les neurones. Les chercheurs modernes ont adopté ce terme.

L’une des contributions de Rosenblatt a été de généraliser la procédure de formation que Farley et Clark avaient appliquée à des réseaux à deux couches seulement, afin de pouvoir l’appliquer à des réseaux multicouches. Rosenblatt a utilisé l’expression « correction d’erreurs par rétropropagation » pour décrire sa méthode. La méthode, avec des améliorations et des extensions substantielles par de nombreux scientifiques, et le terme de rétropropagation sont maintenant d’usage courant dans le connexionnisme.

Conjugaison des verbes

Dans une célèbre expérience connexionniste menée à l’Université de Californie à San Diego (publiée en 1986), David Rumelhart et James McClelland ont entraîné un réseau de 920 neurones artificiels, disposés en deux couches de 460 neurones, à former les temps du passé des verbes anglais. Les formes de base des verbes, comme come, look et sleep, étaient présentées à une couche de neurones, la couche d’entrée. Un programme informatique de supervision observait la différence entre la réponse réelle au niveau de la couche de neurones de sortie et la réponse souhaitée, par exemple « viens », puis ajustait mécaniquement les connexions dans l’ensemble du réseau conformément à la procédure décrite ci-dessus pour donner au réseau une légère impulsion dans le sens de la réponse correcte. Environ 400 verbes différents ont été présentés un par un au réseau, et les connexions ont été ajustées après chaque présentation. Cette procédure a été répétée environ 200 fois en utilisant les mêmes verbes, après quoi le réseau a pu former correctement le passé de nombreux verbes inconnus ainsi que des verbes originaux. Par exemple, lorsqu’on lui a présenté pour la première fois guard, le réseau a répondu guarded ; weep, wept ; cling, clung ; et drip, dripped (avec un double p). Il s’agit d’un exemple frappant d’apprentissage impliquant une généralisation. (Parfois, cependant, les particularités de l’anglais étaient trop importantes pour le réseau, et il a formé squawked à partir de squat, shipped à partir de shape, et membled à partir de mail).

Un autre nom pour le connexionnisme est le traitement distribué parallèle, qui met l’accent sur deux caractéristiques importantes. Premièrement, un grand nombre de processeurs relativement simples – les neurones – fonctionnent en parallèle. Deuxièmement, les réseaux neuronaux stockent les informations de manière distribuée, chaque connexion individuelle participant au stockage de nombreux éléments d’information différents. Le savoir-faire qui a permis au réseau du passé de former pleurer à partir de pleurer, par exemple, n’était pas stocké à un endroit précis du réseau, mais était réparti sur l’ensemble du modèle de poids des connexions qui a été forgé pendant la formation. Le cerveau humain semble également stocker des informations de manière distribuée, et la recherche connexionniste contribue aux tentatives visant à comprendre comment il procède.

Autres réseaux neuronaux

D’autres travaux sur le calcul de type neuronal sont présentés ci-dessous :

  • La perception visuelle. Les réseaux peuvent reconnaître des visages et d’autres objets à partir de données visuelles. Un réseau neuronal conçu par John Hummel et Irving Biederman à l’université du Minnesota peut identifier une dizaine d’objets à partir de simples dessins au trait. Le réseau est capable de reconnaître les objets – dont une tasse et une poêle à frire – même s’ils sont dessinés sous des angles différents. Les réseaux étudiés par Tomaso Poggio, du MIT, sont capables de reconnaître des formes en fil de fer coudé dessinées sous différents angles, des visages photographiés sous différents angles et présentant différentes expressions, ainsi que des objets provenant de dessins animés avec des nuances de gris indiquant la profondeur et l’orientation.
  • Traitement du langage. Les réseaux neuronaux sont capables de convertir des documents manuscrits et dactylographiés en texte électronique. L’Internal Revenue Service américain a commandé un système neuronal qui lira automatiquement les déclarations d’impôts et la correspondance. Les réseaux neuronaux convertissent également la parole en texte imprimé et le texte imprimé en parole.
  • L’analyse financière. Les réseaux neuronaux sont de plus en plus utilisés pour l’évaluation des risques liés aux prêts, l’évaluation des biens immobiliers, la prévision des faillites, la prévision du prix des actions et d’autres applications commerciales.
  • La médecine. Les applications médicales comprennent la détection des nodules pulmonaires et des arythmies cardiaques, ainsi que la prédiction des effets indésirables des médicaments.
  • Les télécommunications. Les applications des réseaux neuronaux dans les télécommunications comprennent le contrôle des réseaux de commutation téléphonique et l’annulation de l’écho dans les modems et sur les liaisons par satellite.

intelligence artificielle

Nouvelle IA

Nouvelles bases

L’approche connue aujourd’hui sous le nom de nouvelle IA a été lancée au laboratoire d’IA du MIT par l’Australien Rodney Brooks dans la seconde moitié des années 1980. La nouvelle IA se distancie de l’IA forte, qui met l’accent sur les performances de niveau humain, pour se rapprocher de l’objectif relativement modeste des performances de niveau insecte. À un niveau très fondamental, la nouvelle IA rejette la dépendance de l’IA symbolique à l’égard de la construction de modèles internes de la réalité, tels que ceux décrits dans la section Programmes de micromonde. Les praticiens de la nouvelle IA affirment que la véritable intelligence implique la capacité de fonctionner dans un environnement réel.

Une idée centrale de la nouvelle IA est que l’intelligence, telle qu’elle s’exprime par un comportement complexe, « émerge » de l’interaction de quelques comportements simples. Par exemple, un robot dont les comportements simples comprennent l’évitement des collisions et le déplacement vers un objet en mouvement semblera traquer l’objet, s’arrêtant dès qu’il s’en approche trop.

Le robot Herbert

Un exemple célèbre de nouvelle IA est le robot Herbert de Brooks (nommé d’après Herbert Simon), dont l’environnement est constitué des bureaux très fréquentés du laboratoire d’IA du MIT. Herbert fouille les bureaux et les tables à la recherche de canettes de soda vides, qu’il ramasse et emporte. Le comportement apparemment orienté vers un but du robot émerge de l’interaction d’environ 15 comportements simples. Plus récemment, Brooks a construit des prototypes de robots mobiles pour l’exploration de la surface de Mars. (Voir les photos et un entretien avec Rodney Brooks).

L’IA nouvelle contourne le problème du cadre évoqué dans la section Le projet CYC. Les nouveaux systèmes ne contiennent pas de modèle symbolique compliqué de leur environnement. Au lieu de cela, les informations sont laissées « dans le monde » jusqu’à ce que le système en ait besoin. Un nouveau système se réfère continuellement à ses capteurs plutôt qu’à un modèle interne du monde : il « lit » dans le monde extérieur les informations dont il a besoin au moment précis où il en a besoin. (Comme l’a souligné Brooks, le monde est son propre meilleur modèle – toujours exactement à jour et complet dans tous ses détails).

L’approche située

L’IA traditionnelle a, dans l’ensemble, tenté de construire des intelligences désincarnées dont la seule interaction avec le monde était indirecte (CYC, par exemple). La nouvelle IA, en revanche, tente de construire des intelligences incarnées situées dans le monde réel – une méthode connue sous le nom d’approche située. Brooks a cité de manière approbatrice les brèves esquisses que Turing a données en 1948 et 1950 de l’approche située. En équipant une machine « des meilleurs organes sensoriels que l’argent peut acheter », écrivait Turing, on pourrait lui apprendre « à comprendre et à parler anglais » par un processus qui « suivrait l’enseignement normal d’un enfant ». Turing opposait cette approche à celle de l’IA qui se concentre sur des activités abstraites, comme le jeu d’échecs. Il a préconisé la poursuite des deux approches, mais jusqu’à récemment, peu d’attention a été accordée à l’approche située.

L’approche située a également été anticipée dans les écrits du philosophe Bert Dreyfus de l’Université de Californie à Berkeley. Dès le début des années 1960, Dreyfus s’est opposé à l’hypothèse d’un système de symboles physiques, arguant que le comportement intelligent ne peut pas être entièrement saisi par des descriptions symboliques. En guise d’alternative, Dreyfus a défendu une vision de l’intelligence qui soulignait la nécessité d’un corps capable de se déplacer et d’interagir directement avec des objets physiques tangibles. Autrefois honni par les partisans de l’IA, Dreyfus est aujourd’hui considéré comme un prophète de l’approche située.

Les critiques de la nouvelle IA soulignent l’incapacité à produire un système présentant une complexité de comportement comparable à celle des insectes réels. Les suggestions des chercheurs selon lesquelles leurs nouveaux systèmes pourraient bientôt être conscients et posséder un langage semblent tout à fait prématurées.

L’IA forte est-elle possible ?

Le succès continu de l’IA appliquée et de la simulation cognitive, tel que décrit dans les sections précédentes de cet article, semble assuré. Cependant, l’IA forte – c’est-à-dire l’intelligence artificielle qui vise à reproduire les capacités intellectuelles humaines – reste controversée. Des affirmations exagérées de réussite, dans des revues professionnelles comme dans la presse populaire, ont nui à sa réputation. À l’heure actuelle, même un système incarné présentant l’intelligence globale d’un cafard s’avère difficile à atteindre, sans parler d’un système capable de rivaliser avec un être humain. On ne saurait trop insister sur la difficulté de transposer à une plus grande échelle les modestes réalisations de l’IA. Cinq décennies de recherche sur l’IA symbolique n’ont pas permis d’apporter la preuve irréfutable qu’un système de symboles peut manifester des niveaux humains d’intelligence générale ; les connexionnistes sont incapables de modéliser les systèmes nerveux des invertébrés les plus simples ; et les critiques de la nouvelle IA considèrent comme mystique l’idée que les comportements de haut niveau impliquant la compréhension du langage, la planification et le raisonnement émergeront d’une manière ou d’une autre de l’interaction de comportements de base tels que l’évitement d’obstacles, le contrôle du regard et la manipulation d’objets.

Cependant, cette absence de progrès substantiels pourrait simplement témoigner de la difficulté de l’IA forte, et non de son impossibilité. Venons-en à l’idée même d’intelligence artificielle forte. Un ordinateur peut-il penser ? Noam Chomsky suggère que le débat sur cette question est inutile, car la décision d’étendre l’usage commun du mot « penser » aux machines est essentiellement arbitraire. Selon Chomsky, il n’y a pas de question factuelle quant à savoir si une telle décision est bonne ou mauvaise – tout comme il n’y a pas de question quant à savoir si notre décision de dire que les avions volent est bonne, ou si notre décision de ne pas dire que les bateaux nagent est mauvaise. Cependant, cela semble trop simplifier les choses. La question importante est la suivante : sera-t-il un jour approprié de dire que les ordinateurs pensent et, si oui, quelles conditions un ordinateur doit-il remplir pour être ainsi décrit ?

Certains auteurs proposent le test de Turing comme définition de l’intelligence. Cependant, Turing lui-même a fait remarquer qu’un ordinateur que l’on devrait qualifier d’intelligent pourrait néanmoins échouer à son test s’il était incapable d’imiter avec succès un être humain. Par exemple, pourquoi un robot intelligent conçu pour superviser l’exploitation minière sur la Lune devrait-il nécessairement être capable de se faire passer dans une conversation pour un être humain ? Si une entité intelligente peut échouer au test, alors le test ne peut pas fonctionner comme une définition de l’intelligence. On peut même se demander si le fait de réussir le test prouverait réellement qu’un ordinateur est intelligent, comme l’ont souligné en 1956 le théoricien de l’information Claude Shannon et le pionnier de l’IA John McCarthy. Shannon et McCarthy ont affirmé qu’il est possible, en principe, de concevoir une machine contenant un ensemble complet de réponses toutes faites à toutes les questions qu’un interrogateur pourrait poser pendant la durée déterminée du test. Comme Parry, cette machine produirait les réponses aux questions de l’interrogateur en recherchant les réponses appropriées dans un tableau géant. Cette objection semble montrer qu’en principe, un système dépourvu de toute intelligence pourrait passer le test de Turing.

En fait, l’IA n’a pas de véritable définition de l’intelligence à proposer, pas même dans le cas du sous-homme. Les rats sont intelligents, mais que doit exactement atteindre une intelligence artificielle pour que les chercheurs puissent prétendre à ce niveau de réussite ? En l’absence d’un critère raisonnablement précis permettant de déterminer quand un système artificiel est considéré comme intelligent, il n’existe aucun moyen objectif de dire si un programme de recherche en IA a réussi ou échoué. L’un des résultats de l’incapacité de l’IA à produire un critère d’intelligence satisfaisant est que, chaque fois que les chercheurs atteignent l’un des objectifs de l’IA – par exemple, un programme capable de résumer des articles de journaux ou de battre le champion du monde d’échecs – les critiques peuvent dire « Ce n’est pas de l’intelligence ! ». La réponse de Marvin Minsky au problème de la définition de l’intelligence est de soutenir – comme Turing avant lui – que l’intelligence est simplement notre nom pour tout processus mental de résolution de problèmes que nous ne comprenons pas encore. Minsky compare l’intelligence au concept de « régions inexplorées de l’Afrique » : elle disparaît dès que nous la découvrons.

SEO INSIDE est une agence SEO (notamment…)

RETROUVEZ TOUS LES ARTICLES SUR L’INTELLIGENCE ARTIFICIELLE:

Les principes d’intelligence artificielle chez Google

février 8th, 2023|Commentaires fermés sur Les principes d’intelligence artificielle chez Google

Avec BARD qui approche pour rivaliser ChatGPT, Google a précisé ses grands principes dans la conduite du développement de son intelligence artificielle. En voici les grands principes. L'intelligence artificielle chez Google : Principes Google aspire [...]

Google lance BARD pour rivaliser avec ChatGPT

février 7th, 2023|Commentaires fermés sur Google lance BARD pour rivaliser avec ChatGPT

Google dévoile ses plans pour le chatbot Bard alors que la course aux technologies de l'IA s'intensifie. Le géant de la recherche dévoile son rival du ChatGPT d'OpenAI. Google a dévoilé lundi son intention de lancer [...]

Google investit $300 millions dans la start-up d’intelligence artificielle Anthropic

février 6th, 2023|Commentaires fermés sur Google investit $300 millions dans la start-up d’intelligence artificielle Anthropic

Google investit 300 millions de dollars dans la start-up d'intelligence artificielle Anthropic. L'opération "cash-for-computing" montre comment les grands groupes technologiques investissent dans des entreprises à l'avant-garde de l'intelligence artificielle générative. Google a investi environ 300 [...]

les Big Techs se servent du cloud pour faire des alliances en intelligence artificielle

février 6th, 2023|Commentaires fermés sur les Big Techs se servent du cloud pour faire des alliances en intelligence artificielle

Les grandes entreprises de la technologie se servent de l'informatique en cloud pour conclure des alliances avec des groupes d'IA. Les accords entre Google, Microsoft et Amazon et les jeunes pousses de l'IA générative soulèvent [...]

L’IA générative et son impact sur la société

janvier 25th, 2023|Commentaires fermés sur L’IA générative et son impact sur la société

IA générative : comment la nouvelle ère de l'apprentissage automatique vous affectera-t-elle ? Des systèmes comme ChatGPT peuvent produire du contenu sur commande, menaçant non seulement des emplois mais aussi une vague de désinformation. Il [...]

Quand ChatGPT réussit son MBA de Wharton Business School

janvier 23rd, 2023|Commentaires fermés sur Quand ChatGPT réussit son MBA de Wharton Business School

La réussite d'un chatbot IA à un examen de MBA constitue un test pour les écoles de commerce... ChatGPT a obtenu une note solide et a surpassé certains humains dans un cours de Wharton. Elon Musk [...]

 

--

 

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.