Le langage / Intelligence et artifices |
L'Intelligence
Artificielle :
Avant-Propos
Je suis très honoré d'avoir été choisi pour prononcer devant vous cette conférence d'ouverture au quatrième colloque "Artificial Intelligence and Knowledge Based Systems for Space". Comme l'indique le titre de mon exposé, je me situerai successivement aux deux extrêmités du chemin où s'aventure notre recherche. Dans la première partie j'évoquerai les débuts de l'Intelligence Artificielle, ses ambitions et ses déboires. Il se peut en effet que, sous la pression de la demande, le chercheur - et surtout le jeune chercheur - n'ait qu'une connaissance imparfaite des origines de sa discipline et ne dispose ainsi que des outils intellectuels que lui propose une actualité scientifique et technique immédiate. Je m'efforcerai donc de vous montrer l'intérêt d'une meilleure vision historique de notre domaine et de son déploiement, car le bénéfice que l'on peut en attendre n'est pas seulement culturel mais également méthodologique, donc utile au praticien. Dans la deuxième partie, je quitterai l'habit du mémorialiste pour m'adonner à l'anticipation. J'essaierai pour cela de dresser un bilan des travaux les plus récents et d'en extraire les matériaux de nouvelles synthèses. On verra dès lors se rejoindre des chapitres un moment négligés du projet initial de constitution d'une "Intelligence Artificielle" et s'ébaucher de nouvelles synthèses. Mais la recevabilité d'un projet, la pertinence d'une méthode doivent être validées et les technologies de l'espace nous offrent, dans ce domaine comme dans beaucoup d'autres, des critères précieux et des incitations multiformes. Ma présence parmi vous est due, je le suppose, au fait que je suis un ancien de l'ESTEC en même temps qu'un promoteur de l'Intelligence Artificielle en Europe. Je voudrais donc, avant d'aborder la partie historique de ma communication, compléter cet avant-propos par des remarques un peu personnelles. Ma carrière débuta en 1949 au Commissariat à l'Energie Atomique. J'avais été recruté comme documentaliste avec un objectif précis : définir un nouveau système de classification-matières (utilisant, bien entendu, la technique traditionnelle des fichiers et tiroirs). A partir de 1954 Maurice Surdin me confia la responsabilité d'un laboratoire de Calcul Electronique; il s'agissait en fait de "Calcul Analogique", mais je ne pouvais évidemment pas me désintéresser des progrès de ce qu'on appelait alors "Calcul Digital". C'est ainsi que je fus amené, en 1959, à me lancer dans le domaine de la Documentation Automatique, en collaboration avec André Leroy. C'est l'époque où EURATOM prenait son essor. EURATOM était, avec le Marché Commun et la CECA (Communauté Européenne Charbon-Acier), l'une des parties constitutives de la Communauté Européenne (qui ne comptait alors que six états membres). Jules Guéron, directeur général de la recherche, qui avait été l'un des fondateurs du CEA et avait dirigé le Centre d'Etudes Nucléaires de Saclay, me demanda de le rejoindre à Bruxelles pour constituer un groupe de recherches sur l'information scientifique automatique (GRISA). Bientôt il fut évident qu'il nous fallait aborder aussi le problème de la traduction automatique (nous devions travailler dans quatre langues différentes). D'autres projets surgirent et c'est ainsi qu'un grand programme européen de recherches en Intelligence Artificielle prit corps et se développa à Ispra, en Italie, dans le cadre du Centre Européen de Traitement de l'Informatin Scientifique (CETIS), centre qui fut alors pourvu d'un ordinateur puissant (le plus puissant de l'époque!) : un IBM 7090. Parallèlement nous avons pu subventionner de nombreux groupes de recherches dans les états membres [1] . Pour diverses raisons, EURATOM ne poursuivit pas son effort et, en 1964, Maurice Surdin, devenu Chef du Département "Recherche et Technologie" à l'ESTEC me confia la direction de la division de Mathématiques Appliquées. L'Intelligence Artificielle était alors en crise et, de toute façon, nos contraintes opérationnelles ne nous auraient guère permis de nous y investir. Mais je profitai de l'environnement studieux et des remarqubles facilités des bibliothèques de la T.H. Delft et de l'Université de Leyde pour rédiger un ouvrage où se dssinait un prmier bilan des recherches récentes. Ce livre parut en juillet 1968 dans la collection "La Science en marche", aux Presses Universitaires de France, sous le titre L'intelligence Artificielle, avec une préface de Jules Guéron. C'était le premier livre publié sous ce titre sur ce sujet (il y en eut des dizaines depuis), mais les circonstances de l'époque en amortirent singulièrement l'écho. C'est pendant la mise au point de ce livre que ce produisit un incident notable dont certains d'entre vous se souviennent peut-être et qui va me donner l'occasion de vous proposer une première image. Nous avions été hébergés quelque temps à Delft, puis on avait commencé la construction des bâtiments où nous nous trouvons aujourd'hui, mais en attendant leur finition, plusieurs équipes - dont la mienne - étaient abritées dans des locaux préfabriqués. Voici une photo prise devant la partie centrale de ces locaux, le vendredi 14 octobre 1966. Le soir même, une cigarette mal éteinte jetée dans une corbeille à papier déclenchait un incendie qui détruisait une grande partie des locaux préfabriqués, y compris mon bureau et tous mes dossiers, avec le manuscrit de mon livre! Heureusement j'étais parti pour le week-end à Paris, emportant une version incomplète mais significative de mon texte que je pus peu à peu reconstituer. En 1971 je pris mes fonctions de professeur à l'Université de Paris XI, à Orsay, où j'eus la possibilité d'engager d'initier de nouvelles recherches en manipulation des symboles, théorie de la complexité, systèmes de logique constructiviste. Par la suite je fus amené à développer des "littéraciels", c'est-à-dire des logiciels de création littéraire assistée par ordinateur et, pour cela, à m'intéresser à nouveau aux progrès de la "Linguistique computationnelle", à l'Université de Chicago et en liaison avec les universités de Heidelberg et de Paris VII. De retour en France, je fus appelé comme consultant au CIMA (Centre d'Informatique et de Méthodologie en Architecture), devenu depuis Lutèce'IA (Laboratoire parisien d'Informatique et des sciences de la conception) et dépendant du Ministère de l'Equipement et de l'Urbanisme. Je prépare en ce moment un ouvrage intitulé Intégration de méthodes et de savoirs linguistiques dans les nouvelles technologies de la conception qui fait le point sur la problématique CAO et dont les derniers chapitres évoquent des thèmes voisins de ceux qui sont abordés dans la deuxième partie de cet exposé. Nommé "Directeur de programme" au Collège International de Philosophie, en 1992, je m'efforce de développer, dans mes séminaires, des réflexions sur les conditions théoriques et pratiques d'acquisition et de traitement des connaissances. L'intelligence Artificielle est évidemment un domaine privilégié pour le développement de telles réflexions.
Première
partie : rétrospective Il y a souvent
une grande part d'arbitraire dans le découpage en étapes distinctes
d'un processus de développement culturel, scientifique, technique ou
économique. J'ai simplement adopté un format traditionnel en distinguant
ici trois phases majeures : Pour chaque phase je présenterai et je commenterai un schéma synoptique.
Protohistoire
Le tableau précédent nous fait remonter très loin dans le passé - plus loin peut-être qu'il ne serait strictement nécéssaire - afin de mieux expliquer la persistance d'inquiétudes et de doutes encore vivaces aujourd'hui [2] . C'est que, dès l'Antiquité présocratique, se développent des systèmes d'organisation des concepts où l'articulation logique (tables des contraires), puis la représentation numérique, jouent un rôle essentiel. Dans la Gnose et surtout dans la Kabbale, la mise en correspondance des alphabets (hébreu et arabe) et des nombres entiers permet d'associer à l'expression des phénomènes un simple calcul. On confie ainsi à un mécanisme dont la rationalité est acquise, le soin de conduire les raisonnements et d'en assurer la justification. En voici un exemple, dû à Al-Biruni (souvent appelé Al-Khowarizmi, d'où est tiré le mot "algorithme"), où l'on déduit la date de l'Hégire (dans le calendrier Séleucide) de l'énoncé même de l'événement, en partant d'une correspondance précise entre lettres de l'alphabet arabe et nombres entiers : Avec Raymond Lulle on franchit un pas de plus puisque les conditions explicites d'une mécanisation sont énoncées. Les concepts sont représentés par des lettres et des combinaisons de lettres. La rotation de cercles concentriques permet tout à la fois de déployer les possibilités du combinatoire et de garantir la validité des raisonnements : sL'ouvre de Leibniz marque un tournant décisif dans le progrès de la pensée rationnelle : élucidation des mécanismes mathématiques du combinatoire, reconnaissance des pouvoirs de la formalisation et de la nature systématique des phénomènes du langage, invention (après Pascal) de véritables machines à calculer : le promoteur d'une Caractéristique Universelle est, à coup sûr, le véritable initiateur de l'Intelleigence Artificielle. Il s'exprime ainsi :
On remarquera que le tableau précédent comporte un nombre élevé d'écrivains qui ont pressenti les capacités du combinatoire (Meschinot, Leibniz, Kuhlman), d'auteurs préoccupés de considération philosophiques ou religieuses (Al-Biruni, Lulle, Spinoza), soucieux d'imaginer des modèles d'automates (Pascal, Babbage, Jevons, Capek), ou, comme Leibniz, combinant plusieurs intérêts. On notera enfin que Jevons était à l'origine un économiste. Mais c'est avec l'invention du mot "robot" par le romancier tchèque Karel Capek, que nous entrons dans la préhistoire.
Préhistoire
Ce deuxième
tableau présente plusieurs ruptures importantes avec le précédent :
Cette situation est évidemment une conséquence de la seconde guerre mondiale. Des moyens considérables ont été mis à la disposition des chercheurs (souvent des européens émigrés aux Etats-Unis), et ceci dans les domaines les plus divers : cryptographie, technologie des radars et surtout développement des machines à calculer et du concept de programmation (l'article fondateur de Burks, Goldstine et von Neumann a été rédigé en 1943). Bien que présente à nouveau à la fin des années 50, l'Europe ne comblera pas vraiment son handicap au cours de la phase suivante d'une histoire qui est déjà pour vous une histoire ancienne, et dont le tableau ci-dessous rappelle quelques moments significatifs :
Histoire ancienne
Cette troisième phase marque réellement les débuts de l'Intelligence Artificielle sur une grande échelle. Des équipes de chercheurs - y compris, cette fois, des équipes européennes - se sont constituées, des crédits abondants ont été dégagés. De ce point de vue les séminaires de Blaricum jouent un rôle important en organisant le "passage du témoin" entre équipes américaines et européennes. Un facteur essentiel de l'évolution est certainement l'apparition de machines à calculer de plus en plus puissantes et de techniques de programmation de plus en plus sophistiquées. Des langages de programmation "de haut niveau" sont mis au point : FORTRAN, COBOL, puis IPL, LISP, APL. On notera que le thème du premier séminaire de Blaricum était "La programmation non-numérique". Trois directions principales de recherche se dégagent : la démonstration automatique, illustrée par Newell et Simon, mais aussi par M. Davis, H. Gelertner, P. Gilmore, et, en Europe, par E. Beth et le groupe d'Amsterdam. Les domaines explorés sont essentiellement ceux du Calcul des Prédicats, mais on trouve aussi quelques essais en Algèbre et en Géométrie élémentaire. la simulation des jeux, domaine inauguré par les articles de Turing et Shannon. Des résultats importants sont obtenus par Samuel pour le jeu de dames et c'est l'occasion des premiers travaux sur l'apprentissage. Une importante équipe comprenant l'ancien champion du monde des échecs, Max Euwe, est subventionnée par EURATOM. L'URSS dispose aussi d'une équipe animée par le champion du monde M. Botvinnik. la documentation et la traduction automatiques. Cette direction n'est empruntée que plus tardivement, mais elle est bientôt un argument essentiel auprès des autorités dispensatrices de subventions, en raison des conséquences pratiques - y compris politiques - qu'elles laissent espérer. Les autorités fédérales - en particulier militaires - aux Etats-Unis, EURATOM, en Europe, et aussi L'Union Soviétique, sont directement intéressés. C'est ce qui conduit EURATOM à se rendre acquéreur, dès 1962, du programme de traduction automatique russe-anglais développé par l'Université Georgetown à Washington. Ce programme demeurera en service à Ispra jusqu'en 1976. Ces trois thèmes forment le noyau du livre que je publie en 1968 mais qui, on l'a vu, était achevé pour l'essentiel en 1966. La table des matières se présente en effet comme suit : I. - Intelligence et artifices Les chapitres VI et VII s'efforcent de situer le débat, déjà très animé, sur les limitations de l'Intelligence Artificielle. Les adversaires farouches de cette activité, comme M.Taube (un précurseur de H. Dreyfus) et surtout le logicien Y. Bar-Hillel, offrent des arguments tirés de la logique mathématique (le théorème de Gödel) pour dénier tout avenir à la recherche. Le principal résultat de leurs efforts - joint aux déceptions causées par de trop optimistes déclarations et interviews - est de décourager les sponsors officiels. Les ressources s'évanouissent, les équipes se dispersent : l'Intelligence Artificielle est en panne.
Interlude Un quart de siècle s'est écoulé depuis ces moments de crise et de désillusion mais fort heureusement, comme ce colloque le prouve avec éclat, l'Intelligence Artificielle est aujourd'hui une activité bien vivante. Une telle renaissance résulte de la conjonction de plusieurs facteurs : l'effort obstiné de chercheurs et d'équipes très motivées et l'émergence d'une nouvelle demande industrielle, en premier lieu celle de la technologie spatiale. On n'oubliera pas que, le 21 juillet 1969, Neil Armstrong alunissait (il vint nous rendre visite à l'ESTEC un an après). D'ailleurs certaines branches de la recherche avaient conservé une grande activité, en particulier celles qui avaient une dominante théorique. C'est ainsi qu'on vit se développer le domaine de la linguistique mathématique, dans le sillage des travaux de Zellig Harris et de Noam Chomsky (orientés principalement vers l'analyse syntaxique). Les résultats obtenus furent utilisés pour la spécification des langages de programmation. Mais les besoins de la robotique conduisirent rapidement à généraliser le champ de compétence de la linguistique computationnelle, en particulier vers l'analyse sémantique. L'accélération des progrès technologiques (vitesse de calcul et capacité de stockage des ordinateurs) ouvrit de nouveaux débouchés : constitution de bases de données, scientifique, technologiques, administratives et financières, développement de systèmes experts, activités "assistées par ordinateur" : enseignement, bibliothéconomie Le tableau ci-dessous donne quelques étapes importantes de cet épanouissement :
Deuxième partie : prospective Il est toujours dangereux de faire des paris sur l'avenir et mon objectif, pour cette deuxième partie, est plutôt de suggérer des directions possibles de développement, sans être assuré qu'on s'y engagera effectivement. Il existe aujourd'hui un grand nombre de recherches qui s'inscrivent dans le cadre de l'Intelligence Artificielle et il est clair qu'un effort de systématisation s'impose si l'on veut faire ouvre d'innovateur. Le tableau précédent montre une grande variété de domaines et d'applications et mais on peut discerner aisément une répartition en deux grandes catégories : - la première catégorie d'applications est issue des recherches de Newell et Simon, via J. Robinson et d'autres. On pourrait l'appeler la voie logiciste. Elle utilise largement le formalisme et les résultats de la logique et de la linguistique mathématiques. Elle constitue des systèmes de déduction automatique et s'appuie sur des bases de connaissances pour donner naissance à des systèmes experts. Les communications présentées à ce colloque - et son titre même - se rangent pour l'essentiel dans cette catégorie. C'est elle qui, profitant des capacités accrues des équipements informatiques, induit les développements industriels les plus significatifs. Le prix à payer est celui de la constitution des bases de données de connaissances, notamment des bases à vocation encyclopédique. Le summum, dans ce domaine, semble être atteint par le projet CYC,dirigé par D. Lenat (plusieurs millions d'énoncés déclaritifs qui ont dû être "rentrés à la main"!). Pourtant de très grandes bases textuelles existent aujourd'hui, tel le Trésor de la Langue Française assemblé à Nancy par l'INALF (Institut National de la Langue Française) et son jumeau américain ARTFL (American Research on d'accroître sans cesse la dimension de telles bases. Bien entendu l'exploitation de ces bases textuelles passe par la mise en ouvre de programmes d'analyse syntaxique et sémantique robustes et efficaces. Des programmes de coopoération européens tels qu'EUREKA et ESPRIT y contribuent efficacement. De leur succès dépend la possibilité d'une construction automatique - ou tout au moins assistée - de bases de données de connaissance dans des domaines spécifiques comme celui des recherches spatiales. - la deuxième catégorie d'applications s'inscrit dans la ligne ouverte simultanément par Wiener et par McCullogh et Pitts. On pourrait l'appeler la voie physiologiste. Elle présente, par rapport à l'approche logiciste, une dualité qui n'est pas sans rappeler la dualité analogue/digital du calcul électronique traditionnel. Elle s'inspire en effet de ce que l'on sait - ou de ce que l'on devine - sur le fonctionnement du système nerveux ou des organes des sens (ceux de la vision , notamment), pour proposer des simulations. Elle prend au sérieux la métaphore "cerveau/machine" et s'est récemment inspirée des progrès de la technologie, en particulier de la mise au point de machines hautement parallèles pour ouvrir une nouvelle direction de recherches qui est celle du connexionisme. Linguistes et psychologues - qui demeuraient réticents à l'approche logiciste (malgré le pretige de Chomsky), se sont enthousiasmés pour la seconde approche et ont ainsi contribué à l'émergence d'une discipline "nouvelle" rassemblant les efforts des uns et des autres et baptisée cognitivisme. Le destin médiocre d'une ancienne tentative du même genre (la cybernétique) n'a pas découragé les "sponsors" officiels, ainsi qu'en témoigne le tableau récapitulatif ci-après, qui est tiré d'un rapport rédigé en 1978 pour le compte de la Fondation Sloane : En 1986 - le cognitivisme ayant été adopté par les universitaires, et même par certains industriels - le psychologue Guy Tiberghien proposait une répartition des tâches légèrement différente, où la dualité évoquée plus haut apparait mieux, mais qui, comme tout arrangement systématique, comporte aussi une large part d'arbitraire [3] : Dans le premier chapitre de mon petit livre de 1968, je m'efforçais de préciser la signification de mots comme ceux d'intelligence et d'artifice. J'insistais sur cette caractéristique qu'est la réflexivité de l'intelligence en remarquant (p.10) :
Je rappelais aussi les observations du psychologue et épistémologue Jean Piaget pour qui "L'intelligence est une adaptation", créatrice d'organisation. Il s'agit très précisément d'une organisation de structures abstraites, de concepts ou d'images, puisque ne pouvant nous approprier les objets du monde extérieur, nous devons nous contenter de leurs représentations, manipuler les informations qu'elles transportent, avant d'intervenir à notre tour dans le destin de ces objets. Il y a donc là une dynamique interactive fondée sur une batterie de mécanismes substitutifs que j'énumérais ainsi (p. 12-13) : - substitutions
de sensations aux objets extérieurs; J'observais alors qu'une telle construction progressive pouvait se déployer dans un environ-nement "artificiel" aussi bien que dans un environnement "naturel" et qu'une épistémologie "dualiste" n'était pas inévitable. Cette conviction, un moment ébranlée par des déboires comme ceux décrits plus haut, s'est renforcée peu à peu. Dès 1977, D. Marr pouvait écrire :
Mais si le débat sur la faisabilité de l'Intelligence Artificielle peut être aujourd'hui considéré comme clos, malgré le combat d'arrière-garde de quelques contestataires comme H. Dreyfus et J. Searle [4] (qui ne sont d'ailleurs pas des praticiens dans ce domaine), une problématique plus spécifique s'est développée, mettant en jeu des options entre lesquelles les chercheurs se partagent en participant à des polémiques souvent vives. Je citerai les thèmes suivants [5] : - faisabilté
d'une modélisation de systèmes d'actants et d'événements de "la
vie quotidienne". c'est en effet l'objet du projet
de P. Hayes (the naïve physics manifesto) et des critiques ultérieures
de D. McDermott. Mais c'est sur un terrain plus technique que je voudrais situer mon intuition de synthèses possibles, reprenant d'ailleurs, à cette occasion, des réflexions déjà anciennes.Ce terrain, c'est celui des cycles informationnels : - en robotique,
il s'agit du cycle qui s'établit entre un robot et le milieu qui l'héberge
et qui s'inscrit le long d'un chemin où s'effectue la saisie d'information
par les capteurs et l'envoi d'informations vers les effecteurs. De l'efficacité de tels cycles dépend évidemment le bon fonctionnement des systèmes où ils figurent. Ils s'inscrivent donc dans l'arsenal des techniques de l'intelligence artificielle. Celle-ci, pour la manipulation des informations et la mise en ouvre de procédures d'inférence et de validation fait également appel aux propriétés des systèmes formels - en particulier ceux de la Logique Mathématique - qui, eux, s'efforcent au contraire d'exorciser les cycles - que l'on appelle alors cercles vicieux car ces cycles-là sont générateurs de paradoxes. Intégrés dans le carcan d'un système formel explicite, ils peuvent cependant fournir le schéma démonstratif de théorèmes spécifiques, les théorèmes de limitation (Gödel, Church, Kleene, Turing, etc...), parfois invoqués part les contestataires de l'IA. Mais entre l'univers de l'interaction - dont la caractéristique, au point de vue sémiotique, est de privilégier le volet pragmatique - et celui de la déduction - qui privilégie le volet syntaxique, il en existe d'autres dont l'orientation est plus spécifiquement sémantique, au sein desquels le jeu des cycles et leurs potentialités pourraient avec fruit être analysés. Le premier exemple que je voudrais évoquer est celui des schémas fonctionnels du calcul analogique électronique de naguère. Bien sûr la technique du calcul analogique "universel" (technique dans laquelle, à l'ESTEC même, Clem Green, puis Rudolf Brözel et Adriaan Scheffer se sont illustrés) n'est plus exploitée aujourd'hui : l'informatique (qu'on appelait autrefois le "calcul digital") dispose désormais de méthodes efficaces pour la résolution numérique des systèmes d'équations différentielles. Mais le concept très particulier qui en était le principe de base mérite encore - me semble-t-il - d'être explicité et discuté. Il faut, pour cela, examiner le schéma d'un opérateur fonctionnel élémentaire, en calcul analogique électronique : Cet opérateur est un simple inverseur de signe; la sortie s est, à tout instant t, l'opposée de l'entrée e. Mais en réalité s n'est asservie à e qu'à près : s (t) = - e (t) + e (t) On voit donc que la sortie de l'opérateur fonctionnel (donc la solution du problème de l'inversion de signe) est égale au produit de l'erreur par le gain (supposé très grand) de l'amplificateur qui constitue le composant essentiel de cet opérateur : s (t) = G x e(t) En d'autres termes, la solution est fournie par l'erreur! On se trouve donc bien là en présence d'une structure bouclée paradoxale, mais cette fois le cycle informationnel joue un rôle créateur et non plus destructeur et le circuit qui l'incarne constitue ici un cercle vertueux [6] . Le deuxième exemple nous fera passer du domaine du calcul électronique à celui de la linguistique computationnelle. Il s'agit plus précisément d'un modèle de la compréhension des textes fondé sur l'exploitation de la notion d'avalanche sémantique. Cette notion dérive d'une proposition de technique d'écriture imaginée par Stefan Temerson et décrite - pour le français - par Raymond Queneau et, indépendamment, par Marcel Benabou et Georges Perec [7] . Pour l'essentiel, elle consiste à remplacer tous les mots d'un texte par leur définition dans un dictionnaire (précisément désigné) et d'itérer un certain nombre de fois la procédure - qui comprend aussi des conventions spécifiques relatives aux mots "outils" (articles, prépositions, conjonctions, etc...). Considérons alors le processus complexe suivant d'analyse interprétative d'un texte : - les mots du texte sont évoqués en séquence Je n'entrerai pas ici dans l'analyse détaillée d'un modèle qui est assez général pour présenter bien d'autres incarnations et dont la consistence dépend, entre autres, de propriétés spécifiques de l'analyse dynamique non-linéaire. J'observerai seulement que, comme dans le cas du schéma analogique, nous nous trouvons ici en présence d'une boucle de rétroaction positive comportant l'équivalent d'un amplificateur à grand gain. Par contre la rétroaction ne s'y développe pas le long d'un chemin informationnel (le circuit de contre-réaction), mais au travers d'une gerbe de chemins; elle ne s'effectue plus instantanément (à la bande passante près de l'amplificateur), mais selon une organisation spatio-temporelle complexe où séquentialité et parallélisme, réécriture logique par résolution et reconnaissnce de formes se combinent et se contrôlent étroitement. Bien entendu, ces deux exemples appeleraient des développements étendus : ils ne présentent ici que l'ébauche de programmes à poursuivre. Mais j'ai voulu, grâce à eux, souligner que - les fondements même de l'Intelligence Artificielle ne peuvent être discutés correctement que dans le cadre d'une argumentation technique précise et non sous le coup d'émotions ou de préjugés relevant de ce qu'on pourrait appeler, en s'inspirant de Bachelard, un complexe de Frankenstein. En particulier le problème central de la consistance de l'activité IA se dégage désormais du cadre de la métamathématique traditionnelle pour adopter une approche sémiotique globale qui doit prendre en compte la circulation des informations sur des chemins spatio-temporels enchevêtrés [8] . - réciproquement les innovations méthodologiques et technologiques nécessaires à l'approfondissement de ces recherches ne manqueront pas d'avoir des répercussions en de nombreux domaines de l'activité scientifique. C'est ainsi que le schéma de l'avalanche sémantique évoqué plus haut est opératoire dans des domaines aussi différents que ceux de la psychologie cognitive ou de la physique des états condensés de la matière. - confrontée à ce défi fondamental pour la connaissance humaine qu'est le mur de la complexité, l'Intelligence Artificielle, après un demi-siècle d'essais et d'erreurs, est naturellement portée à mettre enouvre des synthèses nouvelles, exploitant des techniques de représentation où le formalisme figé fait place à une Idéographie dynamique (pour reprendre l'expression de Pierre Levy), suggérant la coopération - voire l'unification - de disciplines séparées, effaçant même parfois - en tout cas atténuant - la frontière entre la théorie et la pratique. Dans les années soixante, le mathématicien britannique I. Good s'exclamait :
Une telle déclaration en forme de défi ne peut - trente ans après - que nous laisser perplexes. Elle nous convoque sans doute aux limites du possible tout comme le fait, dans le même temps, la recherche spatiale. [1]
on trouve une description succinte de cet effort
dans ma contribution au Symposium on Artificial Intelligence organisé
par M.Minsky dans le cadre du congrès de l'IFIP : Information Processing
1962.
[2] Ce tableau - et le suivant - s'inspirent d'un enseignement que j'ai donné en 1991 dans le cadre du Collège International de Philosophie, sous le titre Les projets de formalisation universelle. [3] Ces deux tableaux sont empruntés (pp.51 et 185) à l'ouvrage collectif coordonné par Jean-Louis Le Moigne Intelligence des mécanismes, mécanismes de l'intelligence (Fayard, 1986). [4] grâce, en particulier, aux analyses de Paul Henry figurant dans l'ouvrage collectif cité plus haut : Intelligence des mécanismes, mécanismes de l'intelligence. [5] sur tout ceci on consultera avec fruit l'ouvrage collectif édité par M. Boden : The Philosophy of Artificial Intelligence(Oxford University Press 1990). [6] J'ai attiré l'attention sur ce paradoxe dès les années cinquante, et en particulier dans une communication aux Journées Internationales de Calcul Analogique (Bruxelles, sept. 1955 p.198), intitulée Problèmes de structure dans le calcul analogique et, plus récemment, dans ma contribution au Colloque sur l'histoire de l'informatique en France (Grenoble, mai 1988), intitulée Les digitales du Mont Analogue. [7] On en trouvera une analyse complète dans Presbytères et Prolétaires, Le dossier P.A.L.F. présenté par Marcel Benabou, Cahiers Georges Perec 3, 1989. [8] J'avais esquissé un tel programme dans mes deux communications au 1er Congrès International de Cyber-nétique (Namur 1956) intitulées respectivement Cybernétique et physiologie généralisée (j'y évoquais le thème d'une "physiologie artificielle" préfigurant celui du connexionisme) et L'information dans les mathématiques pures et dans les machines. Les circonstances - et mon inertie, sans doute - ont fait prendre beaucoup de retard à ce projet!
|
Le langage / Intelligence et artifices |
Paul Braffort © 2002 |