Le langage / Intelligence et artifices

<< retour << accueil <<

 

 

L'Intelligence Artificielle :
rétrospective et prospective

 

 

Avant-Propos

 

Je suis très honoré d'avoir été choisi pour prononcer devant vous cette conférence d'ouverture au quatrième colloque "Artificial Intelligence and Knowledge Based Systems for Space". Comme l'indique le titre de mon exposé, je me situerai successivement aux deux extrêmités du chemin où s'aventure notre recherche. Dans la première partie j'évoquerai les débuts de l'Intelligence Artificielle, ses ambitions et ses déboires. Il se peut en effet que, sous la pression de la demande, le chercheur - et surtout le jeune chercheur - n'ait qu'une connaissance imparfaite des origines de sa discipline et ne dispose ainsi que des outils intellectuels que lui propose une actualité scientifique et technique immédiate. Je m'efforcerai donc de vous montrer l'intérêt d'une meilleure vision historique de notre domaine et de son déploiement, car le bénéfice que l'on peut en attendre n'est pas seulement culturel mais également méthodologique, donc utile au praticien.

Dans la deuxième partie, je quitterai l'habit du mémorialiste pour m'adonner à l'anticipation. J'essaierai pour cela de dresser un bilan des travaux les plus récents et d'en extraire les matériaux de nouvelles synthèses. On verra dès lors se rejoindre des chapitres un moment négligés du projet initial de constitution d'une "Intelligence Artificielle" et s'ébaucher de nouvelles synthèses. Mais la recevabilité d'un projet, la pertinence d'une méthode doivent être validées et les technologies de l'espace nous offrent, dans ce domaine comme dans beaucoup d'autres, des critères précieux et des incitations multiformes.

Ma présence parmi vous est due, je le suppose, au fait que je suis un ancien de l'ESTEC en même temps qu'un promoteur de l'Intelligence Artificielle en Europe. Je voudrais donc, avant d'aborder la partie historique de ma communication, compléter cet avant-propos par des remarques un peu personnelles.

Ma carrière débuta en 1949 au Commissariat à l'Energie Atomique. J'avais été recruté comme documentaliste avec un objectif précis : définir un nouveau système de classification-matières (utilisant, bien entendu, la technique traditionnelle des fichiers et tiroirs). A partir de 1954 Maurice Surdin me confia la responsabilité d'un laboratoire de Calcul Electronique; il s'agissait en fait de "Calcul Analogique", mais je ne pouvais évidemment pas me désintéresser des progrès de ce qu'on appelait alors "Calcul Digital". C'est ainsi que je fus amené, en 1959, à me lancer dans le domaine de la Documentation Automatique, en collaboration avec André Leroy.

C'est l'époque où EURATOM prenait son essor. EURATOM était, avec le Marché Commun et la CECA (Communauté Européenne Charbon-Acier), l'une des parties constitutives de la Communauté Européenne (qui ne comptait alors que six états membres). Jules Guéron, directeur général de la recherche, qui avait été l'un des fondateurs du CEA et avait dirigé le Centre d'Etudes Nucléaires de Saclay, me demanda de le rejoindre à Bruxelles pour constituer un groupe de recherches sur l'information scientifique automatique (GRISA). Bientôt il fut évident qu'il nous fallait aborder aussi le problème de la traduction automatique (nous devions travailler dans quatre langues différentes). D'autres projets surgirent et c'est ainsi qu'un grand programme européen de recherches en Intelligence Artificielle prit corps et se développa à Ispra, en Italie, dans le cadre du Centre Européen de Traitement de l'Informatin Scientifique (CETIS), centre qui fut alors pourvu d'un ordinateur puissant (le plus puissant de l'époque!) : un IBM 7090. Parallèlement nous avons pu subventionner de nombreux groupes de recherches dans les états membres [1] .

Pour diverses raisons, EURATOM ne poursuivit pas son effort et, en 1964, Maurice Surdin, devenu Chef du Département "Recherche et Technologie" à l'ESTEC me confia la direction de la division de Mathématiques Appliquées. L'Intelligence Artificielle était alors en crise et, de toute façon, nos contraintes opérationnelles ne nous auraient guère permis de nous y investir. Mais je profitai de l'environnement studieux et des remarqubles facilités des bibliothèques de la T.H. Delft et de l'Université de Leyde pour rédiger un ouvrage où se dssinait un prmier bilan des recherches récentes. Ce livre parut en juillet 1968 dans la collection "La Science en marche", aux Presses Universitaires de France, sous le titre L'intelligence Artificielle, avec une préface de Jules Guéron. C'était le premier livre publié sous ce titre sur ce sujet (il y en eut des dizaines depuis), mais les circonstances de l'époque en amortirent singulièrement l'écho. C'est pendant la mise au point de ce livre que ce produisit un incident notable dont certains d'entre vous se souviennent peut-être et qui va me donner l'occasion de vous proposer une première image. Nous avions été hébergés quelque temps à Delft, puis on avait commencé la construction des bâtiments où nous nous trouvons aujourd'hui, mais en attendant leur finition, plusieurs équipes - dont la mienne - étaient abritées dans des locaux préfabriqués.  Voici une photo prise devant la partie centrale de ces locaux, le vendredi 14 octobre 1966.

Le soir même, une cigarette mal éteinte jetée dans une corbeille à papier déclenchait un incendie qui détruisait une grande partie des locaux préfabriqués, y compris mon bureau et tous mes dossiers, avec le manuscrit de mon livre!

Heureusement j'étais parti pour le week-end à Paris, emportant une version incomplète mais significative de mon texte que je pus peu à peu reconstituer.

En 1971 je pris mes fonctions de professeur à l'Université de Paris XI, à Orsay, où j'eus la possibilité d'engager d'initier de nouvelles recherches en manipulation des symboles, théorie de la complexité, systèmes de logique constructiviste. Par la suite je fus amené à développer des "littéraciels", c'est-à-dire des logiciels de création littéraire assistée par ordinateur et, pour cela, à m'intéresser à nouveau aux progrès de la "Linguistique computationnelle", à l'Université de Chicago et en liaison avec les universités de Heidelberg et de Paris VII.

De retour en France, je fus appelé comme consultant au CIMA (Centre d'Informatique et de Méthodologie en Architecture), devenu depuis Lutèce'IA (Laboratoire parisien d'Informatique et des sciences de la conception) et dépendant du Ministère de l'Equipement et de l'Urbanisme. Je prépare en ce moment un ouvrage intitulé Intégration de méthodes et de savoirs linguistiques dans les nouvelles technologies de la conception qui fait le point sur la problématique CAO et dont les derniers chapitres évoquent des thèmes voisins de ceux qui sont abordés dans la deuxième partie de cet exposé.

Nommé "Directeur de programme" au Collège International de Philosophie, en 1992, je m'efforce de développer, dans mes séminaires, des réflexions sur les conditions théoriques et pratiques d'acquisition et de traitement des connaissances. L'intelligence Artificielle est évidemment un domaine privilégié pour le développement de telles réflexions.

 

Première partie : rétrospective

Il y a souvent une grande part d'arbitraire dans le découpage en étapes distinctes d'un processus de développement culturel, scientifique, technique ou économique. J'ai simplement adopté un format traditionnel en distinguant ici trois phases majeures :
- une protohistoire, qui s'arrête en 1870, avec l'article de Jevons.
- une préhistoire, qui va de 1870 à 1956 date de la conférence de Dartmouth.
- une histoire ancienne, allant de 1956 à 1968.

Pour chaque phase je présenterai et je commenterai un schéma synoptique.

 

Protohistoire


Le tableau précédent nous fait remonter très loin dans le passé - plus loin peut-être qu'il ne serait strictement nécéssaire - afin de mieux expliquer la persistance d'inquiétudes et de doutes encore vivaces aujourd'hui [2] .

C'est que, dès l'Antiquité présocratique, se développent des systèmes d'organisation des concepts où l'articulation logique (tables des contraires), puis la représentation numérique, jouent un rôle essentiel. Dans la Gnose et surtout dans la Kabbale, la mise en correspondance des alphabets (hébreu et arabe) et des nombres entiers permet d'associer à l'expression des phénomènes un simple calcul. On confie ainsi à un mécanisme dont  la rationalité est acquise,  le soin de conduire les raisonnements et d'en assurer la justification. En voici un exemple, dû à Al-Biruni (souvent appelé Al-Khowarizmi, d'où est tiré le mot "algorithme"), où l'on déduit la date de l'Hégire (dans le calendrier Séleucide) de l'énoncé même de l'événement, en partant d'une correspondance précise entre lettres de l'alphabet arabe et nombres entiers :

 

Avec Raymond Lulle on franchit un pas de plus puisque les conditions explicites d'une mécanisation sont énoncées. Les concepts sont représentés par des lettres et des combinaisons de lettres. La rotation de cercles concentriques permet tout à la fois de déployer les possibilités du combinatoire et de garantir la validité des raisonnements :

 

sL'ouvre de Leibniz marque un tournant décisif dans le progrès de la pensée rationnelle : élucidation des mécanismes mathématiques du combinatoire, reconnaissance des pouvoirs de la formalisation et de la nature systématique des phénomènes du langage, invention (après Pascal) de véritables machines à calculer : le promoteur d'une Caractéristique Universelle est, à coup sûr, le véritable initiateur de l'Intelleigence Artificielle. Il s'exprime ainsi :

<...>  Si l'on pouvait trouver des caracteres ou signes propres à exprimer toutes nos pensées, aussi nettement et exactement que l'arithmétique exprime les nombres, ou que l'analyse géométrique exprime les lignes, on pourrait faire en toutes les matières autant qu'elles sont sujettes au raisonnement tout ce qu'on peut faire en Arithmétique  et en  Géométrie. Car toutes les recherches qui dépendent du raisonnement se feroient par la transposition de ces caractères, et par une espèce de calcul; ce qui rendroit l'invention des belles choses tout à fait aisée. <...>  Et si quelqu'un doutoit de ce que j'aurois avancé, je lui dirois: contons, Monsieur, et ainsi prenant la plume et de l'encre nous sortirions bientôt d'affaire. <...> Or les caracteres qui exprimeront toutes nos pensées, composeront une langue nouvelle, qui pourra estre écrite, et prononcée: cette langue sera très difficile à faire, mais très aisée à apprendre. <...> J'ose dire que ceci est le dernier effort de l'esprit humain, et quand le projet sera éxécuté, il ne tiendra qu'aux hommes d'estree heureux puisqu'ils auront un instrument qui ne servira pas moins à exalter la raison, que le Telescope ne sert à exalter la vue.

On remarquera que le tableau précédent comporte un nombre élevé d'écrivains qui ont pressenti les capacités du combinatoire (Meschinot, Leibniz, Kuhlman), d'auteurs préoccupés de considération philosophiques ou religieuses (Al-Biruni, Lulle, Spinoza), soucieux d'imaginer des modèles d'automates (Pascal, Babbage, Jevons, Capek), ou, comme Leibniz, combinant plusieurs intérêts. On notera enfin que Jevons était à l'origine un économiste. Mais c'est avec l'invention du mot  "robot" par le romancier tchèque Karel Capek, que nous entrons dans la préhistoire.

 

Préhistoire

Ce deuxième tableau présente plusieurs ruptures importantes avec le précédent :
-
les contributions originales sont exclusivement anglo-saxonnes
- elles se développent dans un contexte d'ingénierie plutôt que de science pure (on          remarquera, en particulier, le rôle important joué par Shannon)
-
les préoccupations des chercheurs se répartissent sur un grand nombre de disciplines :
neuro-physiologie, ingénierie électro-technique, optique, théorie des transmissions et de la communication et logique mathématique

Cette situation est évidemment une conséquence de la seconde guerre mondiale. Des moyens considérables ont été mis à la disposition des chercheurs (souvent des européens émigrés aux Etats-Unis), et ceci dans les domaines les plus divers : cryptographie, technologie des radars et surtout développement des machines à calculer et du concept de programmation (l'article fondateur de Burks, Goldstine et von Neumann a été rédigé en 1943). Bien que présente à nouveau à la fin des années 50, l'Europe ne comblera pas vraiment son handicap au cours de la phase suivante d'une histoire qui est déjà pour vous une histoire ancienne, et dont le tableau ci-dessous rappelle quelques moments significatifs :

 

Histoire ancienne

Cette troisième phase marque réellement les débuts de l'Intelligence Artificielle sur une grande échelle. Des équipes de chercheurs - y compris, cette fois, des équipes européennes - se sont constituées, des crédits abondants ont été dégagés. De ce point de vue les séminaires de Blaricum jouent un rôle important en organisant le "passage du témoin" entre équipes américaines et européennes.

Un facteur essentiel de l'évolution est certainement l'apparition de machines à calculer de plus en plus puissantes et de techniques de programmation de plus en plus sophistiquées. Des langages de programmation "de haut niveau" sont mis au point : FORTRAN, COBOL, puis IPL, LISP, APL. On notera que le thème du premier séminaire de Blaricum était "La programmation non-numérique". Trois directions principales de recherche se dégagent :

la démonstration automatique, illustrée par Newell et Simon, mais aussi par M. Davis, H. Gelertner, P. Gilmore, et, en Europe, par  E. Beth et le groupe d'Amsterdam. Les domaines  explorés sont essentiellement ceux du Calcul des Prédicats, mais on trouve aussi quelques essais en Algèbre et en Géométrie élémentaire.

la simulation des jeux, domaine inauguré par les articles de Turing et Shannon. Des résultats importants sont obtenus par Samuel pour le jeu de dames et c'est l'occasion des premiers travaux sur l'apprentissage. Une importante équipe comprenant l'ancien champion du monde des échecs, Max Euwe, est subventionnée par EURATOM. L'URSS dispose aussi d'une équipe animée par le champion du monde M. Botvinnik.

la documentation et la traduction automatiques. Cette direction n'est empruntée que plus tardivement, mais elle est bientôt un argument essentiel auprès des autorités dispensatrices de subventions, en raison des conséquences pratiques - y compris politiques - qu'elles laissent espérer. Les autorités fédérales - en particulier militaires - aux Etats-Unis, EURATOM, en Europe, et aussi L'Union Soviétique, sont directement intéressés. C'est ce qui conduit EURATOM à se rendre acquéreur, dès 1962, du programme de traduction automatique russe-anglais développé par l'Université Georgetown à Washington. Ce programme demeurera en service à Ispra jusqu'en 1976.

Ces trois thèmes forment le noyau du livre que je publie en 1968 mais qui, on l'a vu, était achevé pour l'essentiel en 1966. La table des matières se présente en effet comme suit :

I.       - Intelligence et artifices
II.      - Bâtons, chiffres et lettres
III.    - Les jeux
IV.    - La raison
V.     - Le langage
VI.    - La complexité
VII.   - La tête au-delà des murs
VIII.  - Les idées et les hommes

Les chapitres VI et VII s'efforcent de situer le débat, déjà très animé, sur les limitations de l'Intelligence Artificielle. Les adversaires farouches de cette activité, comme M.Taube (un précurseur de H. Dreyfus) et surtout le logicien Y. Bar-Hillel, offrent des arguments tirés de la logique mathématique (le théorème de Gödel) pour dénier tout avenir à la recherche. Le principal résultat de leurs efforts - joint aux déceptions causées par de trop optimistes déclarations et interviews - est  de décourager les sponsors officiels. Les ressources s'évanouissent, les équipes se dispersent : l'Intelligence Artificielle est en panne.

 

Interlude

Un quart de siècle s'est écoulé depuis ces moments de crise et de désillusion mais fort heureusement, comme ce colloque le prouve avec éclat, l'Intelligence Artificielle est aujourd'hui une activité bien vivante. Une telle renaissance résulte de la conjonction de plusieurs facteurs : l'effort obstiné de chercheurs et d'équipes très motivées et l'émergence d'une nouvelle demande industrielle, en premier lieu celle de la technologie spatiale. On n'oubliera pas que, le 21 juillet 1969, Neil Armstrong alunissait (il vint nous rendre visite à l'ESTEC un an après).

D'ailleurs certaines branches de la recherche avaient conservé une grande activité, en particulier celles qui avaient une dominante théorique. C'est ainsi qu'on vit se développer le domaine de la linguistique mathématique, dans le sillage des travaux de Zellig Harris et de Noam Chomsky (orientés principalement vers l'analyse syntaxique). Les résultats obtenus furent utilisés pour la spécification des langages de programmation. Mais les besoins de la robotique conduisirent rapidement à généraliser le champ de compétence de la linguistique computationnelle, en particulier vers l'analyse sémantique. L'accélération des progrès technologiques (vitesse de calcul et capacité de stockage des ordinateurs) ouvrit de nouveaux débouchés : constitution de bases de données, scientifique, technologiques, administratives et financières, développement de systèmes experts, activités "assistées par ordinateur" :

enseignement, bibliothéconomie
diagnostic médical, recherche géologique et pétrolière
conception et fabrication assistées, etc...

Le tableau ci-dessous donne quelques étapes importantes de cet épanouissement :

Evénements

Acteurs

Dates

The Sciences of the Artificial

H. Simon

1969

développement du programme SHRDLU

T. Winograd

1971

Artificial Intelligence : the Heuristic Programming Approach

J. Slagel

1971

Human Problem Solving

A. Newell & H. Simon

1972

Conceptual Information processing

R. Schank

1972

A Framework for Representing Knowledge

M. Minsky

1975

Computer Power and Human Reason

J. Weizenbaum

1976

Viewing control structures as patterns of passing messages

C. Hewitt

1977

Artificial Intelligence : a Personal View

D. Marr

1977

Programme Chess 4.5

D. Slate & L. Atkin

1978

Gödel, Escher, Bach : an Eternal Golden Braid

D. Hofstadter

1980

Non-monotonic Logic

D. MacDermott & J. Doyle

1980

démarrage du projet EUROTRA

M. King

1981

Knowledge-Based Systems in Artificial Intelligence

R. Davis & R. Lenat

1982

The Fifth Generation

E. Feigenbaum & P. McCorduck

1983

Mental Models

P. Johnson-Laird

1983

The Society of Minds

M. Minsky

1985

Consciousness and the Computational Mind

R. Jackendoff

1987

Building Large Knowledge-Based Systems

D. Lenat & R. Guha

1990

Foundations of Artificial Intelligence

D. Kish (guest editor)

1991

 

Deuxième partie : prospective

Il est toujours dangereux de faire des paris sur l'avenir et mon objectif, pour cette deuxième partie, est plutôt de suggérer des directions possibles de développement, sans être assuré qu'on s'y engagera effectivement.

Il existe aujourd'hui un grand nombre de recherches qui s'inscrivent dans le cadre de l'Intelligence Artificielle et il est clair qu'un effort de systématisation s'impose si l'on veut faire ouvre d'innovateur. Le tableau précédent montre une grande variété de domaines et d'applications et mais on peut discerner aisément une répartition en deux grandes catégories :

-  la première catégorie d'applications est issue des recherches de Newell et Simon, via J. Robinson et d'autres. On pourrait l'appeler la voie logiciste. Elle utilise largement le formalisme et les résultats de la logique et de la linguistique mathématiques. Elle constitue des systèmes de déduction automatique et s'appuie sur des bases de connaissances pour donner naissance à des systèmes experts. Les communications présentées à ce colloque - et son titre même - se rangent pour l'essentiel dans cette catégorie. C'est elle qui, profitant des capacités accrues des équipements informatiques, induit les développements industriels les plus significatifs. Le prix à payer est celui de la constitution des bases de données de connaissances, notamment des bases à vocation encyclopédique. Le summum, dans ce domaine, semble être atteint par le projet CYC,dirigé par D. Lenat (plusieurs millions d'énoncés déclaritifs qui ont dû être "rentrés à la main"!). Pourtant de très grandes bases textuelles existent aujourd'hui, tel le Trésor de la Langue Française assemblé à Nancy par l'INALF (Institut National de la Langue Française) et son jumeau américain ARTFL (American Research on d'accroître sans cesse la dimension de telles bases. Bien entendu l'exploitation de ces bases textuelles passe par la mise en ouvre de programmes d'analyse syntaxique et sémantique robustes et efficaces. Des programmes de coopoération européens tels qu'EUREKA et ESPRIT y contribuent efficacement. De leur succès dépend la possibilité d'une construction  automatique - ou tout au moins assistée - de bases de données de connaissance dans des domaines spécifiques comme celui des recherches spatiales.         

- la deuxième catégorie d'applications s'inscrit dans la ligne ouverte simultanément par Wiener et par McCullogh et Pitts. On pourrait l'appeler la voie physiologiste. Elle  présente, par rapport à l'approche logiciste, une dualité qui n'est pas sans rappeler la dualité analogue/digital du calcul électronique traditionnel. Elle s'inspire en effet de ce que l'on sait - ou de ce que l'on devine - sur le fonctionnement du système nerveux ou des organes des sens (ceux de la vision , notamment), pour proposer des simulations. Elle prend au sérieux la métaphore "cerveau/machine" et s'est récemment inspirée des progrès de la technologie, en particulier de la mise au point de machines hautement parallèles pour ouvrir une nouvelle direction de recherches qui est celle du connexionisme.

Linguistes et psychologues - qui demeuraient réticents à l'approche logiciste (malgré le pretige de Chomsky), se sont enthousiasmés pour la seconde approche et ont ainsi contribué à l'émergence d'une discipline "nouvelle" rassemblant les efforts des uns et des autres et baptisée cognitivisme. Le destin médiocre d'une ancienne tentative du même genre (la cybernétique) n'a pas découragé les "sponsors" officiels, ainsi qu'en témoigne le tableau récapitulatif ci-après, qui est tiré d'un rapport rédigé en 1978 pour le compte de la Fondation Sloane :

 

En 1986 - le cognitivisme ayant été adopté par les universitaires, et même par certains industriels - le psychologue Guy Tiberghien proposait une répartition des tâches légèrement différente, où la dualité évoquée plus haut apparait mieux, mais qui, comme tout arrangement systématique, comporte aussi une large part d'arbitraire [3] :

 

Dans le premier chapitre de mon petit livre de 1968, je m'efforçais de préciser la signification de mots comme ceux d'intelligence et d'artifice. J'insistais sur cette caractéristique qu'est la réflexivité de l'intelligence en remarquant (p.10) :

On peut en effet "penser à sa propre pensée" alors qu'on ne peut pas "voir l'acte de voir", qu'on ne peut pas "lancer un jet", etc...

Je rappelais aussi les observations du psychologue et épistémologue Jean Piaget pour qui "L'intelligence est une adaptation", créatrice d'organisation. Il s'agit très précisément d'une organisation de structures abstraites, de concepts ou d'images, puisque ne pouvant nous approprier les objets du monde extérieur, nous devons nous contenter de leurs représentations, manipuler les informations qu'elles transportent, avant d'intervenir à notre tour dans le destin de ces objets. Il y a donc là une dynamique interactive fondée sur une batterie de mécanismes substitutifs que j'énumérais ainsi (p. 12-13) :

            - substitutions de sensations aux objets extérieurs;
            - substitutions d'excitations cérébrales aux messages sensoriels;
            - substitutionde "souvenirs" à des classes d'expériences;
            - substitution de systèmes à des classes de souvenirs isolés;
            - substitution de concepts à des classes de systèmes;

J'observais alors qu'une telle construction progressive pouvait se déployer dans un environ-nement "artificiel" aussi bien que dans un environnement "naturel" et qu'une épistémologie "dualiste" n'était pas inévitable. Cette conviction, un moment ébranlée par des déboires comme ceux décrits plus haut, s'est renforcée peu à peu. Dès 1977, D. Marr pouvait écrire :

Artificial Intelligence is the study of complex information-processing problems that often have their root in some aspect of biological information-processing.

Mais si le débat sur la faisabilité de l'Intelligence Artificielle peut être aujourd'hui considéré comme clos, malgré le combat d'arrière-garde de quelques contestataires comme H. Dreyfus et J. Searle [4] (qui ne sont d'ailleurs pas des praticiens dans ce domaine), une problématique plus spécifique s'est développée, mettant en jeu des options entre lesquelles les chercheurs se partagent en participant à des polémiques souvent vives. Je citerai les thèmes suivants [5] :

- faisabilté d'une modélisation de systèmes d'actants et d'événements de "la vie             quotidienne". c'est en effet l'objet du projet de P. Hayes (the naïve physics manifesto) et des critiques ultérieures de D. McDermott.
- difficultés liées au caractère "inexhaustible" d'une description de l'environnement. Cest   le fameux "frame problem", identifié par J. McCarthy et P. Hayes, puis discuté par D.             Dennett.
-  possibilité, dans le cadre de la métaphore "cerveau-machine", de prendre en compte les phénomènes du type "inconscient".

Mais c'est sur un terrain plus technique que je voudrais situer mon intuition de synthèses possibles, reprenant d'ailleurs, à cette occasion, des réflexions déjà anciennes.Ce terrain, c'est celui des cycles informationnels :

- en robotique, il s'agit du cycle qui s'établit entre un robot et le milieu qui l'héberge et qui s'inscrit le long d'un chemin où s'effectue la saisie d'information par les capteurs et l'envoi d'informations vers les effecteurs.
- dans les techniques de l'apprentissage, c'est celui - classique - des essais et erreurs, via la modification (en principe, l'optimisation progressive) des paramètres.

De l'efficacité de tels cycles dépend évidemment le bon fonctionnement des systèmes où ils figurent. Ils s'inscrivent donc dans l'arsenal des techniques de l'intelligence artificielle.

Celle-ci, pour la manipulation des informations et la mise en ouvre de procédures d'inférence et de validation fait également appel aux propriétés des systèmes formels - en particulier ceux de la Logique Mathématique - qui, eux, s'efforcent au contraire d'exorciser les cycles - que l'on appelle alors cercles vicieux  car ces cycles-là sont générateurs de paradoxes. Intégrés dans le carcan d'un système formel explicite, ils peuvent cependant fournir le schéma démonstratif de théorèmes spécifiques, les théorèmes de limitation (Gödel, Church, Kleene, Turing, etc...), parfois invoqués part les contestataires de l'IA.

Mais entre l'univers de l'interaction - dont la caractéristique, au point de vue sémiotique, est de privilégier le volet pragmatique - et celui de la déduction - qui privilégie le volet syntaxique, il en existe d'autres dont l'orientation est plus spécifiquement sémantique, au sein desquels le jeu des cycles et leurs potentialités pourraient avec fruit être analysés.

Le premier exemple que je voudrais évoquer est celui des schémas fonctionnels du calcul analogique électronique de naguère. Bien sûr la technique du calcul analogique "universel" (technique dans laquelle, à l'ESTEC même, Clem Green, puis Rudolf Brözel et Adriaan Scheffer se sont illustrés) n'est plus exploitée aujourd'hui : l'informatique (qu'on appelait autrefois le "calcul digital") dispose désormais de méthodes efficaces pour la résolution numérique des systèmes d'équations différentielles. Mais le concept très particulier qui en était le principe de base mérite encore - me semble-t-il - d'être explicité et discuté.

Il faut, pour cela, examiner le schéma d'un opérateur fonctionnel élémentaire, en calcul analogique électronique :

Cet opérateur est un simple inverseur de signe; la sortie s est, à tout instant t, l'opposée de l'entrée e. Mais en réalité s n'est asservie à e qu'à près :

s (t) = - e (t) + e (t)

On voit donc que la sortie de l'opérateur fonctionnel (donc la solution du problème de l'inversion de signe) est égale au produit de l'erreur par le gain (supposé très grand) de l'amplificateur qui constitue le composant essentiel de cet opérateur :

s (t) = G x e(t)

En d'autres termes, la solution est fournie par l'erreur! On se trouve donc bien là en présence d'une structure bouclée paradoxale, mais cette fois le cycle informationnel joue un rôle créateur et non plus destructeur et le circuit qui l'incarne constitue ici un cercle vertueux [6] .

Le deuxième exemple nous fera passer du domaine du calcul électronique à celui de la linguistique computationnelle. Il s'agit plus précisément d'un modèle de la compréhension des textes fondé sur l'exploitation de la notion d'avalanche sémantique.

Cette notion dérive d'une proposition de technique d'écriture imaginée par Stefan Temerson et décrite - pour le français - par Raymond Queneau et, indépendamment, par Marcel Benabou et Georges Perec [7] . Pour l'essentiel, elle consiste à remplacer tous les mots d'un texte par leur définition dans un dictionnaire (précisément désigné) et d'itérer un certain nombre de fois la procédure - qui comprend aussi des conventions spécifiques relatives aux mots "outils" (articles, prépositions, conjonctions, etc...).

Considérons alors le processus complexe suivant d'analyse interprétative d'un texte :

- les mots du texte sont évoqués en séquence
- chaque mot déclenche une avalanche sémantique qui lui est propre
- le déploiement d'une avalanche nouvelle, par le jeu des éliminations systématiques (incompatibilités, ou redondances) entraine la remise en cause, donc la contraction, des avalanches passées
- l'itération du processus peut se poursuivre indéfiniment : le texte peut être alors considéré comme dépourvu de sens osciller entre plusieurs configurations métastables : le texte est ambigu présenter une configuration (dynamiquement) stable : c'est elle qui sera considérée comme fournissant la signification du texte

Je n'entrerai pas ici dans l'analyse détaillée d'un modèle qui est assez général pour présenter bien d'autres incarnations et dont la consistence dépend, entre autres, de propriétés spécifiques de l'analyse dynamique non-linéaire. J'observerai seulement que, comme dans le cas du schéma analogique, nous nous trouvons ici en présence d'une boucle de rétroaction positive comportant l'équivalent d'un amplificateur à grand gain. Par contre la rétroaction ne s'y développe pas le long d'un chemin informationnel (le circuit de contre-réaction), mais au travers d'une gerbe de chemins; elle ne s'effectue plus instantanément (à la bande passante près de l'amplificateur), mais selon une organisation spatio-temporelle complexe où séquentialité et parallélisme, réécriture logique par résolution et reconnaissnce de formes se combinent et se contrôlent étroitement.

Bien entendu, ces deux exemples appeleraient des développements étendus : ils ne présentent ici que l'ébauche de programmes à poursuivre. Mais j'ai voulu, grâce à eux, souligner que

- les fondements même de l'Intelligence Artificielle ne peuvent être discutés correctement que dans le   cadre d'une argumentation technique précise et non sous le coup d'émotions ou de préjugés relevant de ce qu'on pourrait appeler, en s'inspirant de Bachelard, un complexe de Frankenstein. En particulier le problème central de la consistance de l'activité IA se dégage désormais du cadre de la métamathématique traditionnelle pour adopter une approche sémiotique globale qui doit prendre en compte la circulation des informations sur des chemins spatio-temporels enchevêtrés [8] .

- réciproquement les innovations méthodologiques et technologiques nécessaires à l'approfondissement de ces recherches ne manqueront pas d'avoir des répercussions en de nombreux domaines de l'activité scientifique. C'est ainsi que le schéma de l'avalanche sémantique évoqué plus haut est opératoire dans des domaines aussi différents que ceux de la psychologie cognitive ou de la physique des états condensés de la matière.

- confrontée à ce défi fondamental pour la connaissance humaine qu'est le mur de la complexité, l'Intelligence Artificielle, après un demi-siècle d'essais et d'erreurs, est naturellement portée à mettre enouvre des synthèses nouvelles, exploitant des techniques de représentation où le formalisme figé fait place à une Idéographie dynamique (pour reprendre l'expression de Pierre Levy), suggérant la coopération - voire l'unification - de disciplines séparées, effaçant même parfois - en tout cas atténuant - la frontière entre la théorie et la pratique.

Dans les années soixante, le mathématicien britannique I. Good s'exclamait :

La survie de l'espèce humaine dépend de la mise en construction rapide d'une machine ultraintelligente.

Une telle déclaration en forme de défi ne peut - trente ans après - que nous laisser perplexes. Elle nous convoque sans doute aux limites du possible tout comme le fait, dans le même temps, la recherche spatiale.



[1] on trouve une description succinte de cet effort dans ma contribution au Symposium on Artificial Intelligence organisé par M.Minsky dans le cadre  du congrès de l'IFIP : Information Processing 1962.

[2] Ce tableau - et le suivant - s'inspirent d'un enseignement que j'ai donné en 1991 dans le cadre du Collège International de Philosophie, sous le titre Les projets de formalisation universelle.

[3] Ces deux tableaux sont empruntés (pp.51 et 185) à l'ouvrage collectif coordonné par Jean-Louis Le Moigne Intelligence des mécanismes, mécanismes de l'intelligence (Fayard, 1986).

[4] grâce, en particulier,  aux analyses de Paul Henry figurant dans l'ouvrage collectif cité plus haut : Intelligence des mécanismes, mécanismes de l'intelligence.

[5] sur tout ceci on consultera avec fruit l'ouvrage collectif édité par M. Boden : The Philosophy of Artificial Intelligence(Oxford University Press 1990).

[6] J'ai attiré l'attention sur ce paradoxe dès les années cinquante, et en particulier dans une communication aux Journées Internationales de Calcul Analogique (Bruxelles, sept. 1955 p.198), intitulée Problèmes de structure dans le calcul analogique et, plus récemment, dans ma contribution au Colloque sur l'histoire de l'informatique en France (Grenoble, mai 1988), intitulée Les digitales du Mont Analogue.

[7] On en trouvera une analyse complète dans Presbytères et Prolétaires, Le dossier P.A.L.F. présenté par Marcel Benabou, Cahiers Georges Perec 3, 1989.

[8] J'avais esquissé un tel programme dans mes deux communications au 1er Congrès International de Cyber-nétique (Namur 1956) intitulées respectivement Cybernétique et physiologie généralisée (j'y évoquais le thème d'une "physiologie artificielle" préfigurant celui du connexionisme) et L'information dans les mathématiques pures et dans les machines. Les circonstances - et mon inertie, sans doute - ont fait prendre beaucoup de retard à ce projet!

 

 

Le langage / Intelligence et artifices

<< retour << accueil <<
Paul Braffort © 2002
contact