Sciences et techniques / atomistique et automatique

<< retour << accueil <<

 

LES DIGITALES DU MONT ANALOGUE

 

 

 

Avant-Propos

 

Les pages qui suivent présentent une version revue et complétée de ma contribution au "Colloque sur l'histoire de l'Informatique en France", qui eut lieu à Grenoble, les 3, 4 et 5 mai 1988* . Ce colloque était organisé par F.H. Raymond qui avait participé comme moi, et même plus directement que moi, au développement du calcul analogique, puis à l'essor du "calcul arithmétique" devenu "calcul digital", et finalement "Informatique". Ma communication s'inscrivait donc naturellement dans le fil de nos débats d'autrefois.

Nous  pensions alors qu'une forme "hybride" de calcul automatique présenterait un caractère optimal pour la résolution de nombreux problèmes de la Mathématique Appliquée et nous prîmes des initiatives dans cette direction sur le plan théorique comme sur le plan technologique. Mais l'histoire ne s'est pas déroulée comme nous l'avions prévu : dès le milieu des années soixante, la résolution par ordinateur des équations différentielles (via les techniques d'approximation du type Runge-Kutta) concurrençait efficacement la méthode analogique. Avec les progrès spectaculaire de la technologie : vitesse de fonctionnement des unités centrales et capacité de stockage des informations, la cause fut entendue. En quelques années les laboratoires et les équipes se reconvertirent. Seuls des simulateurs spécialisés survécurent (certains survivent encore). Les développements les plus récents de l'infographique, puis des systèmes multimodaux permettant l'accès à une "réalité virtuelle" ne leur laissent guère d'avenir.

Mais le colloque de Grenoble m'avait donné l'occasion de reprendre une réflexion ancienne sur les structures caractéristiques du Calcul Analogique, réflexion nourrie des enseignements fournis par l'ancien débat "analogue/digital", et prolongée par l'étude de rapprochements (d'analogies!) qu'il me semblait possible d'établir avec des problèms de logique, et même de linguistique que j'avais rencontrés dans la suite de ma carrière. Ma communication s'achevait sur l'ébauche d'un modèle (informel) auquel je donnai le nom d'avalanche informationnelle, qui généralisait le thème (inspiré du clacul analogique) que résume bien l'adage : c'est l'amplification de l'erreur qui fournit la solution.

Mon séjour à l'Université de Chicago, de 1988 à 1990, ainsi que mes activités ultérieures comme consultant au CIMA (Centre d'Informatique et de Méthodologie en Architecture), puis comme directeur de programme au Collège International de Philosophie, m'ont permis de compléter certaines de mes analyses et, du moins je l'espère, d'en élargir la portée. Des thèmes aujourd'hui (dangereusement) à la mode et qu'expriment des expressions telles que le signal engendré par le bruit ou l'ordre construit à partir du chaos, ne sont pas sans rapport avec ceux que j'avais voulu mettre en valeur il y a six ans. C'est sans doute une raison supplémentaire de soumettre les uns et les autres à une analyse un peu plus systématique. 

P.B. Janvier 1994

 

1. Chanson vécue

 

J'aimerais, pour commercer, présenter quelques éléments autobiographiques qui pourraient être utiles pour expliquer ma démarche et, peut-être, la justifier. J'avais été formé dans l'esprit  "unitaire" ou "encyclopédique" de Gaston Bachelard (et plus tard de Raymond Queneau). Mon premier exposé universitaire avait pour titre : L'unité des disciplines [1] . La fin de mes études avait  d'ailleurs été marquée par les réflexions et discussions d'un groupe "informel" qui voulait aménager l'approche Bourbakiste, alors en plein essor, en lui donnant une orientation "opérationnelle". Ce groupe, où je rencontrai Jacques Riguet et Marcel-Paul Schützen-berger, puis Benoît Mandelbrot, développait ses réflexions sur le thème  "Anatomie et Physiologie des structures mathématiques" [2] .

            Avec l'appui de Gaston Bachelard, je fis la demande d'une bourse de thèse (mon projet, inspiré par l'ouvre de Jean Cavaillès, était intitulé "sur le fondement des mathématiques"). Après deux échecs (il n'y avait guère de crédits pour des recherches inscrites dans le cadre de la Faculté des Lettres!), l'amitié de Jacques Labeyrie me pemit de trouver un poste de bibliothécaire-documentaliste au Commissariat à l'Energie Atomique. Je rencontrai ainsi pour la première fois - et dans un contexte tout à fait pratique, celui des systèmes de "classification-matières" - le problème de la représentation des connaissances, un problème qui met en jeu le fonctionnement du couple langage naturel/langage formalisé (Queneau fait allusion à ma "Classification alpha-numérique" dans sa Préface à l'Encyclopédie de la Pléïade [3] ).

Mes contacts avec les chercheurs du CEA me donnèrent l'idée d'organiser un groupe de discussions sur les problèmes de la théorie de l'information : théorie du signal et du bruit de fond, entropie et complexité. Une première tentative pour être muté dans un service scientifique avorta, mais en 1954 Maurice Surdin me donna enfin la possibilité d'aborder le domaine de la Mathématique Appliquée en créant dans son département un Laboratoire de Calcul Analogique. C'était là un domaine en plein essor (en raison de la demande pressante du Génie Nucléaire et de l'Aéronautique). Pour la première fois, la construction au coup par coup de simulateurs spécialisés faisait place à la mise en ouvre de machines "universelles" qui devaient, pour chaque problème, être convenablement "programmées" ("tableau d'affichage" câblé, potentiomètres "affichés"). Il y avait un aspect algorithmique évident dans ce type de programmation, mais aussi, de façon frappante, une composante combinatoire et topologique liée à l'utilisation rationnelle de graphes d'un type particulier. Je m'attachai donc à identifier les problèmes de structure propres à ce type de calcul, et je m'efforçai d'en extraire les éléments d'une méthodologie spécifique [4] . Je fis un essai dans cette direction à l'occasion du premier Congrès International de Cybernétique qui eut lieu à Namur en 1955 [5] .

A cette époque, le calcul électronique "arithmétique" démarrait à Saclay sous l'impulsion d'Albert Amouyal et je me mis à la recherche d'une synthèse ambitieuse s'ouvrant sur une Automatique de la Mathématique appliquée : un effort comportant des aspects théoriques, mais débouchant aussi sur des applications. L'occasion m'en fut donnée par la première Conférence internationale sur le traitement de l'information (qui devait donner  naissance à l'IFIP), conférence qui eut lieu à Paris, du 15 au 20 Juin 1959, au siège de l'UNESCO. Une session,  placée sous  la responsabilité de Jean Carteron, avait pour  thème : "Les relations du  calcul analogique et du calcul arithmétique" et j'y présentai une communication [6] où je dessinais la perspective d'une fusion des deux techniques par rapprochements successifs : calcul analogique calcul répétitif (itératif) calcul successif. Je décrivais, sous cette nouvelle dénomination, une combinaison de "matériel" et de "logiciel" dans laquelle un métaprogramme gère les modifications successives d'un schéma analogique traditionnel. Un calculateur fut effectivement construit  selon ces  principes et l'idée brevetée [7] . J'estimais alors que

«...l'étude des développements à plus longue échéance et notamment l'élaboration des calculatrices unifiées de demain doit avoir pour base l'examen attentif des propriétés des structures sous-jacentes à toutes les méthodes de calcul formel, numérique ou automatique. C'est ainsi que les méthodes analogiques classiques présentent un caractère topologique marqué, les méthodes  arithmétiques au contraire ont une structure plus "chronologique".»

L'efficacité de la méthode analogique pour la résolution des systèmes d'équations différentielles comportant des non-linéarités s'était affirmé avec le succès d'une étude de stabilité [8] qui nous avait été confiée (et où le rôle de la strucure des schémas apparaissait nettement). En même temps il devenait évident que l'introduction de composantes "digitales" pouvait seule faire progresser la précision de nos calculs (multiplicateurs et générateurs de fonctions).

A partir de 1959, je fus amené, pour Euratom (à Ispra, en Italie), puis pour l'Estec (à Noordwijk, aux Pays-Bas), à organiser des "Centres de Traitement de l'Information" où je pus mettre en application mes convictions unitaires en associant machines analogiques et digitales : placées dans un même laboratoire (Euratom), puis munies d'une connection "physique" (Estec); en suscitant aussi le développement de langages de programmation pour machines "hybrides". Il s'agissait de mettre à la disposition des utilisateurs des procédures "conviviales" permettant de traduire un texte mathématique (un système d'équations différentielles avec leurs valeurs initiales) en un schéma analogique et (dans la version finale, mise en sevice à la fin des années soixante) de l'implémenter sur l'équipement de calcul analogique sans intervention d'un opérateur [9] . Ce n'était là que l'une des facettes de notre recherche qui, partant de l'analyse du langage naturel en vue de la Documentation et de la Traduction automatiques, abordait pratiquement  tous les chapitres de l'Intelligence Artificielle naissante [10] .

Les relations que je nouai alors avec le professeur E.Beth me permirent, une fois installé aux Pays-Bas, de poursuivre des réflexions orientées "structures et  complexité" dans le cadre plus rigoureux de la logique mathématique, afin d'expliciter et de formaliser le couple problème/ solution [11] .

Devenu enseignant et chercheur à Paris XI (Orsay), je créai, avec Michel Demazure, le "Laboratoire Al Khowarizmi" (aujourd'hui un composant du LRI) consacré à la mise au point d'algorithmes et de logiciels pour la manipulation automatique ou semi-automatique de  systèmes  formels (le projet  "LIMA", qui,  proche du projet AUTOMATH de N.J. De Brujin,   fut présenté en 1973 [12] ). Il s'agit là de systèmes de réécriture où sont confrontés - au plan  théorique - le lambda-calcul, le calcul des propositions et ce "pont" qui les relie : la "Correspondance de Curry". Je repris aussi des études antérieures où je rapprochais les systèmes  de  BrouwerChwistek  et  Ceccato  en  vue  de  leur  application à  l'analyse logique et informatique du langage naturel, rapprochement devenu possible puisque ce type de  recherches, après une longue éclipse, reprenait de la vigueur [13] .

J'avais d'ailleurs des raisons nouvelles de revenir à l'étude du langage naturel, m'étant fortement impliqué dans le développement d'algorithmes et de logiciels pour la "création littéraire assistée par ordinateur", développement auquel me conduisait naturellement ma participation à l'Oulipo  (Ouvroir de Littérature Potentielle) créé par François Le Lionnais et Raymond Queneau, et que je poursuivis dans le cadre de l'Alamo (Atelier de Littérature Assistée par la Mathématique et les Ordinateurs) pour spécificier et  réaliser un "Langage Algorithmique pour la Production Assistée de Littérature (LAPAL) [14] . Je participai donc aux discussions qui eurent lieu à Bonn (COLING 86), et à Las Cruces (TINLAP 3), à la suite de quoi je fus amené à présenter, au séminaire "Artificial Intelligence Program" de MCC (une institution de recherches dont le programme ressemblait beaucoup à celui que j'avais formé autrefois pour Euratom), des réflexions qui vont dans le sens du présent exposé, sous le titre : From Brussels '59 to Austin '87 : a good revival deserves  many  happy returns. MCC, Austin (Janvier 1987).

Mon séjour à Chicago me permit de reprendre l'élaboration d'un modèle de la signification que l'on pouvait naturellement déduire de systèmes de création littéraire imaginées indépendemment par Queneau et par Benabou et Perec. Ce modèle présentait des points communs avec celui que j'avais proposé pour le calcul analogique. Son actualité s'affirmait aussi par la convergence de travaux récents que mon activité ultérieure au CIMA me permit de vérifier.

Car on assiste aujourd'hui à la rencontre de plusieurs lignes de recherche qui jusqu'alors demeuraient fort écartées :  

-  le développement de bases de données "intelligentes", puis de "systèmes experts" suscite la reprise d'études approfondies du langage naturel (pour la synthèse comme pour l'analyse). Cela se traduit par une abondante production de grammaires où le souci de l'efficacité contribue à une mise à l'écart des schémas post-Chomskyens devenus illisibles.

-  la recherche de meilleurs algorithmes d'analyse syntaxique réactive l'intérêt pour les schémas "de dépendance" à la Tesnière (ceux-là même que nous utilisions à Euratom) et qui tendent à se rejoindre autour de l'algorithme de résolution (implicite chez Curry et Meredith, explicite chez Robinson, Colmerauer et De Bruijn !).

-  l'évaluation du coût des procédures de résolution et d'autres algorithmes caractéristiques de  l'Intelligence Artificielle conduit à imaginer de nouvelles architectures informatiques,  caractérisées par la recherche d'un parallélisme accru du traitement des données, réactualisant ainsi des réflexions de structure, tant matérielles (hyper-cubes, "connexion" machines) que logicielles (programmation fonctionnelle, oriente "objets", etc...).

-  pour répondre aux besoins nouveaux, pour accomplir le saut qualitatif sans lequel la capacité "anticombinatoire" de nos algorithmes demeurerait stagnante, la recherche cognitive adopte de plus en plus fréquemment le point de vue connexioniste qui associe les approches psychologique, neuro-physiologique et algorithmique, et propose une modélisation de processus "intellectuels" tels que ceux qui sont à l'ouvre pour la compréhension du langage naturel ou la résolution des problèmes .

Schémas connexionistes ou modèles plus spécifiques de la compréhension me ramenaient donc à des concepts anciens, à des modèles "bouclés" de portée très générale. Cette rencontre me parut significative et justifiait aussi l'orientation que je proposai pour la Direction de Programme qui me fut confiée dans le cadre du Collège International de Philosophie : l'étude des Nouds et faisceaux culturels et de leur déploiement à l'intersection Science/Art/Littérature.

Pendant toute cette période, j'avais poursuivi la mise à jour d'un dossier de recherches de physique théorique. A deux reprises (vers 1954, puis 1967), je m'étais occupé d'électro-dynamique stochastique, m'efforçant d'apporter ainsi quelque lumière sur les problèmes d'interprétation de la physique quantique. Le modèle que j'essayai de mette au point était dérivé du modèle d'électrodynamique développé dans les années quarante par John Wheeler et Richard Feynmann (le modèle de l'absorbeur). Ce modèle - que je décrit dans un dossier en préparation - présente aussi certaines caractéristiques  communes avec les schémas sémiotiques et analogiques.

Des excès récents, liés au phénomène contemporain de médiatisation accélérée (on pourrait à juste titre parler d'avalanche médiatique) doivent évidemment inciter à la prudence : il n'est pas question ici de présenter l'analogie (au sens très particulier que je donne à ce terme), une panacée universelle. Je voudrais seulement illustrer la fécondité d'un concept essentiel du calcul analogique "traditionnel", concept qui semble précisément à l'ouvre dans de nombreux corps de doctrine. Avant d'en détailler le fonctionnement, il me semble nécessaire de situer une méthodologie et une problématique éphémères en apparence dans le cadre d'une (brève) histoire des efforts humains pour accéder à la connaissance.

 

2. Une histoire modèle

 

Tant que science et métaphysique, histoire et mythe demeurent indiscernables, il n'est guère d'explication, de théorie, que métaphorique. La méthode universelle pour accéder à la compréhension,  est  donc l'analogie. Des mythes primitifs aux systèmes du  monde vivant et de la société, elle demeure cette heuristique universelle qui projette jusqu'au niveau cosmique une phénoménologie à notre échelle où nous pouvons reconnaître et nommer acteurs et scénarios.

L'analogie et les métaphores que l'on "filera" plus ou moins loin fonctionnent grâce au langage,  qui  rend  sensibles des "isomorphismes", en d'autres des analogies de structure. Les analogies peuvent être trompeuses, les métaphores plus poétiques que rationnelles, il n'en reste pas moins qu'une technique de rationalisation est à l'oeuvre, qui se raffinera en se spécialisant, remplaçant les énoncés descriptifs par des modèles, naturels au début, formels ensuite, ce qui permettra le raisonnement et le calcul.

Car le progrès est vite bloqué par l'encombrement et la lourdeur liés à l'utilisation du langage naturel dès que le champ des investigations s'accroît en dimension et en complexité. Il faut donc en augmenter la capacité d'expression grâce à des artifices tels que :

- symboles (iconiques ou abstraits)

- formalismes (mathématiques ou autres)

- tableaux et graphiques

- schémas et, bien entendu, systèmes de traitement de l'information.

La Science peut donc être considérée comme un cas particulier de la "Littérature", mais d'une littérature où les textes sont augmentés par des formules et des schémas. Pour des raisons de cohérence et d'économie on s'efforce alors de dégager, partout où cela est possible dans ces textes, des éléments de base susceptibles d'engendrer la complexité des apparences dans le cadre d'une combinatoire réglée. Il est indiqué, dans ces conditions, de tirer parti de similitudes - réelles ou supposées - pour élaborer les formalismes qui permettront de gagner en densité d'information stockée comme en  simplicité de manipulation, c'est-à-dire de calcul, rigoureux ou approché.

 

3. La fleur inverse          

       

La période de grande activité du Calcul analogique électronique se situe entre 1950  et 1970. A la phase un peu folklorique de l'analyse dimensionnelle, de la modélisation, des réseaux de       résistances (pour la résolution de problèmes hydrauliques et thermiques, principalement), succède un effort de sytématisation et d'industrialisation. En France la S.E.A. avec F.H.Raymond construisit les premières machines analogiques universelles, bientôt suivie par les  Laboratoires Dervaux avec J.Girerd. Une filiale de la CSF, ANALAC, proposait  d'intéressantes techniques qui ne furent pas réellement exploitées. On lira dans la  communication de  F.H.  Raymond  quelques  rappels fort utiles de cette période à la fois  féconde  et  stérile! Aux Etats-Unis un "IBM"  du Calcul Analogique s'affirme  bientôt avec       Electronic Associates. La clientèle est en effet d'importance : industrie aéronautique et  spatiale,  industrie  nucléaire. La construction de maquettes ou de modèles au coup par coup fait place à la programmation de machines qui peuvent traiter tout problème dont l'expression  mathématique débouche sur  un système d'équations différentielles.

       La chose en  vaut la peine lorsque le nombre d'équations est élevé et/ou qu'elles contiennent des non-linéarités. Les machines "digitales" existantes sont encore trop lentes (et les algorithmes d'approximation trop peu développés) pour qu'on puisse raisonnablement leur confier ce type  de  problème, notamment lorsqu'on exige des réponses en temps réel.

Les solutions à obtenir sont des fonctions d'une variable réelle : le temps. Les machines analogiques sont universelles en  un sens particulier;  elles sont constituées  d'un certain nombre       (à  l'origine quelques  dizaines,  plus  tard  des  centaines) de composants fonctionnels (ou actifs) standard :

- Sommateurs
- Intégrateurs
-  Multiplicateurs
- et de composants relationnels (ou passifs)   :
- Potentiomètres
- Générateurs de fonctions

Programmer une machine analogique, c'est effectuer le câblage d'un "panneau d'inter-connexion"  (tout comme pour les premières machines "digitales"),  puis "afficher"  une valeur numérique aux potentiomètres. On a alors dessiné, puis implémenté un schéma analogique qui,  s'il est correct, permet de simuler le comportement d'un système d'équations différentielles.

*

Il s'agit bien de simulation  puisque la constitution de l'élément "intégrateur" est fondée sur la loi d'évolution dans le temps d'un courant électrique qui traverse un ensemble résistance-capacité. Mais l'idée remarquable qui  préside au fonctionnement de ces machines - et leur donne cette propriété d'universalité - n'est pas là. Elle réside dans la structure rétroactive des éléments    fonctionnels, structure que j'illustrerai pour le cas le plus simple, celui de l'inverseur  :

                                   ----------

                                   __

                                          -------  Sortie S(t)

                Entr,e E(t)  --------

Le triangle représente un amplificateur (à courant continu) à très grand gain G et à très  haute impédance d'entrée. Lorsqu'on applique à l'entrée une tension électrique variable E(t), on       reçoit à la sortie une tension électrique S(t) telle que l'amplification est appliquée à l'étage d'entrée  -  qui reçoit, lui, E(t) + S(t) - produise effectivement S(t). On a donc

                                                      G

            S(t) = G [ E(t) + S(t) ], ou encore S(t) = --- E(t),

                                                     1-G

                   G

       voisin de  --- E(t) = - E(t) si G est très grand par rapport à 1.

                  - G                      

La sortie est ainsi asservie à être l'opposée de l'entrée (le mot "inverseur"  est donc malheureux, dans ce contexte). Nous sommes ici en présence d'un schéma paradoxal, mais paradoxal en un sens très  particulier (différent - au moins en apparence - des schémas paradoxaux de la logique) : en effet S(t), solution du problème posé à l'inverseur est proportionnel à E(t) + S(t), c'est à dire à l'erreur commise { S(t) - (- E(t) } !

F.H.Raymond a insisté à plusieurs reprises sur le rôle équivalent joué par les liaisons non-holonomes  en mécanique. Elles furent  étudiées par Kelvin et  sont à  l'origine des "analyseurs       différentiels", ces iguanodons de l'Informatique!

*

A cet aspect spécifique local s'ajoutent d'intéressantes propriétés de structures au niveau du  schéma global.  On peut en effet définir un algorithme de traduction  du système d'équations       différentielles  en  schéma  analogique grâce à l'utilisation de graphes orientés. L'orientation des  arcs aboutissants à des sommets "analytiques" est imposée; elle est libre pour les arcs     aboutissant à des sommets algébriques, ce qu'illustrent les schémas ci-après où l'on fait correspondre :

au système  dy / dt =   a  y , le schéma orienté

et aux équations telles que   y  = 0  , les schémas non-orientés

On dispose ainsi d'une procédure qui associe directement un graphe (qu'on pourrait appeler préanalogique) à  tout système différentiel.

Mais pour qu'un tel graphe détermine un schéma analogique opérationnel en plaçant aux sommets voulus des éléments intégrateurs ou sommateurs, il faut qu'on puisse orienter ceux  des arcs qui ne le sont pas de telle sorte que tout sommet ne possède qu'un seul arc sortant. Cette  contrainte présente des propriétés intéressantes : elle permet, en particulier de détecter des  erreurs "physiques" dans la formulation d'un problème.

De telles  considération sont purement topologiques. Le temps n'est pourtant pas complètement absent du débat :

-  Les solutions fournies par le système analogique, tant des fonctions de la variable temps, les valeurs numériques affectées aux coefficients (c'est-à-dire affichées sur les potentiomètres) déterminent, par rapport à celles qui caractérisent les phénomènes simulés, l'échelle des temps de la simulation.

-  La rétroaction positive qui forme le principe même du fonctionnement des unités fonctionnelles du système analogique s'accomplit en un temps qui n'est pas nul, mais dépend de la "bande passante" des amplificateurs qu'elles contiennent. Ce temps (qui correspond à une sorte de "relaxation fonctionnelle"), implique l'existence d'une limitation "naturelle" à la précision des calculs (limitation qui demeure négligeable par rapport à l'imprécision des composants passifs : résistances et capacités).

-  la simulation de systèmes obéissant à des équations aux dérivées partielles passe par la  discrétisation des variables spatiales et, souvent, par l'adoption d'une procédure de balayage (c'est ce qui me conduisit à élaborer un calcul "successif").

 

4.Le sentier des nids d'araignée

 

La  Mathématique "pure" peut être considérée, semble-t-il, comme une activité qui se déroule en temps zéro et n'entraine aucune augmentation d'entropie. Selon une vision "platonicienne" qui est celle de la grande majorité des mathématiciens "pratiquants", les êtres formels et les propriété de ces êtres sont inscrits de toute éternité dans une sorte de "Grand Livre" où le chercheur doit les déchiffrer pour les révéler au commun des mortels. Et pourtant toute démonstration, tout calcul, pour être explicité, doit énumérer des étapes, ménager des  enchaînements dont l'ordre n'est pas indifférent.

C'est dire qu'à défaut d'un temps "quantitatif", l'analyse de l'activité mathématique évoque un temps "qualitatif" (au coeur des discussions qui firent rage, au début du siècle, entre partisans et adversaitres de "l'infini actuel"). Brouwer, à la fin de sa vie, s'efforcera même de  théoriser le concept de "mathématicien créateur" en développant ce qu'on a appelé les "arguments historiques".

*

La mise en évidence de "processus" est évidemment beaucoup plus immédiate lorsqu'on entre dans le domaine de la Mathématique "appliquée" : discrétisation et balayage, relaxation, approximations  successives, le temps est ici un paramètre essentiel, mais qui demeure plus qualitatif que quantitatif (le nombre des étapes à parcourir dans la procédure pouvant être déterminé par la précision recherchée). Par ailleurs le calcul approché s'accompagne d'une augmentation d'entropie : il y a perte d'information entre l'énoncé du problème et la présentation  des résultats. Kolmogoroff et ses élèves ont d'ailleurs fait un usage essentiel de cette notion [16].

            Mais aussitôt qu'une automatisation des calculs devient concevable et implique l'élaboration de  techniques de programmation (c'est-à-dire dès que le célèbre rapport Burks-Goldstine-Von       Neumann est "déclassifié"), la prise en compte simultanée des facteurs de temps et de  composition structurale des schémas de calcul est inévitable. Elle se produit sur plusieurs plans :

-  Les "utilisateurs" déclenchent une véritable renaissance de l'analyse numérique : étude des méthodes d'approximation (en vue d'en accélérer la convergence), des cas d'instabilité, de la propagation des erreurs, etc... en même temps qu'apparaissent les "autocodes", et autres "langages de programmation" algébriques qui vont aboutir à FORTRAN et à COBOL.

- Les "théoriciens" ayant, grâce à Turing, accroché le wagon de la "calculabilité"  (combinateurs, fonctions récursives, systèmes de Post, algorithmes de Markov) au rapide qui s'élance, s'efforcent de baliser leur domaine en y localisant des "échelons" de complexité croissante : automates finis, hiérarchie de Grzegorzcyk, fonctions récursives "générales". Parmi  les mesures de complexité, un rôle essentiel est joué par le rapport entre la longueur des données à traiter et la "quantité de mémoire" ou la "longueur de temps" (tape and time complexities) qu'une machine de Turing doit utiliser.

-  Les  "techniciens" à  leur  tour  inventent  de  nouvelles structures,  tant matérielles que logicielles : multiprogrammation, traitement parallèle et coopération des processus, en particulier des entrées-sorties, utilisation de caches, de pipe-lines, de multiprocesseurs,  etc... Ici le bon des systèmes gestion d'horloges, de "schedulers", de sémaphores. Maîtrise du temps, et mise en jeu de structures de contrôle adéquates sont essentielles.

Nous sommes loin des schémas "paradoxaux" du Calcul Analogique Electronique traditionnel.   D'ailleurs  l'effort  de quelques auteurs pour élever le niveau du débat et promouvoir une théorie du calcul analogique et hybride en y effectuant une transposition efficace de la théorie du calcul effectif (récursif) ne mène pas loin [17]. On constate pourtant l'apparition, tant au niveau de la théorie qu'à celui de pratique (donc de l'"informatique"), de difficultés dont il serait  peut-être bon d'analyser la signification.

Ces difficultés sont au coeur des problèmes d'étreinte mortelle qui limitent l'utilisation de  processus parallèle. Elles apparaissent déjà dans l'irréversibilité du signe " = " de       FORTRAN, ce faux ami dénoncé par Jacques Arsac. Elles ont été clairement analysées par Saül Gorn qui les associe aux possibilités de ce qu'il appelle le "contrôle non-stratifié" [18].

Il est intéressant d'en démonter le mécanisme sur  un exemple. Soit un système dont le langage de programmation  reconnaisse les instructions :

- affectation (notée = :)

- éxécution   (notée $)

Exécutons alors la séquence

 A := '$ A' ; B := $A

Il est clair que le processus n'aboutira jamais : le système se lancera dans une suite d'appels  récursifs à son interpréteur, jusqu'à épuisement des ressources allouées à sa "pile d'éxécution".

Imaginons maintenant qu'on veuille lancer en parallèle deux processus qui partagent les variables A et B.     

Processus 1                       Processus 2

  A := '$ B'                           B := '$ A'

A := $ A                            B := $ B

Il n'y a pas ici d'étreinte mortelle à proprement parler, mais le système va consacrer toutes ses ressources à l'administration du partage entre les variables sans jamais rien "éxécuter". Gorn a montré que des schémas algorithmiques de ce type pouvaient simuler les divers "paradoxes"  de la  logique (Russell, Richard, l'"hétérologique", etc...).

Mais le même type de schéma peut devenir autre chose qu'une source de curiosités tératologiques,  en étant mis au service de constructions efficaces. C'est ainsi qu'en  compliquant un peu l'expression "entre quotes" à éxécuter, on peut engendrer toutes les fonctions récursives "go to", sans qu'il soit nécessaire de mettre en oeuvre quelque structure de contrôle que ce soit [19]. On retrouve donc ici, comme dans le cas du calcul analogique, le pouvoir créateur et même fondateur d'un schéma paradoxal ou, plus précisément, de la dynamique d'une boucle implicite.

Il est alors naturel, pou[20]r élaborer une véritable "problématologie" (c'était l'objectif que je  poursuivais  en  ), d'activer le morphisme classsique phyllogénèse ontogénèse, c'est-à-dire de définir et de réaliser une panoplie de procédures permettant d'effectuer la  transformation  progressive de l'énoncé d'un problème en sa solution. Cela implique que l'on soit  capable de  reconnaitre (aux sens I.2° et II.4° du petit Robert) les divers espaces de problèmes qu'on devra traverser et que l'on puisse y décrire les cheminements qui conduisent vers la (une) solution.    

Parmi ces espaces,  le premier à considérer est évidemment celui des énoncés. C'est un espace de textes (du langage naturel) : c'est donc un espace que nous sommes encore loin de maîtriser. Les réalisations actuelles, destinées, le plus souvent, à gérer les dialogues de systèmes experts, choisissent de  ne traiter que des sous-ensembles restreints du langage naturel, réglés par une syntaxe fortement contrainte et surtout attachés à un univers sémantique  étroitement délimité. Ce choix est parfaitement justifié lorsqu'il s'agit de mettre au point des systèmes opérationnels, pour des coûts limités [21].

Si l'on se place dans une perspective à plus long terme, qui tienne compte des avancées  pr,visibles tant en ce qui concerne es architectures informatiques que la linguistique "computationnelle" (en suivant, par exemple, l'orientation connexioniste), on peut devenir  plus  ambitieux  et  imaginer  (voire  simuler) des procédures de traitement d'énoncés susceptibles de  figurer dans la panoplie évoquée plus haut.

Parmi  ces  procédures figurent évidemment au premier rang celles qui concernet l'analyse de contenu : la sémantique. Il y a près de trente ans, au CEA, puis à EURATOM, j'avais proposé, avec André  Leroy et  Yves  Lecerf,  un  modèle de représentation de contenu par diagrammes;  une approche similaire a été proposée récemment, mais, tout comme la nôtre, débouche, me semble-t-il, sur un cul-de-sac [22].

Or des développements récents, favorisés par les progrès technologiques relatifs aux mémoires de masse, ont marqué le retour à un domaine injustement négligé : celui de la lexicographie. La mise en service de dictionnaires "informatisés" s'accompagne du développement de grammaires lexicales et donnent un tour nouveau à l'analyse du langage naturel [23]. C'est ce qui m'amène à expliciter un modèle de processus de la compréhension qui puisse être  un candidat acceptable pour la construction de procédure d'analyse d'énoncés, donc comme phase initiale d'une problématologie rationnelle, et qui soit en même temps une incarnation  nouvelle  du  "schéma  paradoxal"  que le calcul analogique, me semble-t-il, met en oeuvre.

              Dans l'ouvrage collectif  "La littérature potentielle" [24], Raymond Queneau d'une part (p.119),  Marcel Benabou et Georges Perec de l'autre (p.123), proposaient deux variantes d'un même       procédé d'engendrement de textes, procédé déjà utilisé par Stefan Themerson sous le nom de  "littérature  sémantique"  et qui est décrit comme suit :

"Etant donné un  texte, on substitue à chaque mot signifiant (verbe, substantif, adjectif, adverbe en -ment), sa définition dans "le" dictionnaire, puis on itère l'opération." (loc.cit. p.119). MB et GP imaginaient imaginaient d'ajouter à ce mécanisme d'expansion illimitée une procédure de réduction qui permette de remplacer une séquence de mots figurant dans un état donné de l'expansion par un mot unique qui lui soit équivalent. Un de leurs projets était, partant de la phrase "Le presbytère n'a rien perdu de son charme ni le jardin de son éclat", d'aboutir, à l'issue d'une suite convenablement réglée d'expansions et de réductions à la phrase "Prolétaires de tous les pays, unissez-vous". Ce projet demeure inachevé. Or ce qui, dans l'esprit de RQ, MB et GP, n'est qu'une technique de création littéraire, suggère naturellement la modélisation que je vais esquisser maintenant.

Pour cela j'imagine une organisation qui comprenne les dispositifs suivants (dispositifs d'usage courant en linguistique computationnelle, mais dont je me propose de modifier - ou plutôt de compléter l'articulation) :

- Un organe de lecture L (car pour fixer les idées - et faciliter la mise en oeuvre d'une  éventuelle simulation - je ne m'interesserai qu'au langage écrit). Cet organe reconnait les signes typographiques dont l'enchaînement constitue un texte suivant le schéma        

          Fragment de texte Chaîne de caractères

-  Un organe d'analyse lexicale A capables d'identifier des mots (mais aussi des "éléments" au sens du Robert méthodique et des morphèmes syntaxiques).

          Chaîne de caractères    Suite de lexèmes

- Un organe de résolution R capable de construire des liens (syntaxiques, anaphoriques,  sémantiques, etc...) qui peuvent être internes ou qui établissent la  communication avec des "univers" exterieurs.

          Suite de lexèmes     R      Graphe des liens

-  Une base de données lexicales D où vont aboutir les liens externes (par exemple un  dictionnaire dont les articles seraient organisés systématiquement (entrée, attributs          phonétiques, syntaxiques, stylistiques; divisions avec définitions et exemples, etc... comme dans le Robert Méthodique).

- Des zones de travail, vierges à l'initialisation du processus de compréhension, et susceptibles de recevoir les files d'attente correspondant aux échecs éventuels de A et R.

-  Un  organe de contrôle C qui assure l'activation des autres organes et gère la circulation des informations. 

Les systèmes dont on dispose aujourd'hui et qui mettent en jeu des procédures de compréhension (les systèmes de traduction automatique, par exemple) contiennent des composants semblables à L, A et R. Bien entendu chacun d'entre eux se décompose, le plus souvent, en sous-unités qui contribuent aux analyses de diverses façons et les conduisent plus ou moins loin. Mais dans  tous les cas la progression le long de la chaîne L A R s'accompagne d'une transformation du texte initial en un texte "augmenté" : les éléments lexicaux sont pourvus d'attributs variés,  des liens entre éléments et groupes d'éléments sont explicités, etc... Ces   liens  sont  matérialisés  par  des "pointeurs", c'est à dire des adresses qui peuvent renvoyer

-  à des composants du texte initial (signes typographiques, mots, groupes de mots).

-  à des structures informationnelles extérieures comme D.

-  à des zones de travail  où les problèmes non encore résolus et  les  informations  qui  leur  sont associées sont en attente. Car le processus de compréhension se développe, dans les systèmes avancés, suivant un rythme de "linéarité non-monotone" en ce sens que la lecture  progresse  de la gauche  vers la droite et que  les "augmentations" du texte se produisent au fur et à mesure de cette progression. Mais il arrive que les informations disponibles en un certain point de l'analyse ne permettent pas de conclure. L'organe de contrôle C a donc pour tâche de gérer les interruptions, stocker les résultats intermédiaires et les exploiter dès que cela devient possible - donnant éventuellement  naissance à une cascade de résolutions.

D'une façon ou d'une autre, les systèmes de compréhension du langage naturel mettent ainsi en jeu des procédures de représentation du contenu qui débouchent sur des entités "formelles" : schémas, diagrammes, expressions symboliques.

Le modèle que je propose ici se distingue du modèle usuel par son caractère récursif. La signification ne s'y inscrit plus dans un schéma construit à l'issue d'une série  de       transformations, mais dans une dynamique, la dynamique d'une avalanche contrôlée de telles transformations (j'utilise à dessein le mot "avalanche" en raison du caractère amplificateur - en quantité d'information produite - de la plupart des procédures qui sont successivement - et récursivement - évoquées).

            En  effet  les  organes  cit,s  ci-dessus,  en  particulier R, fonctionnent en exploitant des informations extérieures au texte traité, informations que nous supposerons regroupées en D (qui devra donc contenir, en plus des "articles" d'un dictionnaire usuel, des procédures de "défléchissement", des règles d'unification et de résolution, etc... Lorsque l'activation de D       produit  l'instanciation d'un "article",  l'information fournie - l'article lui-même ou partie de cet article -  se présente, à son tour, comme un texte (en langage naturel plus ou moins augmenté).

            Je suppose maintenant que l'organe de contrôle C est organisé de façon à de tels textes  "secondaires", produits au cours de l'analyse, soient présentés à leur tour à la procédure "globale" L A R, ce qui conduit ainsi à la production de textes "tertiaires", "quaternaires", etc... Mais C  aura aussi pour tâche de maîtriser l'avalanche ainsi déclenchée, de la filtrer

-  en  interdisant les développements de textes qui seraient redondants par rapport à des textes déjà traités,    

-  en  interdisant les développements de textes qui seraient contradictoires avec des textes déjà traités.

L'avalanche, dans le cas où le texte soumis à l'analyse est pourvu de sens, se développe donc non pas en une arborescence qui se prolongerait à l'infini mais bien comme le déploiement d'une dynamique qui, après un régime transitoire, peut déboucher sur un régime stationnaire périodique ou quasi-périodique.      

Dans ce modèle, la signification d'un texte ne peut donc pas être présentée comme structrure formelle statique - celle d'un diagramme, par exemple - mais plutôt comme l'énoncé et       l'évocation d'une structure dynamique, celle d'une suite de productions et de transformations de  textes : la signification  est un processus.

            Plus précisément je propose d'identifier la signification d'un texte au régime périodique atteint - lorsqu'un tel régime existe. Bien il est possible que la dynamique en question présente plusieurs états stationnaires (textes ambigus) ou même n'en possède aucun (textes incohérents). Dans ce dernier cas, le processus d'avalanche se poursuivra jusqu'à ce que la saturation du système (des zones de travail jouant le rôle de piles d'attente) entraine une interruption de l'analyse.

 

5. La clôture

 

Une élaboration plus précise de ce "modèle de l'avalanche" soulève de nombreux et intéressants problèmes. Elle implique, en particulier, que soit assurée l'existence, certaines conditions,  d'états stationnaires de l'avalanche filtrée. Pour cela il faut "modéliser" (mathématiquement, cette fois) le modèle lui-même, en étudiant les propriétés du processus stochastique (que je  propose   d'appeler  "processus de QBP") associé à l'avalanche. On rejoint ainsi les travaux  des  physiciens et "systémiciens" qui s'intéressent à l'apparition  de structures dans les situations de chaos. Mais elle suppose avant tout que l'on explicite dans le détail  les divers algorithmes  - de multiplication comme de filtrage (il s'agira pour ces derniers d'algorithmes de résolution).

Il n'est évidemment pas question de proposer ici ni même d'esquisser des solutions à ces  problèmes. Mais il m'a semblé nécessaire d'entrer dans quelques détails pour justifier mon       propos initial et mettre en évidence une similitude, qui, je pense, est maintenant  manifeste,  entre le fonctionnement de la signifiation tel je l'imagine et systèmes analogiques : dans les deux cas, l'adéquation au but recherché est associée à un phénomène de clôture : boucle de rétroaction dans le second cas, contrôle de l'avalanche dans le premier.

Il  existe  d'ailleurs  d'autres  phénomènes  où  se manifeste  l'existence d'un lien étroit unissant

- des concepts sémantiques : adéquation, vérité, signification     

- des concepts algorithmiques : fermeture, clôture, saturation

Enfin des indications nombreuses ont été rassemblées qui concluent à l'existence d'un  mode de fonctionnement analogique des systèmes neuro-physiologiques. John von Neumann y a consacr, ses dernières recherches (ce qui montre - soit dit en passant - l'ignorance ou  l'incompétence de trop nombreux auteurs qui continuent à associer à son nom un modèle de  traitement de l'information "uni-AL" dont il connaissait, mieux que tout autre, les limitations).

Et si l'on craignait que le modèle ne manifeste qu'un douteux syncrétisme, une intoxication due à un emploi abusif de la métaphore "cerveau-machine", on se rassurera en observant que le  modèle se  prête lui-même à modélisation, donc à validation ou réfutation, et c'est bien là un projet auquel nous travaillons actuellement. D'ailleurs si la métaphore possède quelque valeur, il est naturel qu'elle engendre ce schéma même qui la fonde [25].

 

6. Etc...   

               

* Institut national Polytechnique. Grenoble 1988, vol.I p.107.

[1] C'est Jean-Louis Destouches qui m'avait proposé de faire cet exposé dans le cadre du séminaire Bachelard, à l'Institut Henri Poincaré, en 1944.

[2] La thèse de Riguet sue les "relations binaires" fut conçue dans ce cadre, aonsi que le célèbre "lemme de clivage", de Schützenberger. Mes propres essais ne survécurent pas à la critique amicale, mais ferme de Maurice Fréchet.

[3] Texte reproduit dans Bords (Hermann, 1963), p.119.

[4] P.Braffort : Problèmes de structure dans le calcul analogique. Actes des Journées Internationales de Calcul Analogique (Namur 1955), p.198.

[5] Il s'agissait pour moi de prendre date, comme l'indiquent les titres de mes deux (fort brèves) communications : Cybernétique et physiologie généralisée (p.101 des actes du Congrès) et L'information dans les mathématiques pures et dans les machines (id. p.248).

[6] P. Braffort, Cl. Caillet et J. Gamp : De la compétition à la collaboration entre les techniques analogiques et digitales du calcul numérique. Proc. Int. Conf. on Information Processing (UNESCO, 1959), p.487.

[7] J. Borel, P.Braffort, P. Janot et J. Pottier : Simulateur de champ; Brevet CEA 1958.

[8] Il s'agissait d'étudier la stabilité d'un réacteur nucléaire refoidi par un circuit d'eau lourde. Ce réacteur devait équiper le premier sous-marin nucléaire français et les calculs montrèrent qu'il était instable!

[9] Ces langages et ces automatismes furent développés à EURATOM par W.de Backer et A.van Wauwe, puis, à l'ESTEC, par Cl.Green sous les noms de SIOUX et APACHE. Cf. : W. de Backer et A. van Wauwe : The SIOUX System and Hybrid  Block Diagrams. Simulation 5, p.32 (1965).

[10] Les travaux de notre équipe furent publiés comme rapports internes (rapports GRISA puis rapports CETIS) et demeurèrent  peu connus. Cf. P.Braffort : Des recherches concernant l'intelligence artificielle à l'Euratom (Proc. of IFIP Congress 1962, p. 479). J'en tirai par la suite la substance du petit livre sur L'intelligence artificielle Presses Universitaires de France, 1968), le premier ouvrage sur ce sujet, à ma connaissance!

[11] un projet auquel F.H. Raymond s'intéressait aussi, après avoir, comme moi, parcouru le chemin calcul analogique calcul hybride calcul digital. Ce type de réflexion, qui remonte d'ailleurs à Polya , est évoqué par F.H.Raymond dans Les principes des ordinateurs. Presses Univ. de France (1969) p.317, et développé dans : P. Braffort et G. Martin : Rational Programming. Proc. of the SEAS Spring technical meeting  (1975) p.233.

[12] APLASM 73 : Symposium d'Orsay sur la manipulation des symboles et l'utilisation d'APL.
          Vol. I : Le projet AUTOMATH (édité par P.Braffort et G.Kiremitdjian)
          Vol. II: Le projet LIMA.(édité par P.Braffort et P.Mérissert-Coffinières)
          Vol.III: Recherches sur APL (édité par P.Braffort et J.Michel)
    
     Publications du Département de Mathématique, Orsay (1974).

[13] P.Braffort : L'Intelligence artificielle. Presses Universitaires de France (1968).

[14] Une première présentation se trouve en P.Braffort : LAPAL.  Action Poétique n° 95, p.51 (1984). Analyse et synthèse vont d'ailleurs nécessairement de pair : le projet  LAPAL est complété par le projet PALAP (Procédure d'analyse littéraire algorithmique polymorphe). Cf. P.Braffort, J. Joncquel, N.Modiano et H.Neefs : A reflexive approach to computer-aided analysys and synthesis of literature (ICCH 87). 

[16] On en trouve un témoignage dans A.G.Vitushkin : Theory of the Transmission and Processing of Information (Pergamon Press 1961). Le concept d'entropie d'un espace métrique a été utilisé par Arnold et Kolmogoroff pour résoudre (par la négative) le XIIIème problème de Hilbert.

[17] W.De Backer et L.Verbeek : Study of Analog, Digital and Hybrid Computers using Automata Theory. ICC Bulletin, 5, p.215 (1966), Marian Boykan Pour-El : Abstract Computability and its relation to the general purpose analog computer (some connections between logic, differential equations and analog computers). Trans. of the Am. Math. Society  199, p.1 (1974).

[18] S.Gorn : The Treatment of Ambiguity and Paradox in Mechanical Languages. Rapport AFOSR-TN-603-01, Office of Comp. Res. and Education University of Pennsylvania (1961).

[19] P.Braffort et D.Feldmann : Some recursion theoretic uses of the "dequote" operator. Communication présentée au "Meeting of the Association for Symbolic Logic", Orléans Septembre 1972.  J. of Symbolic Logic 39, p.373 (1974).   

[20] Le thème de l'analogie est présent, bien entendu, chez Aristote. Le premier examen systématique est : M.Petrovitch : Mécanismes communs aux phénomènes disparates            Félix Alcan (1921). Peu après paraissent les réflexions du philosophe (qui fut  le maître à penser de Bohr) : H.Höffding : Le concept d'analogie Librairie J.Vrin 1931 (l'édition originale en danois est de 1923).
Voir aussi M.Black : Models and Metaphors  (Cornell University Press, 1962).
M.Hesse : Models and Analogies in Science, University of Notre-Dame Press (1966).
et, tout récemment, F.Hallyn : La structure poétique du monde : Copernic, Kepler, Seuil  (1987).

[21] J-Cl.Gardin & alii : Systèmes experts et sciences humaines : le cas de l'archéologie. Eyrolles 1987.

[22] P.Braffort et A. Leroy : des mots-clés aux phrases-clés. Bull. des Bibliothèques de France, 4, p.383 1959.
A.Leroy : Description d'un projet d'analyse de textes  scientifiques. Rapport EURATOM EUR 583 1967.
D.Sowa : Conceptual structures. Addison-Wesley  (1985).

[23] B.M.Slator et Y.Wilks : Towards semantic structures from  dictionary entries. CRL memoranda in computer ans cognitive science MCCS-87-96 (1987).      

[24] OULIPO: La littérature potentielle. Gallimard (Idées n° 289) 1973.      

[25] On trouve d'ailleurs des analyses qui vont dans le même sens chez Paul Valery (dans les "Cahiers") et, bien entendu, chez Norbert Wiener. Je citerai, dans la littérature récente :
A. de Callataï : Natural and Artificial Intelligence. North-Holland 1986
K.P.Jantke (ed.) : Analogical and Inductive Inference.
Lecture Notes in Computer Science N°265, Springer 1987.

 

 

Sciences et techniques

<< retour << accueil <<
Paul Braffort © 2002