FORMES ET THÉORIES DYNAMIQUES DU SENS

Yves-Marie VISETTI
C.N.R.S. / LATTICE

(Mémoire d'Habilitation [*])


Les deux premiers intitulés – Mathématiques et Intelligence artificielle – correspondent à des phases révolues de mon activité. Il n’en reste pas moins qu’elles continuent de valoir comme un arrière-plan significatif pour ce qui a suivi. Il nous faut en dire quelques mots, serait-ce par simple prétérition.
 

1. Mathématiques

L’univers mathématique dans lequel je me suis inscrit, comme étudiant d’abord, puis, à partir d’octobre 1974, comme chercheur au C.N.R.S., ne m’apparaît plus qu’au travers de certains traits, fortement marqués, qu’il présentait à l’époque.

Sur le plan des contenus, deux voies à l’époque semblaient royales : la géométrie algébrique, d’abord, formidablement renouvelée par l’œuvre de A. Grothendick ; la topologie différentielle, ensuite, engagée dans le grand chantier de la classification des structures sur les variétés de dimension finie, et simultanément dans l’étude des systèmes dynamiques et des singularités de fonctions, en plein essor depuis que R Thom, S. Smale, puis d’autres, en avaient redéfini la problématique dans les années 1960. Sur le plan de ma culture générale de mathématicien, le point de vue des systèmes dynamiques l’a emporté sur la durée. Toutefois, mon travail de recherche personnel a été plutôt déterminé, à l’époque, par le problème de la classification des structures sur les variétés, dont on cherchait à déterminer exactement l’imbrication typologique, c’est à dire, en allant du plus faible au plus fort : type selon l’homotopie, selon l’homotopie simpliciale, selon la topologie générale, selon la topologie linéaire par morceaux, selon la structure différentielle. Comme souvent en mathématique, des objets totalement inattendus sont intervenus dans le jeu, initialement comme simples chevilles ouvrières, bientôt pour eux-mêmes. Dans mon cas, il s’est agi surtout des variétés de dimension infinie modelées sur le cube de Hilbert ; il fallait en développer la théorie en mimant les problématiques déjà en cours pour les objets de dimension finie, tout en en valorisant d’autres propriétés très différentes. Nous nous y sommes employés, en collaboration avec mes camarades d’Orsay, A. Fathi et A. Marin (cf. liste de nos publications, en fin de ce mémoire, ainsi que les articles reproduits en Annexe A du Recueil de textes). Mais la conjecture la plus désirable nous a échappé, en ce sens que quelqu’un (un certain S. Ferry, si mes souvenirs sont bons) nous a devancé dans sa solution. Nous énoncerons malgré tout cette conjecture, pour l’édification du lecteur  : « Le produit du cube de Hilbert et d’un Absolute Neighborhood Retract métrisable et localement compact est toujours une variété sur le cube de Hilbert ».

Une autre conjecture, également à l’articulation des dimensions finie et infinie, nous a retenus un certain temps – déraisonnable en ce qui me concerne. Elle s’énonce : « Le groupe des homéomorphismes d’une variété de dimension finie est une variété de dimension infinie, modelée sur l’espace (et non plus le cube !) de Hilbert ». A ma connaissance, cette conjecture est toujours non résolue à ce jour, signe sans doute que personne, passée cette période particulière, n’a jugé bon de continuer à y travailler. Peut-être faut-il traverser ce genre d’aventures pour saisir la beauté desespérante des mathématiques, et réaliser, sans le secours des accessoires traditionnels (crânes, sabliers, squelettes grimaçant dans le dos des jeunes filles) qu’il y a un motif commun à vain et à vanité.

Sous l’impulsion d’A. Fathi, nous sommes alors revenus à des questions de topologie des variétés de dimension finie. Ensemble, nous avons publié un travail intéressant sur le groupe des homéomorphismes préservant certaines « bonnes » mesures. La chance nous souriait à nouveau, mais sans pour autant effacer entièrement ma fascination pour les problèmes précédents. S’obstiner, c’était se mettre dans une impasse. La tentation fut trop forte. La conséquence en a été, à terme, mon abandon des mathématiques – ou du moins de la qualité de mathématicien – et ma décision, au début des années 1980, d’aller vers l'informatique et l’Intelligence artificielle, alors en plein essor.

Rétrospectivement, ce ne sont pas seulement ce manque de souplesse et de profondeur de champ, cette fascination pour l’objet de la recherche, que je juge sévèrement et regrette – au double sens du terme, car il y a évidemment une jouissance, fût-elle douloureuse, à s’abîmer dans ce genre de contemplation. Il me faut aussi souligner certains traits caractéristiques du milieu mathématique de cette époque, tels qu’ils m’apparaissent maintenant : une royale et orgueilleuse clôture au centre supposé de toutes les sciences dignes de ce nom ; une autonomie totale dans le développement des problématiques, qui prenait souvent appui sur une complète ignorance des motifs en provenance d’autres savoirs, et notamment (cela peut surprendre) en provenance de la physique ; une réduction tendancielle de l’activité du mathématicien à la résolution de problèmes, au détriment d’une perception plus large, et plus herméneutique, du champ ; enfin, une arrogance avant-gardiste, un dogmatisme révolutionnaire, et un culte élitiste de la génialité, emblématisé par le légendaire collectif Bourbaki. En compensation, si l’on peut dire : un sens impérieux de la liberté intellectuelle, en phase avec un milieu fustigeant tout autoritarisme (mais était-ce l’esprit des mathématiques, ou bien celui de l’époque, qui le voulait ?) ; un refus de réduire la raison à un rationalisme étroit, avec une claire conscience de sa dimension proprement fantastique, de la fantaisie et du fantasme présents au cœur de son exercice ; une recherche constante de la clarté, qui s’accompagne au même degré d’un respect entier des particularités, de l’opacité des discours de chacun, dès le moment où on les pense novateurs (cela signifie que le pôle émetteur, en tant que génial, est libre des normes toujours secondes de la réception ; mais ce n’est pas non plus une dictature de ce même émetteur : car ce dernier prescrit, mais ne norme pas – avoir connu un monde qui respecte et affronte cette polarité reste pour moi une bénédiction) ; enfin – mais je ne l’ai réalisé que plus tard – une déontologie exceptionnelle de la citation, avec un grand respect de la transmission orale, qui contraste sévèrement avec les usages, prédateurs ou amnésiques, d’autres milieux et d’autres époques (une culture paranoïaque du secret et du vol d’idées ayant par exemple régné en mathématiques à l’âge classique et au-delà). Toutes ces expériences ont pesé dans la conception que je me suis faite progressivement du rôle de l’épistémologie dans le travail scientifique : non seulement analyse logique et génétique des idées, mais aussi anamnèse, conscience des lignes de transmission, reconnaissance active des dettes et des noms qui ont orienté avant nous les parcours que nous empruntons – jonction peut-être avec une liberté plus grande que nos manœuvres.
 

2. Heurs et malheurs de l’Intelligence Artificielle

Ma reconversion s’est effectuée selon un cursus banal : DEA en 1982-1983 à l’Université Pierre et Marie Curie ; puis thèse sous la direction de P. Lévine, professeur à Paris 6, soutenue le 18 décembre 1986, sous le titre « Contribution à la modélisation de l’interlocuteur en Enseignement assisté par ordinateur (E.I.A.O.) ». Parallèlement, j’ai fait fonction, deux années durant, de maître de conférence de mathématiques à l’Université d’Orsay-Paris 11 (1er et 2e cycle), dans le cadre d’un échange C.N.R.S-Université.

En dépit de son titre, ma thèse ne portait pas directement sur la question des échanges en langue susceptibles d’accompagner une interaction pédagogique dans le domaine d’apprentissage concerné, à savoir le calcul élémentaire sur les nombres rationnels (domaine que j’avais choisi en raison de la position médiane qu’il occupe entre arithmétique et algèbre, introduisant, de fait, à la dimension formelle et littérale du calcul, et en même temps ouvrant sur un certain indéterminisme dans le détail de l’exécution, dans la mesure où certaines opérations sont facultatives ou commutables). L’échange n’est abordé ici que sous l’angle des tactiques opératoires, et non sous celui de la compréhension ou de la génération de dialogues ; mais il est construit à partir d’un cadre général de discours, repris des approches dites pragmatiques (la théorie de la pertinence de Sperber et Wilson, avec les règles de Grice, en constituait la référence principale). Il s’agissait, notamment, d’accepter des interactions à des niveaux d’explicitation variés, dont la variété était du reste d’autant mieux définie qu’elle s’inscrivait dans un cadre très normalisé par les traditions scolaires. De plus, conformément aux approches pragmatistes de l’époque, la thèse s’en tenait au principe que, comme toute activité finalisée et intentionnelle, le calcul, avec ses justifications, son commentaire, et même ses erreurs, se laissait comprendre dans une large mesure à partir d’un concept unique de planification, instrument central d’une théorie computationnelle générale de l’action – qui se fait toujours attendre.

Reprenant de façon consensuelle l’architecture recommandée par tous les auteurs du domaine (module expert, module de modélisation de l’élève, module pédagogue), le système construisait un modèle de l’élève en interprétant chacune de ses performances comme une exécution de plan, puis en formant une image globale de sa compétence, décrite de façon formelle comme un ensemble hiérarchisé de règles (y compris erronées) et de contextes d’application. Des variantes aux plans optimaux étaient reconnues ou proposées, et certaines erreurs systématiques catégorisées, sous l’hypothèse qu’elles pouvaient s’exprimer dans le même format que les règles valides (d’où l’appellation de « règles déviées », dont les modèles, en l’occurrence, provenaient d’une enquête des didacticiens de Paris 6). Omissions et erreurs dans la résolution d’un exercice donné renvoyaient à des types d’exercices appropriés, centrés sur les défauts reconstitués, et dont les paramètres numériques étaient fixés de façon aléatoire au moment du déclenchement. La 4e de couverture de la thèse portait ainsi le résumé suivant :

On le voit, tout ou presque dans ce travail était conforme au style dominant de l’IA de l’époque : représentations formelles de type logico-symbolique, analyse procédant par force du local au global (pas ou peu de niveau stratégique), écarts impossibles à avouer entre les schémas théoriques et la couverture réelle du programme implanté, peu de réflexion sur le partage entre intériorité cognitive et communication, interface sémiotiquement pauvre et contrainte par un paradigme d’interaction linéaire et séquentiel, etc. Bon observant, parce que non croyant, j’avais honnêtement donné leur chance à ces façons de faire. D’ailleurs, le domaine de l’E.I.A.O. offrait, plus que d’autres, la possibilité d’une réflexion par rapport à toutes ces dimensions : la psychologie piagétienne, par exemple, y avait droit de cité ; la notion de représentation informatique y était questionnée, parfois même considérée comme une nouvelle ressource sémiotique, et non comme la copie conforme de quelque structure intérieure aux sujets ; et le statut des systèmes – simple milieu opératoire pour une action située, ou simulacre d’acteur ?– y fut discuté plus tôt qu’ailleurs, sous la forme d’une opposition entre les systèmes tuteurs, plus directifs, fondés sur l’explicitation de règles et de procédures, et les environnements d’apprentissage, fondés sur l’exploration libre de modèles. Les chapitres d’ouverture (état de l’art) et de clôture (conclusion critique et sceptique) de ma thèse faisaient usage de cette très relative liberté épistémologique. Récusant en conclusion les approches mentalistes – du moins pour ce qui concernait mon travail –, je soulignais que les règles et procédures maniées, de mon point de vue, ne correspondaient à rien « d’intérieur aux sujets ». La générativité des règles était un principe herméneutique de description et d’évaluation, et non une explication causale des performances. En même temps, les seules régularités captées étaient de nature comportementale, et le niveau capital de la justification restait inentamé. Dans ces conditions, la communication avec ce type de système ne pouvait être l’expression d’un univers cognitif privé; elle ne pouvait être non plus l’occasion d’une contestation créative, d’une innovation. Restait l’action commune sur un ensemble de représentations manifestes, donnant accès et faisant autorité. Le problème de l’E.A.O. menait alors à celui de ses ressources sémiotiques. On pouvait conjecturer que le développement d’interfaces graphiques élaborées (à l’époque inexistantes ou peu accessibles) allait changer la donne en profondeur. On pourrait alors visualiser, réifier, les processus les plus abstraits, tout aussi bien que décomposer et assembler des images avec une systématicité toute formelle : question d’idéographies, par conséquent, et non de modèles mentaux.

Naturellement, il ne reste rien de ces considérations dans l’unique communication et publication qui en est résultée, en collaboration avec mon collègue P. Dague, dans le cadre de l’American Association of Artificial Intelligence Conférence (AAAI) de 1987. Le milieu ne plaisantait pas avec ces questions : un de ses grands protagonistes, H. Simon, ne se désignait-il pas comme un true believer  ? Comment, et avec qui, trouver désormais le recul, la souplesse, les options, qui m’avaient fait défaut dans ma précédente phase mathématicienne : telle était la question. Je tentai deux voies. La première consistait à se donner les moyens d’une certaine autonomie, en proposant dans le cadre d’un appel d’offres européen (Delta) un projet d’enseignement assisté dans le domaine de l’apprentissage des langues : ce fut l’objet d’une collaboration avec Marc Nossin, à l’époque responsable de la recherche à la société d’informatique linguistique ERLI. Mais notre projet ne fut pas retenu (1988). La seconde voie était plus individuelle, et passait par un supplément d’épistémologie. Je m’y essayai également.

Or, la situation épistémologique était, dans tous les autres départements de l’I.A., plus dogmatiquement encore refermée sur la croyance en la nature exclusivement logico-symbolique de toute objectivité. Parallèlement, le développement de l’I.A. se faisait à partir d’un paradigme de la simulation, au terme duquel les systèmes devaient devenir des acteurs de substitution, non distinguables de leurs supposés modèles humains, conformément à la proposition fondatrice de Turing (1950). C’est à peine, d’ailleurs, si ces deux principes du logico-symbolique et de la simulation se laissaient séparer, tant ils avaient fusionné au sein de l’idéologie enthousiaste de ces années, et dans les projets démiurgiques d’une technoscience en grande partie imaginaire. En même temps, il y avait synergie parfaite avec le noyau central de la galaxie des sciences cognitives en voie d’institutionnalisation, occupé par une psychologie qui avait élu la forme logique (c’est à dire la forme de processus fondés sur des syntaxes et des règles logiques d’inférence) comme celle de l’intériorité mentale dont elle entendait faire son objet.

Deux domaines avaient à l’époque statut d’emblème du grand projet de simulation de l'intelligence artificielle. On avait forgé, pour les désigner, une terminologie inédite : « systèmes experts », d’une part, « compréhension du langage naturel », de l’autre. Ils avaient été, à parité, la cible des critiques conjointes de philosophes comme H. Dreyfus (1972-1979), ou de praticiens du champ, comme T. Winograd (avec F. Flores, 1986). Mais ces critiques s’étaient plutôt situées sur un terrain philosophique : il n’en fallait pas davantage pour qu’on refuse d’y répondre, sinon par l’insulte. Par bonheur, certains milieux industriels s’étaient fortement engagés dans l’aventure des systèmes experts : leurs critiques furent autrement dirimantes. C’était là, en effet, que se situait à l’époque l’enjeu stratégique supposé de l’I.A., et non plus, comme dans les années 1960, dans le domaine de la traduction automatique. On demanda donc aux systèmes experts et à leurs promoteurs des comptes sur leurs promesses de productivité inconsidérées. Le débat, longtemps repoussé, devint inévitable. Sur un mode plus technique que dans les phases précédentes, il se centra sur lesdits systèmes experts ; en réalité, il concernait l’I.A. toute entière, et contribua à faire apparaître de nouveaux schémas régulateurs. Parallèlement, une discussion s’amorça sur les principes génériques de l’interaction avec les machines.

Quelques publications attestent de ma participation à cette effervescence : articles d’encyclopédie (l’IA est-elle une science ? 1991, avec également un article sur l’EAO, commandé par P. Lévy pour les Encyclopédies Larousse, et finalement non publié) ; un compte-rendu fouillé (1989) de Plans and Situated Actions, livre de L. Suchman (1987) qui a contribué à lancer le concept d’action située, et fait connaître des problématiques de sciences sociales, telle que l’ethnométhodologie, qui se sont inspirées de la phénoménologie ; enfin deux articles sur les systèmes experts (1991, 1992), où je tentais une description raisonnée des contraintes et des attentes dont ils étaient l’objet, pour en proposer ensuite une conception nouvelle, sémiotique et non pas cognitiviste, et où la reconstruction logique, toujours indispensable, n’apparaissait plus que comme un instrument parmi d’autres au service d’une activité de modélisation.

Pour n’en donner qu’un rapide aperçu, voici quelques extraits de la dernière section de mon compte-rendu de Plans and situated actions :

Le livre de Suchman critiquait ainsi le schéma « représentationnaliste » de la « tradition classique des sciences cognitives ». De mon côté, dans mon travail sur les systèmes experts et sur leur avatar le plus récent, les systèmes à base de connaissance, je tentais de mettre l’accent sur la nécessité de placer au cœur des processus de ‘pensée’ une forme ou une autre de ‘schématisme’ ou de mécanisme catégorisant de type ‘perceptif’, en les distinguant soigneusement de toute inférence logique. Je puisais ici à l’argumentaire gestaltiste et phénoménologique que H. Dreyfus avait exposé dans What computers can’t do. De même, je soulignais le caractère insaisissable des « logiques » de sens commun, pour les opposer à d’autres logiques et à d’autres ontologies mieux objectivantes, car délivrées de toute exigence de fidélité psychologique. Ces logiques me paraissaient constituer un cadre limité, mais légitime, pour le développement des systèmes experts : en raison, notamment, de la quasi-inexistence, sur les mêmes terrains, de modélisations de facture physico-mathématique (et non pas logique), comme il commençait d’en apparaître en sciences cognitives avec le renouveau des modèles connexionnistes. Enfin, je prenais parti en faveur d’une conception non logiciste de la construction du sens à travers l’activité de langage, et proposai de donner dans ce contexte la priorité aux concepts de la sémiotique, de la rhétorique et de l’ergonomie. Jouant ainsi sur les conflits de priorité entre les contraintes de la modélisation cognitive (ici à délaisser, au prix d’une réorientation du style de performances attendues), celles de la reconstruction logique (inévitable, mais limitante), celles enfin de la communication (qu’elle use de ressources linguistiques, diagrammatiques ou iconiques), je proposai de renoncer au concept de système symbolique strict, intelligent et autonome, pour lui substituer celui d’un artefact interactif d’aide à la modélisation et à la validation des raisonnements. L’IA des systèmes de raisonnement pourrait alors s’identifier à une ergonomie de la sémiotisation et de la modélisation des connaissances. La construction de cette couche sémiotique devenait une tâche essentielle, puisque selon cette problématique, la mise au point d’un milieu sémiotique adéquat (en l’occurrence un milieu ‘réactif’) était un facteur critique de la constitution et de la diffusion des connaissances, et une condition de l’objectivation recherchée. L’IA devait donc repenser ses projets à partir de ce nouveau lieu commun.

L’indifférence, parfois l’hostilité, ont très normalement sanctionné la publication de ces textes hérétiques. A l’oral, cela passait encore moins bien. Sur le plan de ma carrière, en tout cas, je n’ai guère capitalisé sur eux. Il est possible que d’autres, plus tard, y aient trouvé du grain à moudre. Mais il n’y avait tout simplement personne à l’époque dans le milieu français de l’IA, qui soit directement intéressé à développer ces idées, et en même temps suffisamment bien positionné dans les institutions pour ouvrir l’espace de travail nécessaire [1]. Il me fallait donc gagner d’autres aires de jeu, rechercher ailleurs d’autres alliances. Et de fait, la situation pouvait s’y prêter.  

D’une part, l’institutionnalisation croissante des sciences cognitives, avec la création de nouveaux D.E.A. au début des années 1990, semblait prometteuse à cet égard : mieux qu’à travers la caisse de résonance de l’IA, c’était l’occasion d’entrer en contact avec des disciplines dotées d’objets propres, au statut scientifique supposé mieux établi. C’est ainsi que je me rapprochai progressivement de la région « Sciences du langage », théories et modèles se passant mieux, dès lors, des prétextes utilitaristes qu’il me fallait auparavant invoquer à tout bout de champ.

D’autre part, la situation évoluait sur le front des paradigmes en guerre. Le poison précédent, de composition logico-symbolique, était venu, dit-on, de la Côte Est. Mais la Côte Ouest nous envoya le suivant, qui fit un temps fonction de remède. Le jeu, technique et épistémologique, parut se débloquer. Un peu de pluralisme vint. Renouant avec les systèmes dynamiques, j’entamai un parcours de fantassin à travers les problématiques et les modèles connexionnistes.
 

3. Modèles dynamiques et problématiques connexionnistes

C’est à partir de 1987 que j’ai pris connaissance (à la suite, je crois, d’un exposé de D. Andler au crea) de l’existence d’une « nouvelle » classe de modèles, appelés connexionnistes, qui promettaient de renouveler de fond en comble les problématiques cognitives. Il s’agissait d’ensembles d’unités très simples formant des réseaux, c’est à dire communiquant via des signaux numériquement valués, modulés par des systèmes de connexions adaptables. Cette définition très générique permettait de les rattacher, selon les besoins, à plusieurs types d’objectivité : neurobiologique, d’abord, en raison d’un mimétisme évident ; physico-informatique, ensuite, à travers une série d’algorithmes, notamment d’apprentissage, tout récemment découverts ; physico-mathématique, également, en tant que réalisation particulière du concept de système dynamique ; cognitif, enfin, et peut-être même linguistique, comme en témoignait le livre collectif Parallel Distributed Processing (1986), déjà salué comme un exceptionnel succès de l’édition scientifique [2].

Dès ce moment, et jusque dans la deuxième moitié des années 1990, une bonne partie de mon activité a consisté à étudier, enseigner, évaluer, et enrichir cette classe de modèles, non seulement sur les plans mathématique ou informatique, mais en visant à travers eux les théories et les épistémologies, cognitives et/ou linguistiques, qui pouvaient s’en recommander. Soit un travail permanent de mise en ordre et de restitution du champ, dont atteste le Recueil de textes donné en complément de ce Mémoire.

Il ne serait pas raisonnable, et en réalité je ne crois pas utile, de retracer ici ce parcours dans son intégralité. Les textes que j’ai rédigés à l’époque – textes de synthèse, de balisage, d’épistémologie, plus tard de théorie – sont déjà de cette nature, et tiennent la route. Mieux vaut insister ici sur les quelques points qui me paraissent encore importants, si du moins il s’agit de caractériser ma démarche. Mais cela ne se peut sans un petit rappel des problématiques les plus communément partagées à l’époque.

Le débat, très vif, tournait en effet autour des notions de règles et de représentations structurées [3] . Lorsque ces notions sont mises en œuvre dans un cadre formel, comme c'est le cas par exemple en linguistique générative, elles sont naturellement associées aux concepts logiques de symbole et de règle d'inférence, c'est-à-dire identifiées, sur le plan tant des morphologies que des processus, aux objets strictement définis d'une syntaxe formelle. Ce caractère strict de l'articulation logique se trouve alors naturellement transféré aux éléments de sens auxquels ces symboles sont supposés correspondre ; et l'on pose, dans le même temps, que lesdits symboles sont les supports, ou les segments naturels, d'une intentionnalité comparable à celle qui se manifeste par exemple dans le cadre de l’activité de langage. Dans la version mentaliste de cette approche, on transfère ces caractéristiques à un langage de la pensée, purement intérieur, de facture isomorphe à ce que l’on pense être la formalité opérante au sein des langues ou des sémiotiques ‘externe’. Ainsi les symboles de ce langage interne font-ils office de représentations vis-à-vis de l’extériorité pertinente, tandis que le rôle causal des règles, elles aussi intériorisées par ce réalisme mentaliste, réplique et fonde leur rôle descriptif [4]. Tels sont les postulats fondamentaux du paradigme – qu’on l’appelle classique, orthodoxe, ou computo-représentationnel – qui a longtemps dominé les sciences cognitives.

Les promoteurs des modèles connexionnistes, et parmi eux les protagonistes du groupe PDP, proposaient un autre représentationnalisme – un cognitivisme réformé, si l’on peut dire. Ils continuaient par exemple de parler de symbole, associant sous ce nom ce à quoi tout un chacun peut accéder dans l’espace public, et son corrélat mental supposé. Mais ils proposaient de concevoir autrement ce niveau symbolique et ses processus caractéristiques, en conférant ici un rôle privilégié, à vrai dire constituant, à un certain usage des modèles connexionnistes. L’espace des représentations serait dorénavant l'espace des états internes d’un réseau. Contexte et apprentissage étaient les deux mots-clés de ce nouveau paradigme, qui entendait retrouver des mécanismes de type perceptif, et non plus logico-inférentiel, opérant à travers tous les registres cognitifs. Les représentations étaient-elles par construction tributaires d’une tâche, d’une architecture, d’une histoire ? En faisant varier les algorithmes, la structure des réseaux, l’ordre de présentation des données, on pourrait le comprendre. De plus, l’espace continu des états et des poids des connexions, et les représentations distribuées sur de vastes ensembles d’unité, pouvaient commander des réponses graduelles, finement adaptables, résistantes aux perturbations et dégradations de toutes sortes.

L’atomisme, le logicisme, l’autonomie de la syntaxe, la compositionnalité stricte en sémantique, les règles et les types formels, les architectures fonctionnelles cloisonnées en modules indépendants : tous ces éléments, caractéristiques de l’ancienne approche, furent balayés, ou du moins changèrent de statut. Ils furent d’abord dénoncés comme des présupposés erronés, pour être ensuite réintégrés, mais dans un rôle relativement diminué, à l’issue d’une belle polémique où s’illustrèrent notamment J. Fodor et Z. Pylyshyn dans le camp des orthodoxes, et P. Smolensky dans celui des connexionnistes (1988). De principes explicatifs qu’ils étaient dans le point de vue orthodoxe – qualifié désormais de classique, par souci d’apaisement – , ils devinrent plutôt des modes de description, souvent utiles mais par essence approximatifs, qu’il fallait compléter et surtout expliquer dans le cadre du nouveau paradigme ; celui-ci apparaissait désormais comme un dépassement conservateur de l’ancien, un peu à la façon dont la mécanique statistique avait pu corriger, et justifier en même temps, la thermodynamique qui l’avait précédée. Le principe de cette reprise était simple : le connexionnisme devait comprendre les symboles de l’approche classique comme des macro-phénomènes émergeant de l’interaction d’un très grand nombre de micro-éléments, appelés subsymboles, porteurs chacun d’une contribution représentationnelle ‘microscopique’. En interagissant dans le cadre de la dynamique d’un réseau où elles se trouvent connectées, ces micro-unités se stabilisent au bout d’un certain temps, et forment des groupes, généralement constitués d’un grand nombre d’entre elles : l’observateur peut alors reconnaître dans ces groupes les ‘symboles’ qu’une approche classique n’aurait pu déterminer que de façon rudimentaire. En d’autres termes, seules les unités porteuses des micro-traits distinctifs déterminent le domaine au niveau causal. Les structures ‘émergent’ toujours à un niveau plus macroscopique, où se manifestent éventuellement de nouveaux types de régularité ou de systématicité, en même temps que se mettent en place, via les algorithmes d’apprentissage, une foule de micro-traits, apparemment locaux, mais en réalité globalement conditionnés par la tâche et les contraintes dynamiques – forme scientifiquement traitable de holisme sémantique ou conceptuel.  

Mais en quoi pouvaient bien consister ces nouveaux types de régularité ou de systématicité ? Pour ce qui concernait la sémantique linguistique, par exemple, par quel nouveau type d’unités ou de structures cela devait-il passer ? En dépit d’une relativisation certaine de l’importance de la syntaxe, le débat restait dominé par la question de savoir ce que ‘devenaient’ dans ce cadre, d’une part la constituance, conçue sur un mode syntactico-perceptif, d’autre part la compositionnalité, conçue, de façon plus large que dans le paradigme ‘classique’, comme une synthèse toujours contextuelle de contributions en provenance de constituants préalablement identifiés (sous la forme, par exemple, d’une entrée de dictionnaire). Faute d’aller vers des linguistiques porteuses d’une théorie globale de l’interprétation et du champ sémantique, on ne pouvait dans ces conditions se dégager d’une certaine forme d’élémentarisme. Les ‘mots’, par exemple, ne pouvaient s’individuer – si tant est que ce soit toujours nécessaire – dans le cadre de la figure globale en cours de construction, puisque les modèles les prenaient comme points de départ. Et s’il y avait des unités non alignées sur les constituants syntaxiques, ou qui ne répondaient pas intuitivement à une méréologie formelle du type R(A,B,…), il devenait difficile de les évoquer.

Deux options me sont alors apparues possibles, du moins si je voulais continuer à travailler dans un délai raisonnable avec l’instrument connexionniste, et selon des problématiques déjà amorcées sur le plan de la modélisation. Soit relever bel et bien le défi de la constituance, en approfondissant ses a priori dynamiques et perceptifs, c’est à dire en y reconnaissant un problème de théorie des formes, notamment par le truchement des schématismes des linguistiques cognitives : c’est le parti que nous avons pris avec J. Petitot. Soit approfondir les a priori linguistiques et interprétatifs de ce problème, et s'intéresser plutôt à la plasticité des langues, approchée à partir du concept de polysémie, pour aller, du moins je l’ai cru, vers une théorie dynamique du champ sémantique, dans laquelle, à terme, la circulation des indices interprétatifs, et la formation des unités, ne serait pas seulement conditionnée par les agencements syntaxiques : ce fut l’objet de ma collaboration avec B. Victorri.

En réalité, tout en reconnaissant profondément l’intérêt des modèles connexionnistes, avec l’effectivité nouvelle qu’ils pouvaient apporter à des théories qui en avaient manqué jusque là, j’estimai (et la suite de mon travail l’a amplement confirmé) qu’il ne fallait pas oublier l'essentiel : le rôle constituant, et non pas seulement instrumental, en sciences cognitives et du langage, des diverses idéalités mathématiques de l’infini, du continu, et de l’espace. J'avais à cet effet compilé la liste d’arguments suivants (cf. Recueil, section II, notamment mon article de 1994) :

3.1. Constituance perceptive et grammaire cognitive 

Nous sommes partis, avec J. Petitot, d’une réflexion générale sur le principe de modélisation par attracteurs, suivant lequel les états significatifs du modèle doivent correspondre, en première approximation, aux attracteurs de sa dynamique, qui en sont des invariants intrinsèques, indépendants, pensions-nous, de toute sélection par des agents externes (homonculus ou ingénieur) [7]. Ce principe nous paraissait fondamental sur le plan théorique : c'est lui qui assure, d'une façon plausible, le rapprochement entre la modélisation cognitive et le champ déjà très étendu des modèles physico-mathématiques. Le temps de la stabilisation est, dans tous les cas, celui d’une prise d’effet des différents composants les uns sur les autres, et la juste mesure supposée de cette détermination réciproque est attestée par l’équilibre atteint.

Or la notion d'attracteur, qui précise et généralise celle de point fixe pour couvrir tous les cas de configurations limites des dynamiques (attracteurs cycliques ou plus complexes), a été élaborée dans le contexte des systèmes différentiables. Elle devait donc être quelque peu adaptée au cadre connexionniste (discrétisation partielle, parfois indéterminisme), mais surtout insérée dans une perspective systémique plus large pour répondre aux exigences de la modélisation cognitive. Il fallait, au moins, en assouplir la notion pour disposer de transitions d'attracteurs en attracteurs, déclenchées par une variation appropriée du poids des connexions, ou bien par des apports externes. Ainsi pourrait-on conserver sa flèche au temps, et passer d’un état significatif à un autre état.

R. Thom avait, le premier, dans le cadre de sa Théorie des Catastrophes, montré ici l'intérêt des notions de bifurcation et de conflit d’attracteurs. Les changements de formes peuvent en effet se comprendre à partir de la variation de dynamiques paramétrables. Les dynamiques variant suivant une échelle temporelle lente, on peut supposer, en idéalisant les choses, qu'à tout ‘instant’ une dynamique est fixée qui amène le système, en un temps ultra-rapide cette fois, à se stabiliser dans l'un de ses attracteurs courants. D'instant en instant, la dynamique change, et avec elle les configurations stables accessibles. Il se peut alors qu'un attracteur donné, sur lequel le système s'est stabilisé un certain intervalle de temps, disparaisse tout à coup de la dynamique courante, soit supplanté par un attracteur rival, se fonde à un autre, ou bien donne naissance à plusieurs attracteurs. En identifiant les attracteurs d'une dynamique donnée aux unités d'une certaine catégorie (par exemple à des actants en conflit), on peut assimiler le processus entier à une interaction ou combinaison entre ces unités. On peut donc y voir, selon les besoins, une double modification de structures :

       (1) la catégorisation de l'espace des états par les bassins d'attraction change d'une dynamique à l'autre (réorganisation des catégories)

       (2) ces réorganisations se font en combinant entre eux les attracteurs (par fusion ou décomposition) : les attracteurs d'une dynamique donnée apparaissent ainsi comme constituants de (ou constitués par) ceux des autres dynamiques. Le processus figure en un certain sens une analyse ou synthèse d’unités, impliquant d’autres unités jouant un rôle fonctionnel déterminé par les dynamiques courantes. On peut parler, en un sens, de syntaxe d’attracteurs (un terme repris par le physicien D. Amit), à condition de ne pas oublier que cette ‘syntaxe’ renvoie en arrière-plan à la transformation globale et continue de dynamiques entières, et non à la composition d’unités purement locales, ou indépendantes de ces dynamiques.

Toutefois, ce modèle dynamique, remarquable en ce qu’il traite en même temps les transformations de la structure catégorielle (du paradigme, si l’on veut) et la synthèse de l'unité sélectionnée à tout moment, n’est pas à proprement parler un modèle de processus, immédiatement traductible dans une théorie des machines. Dans son temps formel, indéfiniment ralenti ou accéléré selon les besoins de l'idéalisation, coexistent des objets qui ne pourraient coexister (ou se succéder adéquatement) dans un espace-temps effectif, si ce n'est en modifiant les principes de leur modélisation. Thom écrivait par exemple :

Mais si chaque ‘actant’ est identifié à un attracteur, il est impossible que plusieurs d'entre eux subsistent à la fois. Il faut donc les retrouver en séquence, ou disposer d'autant d'exemplaires du système que d'attracteurs à manipuler simultanément, ou encore manipuler directement tout le potentiel qui, dans l’idéalisation thomienne, détermine les dynamiques du modèle catastrophiste. C’est cette dernière option que nous avons faite nôtre, au risque de déporter tout le modèle dans le sens d’un réalisme visuel accru, fondé sur l’identification pure et simple des potentiels en question avec les états d’activité d’une sorte de répertoire visuel intérieur – en termes plus crus, d’une sorte de ‘rétine mentale’.

En compensation, le problème de la constituance, dynamiquement interprétée comme un processus de composition ou de décomposition affectant un ensemble de régions singulières dans un état d’activation global, se reformulait très directement : il fallait identifier le système des singularités de chaque potentiel, caractéristique d’un positionnement relatif des entités modélisées, et suivre les transformations de ce graphe à la faveur de la variation du potentiel. Principe abstrait et schématique s’il en est, dépendant il est vrai de la donnée d’un site et de sa topologie, pour constituer le substrat de diffusion des activités dont la donnée globale représente à tout moment le potentiel (caractéristique donc d’un état instantané de la structure). Principe affine également au schématisme platement visuel mis en œuvre par les linguistiques cognitives (Lakoff, Langacker, Talmy), qui nous tenaient lieu ici de caution [9].

Revenant aux écrits qui ont jalonné notre réflexion (1993-94), nous rappellerons ci-dessous, de façon plus détaillée (cf. Recueil, section II : Visetti 1994, et en Annexe de la section II, les projets rédigés avec J. Petitot en 1993 ; cf. également les publications de J. Petitot plus directement liées à cette ligne de recherche: 1991a,b ; 1996) :

(Motivation) Un des problèmes fondamentaux, tant conceptuel que technique, du connexionnisme est de construire des modèles effectifs de représentations possédant une structure ou organisation interne, véritablement analysables en constituants et traitables comme telles. Ce problème est venu au premier plan de la recherche en Sciences Cognitives à la suite du débat de 1987-1988 ayant opposé Paul Smolensky à Jerry Fodor et Zenon Pylyshyn, à propos du bon usage de la modélisation connexionniste dans les domaines cognitifs de haut niveau (langage y compris). Fodor et Pylyshyn soulignaient l'impossibilité d'accéder à des modèles satisfaisants de structures dans le cadre du connexionnisme encore rudimentaire qui était celui des premiers travaux de Hinton, McClelland et Rumelhart (groupe PDP). En effet, les structures y étaient traitées comme de simples superpositions linéaires de traits syntaxico-sémantiques, peu propices à la représentation effective de structures qui ne sont ni commutatives ni associatives, par exemple des arbres syntagmatiques. On ne voyait pas dans ces conditions comment on pouvait segmenter les structures (constituance) ou les fusionner (compositionnalité) en respectant des exigences minimales de systématicité. (Pour des précisions sur ce débat, cf. Visetti [1990] et Petitot [1991b]).

Depuis cette époque, de nombreuses clarifications épistémologiques et propositions théoriques ont été faites du côté connexionniste, données expérimentales et modèles à l'appui. Plusieurs rencontres internationales importantes y ont été consacrées : nous citerons en particulier les deux conférences organisées à Royaumont par Daniel Andler, Elie Bienenstock, et Bernard Laks en 1991 et 1992 sous le sigle COMPCOG I et II (Interdisciplinary Workshop on Compositionality in Cognition and Neural Network), ainsi que celle organisée à l'Université d'Indiana par Tim van Gelder et Robert Port sous le titre Dynamic Representations in Cognition.

L'orientation théorique du courant de modélisation PDP implique, comme l'on sait, de rejeter l'autonomie de la syntaxe (un postulat fondamental de la linguistique générative) tout comme la compositionnalité stricte en sémantique (un principe de base de toutes les grammaires formelles de Frege à Montague). En même temps, il est affirmé que les catégories grammaticales, qui sont définies à travers une interaction permanente entre syntaxe et sémantique, ne doivent plus être assimilées aux "types" discrets des langages formels : il est postulé en effet que ces catégories relèvent d'un autre type de systématicité. Le rejet de l'atomisme et du logicisme en sémantique, et la conviction que les processus linguistiques ne peuvent être compris qu'en relation avec d'autres processus cognitifs (notamment perceptifs) conduit à rejeter les architectures à modules cloisonnés, et à adopter une conception topologique et continuiste de l'espace des représentations linguistiques. C'est qu'il n'y a guère, en effet, pour une définition formelle des structures, d'autre alternative à la logique que la géométrie (ou plus généralement la topologie). Mais le problème est alors d'élaborer dans ce nouveau contexte une véritable théorie de la constituance : c'est à dire modéliser de façon topologique et dynamique les relations grammaticales, les rôles sémantiques (au sens des grammaires casuelles), ainsi que de nouveaux types de compositionnalité, et cela en tant que processus effectivement implémentables sur des réseaux.

On doit admettre à cet égard un relatif échec des modèles de constituance construits dans la ligne du groupe PDP. Les structures pré-codées ou émergentes dans ce cadre ne sont bien souvent que des variantes floues des structures symboliques classiques, privées de la facilité combinatoire offerte par l'approche discrète du symbolique, mais enrichies bien sûr sous d'autres aspects (gradualité, complétion associative, apprentissage). Certes, de nouveaux expédients techniques ont été introduits (notamment la représentation par produit tensoriel chez Smolensky, ou l’idée de codage de structures par compression et décompression récursives, proposée par J. Pollack, 1990), mais la théorie cherchée de la constituance n'a pas progressé de façon décisive dans son principe, faute d'avoir fait appel aux linguistiques susceptibles de l'étayer [10] . Le défi lancé par Fodor et Pylyshyn reste donc en grande partie à relever.

Face à ce challenge, plusieurs directions de recherche, inspirées par plusieurs courants en linguistique, constituent aujourd'hui autant de réponses.

On peut par exemple, comme le préconisent Paul Smolensky, Géraldine Legendre et Yoshiro Miyata dans le cadre de leur grammaire harmonique (1992), concevoir les grammaires comme des systèmes d'optimisation de contraintes numériques. Ici, les contraintes expriment l'interdépendance des catégories et des traits syntaxico-sémantiques. Le codage des configurations de traits autorise la représentation plus ou moins approximative de structures syntaxiques classiques (à travers la structure algébrique de produit tensoriel), sans pour autant faire jouer ces structures de façon absolument contraignante, grâce aux propriétés de gradualité propres aux modèles connexionnistes. Il s'agit donc d'une sorte de reconstruction connexionniste du formalisme des grammaires d'unification, sous la forme d'un processus d'optimisation réalisé par la dynamique des réseaux. La contrainte globale à optimiser, qui est la somme de multiples contraintes plus ou moins locales, est appelée Harmonie. Une structure linguistique est alors d'autant mieux formée que sa valeur d'harmonie est élevée. On calcule ainsi les configurations de traits syntaxiques et sémantiques dont la combinaison satisfait au mieux les contraintes graduées de la grammaire, c'est à dire correspond aux maxima de la fonction Harmonie. En réalité, le cadre connexionniste joue ici un rôle subalterne de matérialisation du processus d’optimisation, qui se comprend mieux au niveau de la fonction Harmonie elle-même. La constituance se lit donc plutôt dans la structure de cette fonction, qui se décompose en une somme de fonctions, dont certaines prennent justement leur valeur optimale lorsque la partie pertinente du syntagme analysé satisfait aux contraintes de formation d’un constituant. C’est dans cette direction, d’ailleurs, que P. Smolensky s’est engagé un peu plus tard, avec ses travaux de ‘Phonologie harmonique’.

D'un autre côté, les grammaires cognitives (au sens de Leonard Talmy, Ronald Langacker, George Lakoff, et dans une moindre mesure Ray Jackendoff) postulent la fonction structurante, fondamentale pour la sémantique des langues naturelles, de schèmes spatio-temporels et dynamiques, analogues aux Gestalten perceptives. Il ne s'agit pas là – c’est ainsi du moins que nous voulions la comprendre – d'une thèse réductionniste sur la nature exclusivement spatio-temporelle des contenus sémantiques, mais d'une thèse sur la nature formelle des structures de la linguistique : la thèse est que cette ‘formellité’ est d'abord topologique et dynamique, avant que d'être logico-symbolique. Cette thèse s'applique tout naturellement lorsqu'il s'agit de la sémantique des expressions locatives (des verbes comme entrer, sortir, tomber, traverser... ou des prépositions comme au-dessus, à travers, dans, contre... cf. Lakoff, Regier, Vandeloise). Leurs noyaux de sens sont représentés par des schèmes iconiques, des images-schèmes figurés par des diagrammes.

Mais en fait la thèse déborde le cas particulier des champs lexicaux et morphologiques manifestement concernés par l'expression des lieux et des temps. Elle concerne en réalité toute la sémantique, comme on peut le voir par exemple chez un auteur comme Fillmore. Car toute prédication profile des entités sur un fond, elle organise la scène de leur interaction, en particulier (mais pas exclusivement) au moyen de schèmes configurationnels qui idéalisent les positions des actants impliqués. Ces schèmes résident dans des espaces abstraits, et ne doivent pas être confondus avec l'image perçue de la scène (quand elle peut l'être), ni même avec une image mentale qui l'évoque. Le schème n'en reste pas moins topologique, et topologiquement rattachable aux images proprement dites, si besoin est. D'un autre côté, il consiste essentiellement en une sorte de configuration archétype, un squelette sous-jacent à la morphologie de la scène entière, sur lequel opèrent les choix de lexicalisation et de construction syntaxique responsables de la prédication linguistique proprement dite.

Cette spatialisation de la grammaire (qui remplace la forme propositionnelle par le noyau scénique qu'est l'image-schème) n'était qu'amorcée, voire implicite dans les premiers travaux de Fillmore. Elle s'est développée depuis, à travers les travaux de nombreux auteurs. Ils ont ainsi étendu une forme de sémantique localiste à toutes les parties du discours, sous la condition d'une abstraction des espaces postulés – qui leur conserve toutefois une structure proche de celle d'un espace de l'imagination, en principe rattachable à l'espace perçu. On peut en faire l'une des bases explicatives de l'organisation syntaxique de surface. On aurait alors motivé les constructions grammaticales par une organisation topologique cognitive. Le noyau scénique (et non plus propositionnel) de la grammaire pointe sur, code littéralement, une sorte de perception catégorielle généralisée [11] .  

Quel que soit alors le statut conféré à ces images-schèmes (réaliste mentaliste ou descriptif instrumental), elles apparaissent comme des structures médiatrices entre le symbolique et le perceptif. Elles constituent un format intermédiaire entre la diversité infinie des formes perçues, et leur possible catégorisation à l'intérieur de répertoires à la fois discrets et adaptatifs. Les langues naturelles nous en démontrent la possibilité, et nous en offrent des modalités précises. Il convient alors de déterminer plus précisément ce format de structure, dans un cadre topologique censé représenter le type d'abstraction spatiale requise. De ce point de vue, les grammaires cognitives conduisent aux identifications structurales suivantes (Langacker, repris par Petitot) :

Naturellement, on se tient là très en deçà d'une sémantique linguistique : plutôt au niveau d'une protolinguistique, ou mieux d'une protosymbolique ou topologie cognitive très générale [12] . Il s'agit avant tout de déterminer, comme structures et processus, les schèmes sous-jacents aux identifications ci-dessus.

C'est cette approche, centrée sur l'ancrage ‘perceptif’ de la constituance syntaxico-sémantique, que nous avons privilégiée à l’époque. Pour nous, le problème central n'était pas tant de discuter la pertinence descriptive de ces approches cognitives du point de vue linguistique (d’ailleurs, le format logico-syntaxique tenait lieu ici de repoussoir) que celui de fournir une modélisation mathématique rigoureuse, ainsi qu'une implémentation connexionniste effective de cette schématicité iconique. C’est dans cette direction, bien plus centrale à nos yeux, que nous proposions de rediriger les recherches sur les formats les plus génériques de la constituance, sans tellement questionner plus avant, ni les fondements phénoménologiques de ce concept, ni sa préséance explicative. Dans sa formulation minimale diplomatiquement travaillée entre nous, le but était simplement de mieux comprendre les liens unissant la sémantique des langues naturelles (considérées sous l’angle l’exclusif de nos anticipations catégorielles schématiques), aux catégorisations perceptives, non seulement d'objets, mais aussi de relations, de processus, d'événements.

Comment procéder, alors, dans le contexte de la modélisation ? On choisit par exemple une situation limitée, mais déjà caractéristique : on suppose avoir affaire à une scène perceptive simple, préalablement réduite à la donnée d'une distribution d'objets, eux-mêmes assimilés à des domaines réguliers en mouvement (blobs). On se propose alors de modéliser le processus qui conduit de ces données perceptives simplifiées à des catégorisations de relations, de processus et d'événements compatibles avec une prise en charge lexicale simple. La langue n'est donc là qu'à titre d'indice : on cherche en fait les corrélats morphodynamiques des catégorisations qu'elle opère à l'intérieur d'un continuum perceptif très simplifié.

L'idée générale, dont J. Petitot, à la suite de R. Thom, était porteur depuis longtemps, est que de telle configurations de positions dans un espace substrat peuvent être traitées comme des formes, des Gestalten, pouvant évoluer et se transformer temporellement. Les accidents morphologiques pouvant intervenir au cours de telles déformations schématisent alors des événements d'interaction actantielle. Pour rendre cette idée effective, cependant, on ne peut se contenter des contours déjà présents dans les données scéniques brutes. Pour engendrer la structure de scène proprement dite, on doit également construire une batterie de contours virtuels (que Talmy appelle fictive), et plus généralement des lieux singuliers dont les types topologiques, d'une structure plus simple que celle de la scène à construire, restent caractéristiques de son état global instantané. Ces techniques font appel, notamment, à des algorithmes de propagation et diffusion d'activité déjà attestés en vision computationnelle. On recherche donc en permanence une compatibilité entre le schématisme ainsi modélisé et les structures organisatrices d'une perception visuelle effective.

Pour ‘scanner’ effectivement de telles constructions de facture perceptive, l'idée directrice de J. Petitot était alors de généraliser des algorithmes d'analyse de formes bien attestés en vision computationnelle, et de montrer, en s'appuyant sur des théorèmes mathématiques récents, qu'on pouvait les utiliser comme des analyseurs de constituance perceptive. Ces algorithmes permettaient en effet d'analyser morphologiquement les images à des échelles variables, et de construire les contours virtuels nécessaires à une segmentation en constituants.

On peut alors caractériser par des conditions nécessaires et suffisantes localement accessibles (le contrôle de la localité étant une contrainte essentielle pour l'implémentation connexionniste) les configurations globales servant de base au schématisme actantiel que nous avons évoqué plus haut. L'idée directrice est que les diffusions-propagations de contours opérant sur de telles configurations développent des singularités (points critiques, cut-locus, ondes de choc) et que celles-ci, comme le démontrent de profondes théories mathématiques comme la théorie de Morse, sont bien caractéristiques des configurations globales. Or les singularités sont des objets localement accessibles.

Une fois ces algorithmes convenablement implémentés, on peut revenir au problème de la construction des images-schèmes théorisées par les grammaires cognitives. D'autres réseaux, connectés aux précédents, peuvent les catégoriser et les relier à diverses acceptions de lexèmes à contenu spatial : des verbes comme entrer, sortir, tomber, traverser..., ou bien à des prépositions comme sur, contre, à travers, dans, au-dessus....

Les modèles connexionnistes aident ainsi à la construction d'une effectivité pour le schématisme abstrait de la morphodynamique : on définit dans ce cadre des règles d'assignation et de localisation matérielles précises pour les entités modélisées (les contours virtuels), et les transformations formelles considérées (affectant ces contours) sont toutes induites par des processus.

Le continu et l'espace intervenant dans ces modélisations sont clairement exigés par la problématique de l'ancrage dans la perception, qui signifie en l’occurrence que l'on ne met pas nécessairement en question la validité plus ‘tardive’ d'une catégorialité grammaticale et conceptuelle discrète, mais que l'on estime qu'elle ne peut provenir et se maintenir que dans la co-articulation constante au monde perçu à travers une schématisation topologique des interactions spatio-temporelles.

Relisant aujourd’hui les textes qui ont accompagné ce programme de recherche, je ne peux m’empêcher de penser que tout cela avait belle allure, et promettait de nous emmener loin. A condition toutefois que chemin faisant, ensemble, il devienne possible d’expliciter certaines divergences, de repasser s’il le fallait par plus de philosophie, par plus de théorie, avant que de revenir à une meilleure science, à de meilleurs modèles. Or cela n’a pas eu lieu – du moins pas ensemble –, et je voudrais maintenant en évoquer rapidement les raisons scientifiques.

Une premier groupe de raisons concerne les fondements cognitifs et phénéménologiques de la conception de la perception qui joue en arrière-plan de cette problématique. Pouvait-on se cantonner aux structures majeures de la morphodynamique (i.e. à des configurations dynamiques de singularités mises en saillance sur un fond spatial déjà donné), pour comprendre, non seulement le champ perceptif et l’acte de percevoir, mais surtout cette supposée couche médiatrice, en laquelle toutes les modalités cognitives trouveraient leur compatibilité – c’est à dire en fait, pour comprendre le système fondamental des couplages intermodaux constituant nos anticipations ‘catégorielles’ ? Je ne le pensais pas : actions et valeurs, projets et protentions, étaient absents de cette conception des invariants fondamentaux. L’espace lui-même semblait déjà constitué, au moins comme site récepteur. Quelques lectures phénoménologiques (Merleau-Ponty, surtout) m’incitaient à penser différemment. Des tendances modélisatrices récemment apparues (perception active, Vie artificielle, robotique située) m’y incitaient également.

Voici comment en 1994 je tentais de situer mon désaccord, en questionnant, du côté de la perception, non seulement la viabilité, ou même la simple physicalité revendiquées par cette approche, mais aussi son représentationnalisme (cf. Recueil, section II, article de 1994) :

Il me semblait donc qu’il fallait questionner les fondements phénoménologiques et psychologiques de cette stratégie, sans pour autant mettre en cause son propos naturalisant : au contraire, peut-être, en cherchant ici à surenchérir par une modélisation à la fois plus significative et plus efficace ; ou tout au moins, en acceptant d’en passer, dans un premier temps, par une critique constructive des meilleurs modèles existants. C’est ainsi qu’avec le soutien – académique, mais non plus conceptuel, de J. Petitot – j’ai transmis cette tâche à P. Prez, doctorant en thèse avec moi de 1993 à 1997 [13]. Son travail, remarquable, courageux, bien documenté, a peu ou prou abordé ces différents volets. Je regrette vivement de n’avoir pu lui trouver ensuite les soutiens nécessaires à une poursuite de ses recherches.

Ensemble, nous avons pu, dans les phases initiale et finale de sa thèse, affiner les questions qui nous semblaient importantes de ce point de vue, et qui, il me sera permis de le rappeler, n’étaient pas prises en charge en 1993 comme elles le sont maintenant (à la suite notamment des travaux de Berthoz, Stewart, Lenay, plus récemment Noe & O’Regan).

Quelle était, par exemple, la place exacte que les modèles faisaient à la motricité au sein de l’activité perceptive ? Cette motricité était-elle constituante des formes perçues, ou bien n’agissait-elle que pour mieux diriger une perception déjà constituée ? Quelle était le rôle de l’intention préalable d’agir, ou mieux, des motifs de l’action et de l’attitude du sujet ? Réciproquement, comment ces fins trouvaient-elles à se déterminer dans le cours d’action ? Comment pouvait-on comprendre la motricité autrement que comme un déplacement dans un espace (prétendument) déjà constitué ? Comment pouvait-on qualifier les différentes composantes de l’action, en inhérence et en résonance avec les structures morphodynamiques du champ perceptif ? Comment les structures morphodynamiques du champ pouvaient-elles être conditionnées par l’action ou les valeurs en cours ? Pouvait-on appliquer à la lettre le principe suivant lequel voir, (je relis mes notes de mai 1997 en marge de la thèse de P. Prez), ce serait en réalité « voir son propre potentiel d’action/perception dans l’horizon d’un projet possible » ? Nous avions ainsi, à défaut de mieux, convergé ensemble sur la formule suivante (p. 4 de sa thèse) : la vision est « l’action qui s’efforce de s’approprier un ‘environnement’ en le (re)produisant comme champ de formes, et qui n’y parvient qu’en incorporant ces formes dans une temporalité propre. Le contenu de ces formes est constitué de régimes sensori-moteurs toujours esquissés à l’intérieur d’un cours d’action régulé par des besoins, une motivation, un projet » – projet qui, ajouterons-nous, est déjà action, lancée vers un but qui le sera encore.

P. Prez se demandait, dans son Introduction, si une « théorie de la forme » était suffisante pour « rendre compte de la forme perçue ». Pour répondre à cette question, et comprendre ce qu’il conviendrait d’appeler « théorie de la forme », il fallait remonter aux sources, relire les auteurs de la Gestalt (surtout berlinoise), relire également leurs compagnons de route et leurs frères ennemis, retrouver ainsi le fil de ce questionnement, qui en réalité n’a jamais cessé. Ce sera un peu plus tard, et c’est d’ailleurs encore, l’un des objets de mon travail avec V. Rosenthal. Un long article, puis un livre, en sont sortis (cf. infra, Section 4).

Mais le deuxième groupe de raisons qui me poussaient à m’éloigner du programme de la morphodynamique, devenu indiscutable de l’intérieur, me venait directement de la linguistique. Je connaissais déjà les critiques que F. Rastier opposait au schématisme des sémantiques cognitives : selon lui fausse conception, trop spatialiste, trop parcimonieuse, trop mentaliste, de l’unité, décidément douteuse, du mot ou du morphème (1993). De surcroît, j’allais bientôt prendre connaissance des travaux de P. Cadiot, notamment de ceux sur les prépositions — déjà pierres de touche dans ce type de débat. Ces raisons, avec d’autres venues de la phénoménologie, et de mon travail avec V. Rosenthal, m’ont progressivement mené à une critique plus circonstanciée des schématismes en sémantique, puis à une collaboration avec P. Cadiot, qui a débouché sur un livre et sur une problématique proprement linguistique des formes sémantiques (cf. infra, Section 5).

Entre-temps, je trouvai si l’on peut dire à me faire les dents – et même une dent – du côté de la linguistique (théories et modèles), à la faveur d’une collaboration de plusieurs années avec B. Victorri.

3.2. Polysémie et compositionnalité gestaltiste

Là encore, il s’est agi initialement, pour moi, de trouver des alternatives théoriques aussi bien que techniques au paradigme logico-computationnel, qui affectait les sciences du langage presque autant que les sciences cognitives – cela du moins dans le contexte où je les ai abordées.

Le premier travail de B. Victorri sur la polysémie (1988) s’inscrivait tout à fait dans cette perspective. Son modèle s’inspirait lui aussi des idées de R. Thom, et indiquait une voie permettant de les développer et raffiner considérablement sur le plan linguistique. L’hypothèse d’un continu du sens, mathématiquement représentable, permettait d’attacher à toute unité linguistique un continuum polysémique d’effets de sens, relevant bel et bien de son étude linguistique, et non d’un univers conceptuel dégagé des langues, ou d’un ‘tardif’ composant pragmatique. Les valeurs d’une unité en co-texte étaient alors représentées par des régions prélevées sur ce continuum, déterminées par le système différentiel des stabilisations possibles d’un système dynamique, lui-même paramétré par les indices co-textuels pertinents. Les modèles connexionnistes, avec leurs algorithmes d’apprentissage, permettaient, pour la première fois dans un tel cadre, de traiter des corpus assez vastes, et des analyses plus précises qu’auparavant. Topologie et dynamique étaient à comprendre en termes purement sémantiques, et non physiques. Le schéma d’ensemble était si l’on veut perceptif : mais il s’agissait ici d’une ‘perception sémantique’ (selon une expression employée par F. Rastier dans un autre contexte), et non d’un mécanisme directement couplé à une perception sensible.

La technique informatique de modélisation repose sur la représentation des champs de vecteurs (vus comme systèmes dynamiques) sous la forme de réseaux connexionnistes récurrents. Leur dynamique peut justement être paramétrée par les indices co-textuels, convenablement codés. Tout énoncé donné en entrée au système est donc codé sous la forme d'un tel vecteur d'indices ; il s'en déduit automatiquement une dynamique sur le réseau récurrent, dont la forme, résumée dans la collection de ses attracteurs, représente le cas de figure interprétatif étudié. Bien entendu, on fait appel pour la construction de ce système à un algorithme d'apprentissage, et à une analyse préalable d'une partie du corpus qui met en œuvre des traits analogues à ceux de l’analyse componentielle classique [14] .

Tout comme dans le cas des grammaires harmoniques de Smolensky, Legendre et Miyata (cf . 3.1), on tente par là de construire mathématiquement certains concepts de la linguistique, avant que de les modéliser informatiquement, à travers l’instrument connexionniste. La ‘forme du sens’ est donc celle d'une dynamique [ 15], ou plus exactement celle d'un champ de vecteurs paramétré par des indices co-textuels. Le nombre et l'agencement de ses bassins d'attracteurs caractérisent cette forme pour l'essentiel. La variété des paysages dynamiques permet de représenter avec précision toute une variété de cas de figure interprétatifs, depuis la co-évocation de valeurs distinctes jusqu'à l'ambiguïté-alternative. La structure topologique et les dimensions principales de l'espace des sens (correspondant aux traits de l'analyse componentielle classique) doivent être en relation méthodique avec les jugements de proximité, repérage et recoupement que les locuteurs peuvent exprimer à propos du sens de l’unité étudiée à travers une série d’énoncés rassemblés dans un corpus. Les espaces engagés sont donc des espaces construits ; ils sont le produit d'une méthodologie particulière de description linguistique, et n'ont donc pas le statut d'un espace de l'intuition ou de l'imagination directement appréhendables. Bien loin de figurer des bases proto-linguistiques ('anté-prédicatives’) de la prédication linguistique elle-même, comme ils sont censés le faire dans les modèles de la section précédente, ces espaces résultent au contraire de l'activité sémiotique des théoriciens-locuteurs, qui les utilisent pour synthétiser dans une topologie la variété de leurs jugements (d'acceptabilité, de proximité, repérage, recoupement, etc.).

Toutefois, en 1993 encore, seul un modèle partiel avait été conçu. Il se focalisait sur le sens d'une seule unité polysémique, dans ses interactions avec le reste d'un énoncé. Par une sorte de refus de la circularité, non pertinent ici comme on va le voir immédiatement, on tâchait même d’en exprimer les paramètres co-textuels dans les termes les moins ‘sémantiques’ possibles (par exemple sous forme de catégories morphosyntaxiques), en s’en remettant à d’autres mécanismes pour les déterminer, car le modèle théorique n’en disait rien. Comment pouvait-on contribuer à faire émerger ces indices, tout en restant dans le même cadre ? Pouvait-on se passer même de les expliciter ?

Un modèle global du sens de l'énoncé restait donc à construire. Or passer à un tel modèle global impliquait de théoriser plus précisément la forme de compositionnalité du sens qui convenait à l'approche ‘gestaltiste’ recherchée [ 16]. Théorie et construction mathématique allant ici de pair, cela pouvait se faire sans doute par une certaine restructuration du modèle local, suivie d’un couplage adéquat de ces systèmes dynamiques locaux. On pouvait utiliser encore des modèles connexionnistes récurrents, mais en reprenant cette fois les types d’architecture, et les algorithmes d’apprentissage à présent assez performants, qui avaient servi récemment à Jordan, Elman (1990), ou Hinton [17].

Le principe restait donc partiellement compositionnel, puisque la dynamique globale se construisait à partir du couplage des potentiels sémantiques attachés aux lexèmes, et (à terme, espérions-nous) de ceux associés aux constructions grammaticales. Comme nous l’avons répété ad nauseam, chaque unité linguistique contribue à construire le sens global de l'énoncé (c'est à dire la structure globale d'un champ de vecteurs) ; et en même temps le sens de cette unité se voit déterminé par l'énoncé qui la contient (c'est à dire qu'elle se voit attribuer, par une sorte d'effet de relocalisation de la structure globale du champ, une part spécifique du paysage dynamique ainsi construit). Plus précisément, ledit ‘sens global’ se compose des sens locaux stabilisés, ainsi que de la composante globale proprement dite, conçue à partir d’aspects du sens non redistribués, car plus légitimement imputables au syntagme entier (nous revenons sur ce point un peu plus bas).

La compositionnalité en question semble bien être de facture gestaltiste, puisque la détermination réciproque des composants engagés, quel que soit le niveau d’intégration concerné, se fait dès le début, et continûment dans le cours de la stabilisation : on ne ‘calcule’ pas le sens des composants (ici, des mots) avant celui du syntagme les rassemblant, comme dans une compositionnalité ‘classique’.

Nous ne reviendrons pas ici sur les détails techniques du modèle, ni sur ses motivations gestaltistes : B. Victorri les a fort bien exposées dans son ouvrage déjà cité. Je ne reviendrai pas non plus sur la tentative qui a suivi de modéliser, en compagnie de P. Cadiot et de la doctorante S. Delamarche, quelques aspects de la sémantique des prépositions, en entamant une expérimentation sur les valeurs de à et de dans des syntagmes nominaux du type N1 de/à N2 (boîte à cigare, canne à sucre, canne à pêche, boîte de thon, boîte de verre, coup de filet, coup de peinture…).

Je voudrais revenir plutôt aux conceptions théoriques que je tentais de me forger parallèlement, à travers la lecture de tout ce que Merleau-Ponty avait pu écrire sur le langage, et tout particulièrement à travers son commentaire de l’œuvre de Saussure, tout particulièrement dans La prose du monde, et les Cours à la Sorbonne [18]. Les brèves considérations qui suivent ne prétendent d’ailleurs à aucune exactitude dans la restitution de ces auteurs. J’entends juste reconstituer l’état de ma recherche d’alors.

3.3. Intermède : à partir de Merleau-Ponty et Saussure

Une lecture réductrice, non des œuvres et manuscrits de Saussure lui-même, mais de son Cours de Linguistique générale (CLG), pourrait mener à la conclusion que l'étude de la langue doit être l'étude des formes de corrélation son/sens :

• attestées dans un certain type,
• considérées du point de vue des grands invariants socialement constitués, et non des particularités cognitives, relativement contingentes, des sujets parlants,
• que l'individu ne peut que recevoir passivement comme un système de possibilités d'expression institué avant sa propre prise de parole.

Cette « convention » ou « institution » préalable de la langue, l'individu doit l'apprendre, il n'a à lui seul ni le pouvoir de la « créer », ni celui de la « modifier ». Pourtant, il s'agit d'une convention indéfiniment et intrinsèquement ajustable, qui doit être décrite comme telle par essence. Inquiet d'écarter de l'objet ‘langue’ tout ce qui relève de la liberté du sujet parlant, et non du système d'habitudes linguistiques qui le contraint préalablement, Saussure – en réalité le CLG  – construit un concept de langue qui la situe toute entière du côté de la passivité ou de la réceptivité des locuteurs, à la façon d'une structure de la mémoire collective conditionnant le recouvrement mutuel des sédiments linguistiques individuellement mémorisés. Il y a là quelque chose d’incompréhensible : car ce faisant, on semble assimiler la réception linguistique, qui conditionne cette mémorisation de la langue, à une sorte d’engrammation passive, et l’on paraît méconnaître le caractère toujours actif de l'interprétation – soit une certaine équivalence de l'entendre et du parler (tous deux à la fois passifs et productifs, individuels et collectifs, produits d’un faire ensemble, et non d’une succession d’émissions et de réceptions détentrices chacune de leurs sens). La séparation entre langue et parole semble alors irrémédiable : la langue n’est-elle pas ‘collective’ et ‘mémorisée’, tandis que la parole serait ‘librement produite’ (ce qui est oublier les normes qui l’encadrent), et ‘individuelle’ (ce qui est faire bon marché de sa structure de destination au moins triadique, et méconnaître la nature conflictuelle et partagée du sens in situ) ?

La dialectique entre langue et parole, en tant que mise en rapport d'une performance individuelle ou collective avec le potentiel effectif qui lui donne naissance, implique en réalité de rechercher un mode de description du système de la langue qui rende intelligible (et non pas prédictible) sa reconstitution permanente dans l'imprévu de la parole. Si déjà la réception est aussi intrinsèquement active que nous pouvons le penser maintenant, et la production à la fois libre, normée et collective, il faut alors, soit intégrer une part de cette activité et de ces normes (variables) à la constitution de l'objet langue, quitte à accepter pour cet objet un type d’instabilité irrémédiablement conditionnel, soit renoncer à une linguistique du signe biface, c'est à dire s'en tenir à une lecture de la coupure langue/parole qui obligerait à ‘désémantiser’ l’objet premier de la linguistique.

Comment rapprocher alors l'idée de langue, vue comme une construction théorique du linguiste, de l'idée de langue, vue comme un potentiel effectivement inscrit dans la matérialité d'une interaction sociale entre des êtres vivants ? Au motif de rendre l’approche scientifique plus ‘matérielle’ (on dirait à présent plus ‘naturalisante’), il peut être tentant de rattacher abusivement la productivité de la langue à un noyau de sens inscrit de façon solipsiste dans chaque organisme, et conçu comme un noyau productif par soi. Alors qu'en toute rigueur, la ‘langue’ n'est qu'un ensemble d'invariants, observés au sein du comportement total des individus s’adressant les uns aux autres. La question gagne à être rapprochée de celle que nous livre l'histoire, plus ou moins vulgarisée, du structuralisme. Ou bien l'on conçoit la ‘structure’ comme une entité abstraite, close, déclinant éternellement ses figures immanentes, et l’on en fait une idéalité théorique autonome relativement aux alea de ses ‘réalisations’ concrètes. Ou bien on la voit, dans la ligne de la théorie de la Forme, comme une entité à la fois transposable à travers ses multiples manifestations, et toujours incarnée-située-dynamique, donc indétachable des circonstances matérielles et corporelles de son actualisation. Merleau-Ponty se situe de ce deuxième côté, et réinterprète nettement dans ce sens tous les concepts du CLG. La langue est donc pour lui un potentiel de différenciation systématique qui donne effectivement lieu à la parole (sans la déterminer pour autant), et pas seulement une construction théorique du linguiste. C’est, dit-il hardiment, une Gestalt.

L'écart entre langue et parole ne résulte donc pas seulement d'une nécessité épistémologique sagement reconnue par le linguiste, il est en fait l'écart même entre le potentiel et l'actuel, qui permet au sujet parlant de s'exprimer librement et efficacement. Cet écart a un statut ontologique : il renvoie à un caractère systémique vital, qu'il faut comprendre en termes de théorie des systèmes.

Or nous avons acquis les moyens de lever l'obstruction constituée par l'image fermée, fixiste et essentialiste des systèmes, qui a peut-être embarrassé la réflexion de Saussure, et après lui d’une partie des structuralistes. Cette obstruction ne pouvait être levée sans que s'effectue au préalable un rapprochement entre d'une part une théorie de la différenciation et de l'intégration gestaltiste des formes (définissant les unités et leurs rapports) et d'autre part une théorie des systèmes adaptatifs complexes (à la fois stables et dérivant, en partie de leur propre fait).

Qu'est-ce que la langue, dans ces conditions, sinon un système arbitrairement structuré de motivations possibles pour une parole qui la renouvelle en permanence ? Si l'on abandonne la perspective statique sur les systèmes pour passer à une vue en un certain sens dynamique, on admettra que les systèmes n'existent qu'en fonctionnant dans une relation avec un entour. En différenciant et composant des unités de divers formats, ils s'auto-reproduisent et dérivent tout à la fois, sans jamais cesser d'être en relation avec les contingences de cet entour. Dans ces conditions, l'étrangeté mutuelle des faits synchroniques et diachroniques ne peut plus être soutenue au même degré. La diachronie peut alors être vue comme partiellement motivée et organisée à partir des états synchroniques, tandis que la synchronie comporte de son côté la possibilité de glissements perpétuels qui poseraient bien des problèmes à une théorie de la valeur solidaire d'une conception fixiste des systèmes. Le point de vue panchronique (qui a toujours été, nous dit F. Rastier, celui du meilleur structuralisme) peut alors passer au premier plan.

Poussant la réflexion du côté des temporalités en jeu, on est alors conduit à soutenir une conception intrinsèquement génétique des systèmes. Toutefois, cette genèse n’est pas nécessairement à comprendre en termes de causalité, ou d’origine. Il s'agit plutôt d'une recréation continue, saisie sous un point de vue panchronique, et sous un certain régime interprétatif. Déjà le CLG soulignait qu’un état de langue se saisit sur un « espace de temps plus ou moins long « et non sur un « point » du temps. La synchronie s'épaissit d'un temps interne, ici un temps formel, qui permet à un jeu de reconstruction génétique de prendre place. Il ne s'agit pas en effet, dans cette région de la linguistique, de reconstruire les processus effectifs de la parole. Si une genèse toute formelle différencie et compose des unités, c’est d’abord en vue de retrouver, et classer d’une façon rationnelle, les principaux invariants et les principales variations décelables à travers la multiplicité des effets de sens. Le temps des procès représente d’abord le temps d’une prise d’effet, d’une détermination mutuelle progressive, des différents moments ou aspects de ces analyses systémiques. C’est le temps d’une herméneutique rationnelle, qui cherche à matérialiser, en effet, sa propre progression, son mouvement d’auto-confirmation. Les stabilisations en sont des moments privilégiés, correspondant à un équilibre atteint dans la pesée réciproque de tous ces facteurs. Cela n’exclut pas, bien sûr, qu’une part de cette temporalité s’aligne sur celle d’une causalité parallèle. Mais cette causalité signifie essentiellement délégation au temps physique, et localisation dans des dispositifs matériels, d’un flux d’interprétation qui ne fait que passer par là . Pour être déterminée, elle présuppose des conditions de situation, d'interprétation, et une attitude linguistique particulière.

Toute question de causalité mise à part, cette diversité des attitudes conditionnant l’arrière-plan des échanges scientifiques implique qu’il s’agit toujours dans les études effectives, d'une ‘langue’ restreinte par la perspective d'étude adoptée, et en particulier par le corpus retenu. L'unité de la langue, si on la conçoit comme une totalité, se trouve perdue de vue [19]. Les descriptions notionnelles des signifiés, qui semblent parfois enjamber ces langues partielles, ne seraient donc que des réparations imparfaites, voire douteuses, de cette unité perdue.

Revenant alors aux options théoriques qui étaient les nôtres avec B. Victorri, nous dirons tout simplement que le postulat fondamental – je devrais dire plutôt le fait – qui nous guidait était celui de la nature gestaltiste du ‘syntagme’ (phrase, ou période), en tant qu’il est entendu et compris. Autrement dit, la chaîne sémiotique émise dans la parole, si elle est d'assez petit format, est perçue, de façon immédiate et irrépressible, comme formée de ‘lieux’ investis par du sens – usons ici d’une image quelque peu substantialiste [ 20]. Renonçant à comprendre comment ces lieux sont différenciés au sein d’un champ global, nous en faisions d’emblée des unités bien identifiées (des mots, dans un premier temps), dissociables et insérables à l'intérieur d'autres chaînes. Et l'effet observé d'une telle insertion se décrit au mieux en des termes que je croyais à l’époque suffisamment gestaltistes : influence de la partie insérée sur le tout, et influence en retour du tout sur la partie.

A partir de là, les unités de la langue doivent être définies en fonction d’une interprétation ‘gestaltiste’ de leur variation – du moins si l'on entend conserver un minimum de lien entre linguistique et phénoménologie du sens. Le signifié d'une unité n'est pas seulement la base de l'effet de sens investissant l'unité elle-même dans un syntagme ; il conditionne aussi des effets ressentis à distance, sur d'autres unités. La valeur (au sens saussurien) de l’unité est donc identifiable à un ‘potentiel’ de contribution de cette unité aux effets de sens investissant les syntagmes entiers (par exemple : le schéma casuel d'un verbe, les contraintes d'accord, etc.). Ce débordement du signifié relativement à la localité de son signifiant n'est pas explicite dans les schémas du CLG. Mais cela est bien normal, puisqu'il était plus que réticent à prendre en charge une syntagmatique productive, et manquait des acquis du courant gestaltiste dont nous disposons maintenant.

La caractérisation de la valeur comme potentiel d'effets de sens [21] avait en outre l'avantage de contourner le sempiternel débat sur la constitution monosémique ou polysémique des unités. Le potentiel est en effet unique (monosémie en ce sens), mais recèle une diversité essentielle d'effets possibles (polysémie à travers les variations syntagmatiques). De plus, la perception gestaltiste des effets de sens syntagmatiques ouvre la possibilité de décrire à leur tour les paradigmes comme des Gestalt ‘déformables’ et se recouvrant partiellement. On échappait ainsi à l’image discrète des champs sémantiques. Tout texte était susceptible de réaménager le lexique en déformant instantanément, si l'on peut dire, ces champs paradigmatiques. Une même unité linguistique pouvait co-évoquer plusieurs de ces champs, dans des états de différenciation variables.

Il s'agissait en somme, de mon point de vue, de construire en la modélisant une linguistique saussurienne étendue à la phrase ou à la période courte. Cette unité de la période courte, mal définie peut-être, constitue, en raison de ses qualités phénoménologiques particulières, un cadre adéquat pour une telle linguistique, et ses méthodes de commutation ou de variation par paraphrase. Elle se situe au niveau d'intégration le plus vaste où l'on puisse conserver le préjugé d'une certaine localisation des effets de sens dans la chaîne parlée, préjugé qui n’est pas sans fondements phénoménologiques, en réalité indispensables à la construction de l'objet langue et de ses unités, les signes. Ce niveau doit être le plus vaste possible, en raison des phénomènes gestaltistes liés à l'opération de commutation elle-même.

Si l'on voulait aller au-delà, il faudrait introduire des entités sémantiques (comme les acteurs et fonctions narratives, ou les molécules sémiques et leurs fonds textuels introduits par F. Rastier) dont la localisation se fait distribuée, parfois diffuse, et exige d'aller à l'unité supérieure du texte. Même si on conservait ce faisant la notion de valeur (en l'asservissant à rendre compte de plusieurs systématicités enchevêtrées, dont celle des genres de textes), il faudrait alors renoncer à une autre base de la sémiotique saussurienne, à savoir le signe en tant qu'observable. La sémantique se construit alors explicitement dans le cadre d’opérations de réécriture, qui autorisent des constructions de plus large portée, et dont les modèles restent à construire.

Notre objet, cependant, était de nature plus locale. En compensation, grâce aux algorithmes d’apprentissage, nous pouvions faire usage de points de vue statistiques et adaptatifs sur la systématicité de la langue, qui pourraient rejoindre ceux développés de plus longue date par la statistique textuelle. Ces points de vue, à présent bien établis dans toutes sortes de cadres, reflètent, même imparfaitement, la dépendance du construit théorique ‘langue’ vis-à-vis des biais herméneutiques et matériels décidés par le linguiste, biais qui ne sont eux-mêmes qu'une variante singulière de tous ceux qu'introduisent les situations effectives de parole ou d'écoute. L'inférence statistique, si rudimentaire soit-elle, renvoie ainsi à la pression permanente de la parole sur le mécanisme qui est en partie responsable de sa production. On contribue de cette façon (parmi d’autres) à construire une linguistique lucide quant à la formalité des typologies et des généralisations qu'elle établit, une linguistique toujours soucieuse du primat des occurrences dans la découverte des régularités.

Quant à ressaisir la ‘productivité du langage’, on se souviendra que rien n'autorise à croire que son effectivité se réduise à des considérations purement linguistiques. La productivité du langage concerne la parole, comme forme inscrite dans le comportement total des locuteurs. Une linguistique de la langue et du lexique, qui cherche à se doter d’une syntagmatique, ne peut donc viser qu'une productivité des ‘acceptabilités’, soit une productivité liée à certaines conditions, toujours révocables, de l'interprétation linguistique, et notamment à des restrictions implicites, le plus souvent inconscientes, sur les normes de thématisation sans lesquelles l’interprétation ne saurait prendre consistance. Il s'agit aussi, et de toute façon, d'une capacité très limitée de reconstruction ou génération de formes interprétées, qu'on ne saurait prendre pour étalon des performances effectives. Quant à l'auto-reproduction du ‘noyau’ linguistique à travers le corpus syntagmatique qui le déploie, elle n’est que figurée par la convergence du mécanisme d'inférence statistique qui en simule les régularités : on se donne ainsi un corpus d'apprentissage, dont la présentation répétée sert à régler progressivement les paramètres du système, et on rappelle du même coup que toute stabilité systémique procède d'une dérive adaptative. Sur le plan informatique, la systématicité relativement aux variations autorisées, tout comme l'auto-reproduction du système inféré, dépendent en fait du confinement astucieux des modèles à l'intérieur de sous-espaces fonctionnels qui limitent l'arbitraire de la reconstruction.

A ma connaissance, la modélisation n’a correctement relevé que les deux premiers défis mentionnés ci-dessus. Et sur le plan informatique, les essais n’ont pas été suffisamment poussés pour conforter tout à fait l’architecture et les protocoles d’apprentissage que nous proposions.

Mais ce n’est plus le modèle lui-même que je souhaite commenter à présent, c’est plutôt la perspective théorique dans laquelle il s’inscrit (sans en être toutefois entièrement tributaire : il pourrait lui survivre en partie).

Pour une problématique véritablement gestaltiste, tout doit en principe commencer par une théorie du champ. Aucune unité ne doit être ‘primitive’, au sens de non-construite à partir de ce champ. Les points, les éléments, les constituants, n’ont pas l’individualité que la reconstruction physico-mathématique semble leur conférer, puisqu’ils ne tiennent leur existence, et leur fonction, que du champ pris dans son entier [22].  

Dans le cas où une telle théorie du champ [23] s’avère impossible, la procédure explicative est par force différente. On recherche des Gestalts ou des formes ‘fortes’, c’est-à-dire des schèmes d’unités transposables à travers un grand nombre de contextes, où se manifeste leur potentiel de variation ; ces schèmes locaux seront susceptibles de se coupler entre eux, ainsi qu’à d’autres schèmes codant des caractéristiques non régionales du champ, pour construire des dynamiques globales sur le produit de tous les espaces impliqués. On applique ainsi un principe de détermination réciproque entre unités, dans la mesure où les schémas donnés au départ se spécifient progressivement par couplage, en même temps que se construit l’ensemble où ils s’articulent. Ce processus réalise donc ce que nous avons appelé plus haut une forme de compositionnalité gestaltiste, qui peut valoir comme une première approximation intéressante : en linguistique, par exemple, à défaut de disposer d’une théorie générale du champ, on modélisera mots et schémas de construction comme nous venons de le dire, pour reconstruire par couplage la structure sémantique des phrases.

Toutefois, cette simplification, fort utile au demeurant, oblige à des compromis, et peut précipiter des oublis dommageables. On devra pré-assigner dans une large mesure les dimensions caractéristiques de déformation des schèmes. On sera poussé à considérer chaque schème isolément avant d’opérer sa connexion aux autres. Enfin, en oubliant que toute cette interaction dépend crucialement d’un champ global qu’on ne prend que très mal en considération, on sera tenté de considérer comme immanents aux schèmes, c’est-à-dire donnés d’avance dans leur potentiel de déformation, des phénomènes qu’une prise en compte globale du champ aurait fait concevoir autrement : comme résultant par exemple de dislocations, ou d’absorptions dans d’autres formations du champ, ou bien comme résultant de superpositions de dynamiques caractéristiques de champs sémantiques entiers, et non propre à telle ou telle unité isolée, qui n’en est qu’un effet, ou un indice de déclenchement parmi d’autres. En reportant tout le poids de l’identité des formes sur un schème dynamique unique et caractéristique, on commet, nous semble-t-il, deux fautes : on réduit d’abord la théorie des formes à une théorie de la constitution d’unités entièrement déterminées par stabilisation, c’est-à-dire qu’on ne reconnaît finalement qu’un seul mode d’unification et de saisie possible ; on réduit ensuite la question de l’identité en l’assignant à des types schématiques pré-donnés (représentés dans les modèles par un certain système dynamique paramétrable).

Comment résister alors à la tentation d’attribuer aux mots, ainsi individués dès le départ, la responsabilité du sens dont ils sont pourtant des effets, aussi bien que des causes ? On voit ainsi que l’adoption, même provisoire, d’une problématique gestaltiste par trop simplifiée porte en germe le risque d’en rester à une problématique sémantique de type uniquement lexico-grammatical, qui reconduirait simplement la conception « dictionnairique » du sens sous les habits neufs des systèmes dynamiques. Considérons par exemple le « phénomène de la polysémie » : une diversité de sens apparentés, localisés sous la forme d’un signifiant ‘invariant’, ou ‘reconnu’ comme tel. La tentation est grande alors de le rapporter à un type schématique associé au mot, dont la variation interne, anticipée comme une déformabilité intrinsèque, serait commandée par la variation externe des environnements co-textuels, conçus de la même manière. Comment comprendre alors ce qui n’est pas, ou peu anticipé de cette façon ? Comment comprendre, par exemple, tel emploi dont la différence spécifique semble mal se mesurer à partir de variations constructionnelles (dont le jeu est peut-être défectif à cet endroit), ou à partir d’un répertoire d’alternances lexicales (trop rares, ou peu singularisantes, ou non fixées dans une classe bien répertoriée), mais se lit plutôt au niveau de structures ou de transformations thématiques plus globales, voire en fonction d’un intertexte ? Inévitablement, on en repoussera la prise en compte à des phases plus tardives de la construction du champ, laissant intactes les phases les plus précoces, qui apparaîtront comme le moment le plus ‘intérieur’ de l’activité de langage. Ce sera le cas pour certains sens ‘figurés’, pour les tropes en général, en fait pour tout emploi un peu innovant : il y a ‘calcul’, disent certains, après production d’un premier sémantisme, de facture plus intra-systémique, qui lui sert de valeur d’appui. Une fois établi ce type d’indirection entre le noyau linguistique et lexical, d’une part, et un très vaste répertoire d’emplois, d’autre part, on tend à séparer nettement (car la ‘cohérence’ est alors à ce prix !) un jeu linguistique immanent, objet de la sémantique, d’un jeu pragmatico-référentiel, qui s’analyse ailleurs. La thématique n’est pas considérée comme de part en part sémantique et linguistique [24], mais rejetée dans une extériorité, qui ne serait conditionnée par l’activité de langage que jusqu’à un certain point précis qu’on s’évertue à caractériser. L’accès au point de vue panchronique recherché devient très difficile, puisque le jeu systémique des langues et de leurs lexiques se décrit d’une tout autre façon que celui de la thématisation. Et la tentation du métalangage fait retour, au sein de cet arrière-monde linguistique, dont la ‘chair’ n’est plus liée à celle du monde tout court : d’où la nécessité d’équipements divers, substituts internes de tout ce qui peut définir une visée (je pense ici aux divers concepts de scène, de référence virtuelle, etc.) [25]. Que peut-on faire alors en cet arrière-monde ? De la grammaire, d’une part ; des modèles de facture lexicologique, d’autre part : ce qui est utile, très ingénieux parfois, mais ne répond pas, ou pas assez bien, au projet initial.

Il faut souligner qu’aucune de ces options à mon avis négatives n’est véritablement imposée par la famille de modèles que nous avons évoquée ci-dessus – si ce n’est (faute irrémédiable ?) par leur séparation initiale en unités, qui sont pré-dessinées à même l’architecture, et non différenciées, segmentées dans la masse, par le jeu dynamique.

En même temps ces modèles, très génériques, ne peuvent par leur seule technicité rediriger, ni même maintenir, le cap d’une problématique. Ils sont faits d’épistémologie et de théorie, tout autant que d’expérimentations informatiques et d’un zeste de mathématique. En conséquence, plutôt que de continuer à modéliser des théories insuffisantes, commençons donc, ou recommençons, à lire les classiques, pour mieux décrire, mieux théoriser – et peut-être innover.

C’est ce que j’ai eu la chance de pouvoir faire ces dernières années, en compagnie de, et grâce à, P. Cadiot et V. Rosenthal – sans jamais perdre le contact, en même temps, avec le travail de F. Rastier, qui n’a pas cessé de provoquer, soutenir, éclairer le mien, depuis 1985.

Les deux sections suivantes relatent ces recherches :

4. Gestalt et microgenèse

5. Formes sémantiques


NOTES

[*] Version corrigée après soutenance le 18 décembre 2002 à Paris X-Nanterre devant un jury composé de : F. Rastier (parrain), D. Andler, P. Cadiot (rapporteur), B. Laks, J. Petitot (rapporteur), J.M. Salanskis (président du jury).

[1] On trouvait ailleurs, dans les marges, quelques espaces de liberté : comme ce séminaire sur les Versions de la pensée, qu’avec J.M. Salanskis nous organisâmes une année au Collège de Philosophie. D. Andler, J.B. Berthelin, D. Memmi, F. Rastier, J. Stewart, entre autres, vinrent y parler. L’Association pour la recherche Cognitive (à présent ARCo), sa revue Intellectica, ses journées scientifiques et ses écoles d’été, nous ont également permis de mieux respirer.

[2] McClelland & Rumelhart, eds., 1986. Pour un panorama plus proche des neurosciences fonctionnelles, cf. Anderson & Rosenfeld (1988), Anderson, Pellionisz & Rosenfeld (1990).

[3] Là encore, ce fut sous l’impulsion de D. Andler que se mit en place un projet de recherche commun crea-limsi sur cette question. Un de mes articles (1990) en provient directement.

[4] Les conséquences très strictes du postulat logico-syntaxique sont bien connues : dans un tel univers, les structures relèvent chacune d’un type formel bien défini ; elles se construisent à partir d’un répertoire discret d’atomes primitifs et de relations ; elles s’articulent de façon univoque en constituants ; et elles fournissent ainsi la base d’inférences logiques, ou fondent des calculs rigoureusement compositionnels en sémantique.

[5] Il n'entre évidemment pas dans mes intentions de censurer par là les approches concurrentes qui feraient appel à une intuition discrète des mêmes phénomènes. Le dialogue reste ouvert, et nécessaire. On pourra en particulier se reporter dans cette perspective aux belles études critiques de J.M. Salanskis (1992, 1993), ainsi qu'à un numéro spécial de la revue Intellectica édité sous sa direction (Philosophies et sciences cognitives, 1993). On pourra également chercher à transposer aux sciences cognitives les réflexions du mathématicien J. Harthong (1992).

[6] Il se peut que le fond temporel continu soit discrétisé pour les besoins de la modélisation. De même, les données fournies par les capteurs physiques d'un système peuvent bien être numérisées d'emblée. L'important, cependant, est de ne pas confondre ce micro-discret primitif avec le macro-discret souvent invoqué pour rendre compte des segmentations spatiales ou temporelles à valeur phénoménologique. Bien sûr, l'informatisation de ces deux sortes de discret consiste à établir entre leurs tenant-lieux informatiques un simple rapport fini, combinatoire, de compilation. Nous nous bornerons ici à constater que ce rapport est généralement incompréhensible sans un apport massif de mathématiques continuistes, comme en témoigne toute la littérature sur la reconnaissance des formes.

[7] Je ne dirais plus les choses ainsi : à supposer que la stabilisation (transitoire en réalité, mais ici idéalisée dans la figure attractrice) soit un bon critère, il ne peut y avoir d’autre référentiel intrinsèque que le temps propre de l’être vivant. C’est par rapport à lui que ces concepts dynamiques devraient se situer. Pour un aperçu de ce que nous pensions alors élaborer à partir de ce principe, voir dans le Recueil de textes joint notre note de synthèse (Andler, Petitot, Visetti, 1991).

[8] Cf. [Thom 74]), "Langage et catastrophes : éléments pour une sémantique topologique", section 4.3.

[9] Rappelons que la signification est identifiée par ces auteurs à une ‘conceptualisation’ qui serait par essence multidimensionnelle, et inclurait inévitablement des domaines de représentations extra-linguistiques (images mentales, plus ou moins riches ou schématiques). C'est en fait tout le domaine du sens qui est structuré selon une métaphore du schème visuel omniprésente chez Talmy, Lakoff ou Langacker. On ne sait lequel des trois (sans parler ici de Vandeloise) a été, quand cela lui convenait, le plus loin dans cette identification. Lakoff, par exemple, énonce ainsi sa fameuse hypothèse de la Spatialisation de la Forme (entendons par là de la structure sémantique) :

[10] …aux linguistiques, ou aux psychologies , susceptibles de l’étayer ! Il faut toutefois reconnaître l’originalité du modèle de la structure psychologique de ‘schéma’ (frame ) proposée dans le tome II de PDP. Là encore, le maître d’œuvre est Smolensky. Malheureusement, sa tentative de recomprendre la constituance en jouant à la fois sur des aspects statistiques et dynamiques n’a pas eu de suite.

[11] Ces positions théoriques ont évidemment suscité de très nombreuses critiques, parmi lesquelles nous citerons celles de F. Rastier (1993) :
– cette spatialisation de la grammaire se fait au nom de la spatialisation intégrale du cognitif, de son écrasement dans le schématisme d'une intuition pure ;
– quel est le statut de ces espaces ? espace des sciences physiques ou du sens commun ? espace transcendantal ou espace d'une psychologie ?
– la spécificité sémantique des langues se réduirait alors à la spécificité d'un point de vue sur l'un ou l'autre de ces espaces, supposés déjà construits à l'abri de toute imprégnation par le sens linguistique. Pourquoi nommer ancrage dans la perception ce qui n'est qu'un corrélat perceptif ou imaginaire de l'activité langagière ?

[12] Il vaudrait mieux parler ici d'une protosymbolique : on éviterait ainsi de paraître dissoudre une fois de plus la spécificité linguistique dans la généralité du symbolique (serait-il un symbolique enrichi, qui s'oppose, par son recours à un schématisme spatio-temporel généralisé, à la réduction logico-syntaxique du symbolique). Le préfixe proto- annonce également une thèse phylogénétique sur le langage, immédiatement transformable en une thèse sur l'ontogenèse de toute énonciation. Le schématisme et l'imagination s'écrasent alors dans leurs supposées "bases" perceptives (on parle d'ailleurs d'ancrage dans la perception ). Des considérations critiques s'imposent ici, mais nous les remettons à plus tard.

[13] Prez, P. (1997), « De la vision à l’acte de voir – un parcours technique et épistémologique dans les sciences cognitives », Orsay, Thèse de l’Université Paris 11.

[14] On peut soutenir que le recours initial à ces traits démontre le caractère originaire des intuitions discrètes en la matière. Certes, mais tout dépend de l’idée que l’on s’en fait : un marquage discret n’implique pas nécessairement l’asémantisme du fond continu sur lequel il se détache, ni le caractère discret du procès par lequel il s’interprète, et au sein duquel sa forme s’individue.

[15] En réalité, en prolongeant lui aussi le travail de R. Thom, J. Petitot avait montré bien avant (on en trouvera des exposés plus tardifs dans Petitot, Morphogenèse du sens, ch. 1, et dans Physique du Sens, ch. 7), que la conception de la valeur d’un terme au sein d’un paradigme se laissait modéliser, en accord avec une tradition structuraliste et différentialiste, à partir de ce même genre de dispositif dynamique. On montre ainsi qu’un certain Continu précède l’actualisation de toute valeur, en tant que celle-ci présuppose conflits et coordinations avec tout un ensemble de différences contextuellement variables au sein du paradigme de référence : l’actualisation est donc toujours vue comme celle d’une différence, ou d’un contraste, lu sur un fond d’alternatives réparties sur un continuum ; elle est instaurée sur le continuum par un ‘paysage dynamique’ paramétrable, qui conditionne des parcours sémantiques ; et le paradigme global peut quant à lui connaître plusieurs états qualitatifs, suivant le type de la dynamique qui l’organise. Mais le « problème de la polysémie » n’était pas pris en compte plus avant.

[16] D’où l’expression de compositionnalité gestaltiste, forgée par B. Victorri.

[17] Intuition encore vague, déclenchée par la lecture d’un article de Hinton et Shallice, et immédiatement transmise à B. Victorri dans le train qui nous menait de Paris à Caen. Toute la suite de ce modèle est commune, et je crois strictement paritaire entre nous jusqu’à la parution de son ouvrage sur la polysémie co-signé avec C. Fuchs (1996). Je dois dire que je ne reconnais pas cette parité dans la relation qu’en a donnée Victorri (au ch. 8, qui présente notre modèle) . Je le cite (p 171) : « Ces recherches sont en cours […] Il faut souligner qu’elles sont menées en collaboration avec un certain nombre de chercheurs et étudiants, en particulier Y.M. Visetti, à qui les aspects mathématiques et informatiques de ces travaux doivent beaucoup ». On lit à même la structure de la phrase ma position décalée relativement à « ces recherches » que je croyais nôtres. Il y a entre elles et moi « un certain nombre de chercheurs et étudiants », au milieu desquels je me particularise sans doute, car j’ignore qui sont ces autres chercheurs, et ce que les étudiants évoqués (plusieurs stagiaires de DEA, et une doctorante qui a abandonné à mi-chemin) ont apporté ici sur le plan des conceptions. Il paraît aussi que ma contribution est « mathématique et informatique ». J’avais le sentiment qu’elle ne pouvait l’être que parce qu’elle était théorique dans le même mouvement. Ces marques de reconnaissance, fort bien calculées, sont tout simplement déloyales. Je regrette de n’avoir rien dit lorsque je les ai lues pour la première fois : peut-être notre relation en aurait-elle était clarifiée ; et d’autres indélicatesses, qui ont suivi, auraient pu être évitées.

[18] Je reviens pour l’essentiel aux notes non publiées que j’ai rédigées à l’époque (notes transmises à B. Victorri en janvier 1995, et un peu plus tard à F. Rastier).

[19] Les réflexions du CLG sur l'impossibilité de délimiter exactement l'extension géographique des dialectes vont d'ailleurs dans le même sens. Mais le CLG (non pas Saussure !) n’en tire pas toutes les conséquences souhaitables sur l'accessibilité relative de l'objet de la linguistique, sur l’impossibilité de le totaliser. Le concept de Forme (Gestalt) serait ici d’un grand secours, puisque, tout en créditant la Forme de certains des caractères de la totalité, il la conditionne en réalité par son fond, puis en dissout l’autonomie au sein d’un concept de champ.

[20] Autrement dit, le flot signifiant est perçu et segmenté parce qu’entendu dans la situation herméneutique. A partir de lui se créent et se propagent dans son milieu (entre les sujets, et à même leurs corps) des effets de sens, dont certains semblent tout particulièrement adhérents et localisables le long de ce qui se manifeste alors comme une chaîne signifiante.

[21] Il aurait mieux valu parler d’effets de signe – le signifiant n’étant pas plus donné que le signifié, mais construit avec lui. Cf. infra.

[22] Seule une constitution infinitaire et/ou continuiste du champ peut, dans certains cas, permettre d’affronter cette immense difficulté.

[23] Le principal modèle connu étant ici celui des ‘lois de Wertheimer’ pour le champ visuel, cf. sur ce point nos analyses avec V. Rosenthal, 1999, 2002.

[24] Pensons aux couches de ‘sens global’ du modèle de ‘compositionnalité gestaltiste’ de 3.2 : peu explicites sur le plan théorique, ces couches n’étaient là que pour accueillir, par défaut, ce qu’on ne pouvait imputer, ou imputer seulement, aux unités de premier niveau. Il s’agit à l’évidence d’une conséquence d’un manque de réflexion sur la thématique.

[25] Que l’on cherche à défendre l’idée d’une sphère spécifiquement linguistique du sens, séparément accessible, ou au contraire qu’on veuille asservir entièrement la signification à quelque monde conceptuel ou référentiel indépendamment déterminé, le résultat procède du même postulat de séparation ontologique de la langue et du monde. Pendant que les uns cherchent à reconstituer une sphère linguistique pure intervenant avant la sortie vers l’extériorité, les autres ne voient de sens que dans l’accès à une extériorité indépendamment déterminée. Finalement, les uns et les autres voient dans la thématisation une sortie complète du langage.


Vous pouvez adresser vos commentaires et suggestions à : yves-marie.visetti@ens.fr

©  mars 2003 pour l'édition électronique.

Référence bibliographique : VISETTI, Yves-Marie. Formes et théories dynamiques du sens. Texto ! mars 2003 [en ligne]. Disponible sur : <http://www.revue-texto.net/Inedits/Visetti/Visetti_Formes1.html>. (Consultée le ...).