Conférence
Chapitres
Notice
Langue :
Français
Crédits
Mission 2000 en France (Production), UTLS - la suite (Réalisation), Daniel Parrochia (Intervention)
Conditions d'utilisation
Droit commun de la propriété intellectuelle
DOI : 10.60527/41ds-ds89
Citer cette ressource :
Daniel Parrochia. UTLS. (2000, 15 janvier). L'expérience dans les sciences, modèles et simulations , in Première étape de réflexion et de critique: le savoir, la technique et l'éthique. [Vidéo]. Canal-U. https://doi.org/10.60527/41ds-ds89. (Consultée le 19 mars 2024)

L'expérience dans les sciences, modèles et simulations

Réalisation : 15 janvier 2000 - Mise en ligne : 15 janvier 2000
  • document 1 document 2 document 3
  • niveau 1 niveau 2 niveau 3
Descriptif

Après avoir été sous-estimée par Descartes, constructeur d'une science déductive essentiellement théorique, l'expérience, à partir de Newton, a acquis une place prépondérante, sinon autonome, dans les sciences modernes et contemporaines, au point que la vérification expérimentale est devenue un moment essentiel du " rationalisme appliqué ". Dès la seconde moitié du XIXème siècle, cependant, et notamment à partir de Maxwell, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques. Aujourd'hui, un pas de plus est franchi puisque la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique. La question se pose ainsi de savoir si ce nouveau tournant nous ramène à son point de départ et quelles sont les limites de cette réintégration de l'expérience dans la pratique théorique.

Intervention
Thème
Documentation

Texte de la 15ème conférence de l'Université de tous les savoirs réalisée le 15 janvier 2000 par Daniel Parrochia

L'expérience dans les sciences : modèles et simulation

"Expérience", du verbe latin "experiri", faire l'essai de, s'introduit en français au XIIIème siècle avec Jean de Meung. Le mot "Expérimenter", du bas latin "experimentare", "essai", remonte au XIVème siècle. Au début du XVIème siècle apparaît en français l'adjectif "expérimental", mais la notion même d"'expérimentation" reste absente des dictionnaires jusqu'en 1824. Et ce n'est qu'en 1865, avec l'Introduction à l'étude de la médecine expérimentale de Claude-Bernard, que le recours à l'expérience trouvera toute son extension, au moment même où l'on s'efforce de transposer la méthodologie victorieuse des sciences de la nature dans le domaine des sciences de la vie.

Inexistante dans l'Antiquité, sous-estimée par Descartes, mais prépondérante dans les sciences à partir de Newton, l'expérience devient donc, à l'époque de Claude-Bernard, un des facteurs incontournables des sciences de la nature et de la vie.

Ce moment d'acmé est en même temps un point d'inflexion. Dans la physique du XIXème siècle, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques.

Aujourd'hui, la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et semble la réinstaller en partie au sein du théorique. Quelles sont donc les limites de cette réintégration ? C'est ce que nous chercherons à définir.

1. La carence expérimentale de la science dans l'Antiquité et à la l'Âge classique

Dans l'Antiquité, sous l'influence de Platon, l'expérience est dévaluée et réduite à la simple observation, contingente et dépourvue de valeur probatoire. Le Thééthète (163 c) distingue soigneusement perception et connaissance, la seconde reposant sur la mémoire et mettant en oeuvre les mécanismes de réminiscence que le Ménon avait présentés autrefois comme solidaires de la rationalité.

Aristote lui-même n'a ni l'idée d'une critique de la perception sensible ordinaire, ni le sentiment de l'importance que peut revêtir pour la science une mesure exacte. Certes, ses traités biologiques révèlent qu'il pratiquait la dissection des animaux. Et sa Physique (II, 4) comme son Traité Du Ciel (II 13 294 b 30), contiennent bien quelques expérimentations. Celles-ci restent toutefois peu nombreuses et limitées. Comme le note Jean-Marie Leblond, «Aristote ne possédait pas des instruments assez perfectionnés et assez exacts pour que le travail de laboratoire put être bien fructueux pour lui» et son «penchant très marqué pour l'observation commune l'en éloignait» [réf 1].

Force est donc de constater que les deux plus grands philosophes de l'antiquité ne connaissent en fait ni méthode expérimentale ni modèles, ni procédés de simulation.

Au XVIIe siècle, dans la perspective anti-aristotélicienne qui est celle de Descartes, le sensible est dévalorisé et la voie mathématique déductive préconisée, en vue d'une physique quantitative fondée en raison. Dans le Traité du Monde et encore au début du Traité de l'Homme, cette déduction est même présentée comme la reconstitution d'un monde fictif, analogue du vrai, et dans lequel les hommes, les corps, les choses sont des automates simplifiés simulant les hommes, corps et choses réelles. Avec cette «fable du monde», le philosophe construit donc une maquette théorique, une sorte de «modèle» (de modulus, diminutif, de modus, moule) de la réalité.

Dans cette perspective déductive, les expériences ne jouent qu'un rôle fort limité, comme le montre bien le Discours de la Méthode [réf 2] :

(1) La nécessité des expériences est proportionnelle à l'avancement des connaissances. Au commencement, les expériences sont à manipuler avec prudence, de sorte que Descartes les restreint aux intuitions immédiates et rejette les expériences plus élaborées, alléguant ici deux explications : d'une part, l'impossibilité de leur assigner une cause quand on ignore les grands principes; d'autre part, le caractère contingent et variable du contexte expérimental.

(2) Quand la connaissance progresse, les expériences, certes, deviennent nécessaires, mais elles ont surtout un rôle d'adjuvant, et servent surtout à pallier les limites de la théorie pure. Les raisons de cette fonction sont multiples :

a) La première est liée à l'écart existant entre la puissance de la déduction mathématique, qui porte sur le possible et enveloppe l'indéfini (sinon l'infini), et la réalité toujours finie et limitée du monde existant. «Lorsque j'ai voulu descendre [aux choses] les plus particulières, écrit Descartes, il s'en est tant présenté à moi de diverses que je n'ai pas cru qu'il fût possible à l'esprit humain de distinguer les formes ou espèces de corps qui sont sur la terre d'une infinité d'autres qui pourraient y être si c'eût été le vouloir de Dieu de les y mettre». Objectivement, distinguer le réel du possible suppose donc un recours aux expériences.
Mais subjectivement, la visée eudémoniste de la science oblige à privilégier, parmi les faits déductibles possibles, ceux qui nous sont utiles. Or, pour distinguer, parmi les choses possibles, celles que nous pourrons, comme dit Descartes, «rapporter à notre usage», il convient «qu'on vienne au-devant des causes par les effets, et qu'on se serve de plusieurs expériences particulières».

b) Une seconde raison rend les expériences plus nécessaires au fur et à mesure que la connaissance s'avance, qui tient, cette fois-ci, dans l'écart entre la puissance de la nature et la simplicité des principes posés en tête de la déduction. «Il faut aussi que j'avoue, écrit Descartes, que la puissance de la nature est si ample et si vaste, et que ces principes sont si simples et si généraux, que je ne remarque quasi plus aucun effet particulier que d'abord je ne connaisse qu'il peut en être déduit en plusieurs diverses façons, et que ma plus grande difficulté est d'ordinaire de trouver en laquelle de ces façons il en dépend». Ici, l'explication est combinatoire : le nombre des chemins déductifs possibles étant supérieur à celui des chemins déductifs réels, les expériences doivent intervenir. Elles sont finalement, pour Descartes, l'«expédient» qui permet de faire le départ entre des couples de chemins déductifs possibles, dont un seul est réel.

Au bilan, l'expérience, joue donc un triple rôle : combler l'écart entre le possible et le réel; séparer l'utile de l'inutile et simplifier le graphe des déductions possibles, opérant ainsi sur la chaîne déductive une sorte de «stabilisation sélective». La théorie, virtuellement hésitante et bifurcante, est alors restreinte à certaines voies déductives privilégiées.

Cette méthodologie devait rencontrer de nombreux problèmes. Maupertuis, au siècle suivant, en démontra les inconséquences (l'impossible hypothèse des tourbillons). Mais Newton devait ruiner l'édifice cartésien déjà fortement ébranlé par les critiques de Leibniz, Malebranche ou Huygens Une science fondée sur les faits expérimentaux et non plus sur des principes abstraits allait se substituer à la déduction cartésienne. Que devient alors la notion d'expérience une fois ce grand retournement opéré ?

2. Vers le modèle et la simulation

Dès la fin du XVIIème siècle, sous l'influence de la philosophie empiriste de Locke, qui réhabilite la sensation et en fait la condition de toute nos idées, la synthèse géométrique cesse d'être l'idéal de tout savoir et la forme de la connaissance abandonne le paradigme hypothético-déductif pour une démarche analytique et génétique, associationniste et combinatoire. La mécanique newtonienne se déploie dans ce contexte où il n'est plus question de «feindre des hypothèses» et où les faits, mathématisés, deviennent rois. Au début du livre III des Principes mathématiques de la philosophie naturelle [réf 3], Newton énonce quatre règles qui constituent, jusqu'au XIXème siècle, la base de la méthode expérimentale en physique. Ces règles trahissent une opposition totale à Descartes :

1° «Les causes de ce qui est naturel ne doivent pas être admises en nombre supérieur à celui des causes vraies ou de celles qui suffisent à expliquer les phénomènes de ce qui est naturel.» On ne doit donc pas avoir plus de principes explicatifs qu'il n'est nécessaire. C'est la fin d'une conception où le possible était plus puissant que le réel.

2° Il faut, en second lieu, «assigner les mêmes causes aux effets naturels du même genre». Autrement dit, impossibilité de rapporter les mêmes effets à des séries causales différentes. La théorie ne peut pas, et ne doit pas, contenir de bifurcation.

3° Les corps sur lesquels on expérimente, sont un sous-ensemble témoin suffisamment invariant pour servir de base inductive : «Les qualités des corps qui ne peuvent être ni augmentées ni diminuées, et qui appartiennent à tous les corps sur lesquels on peut faire des expériences doivent être considérées comme les qualités de tous les corps en général».
Newton, qui étend prudemment les enseignements de l'expérience, en ne cessant pas de s'appuyer sur les faits, précise cependant «que l'on ne doit pas forger des rêveries à l'encontre du déroulement des expériences» [réf 4]. En toute circonstance, il préfère s'appuyer sur les faits les plus avérés : ainsi, à propos des corps, il tablera sur la notion de force d'inertie plutôt que sur la notion d'impénétrabilité, beaucoup plus vague.

4° La règle IV précise le sens expérimental de sa méthodologie : les propositions réunies par induction à partir des phénomènes doivent être tenues pour vraies tant que des hypothèses contraires ne leur font pas obstacle, ou tant que d'autres phénomènes ne viennent pas les rendre plus précises ou les affranchir des exceptions qu'elles pourraient contenir.
Ainsi, une proposition ne devient générale et ne se précise que par induction, et toujours parce que les phénomènes le permettent. L'expérience, comme observation et comme observation provoquée, c'est-à-dire comme expérimentation, devient la règle suprême de la philosophie naturelle.

Quest-ce qui a alors amené la science à infléchir à nouveau la méthode expérimentale dans les deux directions anticipées par Descartes : la construction de modèles et la mise en place de procédés de simulation ?

1) Au début du XIXème siècle, la mécanique newtonienne s'est complexifiée et décrit désormais des «systèmes» physiques.

La notion de système s'est introduite en physique à travers l'étude des forces et de l'équilibre [réf 5], et, comme un système physique va devoir être décrit par un système d'équations mathématiques, la notion de modèle n'est pas loin. A l'époque, la physique s'ouvre en outre à des domaines nouveaux non mécaniques (électrostatique, thermodynamique, électromagnétisme) qu'elle explore à partir des méthodes de la science connue, autrement dit de la mécanique. La mécanique, elle-même systémique, devient ainsi un réservoir de modèles, aussi bien de montages pratiques que de modèles théoriques.

La notion de modèle comme norme abstraite se développe alors en physique. Le modèle est ici un intermédiaire à qui les physiciens délèguent la fonction de connaissance, de réduction de l'encore-énigmatique à du déjà-connu, notamment en présence d'un champ d'études dont l'accès est difficilement praticable [réf.6].
Cette fonction de délégation du modèle le fait apparaître comme un instrument d'intelligibilité dont la fonction est triple :
a) Dans un monde complexe et déployé dans des régions hétérogènes et sur des échelles très différentes, le modèle, bien adapté à un niveau d'expérience particulier, permet encore d'intégrer les niveaux inférieurs.
b) Réalisant une économie (puisqu'il transpose une même méthodologie sur un autre champ), il abrège la science en l'augmentant et permet ainsi de faire plus avec moins.
c) Ramenant le nouveau à l'ancien, il justifie l'exportation des méthodes connues dans des champs inconnus.

2) Dès la seconde moitié du XIXème siècle, la méthode expérimentale sinstalle en biologie et en médecine.

Claude-Bernard, avec son Introduction à l'étude de la médecine expérimentale, est le grand théoricien de cette extension. Mais sa définition de la méthode expérimentale est restrictive : pour lui, celle-ci «ne fait pas autre chose que porter un jugement sur les faits qui nous entourent, à l'aide d'un criterium qui n'est lui-même qu'un autre fait, disposé de façon à contrôler le jugement et à donner l'expérience» [réf 7]. Or, faire éclater l'expérience en faits simples et penser qu'on peut juger d'un fait au moyen d'un autre fait va s'avérer insuffisant. De plus, le constat reste le premier moment de la méthode préconisée par Claude-Bernard même s'il précise, par ailleurs, que l'expérience scientifique n'est pas une observation passive mais provoquée, et insiste à juste titre sur l'art du raisonnement expérimental. En fait, dans le mouvement cyclique qui caractérise sa méthode, le constat est bien à la source de l'idée à partir de laquelle pourra s'instituer le raisonnement et se mettre en place des expériences, lesquelles seront à leur tour sources de nouvelles idées et inductrices d'un nouveau cycle. Or le fait constaté, pour Claude-Bernard, reste un fait granulaire : non seulement la méthode scientifique exige un «morcellement du domaine expérimental» [réf 8] mais elle est de part en part analytique et aboutit volontairement à la dissociation des phénomènes. «A l'aide de l'expérience, nous analysons, nous dissocions ces phénomènes afin de les réduire à des relations et à des conditions de plus en plus simples» [réf 9]. D'où, deux conséquences :
(1) Les progrès de la connaissance seront toujours dus à des décisions élémentaires heuristiques, à caractère discret : «Le choix heureux d'un animal, écrit Claude-Bernard, un instrument construit d'une certaine façon, l'emploi d'un réactif au lieu d'un autre, suffisent souvent pour résoudre les questions générales les plus élevées».
(2) Le privilège de l'analyse et l'élémentarité des faits, qui renvoient au fond encore à une épistémologie cartésienne, interdit la saisie des relations dialectiques entre les phénomènes : «de ce qui précède, note Claude-Bernard à là fin de son introduction sur le raisonnement expérimental, il résulte que, si un phénomène se présentait dans une expérience, avec une apparence tellement contradictoire qu'il ne se rattachât pas d'une manière nécessaire à des conditions d'existence déterminées, la raison devrait repousser le fait comme un fait non scientifique» [réf 10].

Mais là, Claude-Bernard théoricien de la méthode expérimentale est en retard sur Claude-Bernard praticien de la physiologie, théoricien des mécanismes de régulation et fondateur de la notion de milieu intérieur. Critiquant l'anatomie, dans ses Leçons de physiologie expérimentale appliquées à la médecine (Paris 1856, tome 2, 6), il notait déjà l'impossibilité de déduire d'un examen anatomique d'autres connaissances d'ordre fonctionnel que celles qu'on y avait importées : or parmi les connaissances importées par les anatomistes, il notait la présence de modèles concrets : «quand on a dit, par simple comparaison, écrivait-il, que la vessie devait être un réservoir servant à contenir des liquides, que les artères et les veines étaient des canaux destinés à conduire des fluides, que les os et les articulations faisaient office de charpente, de charnières, de levier, etc.», «on a rapproché des formes analogues et l'on a induit des usages semblables». Canguilhem, qui cite ce texte dans ses Etudes d'histoire des sciences [réf 11] constate pourtant que le mot «modèle», ici, n'est pas utilisé.

Mais ce que Claude-Bernard théoricien néglige va s'avérer de plus en plus nécessaire pour comprendre les mécanismes de régulation qu'il a lui-même mis en évidence comme expérimentateur. Au fur et à mesure que la biologie et la médecine progresseront, le caractère interrelié des phénomènes de la vie imposera la prise en compte de faits complexes, et parfois en eux-mêmes apparemment contradictoires ou, en tout cas, antagonistes. Dès lors, ce n'est plus simplement de modèles concrets, iconiques et analogiques dont on va avoir besoin. Ce sera, comme en physique, d'authentiques modèles mathématiques.

Avec la cybernétique de N. Wiener, puis la théorie des systèmes de Bertalanffy, ce genre d'approche va se développer, et la biologie, à différents niveaux, en fera grand usage.

Au niveau cellulaire, Monod, Jacob et Lwoff ont pu décrire les phénomènes métaboliques en supposant l'existence d'un mécanisme cybernétique impliquant l'action conjointe d'un inducteur et d'un répresseur [réf 12].

Au plan des mécanismes hormonaux, de même, des modèles ont pu être proposés pour expliquer les régulations croisées et les actions conjointes d'axes hormonaux antagonistes comme les axes anté- et post-hypophysaires, des actions stimulantes de l'axe défaillant existant conjointement à des actions inhibitrices de l'axe prédominant [réf 13].

Dans ces deux exemples, des situations dialectiques complexes ne deviennent intelligibles que par une modélisation.

Enfin, à un niveau beaucoup plus général, la pensée écologique depuis les années 1930, avec l'introduction des notions de système écologique et de réseau trophique, a imposé la construction de modèles pour saisir les réalités naturelles complexes et interreliées, notamment les comportements des vivants en relation avec leur milieu biotique et abiotiques [réf 14].
La modélisation s'est donc imposée en biologie, en médecine, et en écologie, à l'encontre des idées de Claude-Bernard.

3. Les rapports entre modélisation et simulation

Si modéliser, c'est déléguer la fonction de connaissance afin de représenter la réalité de façon à la fois économique et fiable, encore faut-il s'assurer que le modèle conserve un lien avec l'expérience. C'est la tâche de la simulation, notion aux connotations jadis négatives, et que Platon, dans la République (VI, 51le) réservait à un type de savoir dégradé, celui des images, plus bas degré de la réalité selon lui. A travers Gracian, Diderot, puis Nietzsche, s'opère progressivement un renversement qui réhabilite l'artifice et permet de faire aujourd'hui, l'«éloge de la simulation», cette capacité à reproduire numériquement et à générer de façon figurative et imagée des situations, des séquences, des processus identiques aux processus réels.

1) Modélisation et simulation

Selon Etienne Guyon [réf 15], modélisation et simulation restent des démarches distinctes. La modélisation, vu ses outils, garde plus de latitude par rapport au réel que la simulation. Les conditions du mimétisme absolu ne sont pas respectées puisque le modèle opère une simplification du phénomène, ne retenant que les variables les plus caractéristiques. Ceci constitue une approximation, mais qui suffit souvent pour réussir.
En regard de cette modélisation, la simulation semble une approche plus coûteuse, puisqu'elle invite à conserver tous les paramètres du problème initial. Ainsi, selon E. Guyon, le simulateur de vol ou de conduite place-t-il le pilote dans des conditions tout à fait semblables à celle qu'il aura à affronter dans la réalité. Mais ce sentiment est trompeur car le simulateur est un modèle réduit, une simplification de la réalité, restreinte à un poste de pilotage monté sur un système de venins hydrauliques.
La simulation présuppose donc la modélisation : elle joue sur le fait que, du point de vue de la représentation humaine, le même effet peut être produit de différentes façons, et notamment d'une manière plus économique que d'une autre.
Par conséquent, les deux méthodes doivent être jugées plus complémentaires qu'opposées.

2) Fonction de la simulation.

La simulation permet d'effectuer des tests et d'expérimenter sans danger, mais aussi, dans certaines branches de la physique appliquée, de pallier les déficiences de la théorie. Ainsi, en météorologie, où il n'est pas possible de connaître théoriquement le comportement de l'atmosphère (système dynamique évolutif sensible aux conditions initiales), à moyen ou long terme, on a recours à la modélisation et à la simulation. Des programmes de calculs résolvent les équations de façon approchée mais théoriquement aussi précise que l'on veut. A partir de la connaissance de l'état de l'atmosphère à un instant donné, on peut théoriquement calculer l'évolution de cette atmosphère, et faire des prévisions. Cette approche permet en outre l'expérimentation, le modèle numérique devenant un laboratoire virtuel dans lequel on peut tester des hypothèses. Par exemple, on y fait varier certain paramètre (quantité d'énergie solaire reçue, vitesse de rotation de la terre...) pour en étudier les conséquences sur le climat. Ces modèles numériques permettent en outre d'affiner la prévision à court terme en injectant périodiquement dans le modèle de nouvelles valeurs de mesure, en coefficientant ces dernières de telle manière qu'elles aient un poids plus important que les mesures plus anciennes et aboutissent à des prévisions plus fiables.
Même si la météorologie reste une science où les modèles sont encore approximatifs, les progrès de la couverture satellitaire et des différentes méthodes numériques et informatiques permettent aux météorologues de préciser les conditions initiales et de limiter l'impact du chaos déterministe et de la turbulence. D'incessants progrès ont été faits depuis les premiers modèles, qui datent des années 1950.

Nous pourrions évoquer encore bien des exemples où modélisation et simulation vont de pair, par exemple dans les sciences humaines. Lévi-Strauss, dans La Pensée Sauvage, avait déjà souligné l'importance de la notion de «modèle réduit», à propos de la pensée mythique qui propose une sorte de métaphore du monde. On est passé rapidement de la métaphore au modèle dans des disciplines comme l'analyse spatiale en géographie ou encore la dynamique économique, qui sont des secteurs dans lesquels la modélisation et la simulation se sont énormément développées.

3) Caractère créatif de ce couple modélisation-simulation

L'intelligence artificielle (I.A.) servira ici dexemple. Se proposant au départ de comprendre la nature de l'intelligence, les chercheurs ont dû se limiter à reconstituer des comportements intelligents (et une reconstitution n'est pas une explication). Le plus souvent, ils se sont même bornés à faire faire à un ordinateur des tâches pour lesquelles l'homme est encore aujourd'hui le meilleur. Il y a un triple affaiblissement du projet initial puisque c'est avouer que non seulement on ne connaîtra pas la nature de l'intelligence, non seulement le simulacre ne renversera pas le modèle et la copie, mais la copie restera une copie imparfaite et qui n'égalera pas le modèle humain. Cette évolution, qui sonne une sorte de retour à Platon et va donc d'une modélisation impossible à une simulation imparfaite, aurait pu à bon droit passer pour une régression aliénante. Or, selon Philippe Quéau, ce chemin apparaît au contraire libérateur :

(1) La nécessité où l'on se trouve, en I.A. comme d'ailleurs souvent en physique, de faire d'abord fonctionner le modèle pour tester sa cohérence interne avant de le valider, amène parfois à le nourrir de données arbitraires. Or cet éloignement de l'expérience réelle porte en lui une créativité potentielle. Dans cette expérimentation inédite, le modèle, suivant des trajectoires éventuellement imprévues, devient susceptible de potentialités nouvelles entraînant au delà du connu.
(2) Alors que le modèle, comme réduction, opérait une certaine forme de condensation de l'expérience, «la simulation, écrit Philippe Quéau, nécessite le déplacement, le remaniement, l'ordonnancement du modèle» [réf 16]. Ces mots de condensation et de déplacement sont ceux par lesquels Freud a décrit la logique de l'inconscient, qui est aussi celle du rêve. Philippe Quéau en déduit que le simulateur, qui condense et réduit, produit donc un rêve formel, libéré des contraintes de l'expérience sensorielle qui en fournit ordinairement les matériaux.

Une des applications bien connues est la synthèse d'image, où la création de mondes virtuels, de flores ou de faunes inventées mais mathématiquement crédibles - toute une «vie artificielle» -, semble plonger le réel dans un univers beaucoup plus riche dont il n'apparaît plus que comme l'un des possibles. Le modèle, qui condense le réel, débouche, grâce au simulateur, sur une amplification théorique de celui-ci.
Cette conclusion n'admet-elle aucune limite ?

S'il est vrai que la simulation informatique fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique, la question se pose de savoir si ce nouveau tournant nous ramène ou non au point de départ. Bachelard nous avait appris que le rationalisme devait s'appliquer. Mais la modélisation et la simulation semblent faire l'économie d'une application réelle. Le rationalisme devient-il fantasmé ?
Certes, la modélisation-simulation, comme condensation et déplacement, opère une amplification de l'expérience, qui fait de cette extension virtuelle du réel, comme le montre Gilles-Gaston. Granger [réf. 17], un réel reformulé et enrichi, ce qu'on pourrait appeler un surréel. Ce «surréalisme» de la science contemporaine n'est d'ailleurs que le pendant du surrationalisme des grandes théorie scientifiques du XXème siècle. Expérience et applications y sont moins réfutées que réduites à un support minimum, le symbolique remplaçant économiquement le matériel.

Mais une telle réduction-substitution n'est pas sans risque. D'abord, il convient de ne confondre ni les objets et leurs images, ni les simulations et la réalité : la simulation d'un incendie ne brûle personne, les aléas de «la vie sur l'écran» n'engendrent aucune souffrance. Les erreurs qu'on peut commettre avec ces outils, tout comme la difficulté de leur validation, nous rappellent leurs limites. Certaines simulations numériques comme les simulations des explosions nucléaires, qui remplacent apparemment avantageusement ces dernières, n'excluent pas des expériences réelles coûteuses. En outre, on peut encore s'interroger sur les dangers de la virtualisation. La virtualisation des explosions nucléaires a tendance à banaliser la bombe. Il n'est pas sûr qu'on y gagne beaucoup.

Toutes les simulations ne font pas encourir les mêmes dangers. Mais l'expérience scientifique moderne, modélisée et simulée, ne saurait occulter le recours à l'expérience réelle. La simulation moderne suscite des mondes virtuels dont la logique, qui tient parfois du rêve, pourrait se révéler celle du cauchemar si elle se déconnectait totalement de l'expérience sensible et si la matière symbolique devait définitivement remplacer la matière réelle. Mais nous n'en sommes pas là et le recours au sensible, aux infrastructures matérielles et aux coûts réels nous remet périodiquement, malgré l'excroissance surréaliste que nous avons créée, dans une perspective de rationalisme appliqué.

Références

Réf 1 : J.-M. Leblond, Logique et méthode chez Aristote, Paris, Vrin, 1970, 2è ed., p.235
Réf 2 : Descartes, Discours de la méthode, 6è partie, «choses requises pour aller plus avant en la recherche de la nature», Ruvres, Paris, Gallimard, 1951, p. 169-170.
Réf 3 : Newton, Principes mathématiques de la philosophie naturelle, tr. Fr. Paris, Bourgois, 1985, p.76 sq.
Réf 4 : Newton, op.cit., p.77.
Réf 5 : Lagrange, Mécanique Analytique, 1ère éd. p. 25 ; éd. Blanchard, p. 27 et 40. Cf. P. Bailhache, Louis Poinsot, la théorie générale de l'équilibre et du mouvement des systèmes, Paris, Vrin, 1975, p. 127-132.
Réf 6 : S. Bachelard, "Quelques remarques épistémologiques sur la notion de modèle", Colloque Elaboration et justification des modèles, chez Maloine-Dion, 1979, t.1, p.3
Réf 7 : Claude-Bernard, Introduction à l'étude de la méthode expérimentale, Paris, Garnier-Flammarion, 1966, p.41
Réf 8 : Claude-Bernard, op. cit., p.55
Réf 9 : Claude-Bernard, op. cit., p.89
Réf 10 : Claude-Bernard, op. cit., p.90
Réf 11 : G. Canguilhem, «Modèles et analogies dans la découverte en biologie», Etudes d'histoire des sciences, Paris, Vrin, 1975, p. 308.
Réf 12 : J. Monod, Le hasard et la nécessité, (1970), Paris, Point-Seuil, 1973, p. 85 sq.
Réf 13 : Cf. E. Bernhard-Weil, L'arc et la corde, Paris, Maloine-Doin, 1975, P.14-15
Réf 14 : D. Parrochia, Philosophie des réseaux, PUF, 1993 ; voir aussi P. Acot, Histoire de l'écologie, PUF, 1988.
Réf 15 : E. Guyon, "Modélisation et expérimentation", in G. Cohen-Tannoudji, Virtualité et réalité dans les sciences, Paris, Editions Frontières, 1995, pp.95-118.
Réf 16 : Ph. Quéau, Eloge de la simulation, Seyssel, Champ Vallon, 1986, p 161.
Réf 17 : G. G. Granger, Le probable, le possible et le virtuel, Paris, 0. Jacob, 1995, p. 9.

Dans la même collection

Sur le même thème