mercredi 26 mai 2021

Science et Vérité (suite et fin)

 


            Nous nous situons ici probablement au point crucial de cette question de « l’indexation du régime scientifique de la vérité », celui d’un certain effet de contrainte particulièrement sensible au mathématicien, celui-là même que Laurent Lafforgue exprime donc de cette façon: « Les mathématiques traitent d'objets qui sont bel et bien réels et concrets aux yeux du mathématicien, des objets  (la droite, le cercle, les nombres, les fonctions, les symétries, les courbes, etc.) non pas qu'il aurait choisis par fantaisie mais qui se sont imposés à lui, des objets non pas formels mais formalisables au sens qu'une définition peut les saisir dans leur être. »
         
Il faut relier cette affirmation de Lafforgue avec ce passage de « Vérité et mensonge au sens extra-moral » de Nietzsche: « Tout ce qui nous étonne dans les lois de la nature ne réside en tout et pour tout que dans la rigueur mathématique et l’indéfectibilité des représentations du temps et de l’espace. Or c’est en nous que nous les produisons, obéissant à la nécessité avec laquelle l’araignée tisse sa toile, si nous sommes contraints de saisir toutes choses uniquement à travers ces formes là, il n’est plus surprenant que nous n’appréhendions véritablement en toutes choses ses mêmes formes: car toutes comportent inévitablement les lois du nombre (….) Toute cette régularité qui nous en impose à ce point dans les orbites célestes et les processus chimiques coïncide au fond avec ces propriétés que nous importons nous-mêmes dans les choses, de telle manière que c’est à nous que nous en imposons. »
        Nous retrouvons finalement exactement le rôle crucial de la métaphorisation dans la perception. Si percevoir revient à transposer, c’est-à-dire si, comme l’affirme Nietzsche, toute excitation nerveuse, qu’elle soit visuelle, sonore, tangible, etc, est arbitrairement mais surtout automatiquement reliée par nous à une « image » (et en fait, on ne voit pas comment contester cela), si cette image est, à son tour, dénaturée en mot, en signe ou en symbole (et ici encore, comment le remettre en cause?), alors nécessairement des opérations s’effectueront sur ces symboles au sein d’un système (celui de la langue) de telle sorte que nous plaquerons des schémas rationnels valant au sein de cette systématique comme s’exerçant à l’extérieur, dans la nature même. Ainsi s’explique la notion de Cosmos, c’est-à-dire d’univers ordonné par des lois, non pas que ces lois s’effectuent réellement dans les phénomènes extérieurs, mais nous humains, êtres rationnels et surtout être de langage ne pouvons pas autrement les percevoir qu’en les intégrant autoritairement et automatiquement  dans cette systématique qui fait déjà partie intégrante de nos facultés de perception. Reprenons la formule de Nietzsche dont les termes, évidemment, ont été rigoureusement « choisis »: « nous nous en imposons à nous-mêmes.
              

Si Nietzsche avait à analyser les formulations de Laurent Lafforgue, il ne fait pas de doute que c’est bien cette dynamique là qu’il y verrait à l’oeuvre. Il y est question de « mathématiques pures » et nul doute que ces objets décrits par Lafforgue « existent » comme des évidences quasiment factuelles aux yeux des mathématiciens. Comment nier qu’il existe du nombre, de la courbe, de la surface, de la symétrie, des fonctions? Mais comment nier pareillement que ces « objets » sont moins « ob-jetés » que « sub-jetés » même si cette subjectivité là évidemment n’est pas celle de la personnalité du mathématicien en question avec toute son individualité mais bien plutôt celle de tout sujet rationnel humain doté de langage. Par ce barbarisme: « sub-jetés », que faut-il comprendre? Rien de moins peut-être qu’une autre formulation du conflit qui durant le 17e et le 18e siècle  a opposé philosophiquement le camp des innéistes et celui des empiristes.
            

                Nous pourrions articuler ce subjectivisme « humain » à la fameuse phrase de Leibniz tranchant en faveur de l’innéïsme la question de l’origine de nos idées: « il n’est rien dans notre entendement qui n’ait été d’abord dans les sens, excepté l’entendement lui-même. » Il faut rappeler qu’autant les empiristes situent dans nos sens et dans nos affects l’origine de nos idées autant les innéistes la situe dans l’esprit.  Laurent Lafforgue, en un sens, prolonge exactement ce leitmotiv de la pensée innéiste. Tout esprit humain s’appliquant à lui-même la discipline la plus stricte et la plus rationnelle de pensée aboutit nécessairement à ces « données »: le cercle, la fonction, la courbe, la symétrie, etc. Nul doute qu’il y ait bien du « donné pur » dans ces éléments voire même de la « nature »…sauf que c’est bel et bien de la nature même de l’esprit humain dont il est alors question. Les mathématiques constituent la science dont le protocole même ainsi que le champ d’activité est celui-là même de l’esprit humain. Il n’y est question que d’explorer en toute rigueur ce que l’esprit peut. L’effet de contrainte qui se manifeste donc au sein de cette pratique est celui-là même de la pensée humaine. Les mathématiques poussent continuellement la pensée pour explorer ce que la pensée pense, sachant qu’elle ne peut pas ne pas le penser de cette façon-là (et sur ce point les innéistes seraient d‘accord) mais dans « cette façon là », il est absolument impossible de ne pas relever du symbolisme, de l’abstrait, de la généralisation, c’est-à-dire « de la langue », ou comme dirait Nietzsche de la métaphorisation.
        Une fois opérée cette double métaphorisation (par le biais de laquelle la réalité est transposée), les mathématiques et à sa suite, les sciences dites dures poussent à leur plus utiles conséquences ce symbolisme et ce formalisme radical et comme toute métaphorisation précède par analogie, cette rigueur est récompensée par des résultats, par d’indiscutables correspondances avec la nature, avec la vie, avec le cosmos. Il y a donc bel et bien quelque chose de la science qui nous fait correspondre avec le réel mais, pour répondre l’image de Nietzsche, de la même façon que quelque chose du son de l’archer correspond avec la figure de sable de Chladni. Mais pas plus que le sonore n’est identique au visuel, la réalité n’est identique à la science.
            
Mais alors d’où vient l’extériorité radicale de cet effet de contrainte auquel Laurent Lafforgue, comme tous les mathématiciens, fait allusion? De cela même qu’aucun esprit humain ne peut ici percevoir autrement ni autre chose que cela. Là où Laurent Lafforgue croit percevoir l’universalité extérieure objective et naturelle d’un « Réel », il fait en réalité l’épreuve de l’universalité intérieure, subjective et culturelle d’une systématicité propre à la rationalité linguistique humaine. Dans les mathématiques en particulier et dans les sciences dures en général, le chercheur n’explore que l’effet de transparence à soi de l’esprit humain, lequel ne dit évidemment que la vérité si par vérité nous entendons la vérité formelle: celle qui révèle et démontre « cet infini » qu’il est donné à tout esprit humain de révéler et de concevoir. L’effet de contrainte de cette vérité est un effet de transparence à soi. L’évidence qui s’est faite jour est celle d’une autorité se découvrant elle-même comme source exclusive de toute vérité de cet ordre. La rationalité de la science suit donc, du début jusqu’à la fin, la dynamique close et systématique d’une auto-légitimation. En d’autres termes, nous pourrions dire que l’expérience décrite par Lafforgue de ces objets mathématiques n’est pas tant celle des contours extérieurs d’une dimension « Autre », d’un Extérieur pur, que celle des contours intérieurs d’une dynamique rationnelle  « même ».
       L’effet d’auto-indexation du régime scientifique de la vérité au sein de la société  par rapport à d’autres régimes s’explique donc d’autant plus facilement que l’on peut grâce à Nietzsche percevoir au sein même de la dynamique de la science l’efficience de cette transparence à soi de l’évidence, de ce processus d’auto-légitimation de l’esprit humain dans la détermination et la perception des objets scientifiques.
        Finalement le fond de la question autour de laquelle se situe le problème est le suivant: est-ce parce qu’il y a du langage qu’il y a du rationnel (donc du scientifique) ou parce qu’il y a, de fait, du rationnel (du scientifique) qu’il y a du langage? Si nous adhérons à la première option, la double métaphorisation décrite par Nietzsche ne manquera pas de nourrir l’esprit d’un certain scepticisme à l’égard de la science laquelle se trouve être déjà un scepticisme de méthode. C’est un peu comme si Nietzsche répondait « oui » à la question de savoir si l’on peut aller plus loin que la science dans le scepticisme.  Une objection peut être formulée contre cette première option: si les mathématiques ne consistaient que dans un formalisme dont l’origine serait linguistique, comment expliquer qu’il n’y ait pas autant de mathématiques que de langues?
        Il est possible de répondre en invoquant la possibilité que les mathématiques formulent des universels ou des invariants de la langue, une sorte de tentative d’universalisme, ou de formalisme qui s’exercerait sur la langue mais aussi à partir d’elle. La transparence à soi de la pensée dont les mathématiques sont à la fois l’objet et l’efficience ne pourraient pas autrement se concevoir que comme cette tentative de transparence à soi de LA langue. Les mathématiques seraient alors définissables comme la mise en oeuvre d’un symbolisme universel.
        L’objection majeure à la deuxième option résiderait dans la difficulté à concevoir ce rationalisme pur, donné, autrement que par et dans la langue. Que les mathématiques visent davantage la recherche que la communication ne constitue pas un argument car on pourrait en dire tout autant de la poésie, sans pour autant que soit défendable l’idée selon laquelle la poésie ne s’exprimerait pas par une langue.  
        Il ne semble pas que les mathématiques puissent donc faire valoir contre Nietzsche d’arguments vraiment probants qui leur permettraient de se définir comme échappant à ce double effet de métaphorisation de toute langue. La vérité « se dit » ou du moins se formule et, en se formulant, ne peut se confondre avec la réalité qu’elle prétend pourtant restituer. Il existe bien une vérité dans les mathématiques (puisque toute métaphorisation est analogique) et consécutivement dans les sciences, mais ce n’est que la vérité d’un certain régime, de telle sorte que les analyses de Foucault nous apparaissent bel et bien plausibles. La science ne se déploie pas donc que dans le champ d’une certain vérité définissable, sachant qu’il en existe d’autres.
  

5) Le critère de la falsifiabilité de Karl Popper et l’hypothèse des Univers Multiples
                Mais alors comment expliquer cette auto-indexation actuelle du régime scientifique de la vérité? Pourquoi cette lutte incessante entre différents régimes de vérité possibles? Pourquoi sommes nous passés du régime dominant religieux de la vérité au régime scientifique? Evidemment la thèse de Foucault, si nous la comprenons bien, ne se contente pas de prolonger le travail Nietzschéen de généalogie appliqué à la vérité mais il définit une sorte de stratification au gré de laquelle différentes modalités d’adhésion au vrai se superposent, selon les époques et les mentalités. Cela signifie qu’il convient que nous revenions totalement de ce présupposé suivant lequel la vérité est UNE, voire de toute modélisation scientifique du réel ou de l’ « uni »-vers soumise au principe d’unité.
        Néanmoins nous n’avons vraiment approfondi que les mathématiques dans la partie précédente comme si toute science dure étaient finalement dérivées des mathématiques ce que  les chercheurs de beaucoup d’entre elles contesteraient: la physique, la chimie, la biologie, l’astrophysique ne se considèrent pas, à juste raison, comme des mathématiques. Pour autant aucune théorie scientifique dite « dure » ne peut vraiment se concevoir sans passage par l’algèbre, la géométrie, sans cette formalisation de ses propres thèses, sans cette symbolisation extrême dans laquelle la science mathématique consiste.
         

  Si nous tenons pour acquise l’idée selon laquelle les mathématiques tiennent leur force et leur situation dominante dans les sciences de cela qu’elles résident dans la formalisation  la plus pure et la plus rigoureuse de « la » langue, c’est-à-dire du processus même de métaphorisation de la pensée humaine, l’effet de domination ou d’incontournabilité des mathématiques dans les sciences dures s’explique assez facilement: on ne peut concevoir de science sans savoir, de savoir sans pensée, de pensée humaine sans symbolisation, de symbolisation sans métaphorisation. Plus les sciences dures se donnent comme objet l’étude d’un « dehors à la pensée », d’une « extériorité », physique, biologique, astrophysique, plus les modalités mêmes suivant lesquelles elles en font leur objet présupposent en leur sein, inconsciemment ou « pré-consciemment » des processus de formalisation et de symbolisation qui sont ceux là même de toute pensée humaine. Autrement dit, si l’extériorité des objets des sciences expérimentales ne fait aucun doute, la démarche par le biais de laquelle ces « extériorités » sont abordés par la science ne peut pas ne pas être déjà un processus d’intériorisation, de captation grâce auquel les sciences en question travaillent et émettent des propositions humainement pensables à l’occasion de la rencontre avec ces réalités. Ces objets ne sont donc que le prétexte à ce que l’esprit humain inlassablement revienne toujours à lui-même, dans une démarche  mathématique dont le mouvement centripète est nécessairement anthropocentriste.
          On ne voit pas trop comment nous pourrions demander à la science de ne pas penser le réel, le problème étant que si elle le pense, elle ne peut pas l’aborder autrement qu’au gré des lois mêmes qui font d’elle une pensée humaine, lois qui sont celles de la langue de la formalisation, de la symbolisation (mathématiques). Dés lors connaître le réel revient à le métaphoriser, c’est-à-dire à formuler des images et des propositions qui créent un rapport d’analogie avec le réel représenté. Ce rapport est extrêmement fiable, valide, testable, technologiquement efficace, mais il n’est qu’analogique. Nous retrouvons les termes mêmes de l’illustration nietzschéenne par le figures de Chladni. Il est indiscutable que les figures de sable me disent « quelque chose » du son de l’archet, mais seulement analogiquement et de façon décalée parce que, de fait, le son n’est pas graphique et il n’est tout simplement pas possible de comprendre la vraie nature du son par du graphisme. La science n’est pas un savoir d’intuition. Elle ne prétend aucunement l’être (distinction vérité formelle / vérité intuitive). Elle progresse par démonstration, expérimentation, raisonnement, et même quand un chercheur éprouve des intuitions fulgurantes, ce qui est souvent le cas, il faut que ces intuitions deviennent des hypothèses qu’il fera passer à l’épreuve des faits au cours d’expérimentations dont la réussite dessinera quelque chose comme une ligne tendancielle (asymptote) progressant vers le vrai, mais pas « vraies ». C’est bien la thèse de la falsifiabilité selon Karl Popper. Mais peut-être l’idée même de cette ligne tendancielle vers une vérité UNE est-elle encore de trop dans ce conception de la science.
          

Il est impossible de comprendre la thèse défendue par Karl Popper sans la relier à une certaine epistémè, laquelle est indissociable de ce que l’on a appelée la rupture de la science moderne.  A très, très, très gros traits, on peut définir dans l’histoire des sciences trois périodes:
1) D’Aristote à Galilée: l’esprit de la science se fonde sur l’observation et la détermination de la cause des phénomènes
2) De Galilée à Max Planck, Louis de Broglie, Heisenberg, etc (ceux que l’on pourrait appeler les physiciens quantiques: la science devient active et expérimentale (opérant ce que Kant appelle une révolution Copernicienne)
3) De la physique quantique à nos jours: le principe d’indétermination de Heisenberg relativise la notion d’expérimentation. La science s’assume comme développant un modèle d’interprétation du réel. Finalement la dynamique de cette évolution est donc la suivante: de l’explication à l’expérimentation puis de l’expérimentation à l’interprétation (ce dernier terme d’ «  interprétation » et sa polysémie ouvrant des perspectives fascinantes, notamment sur les rapports (jusque là impossibles) entre la Science et l’Art)
               

La théorie de la falsifiabilité développée par Karl Popper se situe dans la phase terminale du deuxième moment. Elle est absolument fondamentale pour comprendre l’auto-indexation du régime scientifique de la vérité, autant dire que les thèses de Karl Popper sont en totale opposition avec celles de Nietzsche. Tout cela repose sur un paradoxe que l’on pourrait formuler de la façon suivante: c’est justement parce que la science est une pratique entretenant avec la vérité un rapport régulateur mais jamais affirmé qu’elle est pertinente, qu’elle conquiert son identité et sa force (finalement dominante). La falsifiabilité est cette conception de Karl Popper selon laquelle seul un énoncé scientifique prend le risque du faux parce que, soit il s’énonce dans une forme tellement transparente que l’erreur apparaîtra (en mathématiques) soit il sera transcrit en hypothèse que l’on testera et dont l’échec expérimental sanctionnera la non validité alors que son succès ne marquera que provisoirement sa « vérisimilitude » (terme inventé par Popper pour désigner cette fiabilité provisoire jusqu’à l’expérience fatale. L’idée de Popper est la suivante: il n’y pas d’expérience cruciale (en ce sens qu’aucune expérience ne prouvera la vérité d’une théorie parce que toute expérience nécessairement s’effectue dans un point de l’espace et dans un instant du temps, et qu’aucune détermination ponctuelle ne saurait prouver universellement la justesse d’une proposition), il n’y a que des expériences « fatales » (l’échec, par contre, est irréversible).
         

  L’argument rhétorique de Karl Popper est très habile: toute pratique se posant comme vraie est finalement « fausse » ou douteuse, seule peut être reconnue comme se rapportant au vrai celle qui finalement soumet toujours et rigoureusement ses hypothèses à des processus de falsification (expérimentations). Pourtant il n’est que rhétorique et susceptible d’être remis en cause pour au moins trois raisons:

-        Si nous suivons sa conception, alors le faux n’est finalement qu’un moment du vrai. Contrairement à ce qu’il affirme, l’échec n’est jamais la remise en cause de l’esprit dans lequel  l’hypothèse a été conçue, mais seulement de certains facteurs , voire de certaines quantités.
- Le passage du deuxième moment de l’évolution scientifique au troisième est notamment marqué par la réalisation, notamment des physiciens quantiques, de l’impossibilité de concevoir les résultats d’une expérience indépendamment des présupposés de son hypothèse. Il est impossible de considérer que l’expérience se prononce à partir d’un autre réel que celui-là même qu’a déjà transformée les réquisits, les protocoles de l’expérimentation. Mettre en place tout un appareillage de détection des phénomènes, c’est déjà changer ses phénomènes, de telle sorte que jamais la réalité ne s’effectue autrement que dans le cadre de ce que l’on s’attend à ce qu’elle dise ou fasse (expérience des fentes de Young). Par conséquent l’expérimentation n’occupe pas une place aussi décisive, tranchante et éminente que Popper le suppose.
- Enfin, quelque chose de cette théorie de la falsifiabilité constitue une limite qui réduit voire  dénature considérablement l’évolution de la science. Ce n’est pas du tout l’intérêt de la science elle-même que de se rallier trop vite aux thèses de Karl Popper. Pourquoi? Parce qu’il existe de nombreuses théories scientifiques qui ne sont pas testables et n’en sont pas moins scientifiques, sauf si l’on considère qu’ Einstein lui-même n’est pas un scientifique.
           

  Il faut développer ce dernier argument contre Popper. l’univers et sa structure est en fait l’un des rares objets d’étude à propos desquels nous possédons des résultats d’équation exacts et ces équations sont celles de Einstein. Cela signifie que l’Espace est identique en tout lieu (isotope) et en toute direction (isotrope). Cela implique que trois géométries différentes sont possibles pour définir l’espace (Il n’est pas possible de trancher pour l’instant car les données du satellite Planck sont compatibles avec chacune de ces trois possibilités): sphérique, euclidienne et hyperbolique. Si l’espace est sphérique, il est fini mais s’il est euclidien ou hyperbolique, il est infini. Nous avons ainsi un nombre fini (3) de probabilités concernant la forme de l’espace émises par la théorie confortées par l’expérimentation et la mesure, mais développant des conséquences assez « incroyables » ou, pour le moins déstabilisantes pour la raison humaine, à savoir qu’il existe nécessairement pour deux modèles sur trois un espace infini. 
Dire que l’espace est infini, c’est  nécessairement poser l’existence infinie d’univers au fil de cet espace. Qu’est-ce qu’un univers? Pour la cosmologie physique, un univers se définit par un ensemble de données observables (volume de Hubble), c’est-à-dire à l’intérieur duquel tous les phénomènes sont observables, en droit, ou encore plus précisément un volume dans lequel rien ne peut s’éloigner de nous à une vitesse supérieure à celle de la lumière. Il n’est pas possible que l’espace soit infini sans que le nombre des univers évoluant dans cet espace (même si le terme de « dans » est faux puisque il n’y pas ici d’intérieur)  soit infini, ce qui donne naissance à l’hypothèse du multivers.
              Cette hypothèse d’un espace infini donnant lieu à une infinité d’univers est absolument intestable, pour la bonne et simple raison que ce qui définit un autre univers, c’est que nous ne puissions en faire l’expérience et encore moins que nous puissions y faire d’expériences. Popper qualifierait de non scientifique cette hypothèse qui pourtant est la conséquence la plus directes des équations d’Einstein.
            
Ce point est vraiment fascinant, ne serait-ce que parce que de nombreux scientifiques, aujourd’hui encore,  rejettent en effet totalement cette hypothèse du multivers, alors même qu’elle présente pourtant des caractéristiques scientifiquement très fécondes, notamment du point de vue du critère de l’élégance, ou de la simplicité. Dans son livre « des univers multiples », l’astrophysicien Aurélien Barrau essaie de nous faire comprendre les conséquences de l’infinité de l’espace, d’un point de vue cosmologique. Quand nous jouons au loto dans l’univers fini d’un espace fini, il est évident qu’il y a très peu de probabilités que l’on ait le bon tirage et beaucoup qu’on ne l’ait pas.  Beaucoup de probabilités sont donc « sans suite » dans un espace fini. Pour se représenter concrètement un multivers au sein d’un espace infini, il faut réaliser que toutes les probabilités se matérialisent dans « des suites » et qu’il est par conséquent impossible que dans l’un d’entre eux vous n’ayez pas le bon tirage. Aucune pensée humaine ne peut envisager le multivers sans être absolument fasciné et terrifié, débordé par cette représentation de « possibilités » qui deviendraient nécessairement réelles et ce sous l’autorité même d’une « nécessité du multiple » ayant en l’occurrence force de loi. Penser sous l’efficace d’une dynamique qui serait celle de « cette nécessité du multiple » nous apparaît comme étant absolument impossible à la raison humaine et ça l’est peut-être. Mais ne serait ce pas là un dehors à la pensée humaine parfaitement et cette fois ci authentiquement VRAI à cause de cette extériorité même? N'est-ce pas précisément ce que Nietzsche veut signifier ici: "Il me semble important qu'on se débarrasse du Tout, de l'Unité, de je ne sais quelle force, de je ne sais quel absolu… Il faut émietter l'univers, perdre le respect du Tout."
         

  Le point qui ici ne peut manquer de nous apparaître comme digne d’intérêt est celui de l’apparition de la vie sur terre dans une espace fini et dans un espace infini. Toutes les sciences s’accordent à poser cette apparition comme exceptionnelle, anomale, « chanceuse » voire assez incroyable, du point de vue des lois et des probabilités.  Si nous suspendons totalement toute croyance religieuse et toute perspective théologique ou métaphysique, nous ne pouvons faire autrement que de qualifier de « concours heureux de circonstances » l’apparition de la vie dans le Cosmos. Il est possible de  s’obstiner et  de considérer comme chance ou comme hasard l’évènement même de la vie et de notre existence sur cette planète, mais nous pouvons aussi concevoir qu’au sein d’un espace infini, il est absolument et radicalement impossible que la vie ne soit pas l’une des infinies solutions de l’équation du réel. Il serait ainsi avéré que notre existence ne pouvait pas ne pas avoir lieu, et cela sans aucun recours à la foi, à l’espérance ou au « destin ».  C’est très paradoxal: la seule possibilité offerte à la science de proposer un mode d’explication du Cosmos, de l’existence et de la vie qui dépasse largement les hypothèses métaphysiques de la philosophies ou théologiques de la religion est prés précisément celle que le critère de Popper la contraint de rejeter.
 

Conclusion
        Évidemment tout scientifique Popperien nous objectera ici que jamais aucune expérience ne pourra tester l’hypothèse des univers multiples, et il aura raison, mais cette hypothèse n’en reste pas moins la suite logique et incontournable des équations d’Einstein et cela est tout aussi hors de doute. Pour « oser » suivre la voie ouverte par cette nouvelle dynamique que nous avons appelé ici  « nécessité du multiple », il faut oser se détacher de cette ligne tendancielle du vrai sans pour autant rejeter le critère de vérité mais peut-être en le « relativisant », en n’ayant plus peur de lui adjoindre un critère de fécondité, voire d’esthétique, ce que déjà le critère de simplicité induisait parmi les cinq que nous avions retenus. Qu’une hypothèse scientifique ne puisse prétendre à constituer un régime de vérité sans exprimer une indiscutable puissance à susciter de nouvelles conceptions aussi troublantes qu’esthétiques, ou en d’autres termes que les théories scientifiques à venir ne s’offusquent plus à l’idée de devenir des « oeuvres », c’est sans aucun doute ce que le passage de la science initié par la physique quantique d’un modèle explicatif à des modèles interprétatifs promeut et promet. Que la science renonce à incarner « LA » vérité sur terre est donc la condition « sine qua non » de sa réussite et de sa sauvegarde face aux dérives transhumanistes qui la menacent et la dénaturent.


 

Aucun commentaire:

Enregistrer un commentaire