- Le sujet supposé au savoir

Je ne voudrais pas qu'on s'imagine qu'à rendre compte de toutes sortes de savoirs, à répercuter les informations des revues, je sois moi-même omniscient alors qu'à l'évidence chacun est désormais bien ignorant sorti de sa petite spécialité. La mienne est la philosophie à laquelle il faut joindre psychanalyse et religions (c'est déjà beaucoup trop). Ensuite mes compétences s'amenuisent de l'histoire à l'économie, la sociologie, l'ethnologie, l'éthologie, la biologie, la physique, les mathématiques, etc. Je ne suis pas sûr d'ailleurs qu'on puisse être vraiment compétent au-delà de ce qu'on est en train d'étudier sur le moment, ce sur quoi on est en train de réfléchir. On perd très vite ce qu'on ne pratique pas (que ce soit en musique ou en informatique). S'intéresser à tout expose donc à n'être compétent en rien. Personne n'est sans doute plus accablé que moi de l'étendue de mon ignorance, je sais bien hélas tout ce que j'ignore, tout ce que je n'ai pas lu d'auteurs pourtant indispensables ! Je n'arrête pas de corriger mes erreurs, souvent grossières, et de lire les livres et revues qui sortent, mais je sais bien que je n'y consacre pas tout le temps qu'il faudrait, toujours pris par l'urgence...

Il ne s'agit pas de coquetterie mais bien des conditions même de mon travail d'information, de formulation et de questionnement, de critiques épistémologiques qui ne peuvent prétendre à aucune autorité scientifique mais constituent seulement des hypothèses et des argumentations qui doivent être validées et débattues par des spécialistes. Ce serait littéralement folie de ma part de risquer de sortir des sentiers battus, me permette d'adopter une position critique voire proposer de nouvelles idées (c'est si difficile et présomptueux) sans avouer tout ce que j'ignore, ignorance largement partagée par tous. Je ne demande absolument pas qu'on me fasse confiance (je n'ai aucune confiance en moi) comme si j'étais détenteur d'une connaissance divine. Je demande, j'espère plutôt une véritable critique nous faisant progresser, relevant mes erreurs, relançant la question. J'essaie de mettre en relation des savoirs pour lesquels je ne suis qu'un intermédiaire, je voudrais qu'on aille y voir, ce pourquoi j'agace souvent à multiplier les références. Il ne s'agit pas de faire le beau, le malin, le savant mais d'essayer de dépasser notre amour-propre dans la recherche de la vérité. C'est le plus difficile. On se laisse toujours emporter par la présomption, la précipitation, la prétention. Impossible d'y échapper, ce pourquoi il faut pouvoir se "corriger" tout le temps. L'objet de la transversalité n'est pas autre chose que l'insuffisance du savoir (spécialisé), les rigidités de nos connaissances, de même que l'objet de l'informatique c'est le bug et celui de la théorie de l'information l'erreur de transmission. C'est déjà une théorie de la connaissance, une épistémologie.

Je suis persuadé que la transversalité oblige à une perte de rigueur, une connaissance superficielle qu'on peut dire celle de l'honnête homme, mais aussi une liberté d'association, une créativité qui ne doit pas être bridée par trop de vérifications, pour mettre en discussion des conjectures que seuls des spécialistes peuvent vérifier. C'est l'enjeu d'un groupe de recherches, il me semble, de pouvoir bénéficier de ce contrôle. Bien sûr il faut tout de même un minimum de rigueur et de vérifications pour ne pas soumettre de trop grosses bêtises. Il ne s'agit pas de se laisser aller. J'essaie de travailler ce que j'avance, ne pas me limiter à la première impression, mais je revendique mon ignorance comme préalable d'une recherche afin de prendre la liberté d'émettre des hypothèses qui peuvent être réfutées. La rigueur ici doit être surtout épistémologique, philosophique, logique, théorique, discursive. Il ne s'agit absolument pas de parler de tout comme nos politiciens omniscients. Si la transversalité est nécessaire pour penser des rapprochements, de nouvelles voies, lorsque ceux-ci sont pertinents ils doivent être réappropriés par les différentes spécialités.

Je cite souvent à ce propos Georges Dumézil, celui qui a mis en évidence la tripartition indo-européenne entre ceux qui luttent, ceux qui prient et ceux qui travaillent (nobles, clergé, tiers-état). Il insistait sur le fait que le comparatisme des religions impliquait qu'on ne pouvait pas faire le poids avec les spécialistes d'une seule religion et qu'on n'était donc jamais à l'abri de dire des bêtises (comme dans son premier livre sur les Centaures). Plutôt que de condamner le comparatisme, ce qu'il faut obtenir c'est la collaboration des spécialistes, accepter la division des tâches et les différences de rigueur entre espace de proposition ou de critique (que je dirais pour ma part politique) touchant au "paradigme" (voir Kuhn), et espace de vérification (plus proprement scientifique), tout en sachant qu'il ne peut y avoir véritable séparation entre politique et sciences, théorie et expérimentation. En tout cas mon engagement dans la transmission, diffusion, discussion des savoirs est d'abord politique, en opposition à l'idéologie dominante et pour construire une alternative écologiste réaliste au stade d'une économie cognitive et du développement humain devant les catastrophes annoncées et les ravages de la technique. Le sujet du savoir est collectif et historique. Il dépend de chacun.
 


- Les fondements de la physique moderne
http://perso.wanadoo.fr/marxiens/philo/pretapen/einstein.htm

Ceci étant dit, c'est donc en non-spécialiste de ces questions que je vous recommande l'article d'Einstein ci-dessus, article qui est destiné au grand public, qui est simple et clair (et qui est sur mon site depuis que je l'ai ouvert en 1997). On peut voir qu'on était très proche en 1940 des formulations actuelles, le concept d'information ne faisant que permettre de clore une question restée ouverte (à condition, il me semble, de ne pas confondre la discontinuité des quantas avec la discontinuité de l'information). Il faut rappeler en effet que :

- en 1900, Planck montre que certains problèmes peuvent être résolus pas l'introduction, a priori, d'un artifice de calcul consistant à considérer que l'énergie des ondes électromagnétiques de fréquences déterminées ne varient pas de manière continue, mais admet seulement certaines valeurs précises. Il retrouve par calcul les courbes expérimentales, lorsqu'il admet que ces valeurs sont toujours des multiples entiers d'une unité fondamentale, proportionnelle à la fréquence considérée, et qu'il appelle QUANTUM.

- ensuite, en 1905, Einstein établit que l'image d'un objet peut être de deux catégories: soit ondulatoire, soit corpusculaire. Il introduit dans la littérature scientifique l'idée que la lumière est effectivement formée de grains d'énergie: les photons.
 
 Une différence essentielle émerge des deux théories de Planck et d'Einstein. Pour Planck, les quantas sont un artifice qui facilite les calculs, pour Einstein au contraire, ce concept de quantum engage à rechercher une nouvelle théorie de la structure de la lumière.

Les quantas sont donc, notamment, des photons, particules discontinues d'une onde lumineuse continue. Cela confère à la lumière (qui rebondit sur un miroir) un caractère corpusculaire, tout en gardant son caractère d'ondes se décomposant dans un prisme ou l'arc-en-ciel. Ce caractère corpusculaire n'est pas un effet de la mesure ou de l'information ! L'électricité solaire transforme l'énergie des photons en électricité. L'énergie communiquée par un photon à un électron (qu'il fait changer de niveau) est :

E = hn.

E est le différentiel d'énergie entre les 2 niveaux ou plus, h la constante de Planck, n la longueur d'onde de notre photon (hn=mC2).

Ce n'est pas avant l'application par Bohr à la théorie de l'atome (1911), mais surtout vers 1924 les fondements de l'atomistique quantique par Louis de Broglie, Heisenberg et Schrödinger que les paradoxes de la physique quantique sont apparus, résultant des limites de l'expérimentation, de l'impossibilité d'observer le niveau le plus petit de la matière sans le perturber complètement. De là une théorie statistique qui devient magique lorsqu'elle prétend au réalisme ("la liberté de l'électron" de Dirac et autres corrélations voire ubiquités !)

(Pour ceux qui veulent plus de détails, sur les spins par exemple, un site trouvé avec Google :
http://www.astrosurf.com/trousnoirs/quanta.html)

Au fond la physique moderne s'est construite sur les limites absolues de l'expérience physique, que ce soit la vitesse de la lumière (puisque, chose impensable, la vitesse de la lumière d'une voiture en mouvement sera identique à la vitesse de la lumière d'une voiture immobile, c'est-à-dire indépendamment de l'observateur!), ou les quantas limitant la précision des expériences et l'accès aux processus continus sous-jacents à cause de l'impossibilité d'éliminer l'intervention de l'expérimentateur. C'est la fin d'un "réel en soi", la fin de l'infini et de l'absolu dans la physique. La plupart des paradoxes que posent ces théories résultent de la confusion entre notre représentation imaginaire de l'espace ou du temps (schématisme kantien) et l'espace physique, celui de l'expérience, de la matière qui ne connaît pas de ligne droite mais seulement des rayons lumineux qui se courbent à l'approche des planètes. Il me semble qu'on voit bien en quoi ces deux espaces ne se recouvrent pas lorsqu'on a découvert récemment que l'espace physique n'était pas "plat" mais replié sur lui-même, avec pour conséquence d'imaginer passer à travers ses plis (par des sortes de "portes des étoiles" !) pour économiser des distances de millions d'années lumières. Je ne me prononce pas sur la faisabilité de ces trous dans l'espace mais indique seulement que l'espace physique ne remplace pas l'espace géométrique qui le contient, permet de le penser : pour qu'il y ait courbure, il faut tracer une droite imaginaire par rapport à laquelle il y a courbe (Kojève avait bien vu qu'il ne fallait confondre la réalité objective de la science ni avec l'expérience empirique et morale, ni avec l'Etre donné, l'héritage du sens, l'histoire). On doit se résoudre à une pluralité des mondes qui ne se recouvrent pas tout-à-fait, comme les trois dimensions lacaniennes (Réel, Symbolique, Imaginaire) dont le noeud fragile reste toujours provisoire mais nous laisse du jeu. La limitation de notre savoir semblait laisser place ainsi à notre liberté, renforçant même notre responsabilité.

- La nouvelle science (simulation, constructivisme, automates cellulaires)
La Recherche no 356, septembre 2002
Stephen Wolfram, A new kind of Science, mai 2002, 1200 pages

Il fallait rappeler tout cela, qui était déjà largement acquis pour Kojève en 1932 (L'idée du déterminisme dans la physique classique et dans la physique moderne , Livre de poche), avec pour conséquence une certaine remise en cause du déterminisme classique qui sera renforcée par les théories du chaos (limitant nos prévision à un horizon temporel donné, le temps de Lyapounov) mais aussi par la théorie des catastrophes impliquant des ruptures de causalité, d'autres effets de seuil que les quantas, plus faciles à expliquer qu'à prévoir. Tout cela semblait nous condamner au "phénoménisme" face à un réel inaccessible. Effectivement la physique s'oriente sur des phénomènes purs comme les nuages ou les cristaux liquides, si ce n'est la cuisine ou la technologie. Pourtant, au moment même où la théorie quantique renonce au réalisme de ses formules, une nouvelle voie s'ouvre, complètement nouvelle, sorte de constructivisme radical permettant un accès au principe organisateur de l'univers, au-delà de la limitation quantique, par sa reconstruction, bien que sous une forme hypothétique, ranimant du même coup le déterminisme.

De quoi s'agit-il en effet ? De passer de l'observation (avec ses limitations) à la reconstruction des phénomènes complexes à partir de programmes élémentaires extrêmement simples. On savait déjà qu'un programme très simple comme "la transformation du boulanger" imitant le pétrissage d'une pâte pouvait illustrer les théories du chaos par l'impossibilité de prévoir la position d'un point après un certain nombre de pétrissages. Stephen Wolfram a montré, lui, qu'un "automate cellulaire" élémentaire produisait une complexité croissante. La notion d'automates cellulaires vient de Neumann (popularisée dans "Le jeu de la vie" de John Conway). Cela consiste dans un "calculateur universel" très simple déterminant la valeur d'une cellule selon celle de ses voisines. On peut l'imager par l'exemple du sexe des plantes (dioïques comme le chanvre par exemple). Les plants se déclarent normalement à peu près à égalité entre mâles et femelles. Si on arrache les mâles et qu'on met en terre de nouvelles plantes encore indifférenciées, elles seront toutes mâles, à une ou deux exceptions près. On peut donc penser que le sexe se détermine selon le sexe des plantes environnantes. C'est le plus simple. A peine un peu plus compliqué, on peut avoir une suite du genre "1 ou 2 noirs dans les 3 derniers donnent un noir et 3 noirs de suite donnent un blanc (ou 3 blancs donnent un noir)". La règle a beau être triviale, il est impossible d'en prévoir le déroulement, il faut lancer le programme et constater le résultat, les morphologies générées qui peuvent reproduire celles de la nature comme les coquillages. L'ordinateur et la simulation remplacent ainsi l'observation et la déduction.

On pourrait voir là l'autre face des fractales, une réduction de la complexité croissante à un formalisme élémentaire bien que largement imprédictible. La grande unification de la physique pourrait s'obtenir par cette voie "expérimentale". On pourrait ainsi générer toutes les lois de la physique à partir d'un "réseau reliant des noeuds abstraits". "Des concepts comme l'espace et le temps émergent alors comme des propriétés limites de ces réseaux. A partir de là, cela devient tout-à-fait passionnant car on voit ainsi émerger la relativité restreinte, la relativité générale et certains aspects de la mécanique quantique". Théorie quantique, par laquelle il a commencé sa carrière et à propos de laquelle il avoue qu'on "découvre toute une série de passages à la limite et d'idéalisations" problématiques mais il prétend obtenir ainsi une équivalence entre la mécanique des fluides, le cerveau ou l'univers.

C'est, on le voit une théorie extrêmement ambitieuse bien qu'elle ne procède pas par déductibilité (il y a une "irréductibilité calculatoire") mais par expérience vérifiable (simulation) plutôt que falsifiable. Je n'ai aucun moyen de jauger le sérieux de ces thèses car je n'ai pas lu les 1200 pages de ce livre qui n'est pas encore traduit. Le concepteur est on ne peut plus sérieux, auteur du programme Mathematica, mais le concept me semble en tout cas extrêmement prometteur, même si la déduction de l'univers jusqu'aux tâches du léopard n'est pas vraiment pensable, la contingence devant y garder toute sa part, les théories du chaos restant forcément valables (et les ruptures de causalité, les changements de niveau). Cette méthode de simulation prendra sans doute de plus en plus de place, créer des univers comme on jette les dés. Cela ressemble à la programmation évolutionnaire (processus de sélection de systèmes auto-programmés) mais on peut dire aussi que c'en est l'exact contraire. Si on peut arriver ainsi à dépasser les limites de la matière et de l'expérience, c'est en perdant tout caractère physique. C'est donc encore une meta-physique abstraite, plus technique que conceptuelle pourtant, et sans toute trop mécaniste pour l'instant.

Sa critique du "jugement par les pairs" me semble intéressante aussi : "ce n'est pas toujours la meilleure méthode de management" pense-t-il. On peut lui donner raison, ce qui n'empêche pas que le jugement par les pairs soit essentiel dans la constitution de l'objectivité scientifique, mais il faut en corriger les défauts (le conservatisme, la concurrence, l'intérêt), ne pas en faire l'unique critère : "Si j'avais rédigé un projet de recherche en vue de passer vingt ans à créer une nouvelle sorte de science, je ne pense pas qu'il aurait été financé".
07/09/02

Index