فيلوصوفيا
هل تريد التفاعل مع هذه المساهمة؟ كل ما عليك هو إنشاء حساب جديد ببضع خطوات أو تسجيل الدخول للمتابعة.


.
 
الرئيسيةأحدث الصورالتسجيلدخول
اتصل بنا
En quoi consiste la 'Révolution Quantique'? Contac10
بحـث
 
 

نتائج البحث
 
Rechercher بحث متقدم
المواضيع الأخيرة
» الأشكلة بين التأصيل النظري والممارسة الديداكتيكية. من إنجاز مولاي إدريس بنشريف ورشيد بلماضية :
En quoi consiste la 'Révolution Quantique'? Clock10الثلاثاء نوفمبر 28, 2023 7:07 pm من طرف كمال صدقي

» https://www.mediafire.com/file/k4jy9zqspl88i0j/%25D8%25A7%25D9%2584%25D8%25A3%25D8%25B4%25D9%2583%25
En quoi consiste la 'Révolution Quantique'? Clock10الثلاثاء نوفمبر 28, 2023 4:58 pm من طرف كمال صدقي

» الحق والعدالة.حوار متشعب حول ممكنات جزء من مجزوءة السياسة
En quoi consiste la 'Révolution Quantique'? Clock10السبت أبريل 22, 2023 7:31 pm من طرف كمال صدقي

» لماذا يتكرر السؤال ما الفلسفة؟
En quoi consiste la 'Révolution Quantique'? Clock10السبت يناير 04, 2020 9:44 pm من طرف كمال صدقي

» عبد المجيد تبون والطبون في المتداول المغربي
En quoi consiste la 'Révolution Quantique'? Clock10السبت يناير 04, 2020 9:43 pm من طرف كمال صدقي

»  المعينات البيداغوجية. كنت أكتب على السبورة القاعدة التالية: يبدأ التفلسف حين تفقد الاشياء بداهتها.
En quoi consiste la 'Révolution Quantique'? Clock10السبت يناير 04, 2020 9:40 pm من طرف كمال صدقي

» المقبلات الفلسفية.
En quoi consiste la 'Révolution Quantique'? Clock10السبت يناير 04, 2020 9:40 pm من طرف كمال صدقي

» هل يجوز تدريس الفلسفة من دون تكوين بيداغوجي وديداكتيكي؟
En quoi consiste la 'Révolution Quantique'? Clock10السبت يناير 04, 2020 9:39 pm من طرف كمال صدقي

» نحن في حاجة إلى عملية إعادة البناء في الفلسفة؟
En quoi consiste la 'Révolution Quantique'? Clock10السبت يناير 04, 2020 9:38 pm من طرف كمال صدقي

» الغائب الاكبر عن الندوات الفلسفية المقامة في الثانويات التأهيلية هو مشكل البيئة
En quoi consiste la 'Révolution Quantique'? Clock10السبت يناير 04, 2020 9:36 pm من طرف كمال صدقي

مواقع صديقة
En quoi consiste la 'Révolution Quantique'? Philo-10
سحابة الكلمات الدلالية
الغير السياسة قيمة الطبيعة وجود الفلسفة النظرية الوضع جذاذة الرغبة الدولة التاريخ الشغل الحقيقة مفهوم الحق والحرية الطبيعي معرفة البشري الضرورة الشخص الفاعلية العلوم مجزوءة نصوص

 

 En quoi consiste la 'Révolution Quantique'?

اذهب الى الأسفل 
كاتب الموضوعرسالة
كمال صدقي
مدير المنتدى
كمال صدقي


ذكر
عدد الرسائل : 2376
العمر : 68
البلد : أفورار
العمل : متقاعد مُهتم بالدرس الفلسفي
تاريخ التسجيل : 20/12/2007

En quoi consiste la 'Révolution Quantique'? Empty
مُساهمةموضوع: En quoi consiste la 'Révolution Quantique'?   En quoi consiste la 'Révolution Quantique'? Clock10الأربعاء نوفمبر 30, 2011 9:53 pm

En quoi consiste la 'Révolution Quantique'?
Michel Bitbol
paru dans: Revue Internationale de Systémique, 11, 215-239, 1997
Copyright: Michel Bitbol
Retour à la page d'accueil

Introduction
Physiciens et philosophes , acteurs des sciences et analystes, se sont très tôt accordés à considérer que la mécanique quantique implique une révolution conceptuelle sans précédent. Planck parlait du pouvoir «explosif» de la théorie quantique; Heisenberg soulignait la «rupture réelle dans la structure de la science», voire le «changement apporté au concept de réalité» , qu'elle entraîne; et Schrödinger évoquait non sans lyrisme l'attitude passionnante, neuve et révolutionnaire que la prise en compte synthétique de cette théorie physique nous force à adopter. La naissance de la mécanique quantique s'est donc vue assigner d'un commun accord le rôle de nouveau modèle de la révolution scientifique: un modèle de la radicalité de ce genre d'événement.
L'unanimité se brise, cependant, dès qu'il s'agit de préciser en quoi consiste le bouleversement proclamé. Les discours sur son contenu sont remarquablement divergents; ils ont souvent tourné, durant les soixante-dix dernières années, à la controverse ou aux querelles d'école. Mais peut-être est-ce là justement l'indice le plus clair de la profondeur de la révolution quantique, et surtout de ses virtualités d'approfondissement. Le désaccord sur ce qu'elle est ne nous suggère-t-il pas qu'elle demeure en partie inachevée? Ce désaccord ne nous porte-t-il pas à soupçonner que la phase destructrice de la révolution une fois dépassée, la réflexion reconstructrice est restée à l'état d'ébauche, sans doute paralysée devant l'étrange mais efficace combinaison de fragments de discours anciens et d'un formalisme prédictif abstrait qui rend la réunification de ces derniers hautement problématique?
Il reste donc une étape révolutionnaire à franchir. Mais avant de s'interroger sur la stratégie à suivre pour cela, il faut dresser un bref inventaire historique des conceptions les plus couramment défendues au sujet de la nature de l'ébranlement conceptuel imposé par la physique quantique. Je développerai quatre de ces conceptions, en les considérant dans un ordre approximativement chronologique. Selon la première, qui a déterminé la dénomination de la nouvelle théorie et qui est aussi la plus précoce parce qu'elle date de la première décennie de ce siècle, la nouveauté revient à introduire des discontinuités dans l'espace des états des objets d'échelle atomique; elle consiste en d'autres termes en une quantification des variables pertinentes. Selon la seconde conception, qui est née à peine plus tard avec les réflexions d'Einstein sur son concept de photon entre 1905 et 1911, mais qui a connu son plein développement au début des années 1920 avec de Broglie, le pas décisif consiste en l'indissoluble association de deux sortes de processus tenus pour mutuellement exclusifs en physique classique: les processus ondulatoires et les processus corpusculaires. La troisième conception, dont le moment fondateur a été la publication en 1927 de l'article de Heisenberg sur les relations dites d'«incertitude», est que la physique quantique signifie l'abandon de l'idéal laplacien du déterminisme. Enfin, la quatrième conception, peut-être la plus féconde à l'heure actuelle, consiste à voir dans la mécanique quantique une incitation d'ampleur inégalée à ne pas se contenter de la conception pré-critique d'une objectivité déjà constituée dans la nature, mais à revenir en permanence aux conditions de l'objectivation. Cette dernière conception de l'apport novateur présumé de la mécanique quantique est cependant particulièrement foisonnante et difficile à cerner, car il y a eu autant de façon de la présenter que d'auteurs (nombreux) qui l'ont soutenue. Pour s'en tenir aux créateurs de la mécanique quantique, Heisenberg parle d'une perte de la coupure cartésienne entre res cogitans et res extensa; Bohr évoque plutôt la relativité des déterminations par rapport aux dispositifs expérimentaux qui contribuent à les définir ; et Schrödinger insiste sur la nécessité d'une refonte complète de l'«ontologie» au sens de Quine, c'est à dire du mode de découpage du champ des phénomènes en entités objectivées (individualisées, permanentes, et susceptibles de recevoir des prédicats). La question du rapport entre physique quantique et constitution de l'objectivité exige donc d'être étudiée à nouveaux frais, si l'on veut éclaircir le sens de la 'révolution quantique' .
I
Mais ne brûlons pas les étapes. Revenons-en aux origines, représentées par l'idée que les processus naturels manifestent des discontinuités «quantiques» irréductibles. On admet couramment qu'il s'agit là d'un écart considérable vis-à-vis du mode de pensée des physiciens classiques, et plus encore vis-à-vis d'une norme très répandue d'explication des phénomènes par contact et continuité. En se rapportant à l'analyse qu'en propose Kant, on se rend pourtant compte qu'une entorse à l'adage «natura non fecit saltus (la nature ne fait pas de saut)» induit moins de difficultés que ne le ferait par exemple une mise en cause de l'usage des catégories de substance et de causalité, dans les principes de permanence et de succession selon une règle. Ne pas réaliser l'unité synthétique des phénomènes sous les catégories de substance ou de causalité reviendrait en effet à renoncer, selon Kant, aux conditions de possibilité d'une connaissance objective alors que mettre à l'écart la «lex continui in natura» (la loi de continuité des phénomènes de la nature), implique seulement l'abandon de l'une de ces «maximes de la faculté de juger» qui sont régulatrices et non déterminantes, c'est-à-dire qui servent de perspective et de guide pour le jugement sans pour autant devoir être attribués à ses objets. Il est vrai que Kant lui-même donne une formulation spatio-temporellement continuiste du principe de la succession des phénomènes selon une règle . Mais ce genre de continuité se justifie seulement par une hypothèse additionnelle, que l'on peut considérer avec le recul comme non nécessaire: l'hypothèse selon laquelle la règle de succession doit porter directement sur les phénomènes manifestés dans l'espace et dans le temps, plutôt que sur des entités théoriques liées indirectement aux phénomènes et ne relevant pas des formes a priori de la sensibilité.
La transformation du mode de pensée des physiciens classiques dans le sens d'un passage du continu au discontinu, apparaît donc avoir des implications moins considérables que certaines autres mutations couramment associées à la mécanique quantique. Il n'en reste pas moins utile, pour éviter des confusions répandues, de s'interroger sur la nature ce qu'il est convenu d'appeler la «quantification». S'agit-il de la traduction théorique de processus d'évolution discontinue se produisant d'eux-mêmes dans la nature (ce qui serait la lecture la plus simple, mais aussi la plus chargée d'implications métaphysiques); s'agit-il d'une simple grille de lecture épistémique dont la maille discrète, justifiée par son pouvoir prédictif, n'exclut pas de concevoir les processus microscopiques sous-jacents comme continus; ou bien encore, ainsi que l'affirme Heisenberg en 1958 , s'agit-il d'une discontinuité indissolublement ontologique et épistémique, liée aux changements soudains qui surviennent lors de la constitution expérimentale des phénomènes, et de l'acquisition corrélative de connaissances?
Une esquisse de réponse à ces questions conditionne la solution d'un autre problème, un problème historique cette fois: quand et comment le concept de «quantification» s'est-il introduit en physique? Peut-on admettre qu'il était déjà présent à partir du moment où l'on a considéré une grille de lecture discrète comme nécessaire pour rendre compte d'une certaine classe de phénomènes à grande échelle, d'ordre thermodynamique, ou bien seulement lorsqu'on a projeté cette grille sur la représentation de la nature et qu'on a décrit les processus microscopiques comme eux-mêmes discrets? C'est seulement si on admet la première option qu'il est légitime de faire de Max Planck l'inventeur de la théorie des quanta entre 1899 et 1901. En revanche, si l'on retient la seconde option, il faut réserver ce titre à Einstein en 1905, puis à Bohr en 1913.
Le point de vue couramment exprimé dans les manuels de physique, selon lequel, dès 1900, Planck a «(...) émis l'hypothèse que les échanges d'énergie entre matière et rayonnement se font non pas de façon continue, mais par quantités discrètes et indivisibles ou quanta d'énergie» , relève en effet, comme l'ont montré récemment Thomas Kuhn et Olivier Darrigol , de l'erreur historiographique (une erreur rendue excusable, il est vrai, par le fait que les fondateurs de la physique quantique l'ont eux-mêmes souvent commise). Planck a certes découpé en éléments finis le continuum des énergies accessibles aux résonateurs électromagnétiques afin de parvenir à sa célèbre formule de distribution spectrale du rayonnement du corps noir, mais il ne prétendait pas en 1900 que seule une série discrète de valeurs de l'énergie était disponible pour ses résonateurs. Jusqu'en 1906 au moins, Planck s'exprimait en termes de segmentation des plages de valeurs de l'énergie et non pas de discrétisation de l'énergie émise ou absorbée . Circonstance plus frappante encore, la totalité du raisonnement de Planck participait du projet de fournir une démonstration du second principe de la thermodynamique qui se base non pas sur le modèle mécanique discontinu et atomiste de Maxwell et Boltzmann, mais sur un modèle mécanique continu de l'éther électromagnétique. Seul l'abandon de l'atomisme pouvait garantir selon lui que le second principe devienne une loi exacte et non pas une loi simplement statistique comme l'avait admis Boltzmann. Dans ce contexte, remarque Olivier Darrigol, les éléments finis d'énergie ne jouaient que le rôle d'une «jauge de désordre élémentaire» dont la dimension était fixée par une constante universelle (h, la constante de Planck) mais qui concernait en dernière analyse un processus electrodynamique continu. Ils ne pouvaient en tous cas être assimilés à des quanta d'émission ou d'absoption.
L'hypothèse des quanta proprement dite ne pouvait naître et prospérer que dans un contexte intellectuel beaucoup plus franchement atomiste que celui de Planck vers 1900. Or c'était justement dans un tel contexte que baignait Einstein, à la suite de ses propres travaux de physique statistique de 1903, qui l'avaient conduit entre autres à rendre raison du phénomène de mouvement Brownien en le faisant résulter du choc aléatoire de molécules contre un petit corps matériel. L'importance de l'arrière-plan atomiste pour la formulation d'une théorie des quanta est soulignée par les premiers paragraphes de l'article de 1905 dans lequel Einstein a émis pour la première fois l'hypothèse des quanta d'énergie lumineuse, plus tard appelés «photons». Dans son style caractéristique, qui est celui d'un projet fort d'unification théorique, Einstein s'interroge en effet sur la possibilité d'un accord entre la discontinuité atomique de la matière et la continuité spatiale du rayonnement électromagnétique. Ne risque-t-on pas, se demande-t-il, d'aboutir à des contradictions avec l'expérience lorsque l'articulation entre le modèle atomiste et le modèle continuiste de l'électromagnétisme doit être mise en jeu, c'est à dire lorsqu'on doit décrire les processus d'émission ou d'absorption de rayonnement par la matière? Cette contradiction, Einstein la détecte en particulier dans la prise en compte traditionnelle de l'effet photoélectrique, ainsi que dans certaines inconsistances de la théorie du rayonnement du corps noir de Planck. Et il propose dès lors de considérer que l'énergie électromagnétique «(...) est constituée d'un nombre fini de quanta d'énergie localisés en des points de l'espace, chacun se déplaçant sans se diviser et ne pouvant être absorbés ou produits que tout d'un bloc» .
Plus tard, en 1906, il remarque que les inconsistances de la théorie de Planck disparaîssent si l'on admet que cette théorie «(...) fait implicitement usage de l'hypothèse des quanta de lumière» . Cet usage implicite invoqué par Einstein en 1906, a été transformé et embelli par la mythologie historique des manuels de physique en un énoncé explicite qui aurait prétendûment été émis par Planck dès 1900. Une telle reconstruction a posteriori a été rendue d'autant plus plausible que, sans pour autant retenir l'hypothèse einteinienne des quanta d'énergie électromagnétique localisés spatialement, Planck admet à partir de 1908 que «l'échange d'énergie entre les électrons et l'éther libre s'effectue toujours par nombres entiers de quanta hn» .
Le lien entre le succès des représentations atomistes durant les deux premières décennies du siècle et la systématisation de la discontinuité quantique est également évident dans la théorie de Bohr de 1913 . Le but que s'assignait Bohr à cette époque était en effet d'assurer la stabilité du modèle d'atome proposé par Rutherford deux ans plus tôt. Selon ce modèle, l'atome était constitué d'un noyau chargé positivement et d'électrons chargés négativement en orbite autour de lui. Or, conformément à l'électrodynamique classique, les électrons accélérés dans leur mouvement orbital auraient dû émettre continûment de l'énergie électromagnétique, puiser pour cela dans leur énergie mécanique, et finir par tomber sur le noyau. Bohr fit alors trois hypothèses qui brisaient la cohérence du compte-rendu mécanique et electrodynamique, mais qui assuraient la stabilité recherchée et avaient bien d'autres conséquences intéressantes. La première hypothèse est que, sur chaque orbite, le mouvement de l'électron est régi par la mécanique classique, tandis que sa transition d'une orbite à l'autre ne l'est pas. La seconde est que l'atome n'émet aucun rayonnement lorsque l'électron se trouve sur une orbite donnée, mais que lors de sa transition aléatoire d'une orbite à une autre orbite plus basse, il émet un rayonnement dont la fréquence obéit à la relation de Planck entre la fréquence et l'énergie. La troisième (seulement explicitée au paragraphe 5 de l'article) est que l'électron ne peut occuper que certaines orbites dites «stationnaires», sélectionnées par analogie avec une condition posée par Planck dans ses articles publiés entre 1910 et 1912, selon laquelle l'énergie d'un résonateur de fréquence n ne peut être égale qu'à un nombre entier de fois l'énergie hn. La conséquence de la deuxième et de la troisième hypothèse est que, lorsqu'il émet un quantum d'énergie électromagnétique, l'électron effectue un saut quantique d'une orbite permise à l'autre. Un saut qui, selon la première hypothèse, n'est pas régi par les lois de la mécanique classique.
Cette étrange association de relations quantiques et de représentations mécaniques inaugura un programme de recherche remarquablement fécond, dont les principaux succès, entre 1913 et 1920 ont été la prédiction des spectres d'émission et d'absorption de rayonnement de nombreux atomes, et la prise en compte systématique des propriétés chimiques des éléments dans le tableau de Mendéléiev. Mais au tout début des années 1920 les difficultés s'accumulèrent, les inconsistances initialement acceptées devinrent de plus en plus gênantes, et les hypothèses ad hoc se multiplièrent afin de faire face au flux des résultats expérimentaux. Comme le dit Lakatos , le programme de recherches de l'ancienne théorie des quanta était devenu régressif au début des années 1920, en ce sens qu'il courait après les phénomènes au lieu de les anticiper.
A partir de ce moment, les doutes à l'égard du compromis un peu baroque de 1913 entre conditions quantiques et représentations issues de la physique classique, se firent de plus en plus fortement sentir. Et s'il fallait sacrifier quelque chose, ce ne pouvait être que tout ou partie (mais quelle partie?) des résidus de représentations classiques, au profit d'une généralisation des concepts proprement quantiques. Selon Heisenberg en 1923, «les représentations (orbitales) ont seulement une signification symbolique; ils sont l'analogue classique de la théorie quantique discrète» . Le but était donc désormais d'aller jusqu'au bout de l'entreprise de discrétisation des quantités intervenant dans la théorie physique, de tendre vers cette théorie intégralement quantique, ne faisant intervenir que des grandeurs discrètes, que Heisenberg et quelques autres chercheurs appelaient de leurs voeux. Max Born fit un pas important dans cette direction en 1924 lorsqu'il énonça le projet de ce qu'il appela pour la première fois une «mécanique quantique» : formuler les lois du mouvement, les lois de la mécanique, non plus à l'aide d'équations différentielles continues, mais en se servant directement d'équations aux différences finies discontinues. Ce projet ne sera cependant réalisé dans toute son ampleur, et avec le succès que l'on sait, que dans la mécanique matricielle de Heisenberg au début de l'année 1925.
Considérée superficiellement, cette étape de l'histoire de la physique peut sembler marquer la victoire généralisée de l'atomisme; un atomisme désormais étendu aux interactions électromagnétiques par le biais du concept einsteinien de photon, et aux lois du mouvement par la mécanique matricielle de Heisenberg. Pourtant, si on y regarde de plus près, l'année 1925 est aussi celle où commencent à être fragilisées plusieurs des conceptions qui sont traditionnellement associées à l'atomisme.
Un événement intellectuel est d'abord venu troubler le concept de quantification spatiale; c'est-à-dire l'idée d'une répartition discrète dans l'espace de la matière et de l'énergie, respectivement sous la forme de constituants atomiques et de photons. Cet événement, ce sont les articles de Bose et d'Einstein de 1924, dans lesquels était développée une nouvelle théorie statistique des gaz. Les auteurs précédents se servaient en particulier de cette théorie pour redémontrer la formule du rayonnement du corps noir de Planck, en considérant une cavité de rayonnement électromagnétique comme une boîte remplie d'un gaz de quanta (ou photons), et en dénombrant les distributions de ces quanta dans les cellules d'espace des phases qui leur sont accessibles. Le problème est que le mode de dénombrement adopté exprimait «(...) une dépendance réciproque (des quanta) les uns par rapport aux autres» . Une dépendance généralisée, instantanée et à distance, qui s'accordait très mal avec la tendance analytique de l'atomisme. L'affaiblissement des représentations atomistes fut encore amplifié par Schrödinger vers la fin de 1925, lorsque, renversant les hypothèses du travail d'Einstein et radicalisant les idées de de Broglie sur les ondes de matière en un modèle holistique, il proposa de considérer un gaz composé d'une multitude de molécules, d'atomes ou de photons, comme un système unique de modes propres d'oscillation de résonateurs de l'éther (ou du vide). Nous reconnaissons là l'esquisse de conceptions qui sont aujourd'hui courantes en théorie quantique des champs, et qui conduisent, lorsqu'elles sont poussées jusqu'à leurs ultimes conséquences, à remplacer le concept de n particules conçues comme objets individuels par celui de n-ième état d'excitation d'un fond dispositionnel appelé le vide quantique. Or, si elles sont prises au sérieux, ces conceptions laissent entrevoir la dissolution complète du paradigme atomiste, au moins dans ses aspects corpusculaires originaux.
D'autres circonstances, comme les expériences de Compton en 1923 (après celles sur l'effet photo-électrique et sur les fluctuations), semblaient pourtant «prouver» indubitablement la nature corpusculaire du rayonnement électromagnétique. Dans ses expériences de diffusion des rayons X sur des électrons en mouvement, Compton s'aperçut en effet que les résultats qu'il obtenait ne pouvaient être pris en compte en décrivant cette diffusion comme celle d'une onde électromagnétique sur une particule. En revanche, il y parvenait en utilisant les lois du choc de deux particules relativistes. Ce constat fut l'un des facteurs qui contribua le plus, en ce début des années 1920, à l'acceptation du concept einsteinien de quanta spatialement localisés d'énergie électromagnétique. Mais dans les sciences, il faut toujours se méfier d'expressions comme «preuve d'existence» ou «preuve de la nature de ceci ou de cela». La sous-détermination des représentations par l'expérience est la règle, et la détermination univoque l'exception. On en a la confirmation dès 1927, lorsque Schrödinger fournit un compte-rendu alternatif de l'effet Compton en termes de diffraction d'une onde (représentant le rayonnement électromagnétique) sur le réseau d'une autre onde (représentant la matière électronique). Cette description alternative continue est certes dépassée dans son principe (même si elle peut parfois encore servir de modèle heuristique), et elle entre en conflit avec certains principes de la mécanique quantique arrivée à maturité; mais elle n'est pas pire de ce point de vue que la description purement corpusculaire et discontinue, et elle peut facilement être remplacée par un compte-rendu moderne en termes de vecteurs d'état globaux valant pour le système entier (rayonnement électromagnétique + matière). Ainsi que des auteurs contemporains l'ont remarqué, elle a surtout l'intérêt de montrer ceci: n'importe quelle description tenant compte convenablement, dans sa structure, des symétries ou des lois de conservation qui sont communes à la physique classique et à la physique quantique serait apte à rendre compte de l'effet Compton. L'effet Compton, pas plus d'ailleurs que l'effet photo-électrique ou les effets de fluctuations thermodynamiques, ne peut par conséquent servir à prouver la nécessité d'une représentation corpusculaire et discontinuiste.
La mécanique matricielle de Heisenberg elle-même, qui semble à première vue représenter une extension sans précédent du champ d'exercice des concepts quantiques, véhicule en fait un message ambigu. Pour s'en apercevoir, il faut revenir brièvement sur les dernières années de l'ancienne théorie des quanta, entre 1918 et 1924. A cette époque, Bohr formulait progressivement son célèbre «principe de correspondance». Ce principe avait d'abord pour objectif limité de permettre le calcul des intensités des raies spectrales émises par l'atome, en extrapolant pour cela aux orbites quantifiées les renseignements fournis par l'électrodynamique classique pour des orbites pas ou peu quantifiées. Mais Bohr lui assignait aussi un objectif plus interne à la physique quantique: établir un rapport réglé entre d'un côté les transitions d'une orbite stationnaire à l'autre, qui déterminaient, selon la théorie quantique, le rayonnement émis, et d'un autre côté le mouvement sur chaque orbite, qui aurait déterminé ce rayonnement si l'électrodynamique classique était encore valable. Cependant, au fur et à mesure que la critique des représentations classiques de trajectoires et d'orbites électroniques s'approfondissait, le contenu du principe de correspondance tendait à devenir purement formel. Il s'agissait de moins en moins de mettre en rapport des évolutions géométrico-cinématiques comme ceux qui sont supposés se dérouler sur les trajectoires orbitales des électrons, et de plus en plus d'établir des relations algébriques entre les quantités qui en sont abstraites. Le nouveau rapport s'établissait non plus entre les processus de transition et les mouvements orbitaux stationnaires, mais entre d'une part les énergies et les probabilités caractérisant une transition, et d'autre part les fréquences des harmoniques caractérisant chaque mouvement orbital stationnaire.
L'ultime étape dans l'abstraction fut franchie par Heisenberg, dont la mécanique matricielle de 1925 fut considérée par Bohr comme une systématisation à la fois exacte et purement symbolique de son principe de correspondance.
A ce stade, toutefois, on peut se poser des questions sur le maintien, en mécanique matricielle, d'un vocabulaire encore marqué par les représentations d'où elle a été tirée par abstractions successives. Pour désigner les éléments matriciels qui interviennent de sa théorie, Heisenberg utilise des expressions comme «amplitude (ou probabilité) de transition». Et Bohr, pour sa part, dit que Heisenberg parvient à symboliser dans sa théorie des possibilités de transition entre les états stationnaires . Mais cette idée de quelque chose qui se trouverait dans l'un des états stationnaires disponibles, à l'exclusion de tous les autres, et qui subirait une transition brutale, un «saut quantique», au moment d'émettre du rayonnement, n'a-t-elle pas été dissoute dans le processus d'abstraction qui a mené à la mécanique matricielle? Reste-t-il vraiment autre chose du concept de transition que les probabilités et les fréquences qui leur étaient antérieurement associées? Comme le remarque à juste titre l'historienne des sciences Mara Beller , il n'en est rien; et l'insistance de Heisenberg à continuer de s'exprimer en termes de ce qui n'était déjà plus que la métaphore des sauts quantiques, relevait plus de la querelle de préséance (vis-à-vis du modèle concurrent et continu de la mécanique ondulatoire de Schrödinger), que de la nécessité conceptuelle. Ceci est implicitement confirmé par Bohr lui-même lorsqu'il remarque en 1929: «(...) les concepts d'état stationnaire et de processus individuels de transition possèdent autant de réalité, ou aussi peu, que les particules individuelles elles-mêmes» . Il s'agit seulement, dans les deux cas, d'images semi-classiques dont l'utilisation doit se limiter aux conditions expérimentales qui définissent leur domaine de pertinence partielle.
Quelle conclusion peut-on tirer de ceci, avec le recul des années? Avant tout, une remarque. Le principe de superposition des états stationnaires, dont Dirac disait qu'elle est l'une des plus importantes des nouvelles lois requises par la théorie quantique , manifeste clairement à quel point l'idée d'objets qui ne pourraient se trouver que dans l'un de ces états, et passer de l'un à l'autre par des «sauts quantiques» est au fond étrangère à quelque version que ce soit de la mécanique quantique.
Mais alors, cela veut-il dire que la mécanique quantique n'a rien de «quantique» (pas plus d'ailleurs qu'elle n'est vraiment une «mécanique», parce qu'elle ne décrit pas par elle-même, sauf par passage à la limite et extrapolation asymptotique, le mouvement de corps matériels)? N'allons pas si loin. Il reste quelque chose de quantique dans cette théorie: c'est le schème de discrétisation des états stationnaires eux-mêmes. Mais ce schème n'a rien de fondamental. Il peut être dérivé de structures plus générales associées à des conditions aux limites. Il dérive des relations de commutation entre opérateurs matriciels, dans la version de la théorie introduite par Heisenberg, ou bien d'une équation isomorphe à celle qui régit des ondes stationnaires dans la version de la théorie introduite par Schrödinger. Et ces structures générales peuvent à leur tour, nous allons le voir brièvement à la prochaine section, être dérivées de principes de portée encore plus vaste, parmi lesquels celui selon lequel les phénomènes sont relatifs à des contextes expérimentaux parfois incompatibles tient une place épistémologiquement centrale.
II
Dans la discussion précédente sur la quantification, nous avons évoqué ponctuellement le rôle que pourraient y jouer les représentations ondulatoires. Il faut à présent revenir avec plus de précision sur l'association de représentations corpusculaires et ondulatoires, qui a longtemps été perçue comme l'un des traits à la fois les plus neufs et les plus énigmatiques de la théorie quantique. L'idée a fait son entrée dès 1905 avec l'hypothèse des quanta de lumière d'Einstein. La prise en compte du rayonnement du corps noir, des phénomènes de fluctuation, et de l'effet photo-électrique, semblait en effet relever de propriétés corpusculaires du rayonnement électromagnétique, tandis que les phénomènes d'interférence, connus depuis longtemps, manifestaient ses propriétés ondulatoires. Au congrès Solvay de 1911, Einstein était suffisamment embarassé par cette apparente contradiction pour insister «(...) sur le caractère provisoire de cette conception (des quanta d'énergie électromagnétique) qui ne semble pas pouvoir se concilier avec les conséquences expérimentalement vérifiées de la théorie des ondulations» . Mais Louis de Broglie, qui eut connaissance de ces débats du congrès Solvay par l'intermédiaire de son frère, en tira un tout autre enseignement. Au lieu de chercher à résoudre la contradiction en éliminant l'une des deux représentations du rayonnement électromagnétique, comme tentèrent de le faire Bohr Kramers et Slater en 1924, il prit la décision de l'étendre à la matière et d'en tirer toutes les conséquences. Guidé par des considérations sur la théorie de la relativité, il fut conduit de 1923 à 1925 «(...) à associer au mouvement uniforme de tout point matériel la propagation d'une certaine onde (...)». Appliquée au mouvement orbital d'un électron dans un atome de Bohr, cette idée lui permit «(...) de retrouver les conditions de stabilité quantique comme expressions de la résonance de l'onde sur la longueur de la trajectoire» . Le résultat fut considéré comme très prometteur par Einstein. Mais retrouver les conditions de quantification de Bohr en utilisant un modèle ondulatoire plutôt qu'en les postulant, ne suffisait pas. Car d'une part ce modèle restait à l'état d'ébauche, et d'autre part les conditions de quantification de Bohr étaient déjà dépassées à cette époque. Ce fut donc le mérite de Schrödinger de résoudre ces deux difficultés d'un coup en Janvier 1926. Il y parvint en introduisant une équation d'onde qui porte désormais son nom, et en s'affranchissant complètement du concept d'orbite électronique initialement utilisé par Bohr. De nouvelles conditions de discrétisation se déduisaient en remplaçant l'électron tournant sur une orbite par une onde stationnaire centrée sur le noyau. Ainsi, dans la «mécanique ondulatoire» de Schrödinger «(les) nombres entiers s'introduisent de la même manière naturelle que le nombre d'entier des noeuds d'une corde vibrante (attachée à ses deux bouts)» . Enfin, en avril 1926, Schrödinger présenta ce qu'il tenait pour une démonstration de l'exacte équivalence formelle entre sa nouvelle mécanique ondulatoire et la mécanique matricielle proposée par Heisenberg un an plus tôt .
On avait ainsi obtenu un cadre mathématique unifié, satisfaisant, et apte à rendre compte de l'ensemble des phénomènes qui avaient motivé l'introduction des concepts quantiques. Mais la question du statut de la représentation ondulatoire mise en jeu par de Broglie et Schrödinger restait posée. Devait-elle simplement être associée à la représentation de trajectoires corpusculaires comme le proposait de Broglie dans sa théorie de l'onde-pilote; était-elle plutôt la seule «réalité» qui subsistait, comme l'affirmait Schrödinger, qui pensait en 1926 pouvoir rendre compte, par son concept de paquet d'ondes, de tous les phénomènes d'apparence corpusculaire; ou devait-elle au contraire, comme le proposa Max Born à l'automne 1926, ne se voir attribuer qu'une fonction subalterne d'instrument de calcul de la probabilité de trouver une particule en tel point de l'espace? Chacune de ces options soulevait des difficultés qui n'ont commencé à être comprises et partiellement résolues que bien plus tard. La théorie broglienne de l'onde pilote, un temps abandonnée, a montré sa viabilité à travers la nouvelle version qu'en a présentée David Bohm en 1952; mais cette viabilité s'obtenait au prix de contraintes importantes, dont la non-localité n'est que l'exemple le plus connu, et dont le caractère principiellement inaccessible (ou «caché») des trajectoires corpusculaires postulées reste le trait épistémologiquement le plus gênant. L'option tout-ondulatoire de Schrödinger a également connu des développements ultérieurs, sous la forme de la théorie des états relatifs d'Everett et de certaines versions des théories de la décohérence. Une théorie des états relatifs présentée par Everett comme descendant directement de la thèse purement ondulatoire de Schrödinger, et des théories de la décohérence qui ont conduit l'un de leurs principaux défenseurs (H.D. Zeh) à donner à un article récent un titre d'esprit très schrödingerien: «Il n'y a ni particules, ni sauts quantiques!». Quant à l'idée d'utiliser la fonction d'onde de Schrödinger comme un instrument de calcul des probabilités, elle est aujourd'hui universellement appliquée, même dans le cadre de celles des interprétations qui considèrent que cette fonction d'onde n'est pas uniquement un tel instrument. Mais on se rend compte aujourd'hui que seule une analyse conduisant à lever les ambiguïtés originelles à propos de ce dont la fonction d'onde permet de calculer la probabilité, et aussi de ce qu'on entend exactement par «probabilité», peut permettre d'en clarifier le domaine d'application et la signification. J'y reviendrai à propos de l'indéterminisme.
Mais avant de quitter le problème de la dualité onde-corpuscule, je voudrais faire un bref commentaire sur l'expérience de Davisson et Germer de 1927. Cette expérience était supposée tester l'hypothèse des ondes de matière de de Broglie. Elle consistait à envoyer un flux d'électrons sur un réseau métallique, et à étudier la distribution du flux réfléchi par ce réseau. Or, ce qu'on a observé, ce sont des figures d'interférence qui sont du même type que les figures de Laue des rayons X dans les cristaux, et qui ont des dimensions en excellent accord avec la valeur de la longueur d'onde électronique calculée à l'aide de la formule de de Broglie. Peut-on dire pour autant, comme on l'a souvent fait, que l'expérience de Davisson et Germer «confirme» l'hypothèse du «caractère ondulatoire des particules matérielles» , ou même qu'elle prouve que «les ondes de de Broglie (sont) une réalité physique» ? Comme précédemment pour l'effet Compton, il faut être très circonspect lorqu'on présente une expérience comme prouvant la réalité ou la nature de quelque chose. Pour pouvoir prendre au sérieux ce genre de conclusion, il faudrait que l'expérience en question ne puisse s'interpréter d'aucune autre manière qu'en supposant que ce quelque chose existe ou est de telle nature. Or, dans le cas des expériences discutées, beaucoup d'autres interprétations sont disponibles. Dans son traité de mécanique quantique de 1951, Bohm rappelle par exemple qu'il y a une possibilité de rendre compte du résultat de l'expérience de Davisson et Germer sans jamais utiliser l'hypothèse qu'une onde est associée au flux d'électrons. Cette possibilité a été suggérée par le physicien américain Duane en 1923, et elle a été développée ultérieurement par Alfred Landé dans un ouvrage publié en 1965. Elle consiste simplement à admettre que les électrons, conçus comme des entités exclusivement corpusculaires, subissent des échanges discrets et aléatoires d'énergie avec les atomes du réseau cristallin. Dans ces conditions, comme l'écrit Landé, on n'a pas besoin d'admettre que les particules «(...) se répandent dans l'espace comme des ondes matérielles (...); c'est le cristal qui est déjà répandu dans l'espace», et qui, en interagissant en bloc de façon quantifiée avec les particules leur fait adopter des distributions analogues à celles d'une onde. Un tel modèle n'est lui-même pas exempt de défauts, mais il a le mérite de mettre en évidence, par sa simple existence, la sous-détermination de la représentation ondulatoire par les expériences du type de celle de Davisson et Germer. Il a aussi un autre mérite, plus important et plus profond; c'est celui de suggérer quelle est la gamme beaucoup plus générale de situations expérimentales dans lesquelles on peut obtenir des effets de type ondulatoire sans ondes. Ces situations ce sont, en général, celles où le résultat d'une expérience combine de façon inséparable ce qui revient à l'objet et ce qui revient au dispositif instrumental avec lequel il a interagi. Ce sont en somme celles où on ne peut pas faire comme si chaque événement expérimental survenait dans l'absolu, mais où l'on doit impérativement tenir compte du fait qu'il n'est défini que relativement au contexte instrumental de son occurrence. En parlant de complémentarité onde-corpuscule plutôt que de dualité, en attribuant les apparences ondulatoires à une classe de situations expérimentales plutôt qu'à des objets, Bohr fut le premier à le suggérer. Un peu plus tard, en 1939, Paulette Destouches-Février mettait en évidence une étroite relation formelle entre effets d'apparence ondulatoire et relativité des phénomènes vis-à-vis de contextes expérimentaux mutuellement incompatibles.
III
Passons à présent à un autre temps fort de la révolution quantique. Celui de l'indéterminisme qui a été couramment associé à la mécanique quantique, et qui a été considéré durant les dix années qui ont suivi sa création comme son apport novateur le plus important et le plus troublant. Je ne me contenterai pas ici de commenter un indéterminisme quantique tenu pour un fait acquis. Je voudrais plutôt, dans le sillage des réflexions de philosophes comme Ernst Cassirer et Alexandre Kojève, le considérer comme une série de questions ouvertes et comme une incitation à de nouvelles clarifications conceptuelles. Qu'est-ce donc que le déterminisme et l'indéterminisme? Quels sont les traits caractéristiques de la mécanique quantique qui ont incité ses créateurs à tenir cette théorie pour indéterministe? Et quelles sont les limites de leurs raisonnements?
Le déterminisme, tout d'abord, peut être défini en première analyse comme une doctrine affirmant l'universalité des relations causales. Mais il faut noter que cette proposition soulève déjà des difficultés. D'une part, certains épistémologues, à la suite d'Auguste Comte, ont dénoncé l'utilisation persistante d'un concept de cause marqué par l'analogie avec l'action humaine, et ont préféré lui substituer le concept de loi. C'est seulement si on conçoit dès le départ, comme Cassirer, le concept de causalité dans un cadre kantien conduisant à rejeter ses connotations aristotéliciennes et scholastiques, qu'une telle réticence perd sa raison d'être. D'autre part, s'en tenir à évoquer l'universalité de relations, qu'elles soient causales ou légales, c'est demeurer à un niveau excessif d'abstraction. La question de savoir quels sont les termes entre lesquels doivent s'établir ces relations reste posée. S'agit-il directement de relations entre événements naturels ou expérimentaux successifs? Ou bien s'agit-il plutôt de relations internes au système d'entités (familières ou théoriques), qui nous permettent d'ordonner, et d'anticiper dans une certaine mesure, les événements expérimentaux? Et si la seconde option est retenue, n'est-on pas conduit à mettre en cause l'équivalence de type laplacien entre déterminisme et stricte prévisibilité des événements expérimentaux?
L'instrument d'une analyse critique étant désormais en place, nous pouvons exposer les raisons qui ont poussé plusieurs créateurs de la mécanique quantique à affirmer qu'elle marque l'avènement d'une physique indéterministe. Les deux raisons principales sont le succès de l'interprétation probabiliste de la fonction d'onde proposée par Max Born en octobre 1926, et la formulation par Heisenberg de ses relations dites d'«incertitude» ou d'«indétermination» au début de 1927. Selon Born tout d'abord, «(...) la mécanique quantique de Schrödinger donne une réponse précise à la question de l'effet d'une collision, mais il ne s'agit pas d'une relation causale. On ne répond pas à la question 'quel est l'état après la collision' mais 'quelle est la probabilité d'obtenir un effet donné après la collision' (...) Ici se pose tout le problème du déterminisme. Du point de vue de notre mécanique quantique, il n'existe pas de grandeur qui, dans un cas particulier, déterminerait causalement l'effet d'une collision» . Quant à Heisenberg, sa remarque cruciale était la suivante: «Ce qui a été réfuté dans la loi exacte de causalité, selon laquelle 'quand nous connaissons le présent avec précision, nous pouvons prédire le futur', ce n'est pas la conclusion mais l'hypothèse». Autrement dit, ce qui a été réfuté par les relations dites d'«incertitude», c'est la possibilité de connaître l'état présent avec une précision arbitrairement bonne. S'appuyant sur cette proposition, Heisenberg se croyait autorisé à affirmer en fin de parcours que «(...) la mécanique quantique établit l'échec final de la causalité» .
Si l'on regarde ces textes fondateurs de près, cependant, le moins qu'on puisse dire est que la conséquence indéterministe qu'ils proclament ne découle pas des prémisses qu'ils posent. Max Born s'en rendait assez bien compte lorsqu'il soulignait, dès son article de l'automne 1926, que l'absence de conditions déterminantes décrites par la mécanique quantique n'implique pas par elle-même que de telles conditions ne pourront jamais être découvertes. «Je serait d'avis quant à moi, écrit-il, de renoncer au déterminisme dans le domaine de l'atome. Mais ceci est une position philosophique, pour lesquels les arguments physiques à eux seuls sont insuffisants» . Heisenberg, lui, était plus catégorique dans son assertion indéterministe, mais dès 1929 un philosophe allemand appelé Hugo Bergmann lui faisait remarquer à juste titre que son raisonnement était incorrect sur le plan de la simple logique. «Une implication logique, soulignait-il, n'est pas réfutée si l'on se contente de prouver que sa prémisse est incorrecte» . En d'autres termes, le fait qu'en vertu des relations de Heisenberg on ne puisse pas disposer au sujet de l'état présent de toutes les informations qui seraient nécessaires pour prédire exactement l'état futur, n'interdit pas de penser que si on disposait de ces informations, on pourrait faire une prédiction exacte. Cette critique du processus déductif de Heisenberg a été reformulée indépendamment, par bien d'autres auteurs, comme A. Kojève et par E. Cassirer.
Au fond, les assertions de Born et de Heisenberg laissaient libre cours à l'idée ou au rêve d'une théorie de processus déterministes sous-jacents, par rapport auxquels l'indéterminisme associé à la mécanique quantique n'aurait à être considéré que comme la manifestation superficielle d'une imperfection de nos instruments de mesure. Toutes les argumentations de ces auteurs et de leur école de pensée allaient donc prendre pour cible le statut épistémologique, ou la simple possibilité, de ces «théories à variables cachées» qui prétendent recouvrer un déterminisme descriptif sous la surface de l'indétermination expérimentale.
Critique épistémologique, d'abord, lorsque les membres de l'«école de Copenhague» présentent les proclamations déterministes des partisans des théories à variables cachées comme métaphysiques puisque expérimentalement inaccessibles. Comme l'écrit Kojève, la véritable leçon que l'école dominante en physique quantique nous pousse à tirer de ses réflexions n'est pas que la fausseté du déterminisme est désormais établie; elle est plutôt que «(...) l'idée classique du déterminisme causal n'est ni vraie ni fausse mais simplement dénuée de sens physique» .
Critique plus radicale ensuite, lorsque les théories à variables cachées sont tenues pour réfutées d'avance, car aucune d'entre elles ne peut parvenir à reproduire certaines prédictions corroborées de la mécanique quantique. Cet argument, cependant, a fait long feu. Il était en effet principalement appuyé sur un théorème formulé par Von Neumann en 1932, dont la validité a été récusée à plusieurs reprises, depuis le premier argument de Grete Hermann en 1935 jusqu'à l'article décisif de Bell en 1966 , en passant par la thèse de M. Mugur-Schächter . Tout ce qu'il reste de ces tentatives d'écarter les théories à variables cachées, c'est une batterie de théorèmes de restriction (parmi lesquels le théorème de Bell sur la non-localité) qui indiquent ce que ne peuvent pas être ces théories si on veut qu'elles convergent avec la mécanique quantique dans le domaine où celle-ci est bien attestée expérimentalement.
A la réflexion, toutefois, ce qui frappe dans ce débat sur le déterminisme, ce sont les présupposés communs à ceux qui semblent par ailleurs s'opposer si vigoureusement. Tous argumentent sur fond de représentations atomistes, même si le statut de ces représentations, descriptif ou seulement heuristique, mimétique ou seulement symbolique, reste un sujet de désaccord entre eux.
Max Born, par exemple, affirme que la fonction d'onde ne nous permet de calculer que la probabilité de détecter une particule en un point de l'espace; mais il persiste à concevoir plus ou moins implicitement cette probabilité comme l'expression d'une ignorance au sujet de la position et de la trajectoire des particules, et ne diffère d'Einstein et des partisans des théories à variables cachées que sur un point. Born pense que cette ignorance est principiellement irréductible, tandis qu'Einstein et les partisans des théories à variables cachées travaillent dans la perspective de sa réduction.
Heisenberg, pour sa part a conçu ses relations dans le but explicite de montrer que le formalisme quantique peut encore être interprété comme représentant «(...) une situation où (une particule) se trouve à peu près - c'est-à-dire à une certaine imprécision près - en une certaine position, et possède à peu près - c'est-à-dire à nouveau à une certaine imprécision près - une vitesse donnée» . Les relations dites d'«incertitude» tendent en somme à préserver quelque chose des représentations atomistes en les soumettant à une limite incompressible de précision expérimentale. Et elles suscitent ainsi immanquablement un désir de transgression de la part d'un pouvoir constructif rationnel qui, quant à lui, n'est pas soumis à de telles limites.
Le problème du déterminisme n'est-il donc pas, tout simplement, mal posé, ou posé de façon trop rigide à l'intérieur d'un cadre représentatif peut-être dépassé? C'est cette conclusion que plusieurs chercheurs parmi lesquels E. Cassirer, C.F. Von Weizsäcker, et P. Mittelstaedt, ont tirée de la remarque de Bohr selon laquelle la causalité et la description des phénomènes dans l'espace et dans le temps sont «complémentaires», c'est-à-dire, en particulier, mutuellement exclusives. Le lien causal strict, qui ne peut être établi entre les différentes positions spatio-temporelles d'un corpuscule matériel, est en revanche applicable à des entités théoriques comme les vecteurs d'état, représentées dans l'espace abstrait de Hilbert. L'évolution des vecteurs d'état de systèmes fermés est en effet régie par une équation aux dérivées partielles strictement déterministe: l'équation de Schrödinger. L'affirmation habituelle selon laquelle «la mécanique quantique est indéterministe» doit donc être nuancée. Il est vrai qu'elle établit un lien seulement probabiliste entre groupes d'événements expérimentaux, mais elle le fait à travers des entités théoriques régies par une loi déterministe.
Evidemment, au regard de l'imprédictibilité de certains événements expérimentaux, la prédictibilité de l'évolution des entités théoriques permettant de calculer des probabilités semble une circonstance accessoire et abstraite. Mais ce n'est là qu'une appréciation hâtive. Cette stricte prédictibilité apparemment purement formelle du devenir des vecteurs d'état n'est en fait pas dénuée de traductions expérimentales. Elle incorpore par exemple la circonstance méthodologiquement centrale de la reproductibilité des mesures. Car elle conduit à prévoir de façon certaine qu'une fois mesurée avec précision la valeur d'une variable particulière sur un système, disons la valeur de la quantité de mouvement, cette valeur se reproduira à l'identique lors d'une mesure immédiatement ultérieure. Et à partir de là, les valeurs de quelques autres variables, que l'on qualifie pour cela de redondantes par rapport à la première, peuvent également être prévue avec certitude. C'est seulement lorsqu'on veut pouvoir prédire la valeur précise d'un couple de variables dites conjuguées, comme la position et la quantité de mouvement, ou encore lorsqu'on veut prédire la valeur précise de l'une après s'être mis dans des conditions fixant la valeur précise de l'autre, que la mécanique quantique se borne à fournir des évaluations probabilistes.
Ceci nous conduit à faire la remarque suivante. La demande de prédire avec précision la valeur d'un couple de variables comme la position et la quantité de mouvement, et non pas chacune des valeurs isolément, ne se justifie vraiment que dans le cadre du modèle antérieur de la physique classique; un modèle où la donnée simultanée d'une valeur précise de la position et de la quantité de mouvement définissait l'état d'un corpuscule matériel. Or, ce concept d'état opère sous l'hypothèse tacite que les deux valeurs qui le définissent sont détachables du contexte de leur mesure et simultanément attribuables en propre au corpuscule. Et ce détachement s'appuie à son tour sur l'indifférence complète des valeurs de variables vis-à-vis de l'ordre des mesures et des moyens employés pour les effectuer. L'indifférence en question était la règle pour des variables conjuguées dans le domaine classique, mais elle fait généralement défaut lorsque les mêmes variables sont mesurées dans le domaine de validité spécifique de la mécanique quantique.
Cette analyse suggère que nous pourrions peut-être retrouver la situation de stricte prédictibilité qui était celle de la mécanique classique, à condition de choisir un ensemble de nouvelles variables pertinentes dont l'indifférence complète vis-à-vis de l'ordre et des moyens de la mesure soit attestée dans le domaine quantique.
Mais où trouver de telles variables? Un indice devrait nous mettre sur la voie. Si les vecteurs d'état permettent rarement de prédire la valeur exacte des variables, ils permettent toujours de prédire leur distribution statistique (définie par leur valeur moyenne et leur écart-type). Il autorisent en particulier à prédire de façon certaine la distribution statistique de couples de variables conjuguées à la suite d'une série de préparations expérimentales identiques, alors même qu'ils n'offrent que des prédictions probabilistes pour les valeurs exactes de ces couples de valeurs conjuguées. Or on connaît de nos jours une classe de procédés expérimentaux dits «adiabatiques» qui donnent directement accès à des valeurs moyennes ou à des écarts types, à partir d'une seule mesure, et non pas d'un grand nombre de mesures. La stricte prédictibilité de l'évolution des vecteurs d'état se traduit ainsi en stricte prédictibilité des valeurs fournies par des mesures adiabatiques. Le déterminisme formel de l'équation de Schrödinger possède donc son correspondant expérimental sous forme d'un déterminisme des valeurs distributives obtenues grâce à des procédés de mesure adiabatique.
En résumé, ce qu'on appelle l'indéterminisme de la mécanique quantique se réduit à ceci: l'indétermination de certains processus définis au moyen d'une grille de lecture classique. Il suffit de changer de grille de lecture, de manipuler systématiquement des concepts propres au nouveau paradigme, comme celui de valeur distributive, pour retrouver une part de déterminisme. Est-ce à dire que nous avons prouvé que les lois de la nature étaient au fond déterministes? En aucune façon, pas davantage que Heisenberg n'avait réussi à prouver par ses relations que les lois de la nature sont au fond in-déterministes. Cette question du caractère déterministe ou indéterministe des lois «ultimes» de la nature est au demeurant indécidable . Mais nous avons au moins montré que la situation présente de la physique n'interdit pas de trouver des niveaux de description des phénomènes eux-mêmes (et pas seulement des variables cachées) sur lesquels puisse encore opérer ce principe régulateur de la recherche scientifique qu'est celui de succession suivant une règle. La seule chose que l'on ait vraiment perdue en passant du paradigme classique au paradigme quantique, c'est la confiance dans une universalité si complète de ce principe qu'on puisse se conduire dans les sciences comme s'il n'était pas seulement régulateur pour la recherche mais aussi constitutif pour son objet.
الرجوع الى أعلى الصفحة اذهب الى الأسفل
https://philo.forumarabia.com
كمال صدقي
مدير المنتدى
كمال صدقي


ذكر
عدد الرسائل : 2376
العمر : 68
البلد : أفورار
العمل : متقاعد مُهتم بالدرس الفلسفي
تاريخ التسجيل : 20/12/2007

En quoi consiste la 'Révolution Quantique'? Empty
مُساهمةموضوع: رد: En quoi consiste la 'Révolution Quantique'?   En quoi consiste la 'Révolution Quantique'? Clock10الأربعاء نوفمبر 30, 2011 9:54 pm

IV
La leçon à tirer de cette analyse critique de trois des conceptions les plus répandues de la révolution induite par la mécanique quantique est que le problème posé par cette théorie ne concerne pas tant les caractéristiques de l'objet de la physique, que la possibilité et les conditions éventuelles de l'objectivation. La première tâche à affronter, ce n'est pas de se demander si l'objet quantique évolue par sauts ou non, s'il a ou s'il n'a pas des propriétés ondulatoires, s'il obéit ou s'il n'obéit pas à des lois déterministes; c'est de s'assurer que les conditions de possibilité d'un discours sur un objet en général sont remplies dans la gamme de phénomènes que régit la mécanique quantique. L'oubli partiel ou total de cet ordre de priorités suffit selon moi à expliquer la confusion du débat sur l'interprétation des théories quantiques durant les trois-quarts de siècle écoulés.
Objectiver, cela revient en effet avant tout à stabiliser un aspect des phénomènes, à le désolidariser du contexte perceptif ou instrumental de sa manifestation, à le rendre indépendant des circonstances particulières, et à pouvoir ainsi le prendre comme thème d'une description valant pour tous, c'est-à-dire pour tous ceux qui se placeraient dans des conditions perceptives ou instrumentales analogues bien que non nécessairement identiques. Or, justement, l'une des premières conclusions importantes que les créateurs de la mécanique quantique ont tirées de leurs réflexions sur cette théorie et sur la situation épistémologique qu'elle exprime, consiste à dire qu'il est généralement impossible de défaire le lien entre le phénomène et les circonstances expérimentales particulières de sa manifestation. Bohr a été le premier à le souligner fortement, entre 1927 et 1929: «(...) la grandeur finie du quantum d'action, écrit-il, ne permet pas de faire entre phénomène et instrument d'observation la distinction nette qu'exige le concept d'observation (...)» . Plus tard, bien des auteurs qui étaient pourtant loin d'être tous d'accord avec Bohr sur d'autres points de l'interprétation de la mécanique quantique, ont reconnu qu'il avait vu juste en ce qui concerne la contextualité d'une classe entière de phénomènes. Même une théorie à variables cachées comme celle de Bohm comporte un équivalent de la contextualité bohrienne; un équivalent que j'appelle «contextualisme» et qui consiste à supposer d'un côté qu'il y a des objets porteurs de déterminations intrinsèques, et d'un autre côté que ces déterminations sont instantanément influencées par les instruments de leur mise en évidence.
Partant de ces remarques sur la contextualité, quelques-uns des principaux fondateurs de la mécanique quantique ont remis profondément en cause ce que Richard Rorty appelle la conception «spéculaire» de la théorie de la connaissance; une conception qui prévaut depuis le dix-septième siècle, en dépit de l'avertissement kantien. Selon eux, la théorie physique n'est pas la représentation d'un processus naturel indépendant de l'expérimentateur qui lui ferait face; elle est l'expression de la participation de l'expérimentateur à un devenir qui l'englobe. Bohr remarque par exemple que: «(...) la situation qui se présente en physique nous rappelle (...) instamment cette ancienne vérité, que nous sommes aussi bien acteurs que spectateurs dans le grand drame de l'existence» . Quant à Heisenberg, il souligne à la suite de Bohr que «S'il est permis de parler de l'image de la nature selon les sciences exactes de notre temps, il faut entendre par là, plutôt que l'image de la nature, l'image de nos rapports avec la nature» . Malheureusement, Bohr et Heisenberg n'ont pas toujours su prendre la pleine mesure du renversement de perspective qu'ils annonçaient. Au lieu d'inscrire toute leur démarche dans le prolongement de leur conception participative de la connaissance scientifique, ils ont tendu à préserver des fragments de l'ancienne conception spéculaire, voire à essayer d'expliquer l'échec de la conception spéculaire dans un cadre conceptuel qui reste conditionné par elle. Pour commencer, Bohr et Heisenberg ont essayé au tournant des années 1920 et 1930 de rendre compte de la mise à l'écart du concept de propriété absolue des objets au profit de celui de phénomène relatif à un contexte expérimental, en invoquant la perturbation incontrôlable qu'occasionneraient les appareils macroscopiques sur les objets microscopiques. Puisque la perturbation est incontrôlable, disaient-ils, il est impossible de faire la part de ce qui revient aux propriétés de l'objet et de ce qui revient aux propriétés de l'appareil dans chaque processus individuel, et il faut par conséquent se limiter au résultat de la relation entre les deux. Une critique approfondie de ce genre d'«explication» prendrait du temps, mais on peut au moins souligner son absence de répondant expérimental, car il faudrait, pour la mettre à l'épreuve, disposer d'un moyen d'accéder aux propriétés non-perturbées. Et aussi son caractère circulaire, puisqu'elle se sert d'un langage de propriétés absolues (celles de l'objet, perturbées, et celles de l'appareil, perturbantes) pour justifier sa mise à l'écart dans la théorie physique. A partir du milieu des années 1930, il est vrai, Bohr a accordé de moins en moins de crédit à l'explication de la contextualité irréductible des phénomènes par la perturbation de propriétés non contextuelles, et il s'est rapproché de plus en plus d'une démarche où la contextualité serait prise comme point de départ du raisonnement, indépendamment de toute velléité d'explication. Mais même ainsi, son travail d'affranchissement vis-à-vis des formes traditionnelles d'objectivité restait incomplet. Il continuait à admettre que des objets d'échelle atomique «causent» les phénomènes observables à l'échelle macroscopique, de la même façon que les corpuscules matériels de la mécanique classique peuvent causer des impacts sur des écrans. Il persistait également à considérer que les valeurs d'observables incompatibles comme la position et la quantité de mouvement fournissent des informations à propos d'un même objet d'échelle atomique, faisant ainsi de chaque objet d'échelle atomique le fédérateur de deux classes de phénomènes correspondant trait pour trait à ceux qui définissent l'état d'un corpuscule matériel en mécanique classique.
Ainsi, la révolution quantique est-elle restée longtemps inachevée. On reconnaissait l'opportunité de faire une place à une conception participative de la connaissance scientifique, plutôt que d'accorder l'exclusivité à la conception objectivante, mais on le faisait de façon trop indécise pour dissuader les physiciens de continuer à se servir d'un discours conditionné par l'idée commune d'une objectivité pré-constituée. On attribuait la quantification et les distributions d'apparence ondulatoire à des phénomènes holistiques au sens de Bohr, mais beaucoup s'exprimaient et s'expriment encore comme si cela avait un sens d'en faire des comportements propres aux objets eux-mêmes. On percevait les difficultés considérables que soulève l'inscription de l'objet supposé de la physique quantique dans le cadre spatio-temporel, mais on s'en accomodait en invoquant par exemple des actions non-locales entre objets plus ou moins bien localisés.
D'où la nécessité que j'ai ressentie de reprendre toute la question depuis le début ; et par conséquent de commencer par écarter jusqu'au dernier vestige des représentations classiques de l'objet d'échelle atomique qui, en dépit des atténuations, des symbolisations et des fragmentations successives, ont continué à guider les physiciens. La démarche suivie pour cela était simple. Partir des seules certitudes tacites qui conditionnent le travail et la communication au laboratoire; adopter en somme ce que j'appellerai en m'inspirant du premier Carnap et de son «solipsisme méthodologique» un opérationalisme méthologique. Dégager les caractéristiques principales d'un formalisme unifié permettant de prédire de façon probabiliste un ensemble de phénomènes définis relativement à des contextes expérimentaux qui ne sont pas tous compatibles entre eux. Ne revenir que dans un deuxième temps à la question de l'objet de la physique quantique, une fois que le cahier des charges auquel il doit répondre a été fixé indépendamment de toute idée préconçue à son propos. Proposer enfin de transférer les conditions d'invariance constitutives du concept formel d'objet aux structures d'anticipation probabiliste des phénomènes: ces vecteurs d'état, réidentifiables par leur trajectoire dans un espace de Hilbert, et soumis au principe de la succession selon une règle à travers une équation d'évolution comme celle de Schrödinger.
L'un des principaux résultats obtenus à l'issue de cette démarche a été de montrer qu'imposer à la théorie quantique la tâche de fournir un calcul des probabilités généralisé pour des phénomènes définis contextuellement suffit à fixer ses grands traits structuraux. Et aussi que d'autres traits plus spécialisés découlent de la mise en jeu de principes de symétrie qui sont autant de conditions de possibilité d'une connaissance objective.
En d'autres termes, ce procédé a permis d'esquisser une variété modernisée de «déduction transcendantale» de la mécanique quantique . Il a ainsi conduit à suggérer que la signification majeure de la révolution quantique est celle d'un parachèvement et d'un élargissement de la «révolution copernicienne» au sens de Kant. La 'révolution quantique' rend impossibles ou improbables les échappatoires au retournement de l'attention du connu vers les présupposés de la connaissance; et elle le généralise en un retournement de l'attention des phénomènes anticipés vers les conditions formelles de leur anticipation.
En quoi consiste la 'Révolution Quantique'?
Michel Bitbol
paru dans: Revue Internationale de Systémique, 11, 215-239, 1997
Copyright: Michel Bitbol
Retour à la page d'accueil

Introduction
Physiciens et philosophes , acteurs des sciences et analystes, se sont très tôt accordés à considérer que la mécanique quantique implique une révolution conceptuelle sans précédent. Planck parlait du pouvoir «explosif» de la théorie quantique; Heisenberg soulignait la «rupture réelle dans la structure de la science», voire le «changement apporté au concept de réalité» , qu'elle entraîne; et Schrödinger évoquait non sans lyrisme l'attitude passionnante, neuve et révolutionnaire que la prise en compte synthétique de cette théorie physique nous force à adopter. La naissance de la mécanique quantique s'est donc vue assigner d'un commun accord le rôle de nouveau modèle de la révolution scientifique: un modèle de la radicalité de ce genre d'événement.
L'unanimité se brise, cependant, dès qu'il s'agit de préciser en quoi consiste le bouleversement proclamé. Les discours sur son contenu sont remarquablement divergents; ils ont souvent tourné, durant les soixante-dix dernières années, à la controverse ou aux querelles d'école. Mais peut-être est-ce là justement l'indice le plus clair de la profondeur de la révolution quantique, et surtout de ses virtualités d'approfondissement. Le désaccord sur ce qu'elle est ne nous suggère-t-il pas qu'elle demeure en partie inachevée? Ce désaccord ne nous porte-t-il pas à soupçonner que la phase destructrice de la révolution une fois dépassée, la réflexion reconstructrice est restée à l'état d'ébauche, sans doute paralysée devant l'étrange mais efficace combinaison de fragments de discours anciens et d'un formalisme prédictif abstrait qui rend la réunification de ces derniers hautement problématique?
Il reste donc une étape révolutionnaire à franchir. Mais avant de s'interroger sur la stratégie à suivre pour cela, il faut dresser un bref inventaire historique des conceptions les plus couramment défendues au sujet de la nature de l'ébranlement conceptuel imposé par la physique quantique. Je développerai quatre de ces conceptions, en les considérant dans un ordre approximativement chronologique. Selon la première, qui a déterminé la dénomination de la nouvelle théorie et qui est aussi la plus précoce parce qu'elle date de la première décennie de ce siècle, la nouveauté revient à introduire des discontinuités dans l'espace des états des objets d'échelle atomique; elle consiste en d'autres termes en une quantification des variables pertinentes. Selon la seconde conception, qui est née à peine plus tard avec les réflexions d'Einstein sur son concept de photon entre 1905 et 1911, mais qui a connu son plein développement au début des années 1920 avec de Broglie, le pas décisif consiste en l'indissoluble association de deux sortes de processus tenus pour mutuellement exclusifs en physique classique: les processus ondulatoires et les processus corpusculaires. La troisième conception, dont le moment fondateur a été la publication en 1927 de l'article de Heisenberg sur les relations dites d'«incertitude», est que la physique quantique signifie l'abandon de l'idéal laplacien du déterminisme. Enfin, la quatrième conception, peut-être la plus féconde à l'heure actuelle, consiste à voir dans la mécanique quantique une incitation d'ampleur inégalée à ne pas se contenter de la conception pré-critique d'une objectivité déjà constituée dans la nature, mais à revenir en permanence aux conditions de l'objectivation. Cette dernière conception de l'apport novateur présumé de la mécanique quantique est cependant particulièrement foisonnante et difficile à cerner, car il y a eu autant de façon de la présenter que d'auteurs (nombreux) qui l'ont soutenue. Pour s'en tenir aux créateurs de la mécanique quantique, Heisenberg parle d'une perte de la coupure cartésienne entre res cogitans et res extensa; Bohr évoque plutôt la relativité des déterminations par rapport aux dispositifs expérimentaux qui contribuent à les définir ; et Schrödinger insiste sur la nécessité d'une refonte complète de l'«ontologie» au sens de Quine, c'est à dire du mode de découpage du champ des phénomènes en entités objectivées (individualisées, permanentes, et susceptibles de recevoir des prédicats). La question du rapport entre physique quantique et constitution de l'objectivité exige donc d'être étudiée à nouveaux frais, si l'on veut éclaircir le sens de la 'révolution quantique' .
I
Mais ne brûlons pas les étapes. Revenons-en aux origines, représentées par l'idée que les processus naturels manifestent des discontinuités «quantiques» irréductibles. On admet couramment qu'il s'agit là d'un écart considérable vis-à-vis du mode de pensée des physiciens classiques, et plus encore vis-à-vis d'une norme très répandue d'explication des phénomènes par contact et continuité. En se rapportant à l'analyse qu'en propose Kant, on se rend pourtant compte qu'une entorse à l'adage «natura non fecit saltus (la nature ne fait pas de saut)» induit moins de difficultés que ne le ferait par exemple une mise en cause de l'usage des catégories de substance et de causalité, dans les principes de permanence et de succession selon une règle. Ne pas réaliser l'unité synthétique des phénomènes sous les catégories de substance ou de causalité reviendrait en effet à renoncer, selon Kant, aux conditions de possibilité d'une connaissance objective alors que mettre à l'écart la «lex continui in natura» (la loi de continuité des phénomènes de la nature), implique seulement l'abandon de l'une de ces «maximes de la faculté de juger» qui sont régulatrices et non déterminantes, c'est-à-dire qui servent de perspective et de guide pour le jugement sans pour autant devoir être attribués à ses objets. Il est vrai que Kant lui-même donne une formulation spatio-temporellement continuiste du principe de la succession des phénomènes selon une règle . Mais ce genre de continuité se justifie seulement par une hypothèse additionnelle, que l'on peut considérer avec le recul comme non nécessaire: l'hypothèse selon laquelle la règle de succession doit porter directement sur les phénomènes manifestés dans l'espace et dans le temps, plutôt que sur des entités théoriques liées indirectement aux phénomènes et ne relevant pas des formes a priori de la sensibilité.
La transformation du mode de pensée des physiciens classiques dans le sens d'un passage du continu au discontinu, apparaît donc avoir des implications moins considérables que certaines autres mutations couramment associées à la mécanique quantique. Il n'en reste pas moins utile, pour éviter des confusions répandues, de s'interroger sur la nature ce qu'il est convenu d'appeler la «quantification». S'agit-il de la traduction théorique de processus d'évolution discontinue se produisant d'eux-mêmes dans la nature (ce qui serait la lecture la plus simple, mais aussi la plus chargée d'implications métaphysiques); s'agit-il d'une simple grille de lecture épistémique dont la maille discrète, justifiée par son pouvoir prédictif, n'exclut pas de concevoir les processus microscopiques sous-jacents comme continus; ou bien encore, ainsi que l'affirme Heisenberg en 1958 , s'agit-il d'une discontinuité indissolublement ontologique et épistémique, liée aux changements soudains qui surviennent lors de la constitution expérimentale des phénomènes, et de l'acquisition corrélative de connaissances?
Une esquisse de réponse à ces questions conditionne la solution d'un autre problème, un problème historique cette fois: quand et comment le concept de «quantification» s'est-il introduit en physique? Peut-on admettre qu'il était déjà présent à partir du moment où l'on a considéré une grille de lecture discrète comme nécessaire pour rendre compte d'une certaine classe de phénomènes à grande échelle, d'ordre thermodynamique, ou bien seulement lorsqu'on a projeté cette grille sur la représentation de la nature et qu'on a décrit les processus microscopiques comme eux-mêmes discrets? C'est seulement si on admet la première option qu'il est légitime de faire de Max Planck l'inventeur de la théorie des quanta entre 1899 et 1901. En revanche, si l'on retient la seconde option, il faut réserver ce titre à Einstein en 1905, puis à Bohr en 1913.
Le point de vue couramment exprimé dans les manuels de physique, selon lequel, dès 1900, Planck a «(...) émis l'hypothèse que les échanges d'énergie entre matière et rayonnement se font non pas de façon continue, mais par quantités discrètes et indivisibles ou quanta d'énergie» , relève en effet, comme l'ont montré récemment Thomas Kuhn et Olivier Darrigol , de l'erreur historiographique (une erreur rendue excusable, il est vrai, par le fait que les fondateurs de la physique quantique l'ont eux-mêmes souvent commise). Planck a certes découpé en éléments finis le continuum des énergies accessibles aux résonateurs électromagnétiques afin de parvenir à sa célèbre formule de distribution spectrale du rayonnement du corps noir, mais il ne prétendait pas en 1900 que seule une série discrète de valeurs de l'énergie était disponible pour ses résonateurs. Jusqu'en 1906 au moins, Planck s'exprimait en termes de segmentation des plages de valeurs de l'énergie et non pas de discrétisation de l'énergie émise ou absorbée . Circonstance plus frappante encore, la totalité du raisonnement de Planck participait du projet de fournir une démonstration du second principe de la thermodynamique qui se base non pas sur le modèle mécanique discontinu et atomiste de Maxwell et Boltzmann, mais sur un modèle mécanique continu de l'éther électromagnétique. Seul l'abandon de l'atomisme pouvait garantir selon lui que le second principe devienne une loi exacte et non pas une loi simplement statistique comme l'avait admis Boltzmann. Dans ce contexte, remarque Olivier Darrigol, les éléments finis d'énergie ne jouaient que le rôle d'une «jauge de désordre élémentaire» dont la dimension était fixée par une constante universelle (h, la constante de Planck) mais qui concernait en dernière analyse un processus electrodynamique continu. Ils ne pouvaient en tous cas être assimilés à des quanta d'émission ou d'absoption.
L'hypothèse des quanta proprement dite ne pouvait naître et prospérer que dans un contexte intellectuel beaucoup plus franchement atomiste que celui de Planck vers 1900. Or c'était justement dans un tel contexte que baignait Einstein, à la suite de ses propres travaux de physique statistique de 1903, qui l'avaient conduit entre autres à rendre raison du phénomène de mouvement Brownien en le faisant résulter du choc aléatoire de molécules contre un petit corps matériel. L'importance de l'arrière-plan atomiste pour la formulation d'une théorie des quanta est soulignée par les premiers paragraphes de l'article de 1905 dans lequel Einstein a émis pour la première fois l'hypothèse des quanta d'énergie lumineuse, plus tard appelés «photons». Dans son style caractéristique, qui est celui d'un projet fort d'unification théorique, Einstein s'interroge en effet sur la possibilité d'un accord entre la discontinuité atomique de la matière et la continuité spatiale du rayonnement électromagnétique. Ne risque-t-on pas, se demande-t-il, d'aboutir à des contradictions avec l'expérience lorsque l'articulation entre le modèle atomiste et le modèle continuiste de l'électromagnétisme doit être mise en jeu, c'est à dire lorsqu'on doit décrire les processus d'émission ou d'absorption de rayonnement par la matière? Cette contradiction, Einstein la détecte en particulier dans la prise en compte traditionnelle de l'effet photoélectrique, ainsi que dans certaines inconsistances de la théorie du rayonnement du corps noir de Planck. Et il propose dès lors de considérer que l'énergie électromagnétique «(...) est constituée d'un nombre fini de quanta d'énergie localisés en des points de l'espace, chacun se déplaçant sans se diviser et ne pouvant être absorbés ou produits que tout d'un bloc» .
Plus tard, en 1906, il remarque que les inconsistances de la théorie de Planck disparaîssent si l'on admet que cette théorie «(...) fait implicitement usage de l'hypothèse des quanta de lumière» . Cet usage implicite invoqué par Einstein en 1906, a été transformé et embelli par la mythologie historique des manuels de physique en un énoncé explicite qui aurait prétendûment été émis par Planck dès 1900. Une telle reconstruction a posteriori a été rendue d'autant plus plausible que, sans pour autant retenir l'hypothèse einteinienne des quanta d'énergie électromagnétique localisés spatialement, Planck admet à partir de 1908 que «l'échange d'énergie entre les électrons et l'éther libre s'effectue toujours par nombres entiers de quanta hn» .
Le lien entre le succès des représentations atomistes durant les deux premières décennies du siècle et la systématisation de la discontinuité quantique est également évident dans la théorie de Bohr de 1913 . Le but que s'assignait Bohr à cette époque était en effet d'assurer la stabilité du modèle d'atome proposé par Rutherford deux ans plus tôt. Selon ce modèle, l'atome était constitué d'un noyau chargé positivement et d'électrons chargés négativement en orbite autour de lui. Or, conformément à l'électrodynamique classique, les électrons accélérés dans leur mouvement orbital auraient dû émettre continûment de l'énergie électromagnétique, puiser pour cela dans leur énergie mécanique, et finir par tomber sur le noyau. Bohr fit alors trois hypothèses qui brisaient la cohérence du compte-rendu mécanique et electrodynamique, mais qui assuraient la stabilité recherchée et avaient bien d'autres conséquences intéressantes. La première hypothèse est que, sur chaque orbite, le mouvement de l'électron est régi par la mécanique classique, tandis que sa transition d'une orbite à l'autre ne l'est pas. La seconde est que l'atome n'émet aucun rayonnement lorsque l'électron se trouve sur une orbite donnée, mais que lors de sa transition aléatoire d'une orbite à une autre orbite plus basse, il émet un rayonnement dont la fréquence obéit à la relation de Planck entre la fréquence et l'énergie. La troisième (seulement explicitée au paragraphe 5 de l'article) est que l'électron ne peut occuper que certaines orbites dites «stationnaires», sélectionnées par analogie avec une condition posée par Planck dans ses articles publiés entre 1910 et 1912, selon laquelle l'énergie d'un résonateur de fréquence n ne peut être égale qu'à un nombre entier de fois l'énergie hn. La conséquence de la deuxième et de la troisième hypothèse est que, lorsqu'il émet un quantum d'énergie électromagnétique, l'électron effectue un saut quantique d'une orbite permise à l'autre. Un saut qui, selon la première hypothèse, n'est pas régi par les lois de la mécanique classique.
Cette étrange association de relations quantiques et de représentations mécaniques inaugura un programme de recherche remarquablement fécond, dont les principaux succès, entre 1913 et 1920 ont été la prédiction des spectres d'émission et d'absorption de rayonnement de nombreux atomes, et la prise en compte systématique des propriétés chimiques des éléments dans le tableau de Mendéléiev. Mais au tout début des années 1920 les difficultés s'accumulèrent, les inconsistances initialement acceptées devinrent de plus en plus gênantes, et les hypothèses ad hoc se multiplièrent afin de faire face au flux des résultats expérimentaux. Comme le dit Lakatos , le programme de recherches de l'ancienne théorie des quanta était devenu régressif au début des années 1920, en ce sens qu'il courait après les phénomènes au lieu de les anticiper.
A partir de ce moment, les doutes à l'égard du compromis un peu baroque de 1913 entre conditions quantiques et représentations issues de la physique classique, se firent de plus en plus fortement sentir. Et s'il fallait sacrifier quelque chose, ce ne pouvait être que tout ou partie (mais quelle partie?) des résidus de représentations classiques, au profit d'une généralisation des concepts proprement quantiques. Selon Heisenberg en 1923, «les représentations (orbitales) ont seulement une signification symbolique; ils sont l'analogue classique de la théorie quantique discrète» . Le but était donc désormais d'aller jusqu'au bout de l'entreprise de discrétisation des quantités intervenant dans la théorie physique, de tendre vers cette théorie intégralement quantique, ne faisant intervenir que des grandeurs discrètes, que Heisenberg et quelques autres chercheurs appelaient de leurs voeux. Max Born fit un pas important dans cette direction en 1924 lorsqu'il énonça le projet de ce qu'il appela pour la première fois une «mécanique quantique» : formuler les lois du mouvement, les lois de la mécanique, non plus à l'aide d'équations différentielles continues, mais en se servant directement d'équations aux différences finies discontinues. Ce projet ne sera cependant réalisé dans toute son ampleur, et avec le succès que l'on sait, que dans la mécanique matricielle de Heisenberg au début de l'année 1925.
Considérée superficiellement, cette étape de l'histoire de la physique peut sembler marquer la victoire généralisée de l'atomisme; un atomisme désormais étendu aux interactions électromagnétiques par le biais du concept einsteinien de photon, et aux lois du mouvement par la mécanique matricielle de Heisenberg. Pourtant, si on y regarde de plus près, l'année 1925 est aussi celle où commencent à être fragilisées plusieurs des conceptions qui sont traditionnellement associées à l'atomisme.
Un événement intellectuel est d'abord venu troubler le concept de quantification spatiale; c'est-à-dire l'idée d'une répartition discrète dans l'espace de la matière et de l'énergie, respectivement sous la forme de constituants atomiques et de photons. Cet événement, ce sont les articles de Bose et d'Einstein de 1924, dans lesquels était développée une nouvelle théorie statistique des gaz. Les auteurs précédents se servaient en particulier de cette théorie pour redémontrer la formule du rayonnement du corps noir de Planck, en considérant une cavité de rayonnement électromagnétique comme une boîte remplie d'un gaz de quanta (ou photons), et en dénombrant les distributions de ces quanta dans les cellules d'espace des phases qui leur sont accessibles. Le problème est que le mode de dénombrement adopté exprimait «(...) une dépendance réciproque (des quanta) les uns par rapport aux autres» . Une dépendance généralisée, instantanée et à distance, qui s'accordait très mal avec la tendance analytique de l'atomisme. L'affaiblissement des représentations atomistes fut encore amplifié par Schrödinger vers la fin de 1925, lorsque, renversant les hypothèses du travail d'Einstein et radicalisant les idées de de Broglie sur les ondes de matière en un modèle holistique, il proposa de considérer un gaz composé d'une multitude de molécules, d'atomes ou de photons, comme un système unique de modes propres d'oscillation de résonateurs de l'éther (ou du vide). Nous reconnaissons là l'esquisse de conceptions qui sont aujourd'hui courantes en théorie quantique des champs, et qui conduisent, lorsqu'elles sont poussées jusqu'à leurs ultimes conséquences, à remplacer le concept de n particules conçues comme objets individuels par celui de n-ième état d'excitation d'un fond dispositionnel appelé le vide quantique. Or, si elles sont prises au sérieux, ces conceptions laissent entrevoir la dissolution complète du paradigme atomiste, au moins dans ses aspects corpusculaires originaux.
D'autres circonstances, comme les expériences de Compton en 1923 (après celles sur l'effet photo-électrique et sur les fluctuations), semblaient pourtant «prouver» indubitablement la nature corpusculaire du rayonnement électromagnétique. Dans ses expériences de diffusion des rayons X sur des électrons en mouvement, Compton s'aperçut en effet que les résultats qu'il obtenait ne pouvaient être pris en compte en décrivant cette diffusion comme celle d'une onde électromagnétique sur une particule. En revanche, il y parvenait en utilisant les lois du choc de deux particules relativistes. Ce constat fut l'un des facteurs qui contribua le plus, en ce début des années 1920, à l'acceptation du concept einsteinien de quanta spatialement localisés d'énergie électromagnétique. Mais dans les sciences, il faut toujours se méfier d'expressions comme «preuve d'existence» ou «preuve de la nature de ceci ou de cela». La sous-détermination des représentations par l'expérience est la règle, et la détermination univoque l'exception. On en a la confirmation dès 1927, lorsque Schrödinger fournit un compte-rendu alternatif de l'effet Compton en termes de diffraction d'une onde (représentant le rayonnement électromagnétique) sur le réseau d'une autre onde (représentant la matière électronique). Cette description alternative continue est certes dépassée dans son principe (même si elle peut parfois encore servir de modèle heuristique), et elle entre en conflit avec certains principes de la mécanique quantique arrivée à maturité; mais elle n'est pas pire de ce point de vue que la description purement corpusculaire et discontinue, et elle peut facilement être remplacée par un compte-rendu moderne en termes de vecteurs d'état globaux valant pour le système entier (rayonnement électromagnétique + matière). Ainsi que des auteurs contemporains l'ont remarqué, elle a surtout l'intérêt de montrer ceci: n'importe quelle description tenant compte convenablement, dans sa structure, des symétries ou des lois de conservation qui sont communes à la physique classique et à la physique quantique serait apte à rendre compte de l'effet Compton. L'effet Compton, pas plus d'ailleurs que l'effet photo-électrique ou les effets de fluctuations thermodynamiques, ne peut par conséquent servir à prouver la nécessité d'une représentation corpusculaire et discontinuiste.
La mécanique matricielle de Heisenberg elle-même, qui semble à première vue représenter une extension sans précédent du champ d'exercice des concepts quantiques, véhicule en fait un message ambigu. Pour s'en apercevoir, il faut revenir brièvement sur les dernières années de l'ancienne théorie des quanta, entre 1918 et 1924. A cette époque, Bohr formulait progressivement son célèbre «principe de correspondance». Ce principe avait d'abord pour objectif limité de permettre le calcul des intensités des raies spectrales émises par l'atome, en extrapolant pour cela aux orbites quantifiées les renseignements fournis par l'électrodynamique classique pour des orbites pas ou peu quantifiées. Mais Bohr lui assignait aussi un objectif plus interne à la physique quantique: établir un rapport réglé entre d'un côté les transitions d'une orbite stationnaire à l'autre, qui déterminaient, selon la théorie quantique, le rayonnement émis, et d'un autre côté le mouvement sur chaque orbite, qui aurait déterminé ce rayonnement si l'électrodynamique classique était encore valable. Cependant, au fur et à mesure que la critique des représentations classiques de trajectoires et d'orbites électroniques s'approfondissait, le contenu du principe de correspondance tendait à devenir purement formel. Il s'agissait de moins en moins de mettre en rapport des évolutions géométrico-cinématiques comme ceux qui sont supposés se dérouler sur les trajectoires orbitales des électrons, et de plus en plus d'établir des relations algébriques entre les quantités qui en sont abstraites. Le nouveau rapport s'établissait non plus entre les processus de transition et les mouvements orbitaux stationnaires, mais entre d'une part les énergies et les probabilités caractérisant une transition, et d'autre part les fréquences des harmoniques caractérisant chaque mouvement orbital stationnaire.
L'ultime étape dans l'abstraction fut franchie par Heisenberg, dont la mécanique matricielle de 1925 fut considérée par Bohr comme une systématisation à la fois exacte et purement symbolique de son principe de correspondance.
A ce stade, toutefois, on peut se poser des questions sur le maintien, en mécanique matricielle, d'un vocabulaire encore marqué par les représentations d'où elle a été tirée par abstractions successives. Pour désigner les éléments matriciels qui interviennent de sa théorie, Heisenberg utilise des expressions comme «amplitude (ou probabilité) de transition». Et Bohr, pour sa part, dit que Heisenberg parvient à symboliser dans sa théorie des possibilités de transition entre les états stationnaires . Mais cette idée de quelque chose qui se trouverait dans l'un des états stationnaires disponibles, à l'exclusion de tous les autres, et qui subirait une transition brutale, un «saut quantique», au moment d'émettre du rayonnement, n'a-t-elle pas été dissoute dans le processus d'abstraction qui a mené à la mécanique matricielle? Reste-t-il vraiment autre chose du concept de transition que les probabilités et les fréquences qui leur étaient antérieurement associées? Comme le remarque à juste titre l'historienne des sciences Mara Beller , il n'en est rien; et l'insistance de Heisenberg à continuer de s'exprimer en termes de ce qui n'était déjà plus que la métaphore des sauts quantiques, relevait plus de la querelle de préséance (vis-à-vis du modèle concurrent et continu de la mécanique ondulatoire de Schrödinger), que de la nécessité conceptuelle. Ceci est implicitement confirmé par Bohr lui-même lorsqu'il remarque en 1929: «(...) les concepts d'état stationnaire et de processus individuels de transition possèdent autant de réalité, ou aussi peu, que les particules individuelles elles-mêmes» . Il s'agit seulement, dans les deux cas, d'images semi-classiques dont l'utilisation doit se limiter aux conditions expérimentales qui définissent leur domaine de pertinence partielle.
Quelle conclusion peut-on tirer de ceci, avec le recul des années? Avant tout, une remarque. Le principe de superposition des états stationnaires, dont Dirac disait qu'elle est l'une des plus importantes des nouvelles lois requises par la théorie quantique , manifeste clairement à quel point l'idée d'objets qui ne pourraient se trouver que dans l'un de ces états, et passer de l'un à l'autre par des «sauts quantiques» est au fond étrangère à quelque version que ce soit de la mécanique quantique.
Mais alors, cela veut-il dire que la mécanique quantique n'a rien de «quantique» (pas plus d'ailleurs qu'elle n'est vraiment une «mécanique», parce qu'elle ne décrit pas par elle-même, sauf par passage à la limite et extrapolation asymptotique, le mouvement de corps matériels)? N'allons pas si loin. Il reste quelque chose de quantique dans cette théorie: c'est le schème de discrétisation des états stationnaires eux-mêmes. Mais ce schème n'a rien de fondamental. Il peut être dérivé de structures plus générales associées à des conditions aux limites. Il dérive des relations de commutation entre opérateurs matriciels, dans la version de la théorie introduite par Heisenberg, ou bien d'une équation isomorphe à celle qui régit des ondes stationnaires dans la version de la théorie introduite par Schrödinger. Et ces structures générales peuvent à leur tour, nous allons le voir brièvement à la prochaine section, être dérivées de principes de portée encore plus vaste, parmi lesquels celui selon lequel les phénomènes sont relatifs à des contextes expérimentaux parfois incompatibles tient une place épistémologiquement centrale.
الرجوع الى أعلى الصفحة اذهب الى الأسفل
https://philo.forumarabia.com
كمال صدقي
مدير المنتدى
كمال صدقي


ذكر
عدد الرسائل : 2376
العمر : 68
البلد : أفورار
العمل : متقاعد مُهتم بالدرس الفلسفي
تاريخ التسجيل : 20/12/2007

En quoi consiste la 'Révolution Quantique'? Empty
مُساهمةموضوع: رد: En quoi consiste la 'Révolution Quantique'?   En quoi consiste la 'Révolution Quantique'? Clock10الأربعاء نوفمبر 30, 2011 9:55 pm

es de la théorie quantique. L'idée a fait son entrée dès 1905 avec l'hypothèse des quanta de lumière d'Einstein. La prise en compte du rayonnement du corps noir, des phénomènes de fluctuation, et de l'effet photo-électrique, semblait en effet relever de propriétés corpusculaires du rayonnement électromagnétique, tandis que les phénomènes d'interférence, connus depuis longtemps, manifestaient ses propriétés ondulatoires. Au congrès Solvay de 1911, Einstein était suffisamment embarassé par cette apparente contradiction pour insister «(...) sur le caractère provisoire de cette conception (des quanta d'énergie électromagnétique) qui ne semble pas pouvoir se concilier avec les conséquences expérimentalement vérifiées de la théorie des ondulations» . Mais Louis de Broglie, qui eut connaissance de ces débats du congrès Solvay par l'intermédiaire de son frère, en tira un tout autre enseignement. Au lieu de chercher à résoudre la contradiction en éliminant l'une des deux représentations du rayonnement électromagnétique, comme tentèrent de le faire Bohr Kramers et Slater en 1924, il prit la décision de l'étendre à la matière et d'en tirer toutes les conséquences. Guidé par des considérations sur la théorie de la relativité, il fut conduit de 1923 à 1925 «(...) à associer au mouvement uniforme de tout point matériel la propagation d'une certaine onde (...)». Appliquée au mouvement orbital d'un électron dans un atome de Bohr, cette idée lui permit «(...) de retrouver les conditions de stabilité quantique comme expressions de la résonance de l'onde sur la longueur de la trajectoire» . Le résultat fut considéré comme très prometteur par Einstein. Mais retrouver les conditions de quantification de Bohr en utilisant un modèle ondulatoire plutôt qu'en les postulant, ne suffisait pas. Car d'une part ce modèle restait à l'état d'ébauche, et d'autre part les conditions de quantification de Bohr étaient déjà dépassées à cette époque. Ce fut donc le mérite de Schrödinger de résoudre ces deux difficultés d'un coup en Janvier 1926. Il y parvint en introduisant une équation d'onde qui porte désormais son nom, et en s'affranchissant complètement du concept d'orbite électronique initialement utilisé par Bohr. De nouvelles conditions de discrétisation se déduisaient en remplaçant l'électron tournant sur une orbite par une onde stationnaire centrée sur le noyau. Ainsi, dans la «mécanique ondulatoire» de Schrödinger «(les) nombres entiers s'introduisent de la même manière naturelle que le nombre d'entier des noeuds d'une corde vibrante (attachée à ses deux bouts)» . Enfin, en avril 1926, Schrödinger présenta ce qu'il tenait pour une démonstration de l'exacte équivalence formelle entre sa nouvelle mécanique ondulatoire et la mécanique matricielle proposée par Heisenberg un an plus tôt .
On avait ainsi obtenu un cadre mathématique unifié, satisfaisant, et apte à rendre compte de l'ensemble des phénomènes qui avaient motivé l'introduction des concepts quantiques. Mais la question du statut de la représentation ondulatoire mise en jeu par de Broglie et Schrödinger restait posée. Devait-elle simplement être associée à la représentation de trajectoires corpusculaires comme le proposait de Broglie dans sa théorie de l'onde-pilote; était-elle plutôt la seule «réalité» qui subsistait, comme l'affirmait Schrödinger, qui pensait en 1926 pouvoir rendre compte, par son concept de paquet d'ondes, de tous les phénomènes d'apparence corpusculaire; ou devait-elle au contraire, comme le proposa Max Born à l'automne 1926, ne se voir attribuer qu'une fonction subalterne d'instrument de calcul de la probabilité de trouver une particule en tel point de l'espace? Chacune de ces options soulevait des difficultés qui n'ont commencé à être comprises et partiellement résolues que bien plus tard. La théorie broglienne de l'onde pilote, un temps abandonnée, a montré sa viabilité à travers la nouvelle version qu'en a présentée David Bohm en 1952; mais cette viabilité s'obtenait au prix de contraintes importantes, dont la non-localité n'est que l'exemple le plus connu, et dont le caractère principiellement inaccessible (ou «caché») des trajectoires corpusculaires postulées reste le trait épistémologiquement le plus gênant. L'option tout-ondulatoire de Schrödinger a également connu des développements ultérieurs, sous la forme de la théorie des états relatifs d'Everett et de certaines versions des théories de la décohérence. Une théorie des états relatifs présentée par Everett comme descendant directement de la thèse purement ondulatoire de Schrödinger, et des théories de la décohérence qui ont conduit l'un de leurs principaux défenseurs (H.D. Zeh) à donner à un article récent un titre d'esprit très schrödingerien: «Il n'y a ni particules, ni sauts quantiques!». Quant à l'idée d'utiliser la fonction d'onde de Schrödinger comme un instrument de calcul des probabilités, elle est aujourd'hui universellement appliquée, même dans le cadre de celles des interprétations qui considèrent que cette fonction d'onde n'est pas uniquement un tel instrument. Mais on se rend compte aujourd'hui que seule une analyse conduisant à lever les ambiguïtés originelles à propos de ce dont la fonction d'onde permet de calculer la probabilité, et aussi de ce qu'on entend exactement par «probabilité», peut permettre d'en clarifier le domaine d'application et la signification. J'y reviendrai à propos de l'indéterminisme.
Mais avant de quitter le problème de la dualité onde-corpuscule, je voudrais faire un bref commentaire sur l'expérience de Davisson et Germer de 1927. Cette expérience était supposée tester l'hypothèse des ondes de matière de de Broglie. Elle consistait à envoyer un flux d'électrons sur un réseau métallique, et à étudier la distribution du flux réfléchi par ce réseau. Or, ce qu'on a observé, ce sont des figures d'interférence qui sont du même type que les figures de Laue des rayons X dans les cristaux, et qui ont des dimensions en excellent accord avec la valeur de la longueur d'onde électronique calculée à l'aide de la formule de de Broglie. Peut-on dire pour autant, comme on l'a souvent fait, que l'expérience de Davisson et Germer «confirme» l'hypothèse du «caractère ondulatoire des particules matérielles» , ou même qu'elle prouve que «les ondes de de Broglie (sont) une réalité physique» ? Comme précédemment pour l'effet Compton, il faut être très circonspect lorqu'on présente une expérience comme prouvant la réalité ou la nature de quelque chose. Pour pouvoir prendre au sérieux ce genre de conclusion, il faudrait que l'expérience en question ne puisse s'interpréter d'aucune autre manière qu'en supposant que ce quelque chose existe ou est de telle nature. Or, dans le cas des expériences discutées, beaucoup d'autres interprétations sont disponibles. Dans son traité de mécanique quantique de 1951, Bohm rappelle par exemple qu'il y a une possibilité de rendre compte du résultat de l'expérience de Davisson et Germer sans jamais utiliser l'hypothèse qu'une onde est associée au flux d'électrons. Cette possibilité a été suggérée par le physicien américain Duane en 1923, et elle a été développée ultérieurement par Alfred Landé dans un ouvrage publié en 1965. Elle consiste simplement à admettre que les électrons, conçus comme des entités exclusivement corpusculaires, subissent des échanges discrets et aléatoires d'énergie avec les atomes du réseau cristallin. Dans ces conditions, comme l'écrit Landé, on n'a pas besoin d'admettre que les particules «(...) se répandent dans l'espace comme des ondes matérielles (...); c'est le cristal qui est déjà répandu dans l'espace», et qui, en interagissant en bloc de façon quantifiée avec les particules leur fait adopter des distributions analogues à celles d'une onde. Un tel modèle n'est lui-même pas exempt de défauts, mais il a le mérite de mettre en évidence, par sa simple existence, la sous-détermination de la représentation ondulatoire par les expériences du type de celle de Davisson et Germer. Il a aussi un autre mérite, plus important et plus profond; c'est celui de suggérer quelle est la gamme beaucoup plus générale de situations expérimentales dans lesquelles on peut obtenir des effets de type ondulatoire sans ondes. Ces situations ce sont, en général, celles où le résultat d'une expérience combine de façon inséparable ce qui revient à l'objet et ce qui revient au dispositif instrumental avec lequel il a interagi. Ce sont en somme celles où on ne peut pas faire comme si chaque événement expérimental survenait dans l'absolu, mais où l'on doit impérativement tenir compte du fait qu'il n'est défini que relativement au contexte instrumental de son occurrence. En parlant de complémentarité onde-corpuscule plutôt que de dualité, en attribuant les apparences ondulatoires à une classe de situations expérimentales plutôt qu'à des objets, Bohr fut le premier à le suggérer. Un peu plus tard, en 1939, Paulette Destouches-Février mettait en évidence une étroite relation formelle entre effets d'apparence ondulatoire et relativité des phénomènes vis-à-vis de contextes expérimentaux mutuellement incompatibles.
III
Passons à présent à un autre temps fort de la révolution quantique. Celui de l'indéterminisme qui a été couramment associé à la mécanique quantique, et qui a été considéré durant les dix années qui ont suivi sa création comme son apport novateur le plus important et le plus troublant. Je ne me contenterai pas ici de commenter un indéterminisme quantique tenu pour un fait acquis. Je voudrais plutôt, dans le sillage des réflexions de philosophes comme Ernst Cassirer et Alexandre Kojève, le considérer comme une série de questions ouvertes et comme une incitation à de nouvelles clarifications conceptuelles. Qu'est-ce donc que le déterminisme et l'indéterminisme? Quels sont les traits caractéristiques de la mécanique quantique qui ont incité ses créateurs à tenir cette théorie pour indéterministe? Et quelles sont les limites de leurs raisonnements?
Le déterminisme, tout d'abord, peut être défini en première analyse comme une doctrine affirmant l'universalité des relations causales. Mais il faut noter que cette proposition soulève déjà des difficultés. D'une part, certains épistémologues, à la suite d'Auguste Comte, ont dénoncé l'utilisation persistante d'un concept de cause marqué par l'analogie avec l'action humaine, et ont préféré lui substituer le concept de loi. C'est seulement si on conçoit dès le départ, comme Cassirer, le concept de causalité dans un cadre kantien conduisant à rejeter ses connotations aristotéliciennes et scholastiques, qu'une telle réticence perd sa raison d'être. D'autre part, s'en tenir à évoquer l'universalité de relations, qu'elles soient causales ou légales, c'est demeurer à un niveau excessif d'abstraction. La question de savoir quels sont les termes entre lesquels doivent s'établir ces relations reste posée. S'agit-il directement de relations entre événements naturels ou expérimentaux successifs? Ou bien s'agit-il plutôt de relations internes au système d'entités (familières ou théoriques), qui nous permettent d'ordonner, et d'anticiper dans une certaine mesure, les événements expérimentaux? Et si la seconde option est retenue, n'est-on pas conduit à mettre en cause l'équivalence de type laplacien entre déterminisme et stricte prévisibilité des événements expérimentaux?
L'instrument d'une analyse critique étant désormais en place, nous pouvons exposer les raisons qui ont poussé plusieurs créateurs de la mécanique quantique à affirmer qu'elle marque l'avènement d'une physique indéterministe. Les deux raisons principales sont le succès de l'interprétation probabiliste de la fonction d'onde proposée par Max Born en octobre 1926, et la formulation par Heisenberg de ses relations dites d'«incertitude» ou d'«indétermination» au début de 1927. Selon Born tout d'abord, «(...) la mécanique quantique de Schrödinger donne une réponse précise à la question de l'effet d'une collision, mais il ne s'agit pas d'une relation causale. On ne répond pas à la question 'quel est l'état après la collision' mais 'quelle est la probabilité d'obtenir un effet donné après la collision' (...) Ici se pose tout le problème du déterminisme. Du point de vue de notre mécanique quantique, il n'existe pas de grandeur qui, dans un cas particulier, déterminerait causalement l'effet d'une collision» . Quant à Heisenberg, sa remarque cruciale était la suivante: «Ce qui a été réfuté dans la loi exacte de causalité, selon laquelle 'quand nous connaissons le présent avec précision, nous pouvons prédire le futur', ce n'est pas la conclusion mais l'hypothèse». Autrement dit, ce qui a été réfuté par les relations dites d'«incertitude», c'est la possibilité de connaître l'état présent avec une précision arbitrairement bonne. S'appuyant sur cette proposition, Heisenberg se croyait autorisé à affirmer en fin de parcours que «(...) la mécanique quantique établit l'échec final de la causalité» .
Si l'on regarde ces textes fondateurs de près, cependant, le moins qu'on puisse dire est que la conséquence indéterministe qu'ils proclament ne découle pas des prémisses qu'ils posent. Max Born s'en rendait assez bien compte lorsqu'il soulignait, dès son article de l'automne 1926, que l'absence de conditions déterminantes décrites par la mécanique quantique n'implique pas par elle-même que de telles conditions ne pourront jamais être découvertes. «Je serait d'avis quant à moi, écrit-il, de renoncer au déterminisme dans le domaine de l'atome. Mais ceci est une position philosophique, pour lesquels les arguments physiques à eux seuls sont insuffisants» . Heisenberg, lui, était plus catégorique dans son assertion indéterministe, mais dès 1929 un philosophe allemand appelé Hugo Bergmann lui faisait remarquer à juste titre que son raisonnement était incorrect sur le plan de la simple logique. «Une implication logique, soulignait-il, n'est pas réfutée si l'on se contente de prouver que sa prémisse est incorrecte» . En d'autres termes, le fait qu'en vertu des relations de Heisenberg on ne puisse pas disposer au sujet de l'état présent de toutes les informations qui seraient nécessaires pour prédire exactement l'état futur, n'interdit pas de penser que si on disposait de ces informations, on pourrait faire une prédiction exacte. Cette critique du processus déductif de Heisenberg a été reformulée indépendamment, par bien d'autres auteurs, comme A. Kojève et par E. Cassirer.
Au fond, les assertions de Born et de Heisenberg laissaient libre cours à l'idée ou au rêve d'une théorie de processus déterministes sous-jacents, par rapport auxquels l'indéterminisme associé à la mécanique quantique n'aurait à être considéré que comme la manifestation superficielle d'une imperfection de nos instruments de mesure. Toutes les argumentations de ces auteurs et de leur école de pensée allaient donc prendre pour cible le statut épistémologique, ou la simple possibilité, de ces «théories à variables cachées» qui prétendent recouvrer un déterminisme descriptif sous la surface de l'indétermination expérimentale.
Critique épistémologique, d'abord, lorsque les membres de l'«école de Copenhague» présentent les proclamations déterministes des partisans des théories à variables cachées comme métaphysiques puisque expérimentalement inaccessibles. Comme l'écrit Kojève, la véritable leçon que l'école dominante en physique quantique nous pousse à tirer de ses réflexions n'est pas que la fausseté du déterminisme est désormais établie; elle est plutôt que «(...) l'idée classique du déterminisme causal n'est ni vraie ni fausse mais simplement dénuée de sens physique» .
Critique plus radicale ensuite, lorsque les théories à variables cachées sont tenues pour réfutées d'avance, car aucune d'entre elles ne peut parvenir à reproduire certaines prédictions corroborées de la mécanique quantique. Cet argument, cependant, a fait long feu. Il était en effet principalement appuyé sur un théorème formulé par Von Neumann en 1932, dont la validité a été récusée à plusieurs reprises, depuis le premier argument de Grete Hermann en 1935 jusqu'à l'article décisif de Bell en 1966 , en passant par la thèse de M. Mugur-Schächter . Tout ce qu'il reste de ces tentatives d'écarter les théories à variables cachées, c'est une batterie de théorèmes de restriction (parmi lesquels le théorème de Bell sur la non-localité) qui indiquent ce que ne peuvent pas être ces théories si on veut qu'elles convergent avec la mécanique quantique dans le domaine où celle-ci est bien attestée expérimentalement.
A la réflexion, toutefois, ce qui frappe dans ce débat sur le déterminisme, ce sont les présupposés communs à ceux qui semblent par ailleurs s'opposer si vigoureusement. Tous argumentent sur fond de représentations atomistes, même si le statut de ces représentations, descriptif ou seulement heuristique, mimétique ou seulement symbolique, reste un sujet de désaccord entre eux.
Max Born, par exemple, affirme que la fonction d'onde ne nous permet de calculer que la probabilité de détecter une particule en un point de l'espace; mais il persiste à concevoir plus ou moins implicitement cette probabilité comme l'expression d'une ignorance au sujet de la position et de la trajectoire des particules, et ne diffère d'Einstein et des partisans des théories à variables cachées que sur un point. Born pense que cette ignorance est principiellement irréductible, tandis qu'Einstein et les partisans des théories à variables cachées travaillent dans la perspective de sa réduction.
Heisenberg, pour sa part a conçu ses relations dans le but explicite de montrer que le formalisme quantique peut encore être interprété comme représentant «(...) une situation où (une particule) se trouve à peu près - c'est-à-dire à une certaine imprécision près - en une certaine position, et possède à peu près - c'est-à-dire à nouveau à une certaine imprécision près - une vitesse donnée» . Les relations dites d'«incertitude» tendent en somme à préserver quelque chose des représentations atomistes en les soumettant à une limite incompressible de précision expérimentale. Et elles suscitent ainsi immanquablement un désir de transgression de la part d'un pouvoir constructif rationnel qui, quant à lui, n'est pas soumis à de telles limites.
Le problème du déterminisme n'est-il donc pas, tout simplement, mal posé, ou posé de façon trop rigide à l'intérieur d'un cadre représentatif peut-être dépassé? C'est cette conclusion que plusieurs chercheurs parmi lesquels E. Cassirer, C.F. Von Weizsäcker, et P. Mittelstaedt, ont tirée de la remarque de Bohr selon laquelle la causalité et la description des phénomènes dans l'espace et dans le temps sont «complémentaires», c'est-à-dire, en particulier, mutuellement exclusives. Le lien causal strict, qui ne peut être établi entre les différentes positions spatio-temporelles d'un corpuscule matériel, est en revanche applicable à des entités théoriques comme les vecteurs d'état, représentées dans l'espace abstrait de Hilbert. L'évolution des vecteurs d'état de systèmes fermés est en effet régie par une équation aux dérivées partielles strictement déterministe: l'équation de Schrödinger. L'affirmation habituelle selon laquelle «la mécanique quantique est indéterministe» doit donc être nuancée. Il est vrai qu'elle établit un lien seulement probabiliste entre groupes d'événements expérimentaux, mais elle le fait à travers des entités théoriques régies par une loi déterministe.
Evidemment, au regard de l'imprédictibilité de certains événements expérimentaux, la prédictibilité de l'évolution des entités théoriques permettant de calculer des probabilités semble une circonstance accessoire et abstraite. Mais ce n'est là qu'une appréciation hâtive. Cette stricte prédictibilité apparemment purement formelle du devenir des vecteurs d'état n'est en fait pas dénuée de traductions expérimentales. Elle incorpore par exemple la circonstance méthodologiquement centrale de la reproductibilité des mesures. Car elle conduit à prévoir de façon certaine qu'une fois mesurée avec précision la valeur d'une variable particulière sur un système, disons la valeur de la quantité de mouvement, cette valeur se reproduira à l'identique lors d'une mesure immédiatement ultérieure. Et à partir de là, les valeurs de quelques autres variables, que l'on qualifie pour cela de redondantes par rapport à la première, peuvent également être prévue avec certitude. C'est seulement lorsqu'on veut pouvoir prédire la valeur précise d'un couple de variables dites conjuguées, comme la position et la quantité de mouvement, ou encore lorsqu'on veut prédire la valeur précise de l'une après s'être mis dans des conditions fixant la valeur précise de l'autre, que la mécanique quantique se borne à fournir des évaluations probabilistes.
Ceci nous conduit à faire la remarque suivante. La demande de prédire avec précision la valeur d'un couple de variables comme la position et la quantité de mouvement, et non pas chacune des valeurs isolément, ne se justifie vraiment que dans le cadre du modèle antérieur de la physique classique; un modèle où la donnée simultanée d'une valeur précise de la position et de la quantité de mouvement définissait l'état d'un corpuscule matériel. Or, ce concept d'état opère sous l'hypothèse tacite que les deux valeurs qui le définissent sont détachables du contexte de leur mesure et simultanément attribuables en propre au corpuscule. Et ce détachement s'appuie à son tour sur l'indifférence complète des valeurs de variables vis-à-vis de l'ordre des mesures et des moyens employés pour les effectuer. L'indifférence en question était la règle pour des variables conjuguées dans le domaine classique, mais elle fait généralement défaut lorsque les mêmes variables sont mesurées dans le domaine de validité spécifique de la mécanique quantique.
Cette analyse suggère que nous pourrions peut-être retrouver la situation de stricte prédictibilité qui était celle de la mécanique classique, à condition de choisir un ensemble de nouvelles variables pertinentes dont l'indifférence complète vis-à-vis de l'ordre et des moyens de la mesure soit attestée dans le domaine quantique.
Mais où trouver de telles variables? Un indice devrait nous mettre sur la voie. Si les vecteurs d'état permettent rarement de prédire la valeur exacte des variables, ils permettent toujours de prédire leur distribution statistique (définie par leur valeur moyenne et leur écart-type). Il autorisent en particulier à prédire de façon certaine la distribution statistique de couples de variables conjuguées à la suite d'une série de préparations expérimentales identiques, alors même qu'ils n'offrent que des prédictions probabilistes pour les valeurs exactes de ces couples de valeurs conjuguées. Or on connaît de nos jours une classe de procédés expérimentaux dits «adiabatiques» qui donnent directement accès à des valeurs moyennes ou à des écarts types, à partir d'une seule mesure, et non pas d'un grand nombre de mesures. La stricte prédictibilité de l'évolution des vecteurs d'état se traduit ainsi en stricte prédictibilité des valeurs fournies par des mesures adiabatiques. Le déterminisme formel de l'équation de Schrödinger possède donc son correspondant expérimental sous forme d'un déterminisme des valeurs distributives obtenues grâce à des procédés de mesure adiabatique.
En résumé, ce qu'on appelle l'indéterminisme de la mécanique quantique se réduit à ceci: l'indétermination de certains processus définis au moyen d'une grille de lecture classique. Il suffit de changer de grille de lecture, de manipuler systématiquement des concepts propres au nouveau paradigme, comme celui de valeur distributive, pour retrouver une part de déterminisme. Est-ce à dire que nous avons prouvé que les lois de la nature étaient au fond déterministes? En aucune façon, pas davantage que Heisenberg n'avait réussi à prouver par ses relations que les lois de la nature sont au fond in-déterministes. Cette question du caractère déterministe ou indéterministe des lois «ultimes» de la nature est au demeurant indécidable . Mais nous avons au moins montré que la situation présente de la physique n'interdit pas de trouver des niveaux de description des phénomènes eux-mêmes (et pas seulement des variables cachées) sur lesquels puisse encore opérer ce principe régulateur de la recherche scientifique qu'est celui de succession suivant une règle. La seule chose que l'on ait vraiment perdue en passant du paradigme classique au paradigme quantique, c'est la confiance dans une universalité si complète de ce principe qu'on puisse se conduire dans les sciences comme s'il n'était pas seulement régulateur pour la recherche mais aussi constitutif pour son objet.
IV
La leçon à tirer de cette analyse critique de trois des conceptions les plus répandues de la révolution induite par la mécanique quantique est que le problème posé par cette théorie ne concerne pas tant les caractéristiques de l'objet de la physique, que la possibilité et les conditions éventuelles de l'objectivation. La première tâche à affronter, ce n'est pas de se demander si l'objet quantique évolue par sauts ou non, s'il a ou s'il n'a pas des propriétés ondulatoires, s'il obéit ou s'il n'obéit pas à des lois déterministes; c'est de s'assurer que les conditions de possibilité d'un discours sur un objet en général sont remplies dans la gamme de phénomènes que régit la mécanique quantique. L'oubli partiel ou total de cet ordre de priorités suffit selon moi à expliquer la confusion du débat sur l'interprétation des théories quantiques durant les trois-quarts de siècle écoulés.
Objectiver, cela revient en effet avant tout à stabiliser un aspect des phénomènes, à le désolidariser du contexte perceptif ou instrumental de sa manifestation, à le rendre indépendant des circonstances particulières, et à pouvoir ainsi le prendre comme thème d'une description valant pour tous, c'est-à-dire pour tous ceux qui se placeraient dans des conditions perceptives ou instrumentales analogues bien que non nécessairement identiques. Or, justement, l'une des premières conclusions importantes que les créateurs de la mécanique quantique ont tirées de leurs réflexions sur cette théorie et sur la situation épistémologique qu'elle exprime, consiste à dire qu'il est généralement impossible de défaire le lien entre le phénomène et les circonstances expérimentales particulières de sa manifestation. Bohr a été le premier à le souligner fortement, entre 1927 et 1929: «(...) la grandeur finie du quantum d'action, écrit-il, ne permet pas de faire entre phénomène et instrument d'observation la distinction nette qu'exige le concept d'observation (...)» . Plus tard, bien des auteurs qui étaient pourtant loin d'être tous d'accord avec Bohr sur d'autres points de l'interprétation de la mécanique quantique, ont reconnu qu'il avait vu juste en ce qui concerne la contextualité d'une classe entière de phénomènes. Même une théorie à variables cachées comme celle de Bohm comporte un équivalent de la contextualité bohrienne; un équivalent que j'appelle «contextualisme» et qui consiste à supposer d'un côté qu'il y a des objets porteurs de déterminations intrinsèques, et d'un autre côté que ces déterminations sont instantanément influencées par les instruments de leur mise en évidence.
Partant de ces remarques sur la contextualité, quelques-uns des principaux fondateurs de la mécanique quantique ont remis profondément en cause ce que Richard Rorty appelle la conception «spéculaire» de la théorie de la connaissance; une conception qui prévaut depuis le dix-septième siècle, en dépit de l'avertissement kantien. Selon eux, la théorie physique n'est pas la représentation d'un processus naturel indépendant de l'expérimentateur qui lui ferait face; elle est l'expression de la participation de l'expérimentateur à un devenir qui l'englobe. Bohr remarque par exemple que: «(...) la situation qui se présente en physique nous rappelle (...) instamment cette ancienne vérité, que nous sommes aussi bien acteurs que spectateurs dans le grand drame de l'existence» . Quant à Heisenberg, il souligne à la suite de Bohr que «S'il est permis de parler de l'image de la nature selon les sciences exactes de notre temps, il faut entendre par là, plutôt que l'image de la nature, l'image de nos rapports avec la nature» . Malheureusement, Bohr et Heisenberg n'ont pas toujours su prendre la pleine mesure du renversement de perspective qu'ils annonçaient. Au lieu d'inscrire toute leur démarche dans le prolongement de leur conception participative de la connaissance scientifique, ils ont tendu à préserver des fragments de l'ancienne conception spéculaire, voire à essayer d'expliquer l'échec de la conception spéculaire dans un cadre conceptuel qui reste conditionné par elle. Pour commencer, Bohr et Heisenberg ont essayé au tournant des années 1920 et 1930 de rendre compte de la mise à l'écart du concept de propriété absolue des objets au profit de celui de phénomène relatif à un contexte expérimental, en invoquant la perturbation incontrôlable qu'occasionneraient les appareils macroscopiques sur les objets microscopiques. Puisque la perturbation est incontrôlable, disaient-ils, il est impossible de faire la part de ce qui revient aux propriétés de l'objet et de ce qui revient aux propriétés de l'appareil dans chaque processus individuel, et il faut par conséquent se limiter au résultat de la relation entre les deux. Une critique approfondie de ce genre d'«explication» prendrait du temps, mais on peut au moins souligner son absence de répondant expérimental, car il faudrait, pour la mettre à l'épreuve, disposer d'un moyen d'accéder aux propriétés non-perturbées. Et aussi son caractère circulaire, puisqu'elle se sert d'un langage de propriétés absolues (celles de l'objet, perturbées, et celles de l'appareil, perturbantes) pour justifier sa mise à l'écart dans la théorie physique. A partir du milieu des années 1930, il est vrai, Bohr a accordé de moins en moins de crédit à l'explication de la contextualité irréductible des phénomènes par la perturbation de propriétés non contextuelles, et il s'est rapproché de plus en plus d'une démarche où la contextualité serait prise comme point de départ du raisonnement, indépendamment de toute velléité d'explication. Mais même ainsi, son travail d'affranchissement vis-à-vis des formes traditionnelles d'objectivité restait incomplet. Il continuait à admettre que des objets d'échelle atomique «causent» les phénomènes observables à l'échelle macroscopique, de la même façon que les corpuscules matériels de la mécanique classique peuvent causer des impacts sur des écrans. Il persistait également à considérer que les valeurs d'observables incompatibles comme la position et la quantité de mouvement fournissent des informations à propos d'un même objet d'échelle atomique, faisant ainsi de chaque objet d'échelle atomique le fédérateur de deux classes de phénomènes correspondant trait pour trait à ceux qui définissent l'état d'un corpuscule matériel en mécanique classique.
Ainsi, la révolution quantique est-elle restée longtemps inachevée. On reconnaissait l'opportunité de faire une place à une conception participative de la connaissance scientifique, plutôt que d'accorder l'exclusivité à la conception objectivante, mais on le faisait de façon trop indécise pour dissuader les physiciens de continuer à se servir d'un discours conditionné par l'idée commune d'une objectivité pré-constituée. On attribuait la quantification et les distributions d'apparence ondulatoire à des phénomènes holistiques au sens de Bohr, mais beaucoup s'exprimaient et s'expriment encore comme si cela avait un sens d'en faire des comportements propres aux objets eux-mêmes. On percevait les difficultés considérables que soulève l'inscription de l'objet supposé de la physique quantique dans le cadre spatio-temporel, mais on s'en accomodait en invoquant par exemple des actions non-locales entre objets plus ou moins bien localisés.
D'où la nécessité que j'ai ressentie de reprendre toute la question depuis le début ; et par conséquent de commencer par écarter jusqu'au dernier vestige des représentations classiques de l'objet d'échelle atomique qui, en dépit des atténuations, des symbolisations et des fragmentations successives, ont continué à guider les physiciens. La démarche suivie pour cela était simple. Partir des seules certitudes tacites qui conditionnent le travail et la communication au laboratoire; adopter en somme ce que j'appellerai en m'inspirant du premier Carnap et de son «solipsisme méthodologique» un opérationalisme méthologique. Dégager les caractéristiques principales d'un formalisme unifié permettant de prédire de façon probabiliste un ensemble de phénomènes définis relativement à des contextes expérimentaux qui ne sont pas tous compatibles entre eux. Ne revenir que dans un deuxième temps à la question de l'objet de la physique quantique, une fois que le cahier des charges auquel il doit répondre a été fixé indépendamment de toute idée préconçue à son propos. Proposer enfin de transférer les conditions d'invariance constitutives du concept formel d'objet aux structures d'anticipation probabiliste des phénomènes: ces vecteurs d'état, réidentifiables par leur trajectoire dans un espace de Hilbert, et soumis au principe de la succession selon une règle à travers une équation d'évolution comme celle de Schrödinger.
L'un des principaux résultats obtenus à l'issue de cette démarche a été de montrer qu'imposer à la théorie quantique la tâche de fournir un calcul des probabilités généralisé pour des phénomènes définis contextuellement suffit à fixer ses grands traits structuraux. Et aussi que d'autres traits plus spécialisés découlent de la mise en jeu de principes de symétrie qui sont autant de conditions de possibilité d'une connaissance objective.
En d'autres termes, ce procédé a permis d'esquisser une variété modernisée de «déduction transcendantale» de la mécanique quantique . Il a ainsi conduit à suggérer que la signification majeure de la révolution quantique est celle d'un parachèvement et d'un élargissement de la «révolution copernicienne» au sens de Kant. La 'révolution quantique' rend impossibles ou improbables les échappatoires au retournement de l'attention du connu vers les présupposés de la connaissance; et elle le généralise en un retournement de l'attention des phénomènes anticipés vers les conditions formelles de leur anticipation.
Le réel-en-soi, l'inconnaissable, et l'ineffable
M. Bitbol
Paru dans: Annales d'Histoire et de Philosophie du Vivant, 1, 143-152, 1998
Retour à la page d'accueil
L'objectif de cet article est d'offrir un stimulant à la réflexion en dressant un inventaire un peu hétéroclite, et sans doute partiel, des motifs qui pourraient interdire en principe l'appréhension d'un réel-en-soi par les moyens de la science. La position que nous allons adopter est celle d'un scepticisme méthodologique, qui, contrairement à un scepticisme dogmatique, ne vise pas à se constituer en anti-thèse pessimiste face à l'eschatologie progressiste de la thèse réaliste, mais seulement à contribuer, par la provocation qu'il représente, au raffinement de l'auto-compréhension de l'oeuvre de recherche scientifique. Chemin faisant, nous nous apercevrons qu'aucune science actuelle, pas plus la physique que les autres, n'est en mesure d'opposer un contre-exemple convaincant à la série des arguments sceptiques présentés.
En effectuant un rapide tour d'horizon, on aperçoit au moins cinq raisons qui pourraient rendre impossible la compréhension ou la connaissance d'un «réel-en-soi» par les méthodes de la science. Un trait marquant de ces raisons est leur extrême hétérogénéité. Les unes supposent que l'on accepte la formulation de la question «La science est-elle apte à comprendre le réel-en-soi?», ainsi que les concepts qui y interviennent, tandis que les autres en mettent en cause jusqu'au bien-fondé. Parmi celles qui ne repoussent ni l'énoncé de la question ni ses termes, certaines situent l'obstacle éventuel dans la constitution même du réel-en-soi, d'autres dans la situation de qui cherche à le comprendre, d'autres encore dans la nature de la méthode scientifique. Parmi celles qui s'inscrivent d'emblée en faux contre le contenu de la question posée, les unes se contentent de contester la pertinence d'une application des concepts épistémologiques de connaissance ou de compréhension à notre rapport avec quelque chose qui réponde à la définition d'ordre ontologique d'un réel-en-soi, et les autres tendent à faire éclater les limites du concept même de réel-en-soi, voire à en contester la pertinence. Prenons-les alors dans l'ordre indiqué.
La première raison susceptible de rendre vain le projet d'une véritable compréhension du réel-en-soi serait tout simplement l'excès de complexité de ce réel. Supposons que le réel-en-soi soit tel qu'aucune séquence de valeurs mesurées arbitrairement précises de variables pertinentes le concernant ne puisse être générée par un algorithme plus court qu'elle-même. On dit dans ce cas que la complexité algorithmique des séquences est maximale. Et on sait, comme l'indiquent par exemple Prigogine et Nicolis , qu'une telle situation peut être rencontrée dans le cas de systèmes stochastiques ou chaotiques qui, quel que soit leur état initial, parviennent à explorer à la longue leur espace d'états de façon exhaustive. En admettant même que ces séquences de mesures reflètent fidèlement les propriétés de certains aspects du réel-en-soi, on n'a guère de raisons d'être optimiste en ce qui concerne la possibilité de le comprendre. N'oublions pas en effet que le verbe comprendre, dans son étymologie même, connote le rassemblement, la réunion, l'acte de prendre ensemble. La compréhension suppose au minimum qu'on puisse rassembler de larges collections d'événements singuliers ou d'individus particuliers sous des principes unificateurs ou sous des concepts fédérateurs; elle suppose inversement qu'on acquière une capacité de reconstituer la structure des événements et des rapports entre individus à partir de principes et de concepts généraux. Or, précisément, la complexité algorithmique maximale supposée au départ interdit par définition toute compression des données individuelles; elle exclut qu'on puisse les restituer exactement par un procédé plus économique que leur simple énumération. La tentative de surmonter ce genre d'obstacle en laissant de côté le détail des processus et en se concentrant sur les grandes lignes des comportements émergents, sur les moyennes stabilisées par la loi des grands nombres, ou sur des diagrammes de récurrence, peut il est vrai engendrer une forme de compréhension. Ce mode de compréhension n'équivaut cependant pas à une saisie spéculaire épousant fidèlement les lignes du réel-en-soi, mais plutôt au résultat d'une opération consistant à en sélectionner l'aspect le plus pertinent relativement à nos intérêts cognitifs. Nolens volens, on devrait alors admettre ici que ce qui est compris porte en grande partie sur un réel pour nous, défini par une sélection préalable, plutôt que sur l'intégralité d'un réel-en-soi.
Allons à présent un peu plus loin. Au fond, nous n'avons fait jusque là que développer les conséquences d'une hypothèse qui peut parfaitement s'avérer incorrecte: celle que la complexité du réel-en-soi excède toute capacité de compréhension. Sommes-nous au moins capables de tester cette hypothèse? Certains théorèmes sur les processus chaotiques laissent entendre que même cela est hors de notre portée. Selon le «lemme de poursuite» , par exemple, L'observation d'une trajectoire sur un temps fini et avec une précision finie ne permet pas de décider du type de processus sous-jacent, déterministe ou indéterministe, à complexité algorithmique sub-maximale ou maximale, dont elle résulte. Les remarques précédentes se laissent récapituler ainsi: d'une part, si la complexité du réel-en-soi était excessive, nous ne pourrions pas le comprendre; et d'autre part, nous n'avons pas et nous n'aurons jamais les moyens de nous assurer qu'il n'en est pas ainsi.
La deuxième raison qui pourrait faire obstacle à la compréhension du réel-en-soi est ce que j'ai appelé son «aveuglante proximité». Il se pourrait parfaitement qu'on doive étendre au rapport entre le sujet connaissant et le réel-en-soi dans son ensemble la remarque faite par Wittgenstein à propos du rapport entre le sujet et sa propre expérience: «Le sujet ne surgit pas de l'expérience, mais il est impliqué en elle de telle sorte que l'expérience ne se laisse pas décrire» . On ne peut en somme écarter la possibilité que le sujet ne parvienne pas à se détacher suffisamment du réel-en-soi pour le traiter comme son objet de connaissance, c'est-à-dire qu'il soit impliqué dans le réel de telle sorte qu'il n'ait pas le recul nécessaire pour en offrir une description ni pour en obtenir une pleine compréhension. Après tout, comprendre, prendre ensemble, suppose d'abord que l'on prenne; et seul peut devenir l'objet d'un acte de préhension ce qui est suffisamment distinct de celui qui prend. Un tel scénario aurait été qualifié de simple jeu intellectuel dans le paradigme de la physique classique où le processus d'objectivation pouvait être mené à son terme sans difficulté notable. Mais il apparaît comme fort plausible dans le paradigme quantique, qui tend à remplacer les propriétés par des observables indissociables du contexte expérimental qui les définit, et qui ne s'accommode à la rigueur de théories qui tenteraient coûte que coûte de séparer des propriétés par la pensée qu'à condition que ces dernières soient instantanément influencées par le contexte de leur mise en évidence .
La troisième raison que l'on aurait de ne pas pouvoir comprendre le réel-en-soi tient à la méthode scientifique elle-même. Celle-ci consiste à entreprendre des investigations conformément à un projet théorique préalable, et avec des moyens perceptifs ou instrumentaux choisis en fonction de ce projet. Le projet théorique, quant à lui, s'articule autour de la position d'un invariant valant pour de larges classes de voies d'approche et de moyens utilisés. La tentation, compréhensible, de beaucoup de chercheurs scientifiques, est de voir dans ce genre d'invariants des candidats plausibles à la fonction de représentants fidèles d'une partie du réel-en-soi. Leur conviction s'appuie sur un raisonnement fort simple, mais non dénué de faiblesse logique. Le raisonnement part du constat que si une représentation fidèle du réel-en-soi pouvait être obtenue, elle ne saurait aucunement dépendre de la manière dont nous établissons une relation avec lui; sans cela, on n'aurait pas affaire à une véritable représentation du réel-tel-qu'il-est-en-lui-même, mais à celle d'un réel-vu-par-nous sous un certain rapport. En somme, si une description exacte du réel-en-soi était possible, elle serait forcément invariante par changement de voie d'approche de ce réel. Un invariant semble donc a priori inviter à son interprétation comme description d'un réel-en-soi. L'ennui est que la certitude à ce propos ne pourrait venir que de la réciproque à la déduction précédente; quelque chose comme 'Si nous sommes parvenus à identifier un invariant, alors il représente forcément un trait du réel-en-soi'. Or cette réciproque ne vaut pas, et il faut donc admettre que l'invariance est une condition nécessaire mais non suffisante de la représentation fidèle d'un réel-en-soi.
Afin de saisir la raison pour laquelle la réciproque de la déduction élémentaire qui conduit du concept d'une représentation du réel-en-soi à l'invariance ne vaut pas, nous devons nous rappeler que, dans les sciences, un invariant ne peut se prévaloir que de sa constance vis-à-vis d'une large classe de contextes perceptifs ou expérimentaux relativement auxquelles les déterminations sont définies, et non pas de son affranchissement vis-à-vis de tout arrière-plan contextuel. Un invariant reste stable quel que soit celui des points de vue qu'on adopte parmi ceux d'un ensemble donné, mais non pas indépendamment de la référence à un tel ensemble, voire indépendamment de la notion de point de vue. Comme le disait le mathématicien Félix Klein dans son programme d'Erlangen , parler d'un invariant n'a aucun sens aussi longtemps qu'on n'a pas précisé de quel groupe de transformations il est l'invariant. Ainsi, pour conclure sur ce point, un invariant nous renseigne au moins autant sur la classe de contextes impliqués par une activité de recherche donnée, ou si l'on veut sur le groupe de transformations associé, que sur l'hypothétique réel-en-soi.
Le quatrième argument allant à l'encontre de la possibilité de connaître un «réel-en-soi» est presque déroutant dans sa simplicité. Il est récurrent dans l'histoire de la philosophie, mais j'en présenterai une version dépouillée due à H. Putnam. «(...) l'idée que quelques descriptions sont des 'descriptions de la réalité telle qu'elle est indépendamment de toute perspective' est une chimère. Notre langage ne peut être divisée en deux parties, l'une qui décrit le monde 'comme il est de toutes façons', et l'autre qui décrit notre contribution conceptuelle. Cela ne veut pas dire que la réalité est cachée, (...) mais simplement que l'on ne peut pas décrire le monde sans le décrire» . Face à ce constat presque 'grammatical' au sens de Wittgenstein, deux attitudes peuvent encore être adoptées. L'une consiste à renoncer définitivement à ce qui semble être une tentative auto-contradictoire. L'autre vise à identifier, dans les théories scientifiques les plus avancées ce qui, sans être une authentique description du réel, en laisse cependant transparaître quelques grandes lignes. C'est là pour l'essentiel la position de B. d'Espagnat, avec sa thèse d'un réel ni apparent ni caché, mais 'voilé'. La force de cette dernière thèse est qu'elle préserve l'ambition du réalisme scientifique tout en étant compatible avec l'ensemble des connaissances actuelles. Sa faiblesse, mais une faiblesse qu'aucune thèse à ce sujet ne saurait éviter, est qu'ainsi que B. d'Espagnat le reconnaît lui-même, elle reste 'conjecturale' .
La cinquième et dernière raison que je voudrai présenter n'est pas facile à exposer car, en première analyse, elle fait usage d'un registre d'expression appartenant à la métaphysique spéculative la plus débridée. Dans un deuxième temps, cependant, on pourra la rabattre sur un plan épistémologique. Cette raison, énoncée sans précaution, c'est que le réel-en-soi pourrait comporter un excès de plénitude dont l'excès de complexité évoqué au départ n'était qu'une pâle ébauche. Il pourrait impliquer en d'autres termes non pas une richesse surabondante de déterminations, mais un dépassement à l'égard de la notion même de détermination, tant il est vrai que toute détermination implique une restriction, voire une négation. Si comprendre, cela suppose que l'on saisisse, que l'on délimite, que l'on détermine, alors ce réel-en-soi conçu comme outrepassant toute limite et toute détermination reste par construction hors de portée de la compréhension. Dire d'un tel réel-en-soi qu'il est ceci plutôt que cela, voire qu'il n'est ni ceci ni cela, ce serait demeurer en deçà de ce qu'il recèle. On pense ici, assez naturellement, au degré le plus haut de la 'procession' au sens néo-platonicien. C'est-à-dire non pas l'Un de Plotin, qui, par sa teneur numérique, fournit encore un élément de caractérisation du réel-en-soi, mais ce pantè aporeton de Damascius, dont l'Un n'est que le symbole, qui échappe à tout discours, y compris négatif, et que l'on rend habituellement en Français par 'l'absolument ineffable' .
Evitons cependant d'arrêter trop tôt la critique engagée. Il faut à ce stade reconnaître que la tentative même de faire référence à un pantè aporeton implique une grave impropriété. Car si ce pantè aporeton est doté d'une plénitude telle qu'il excède toute détermination, alors c'est qu'il ne s'oppose à rien d'autre, et qu'il ne saurait donc être spécifié par contraste avec quoi que ce soit. L'absence de caractérisation, de séparation, de distinction, bloque l'acte consistant à faire référence. En parler, dire qu'«Il» est inconnaissable par excès, représente déjà une forme de transgression de la limite reconnue.
Que pourrait être à présent une traduction épistémologique plus sobre de cet audacieux coup de sonde métaphysique? Probablement le concept kantien de finitude humaine qui, ainsi que le souligne Alain Renaut, ne renvoie à aucun absolu réel par rapport auquel elle constituerait un moindre-être, mais qui désigne seulement la permanence d'un 'problème' pour notre faculté de connaître. D'un côté toutes sortes de problèmes, comme l'indéterminisme quantique ou encore l'état de permanent inachèvement de la recherche scientifique, se laisseraient volontiers penser comme la traduction épistémique de notre confrontation à un pantè aporeton. Mais d'un autre côté, un énoncé de cette pensée ne saurait à aucun moment se voir attribuer à bon droit une valeur de vérité. Car ce genre d'énoncé se borne à combiner un constat expérimental d'inaccomplissement avec la tentative de manipuler un état mythique d'accomplissement, de le nommer (pantè aporeton), et d'en faire l'objet d'un jugement. Tout au plus est-il envisageable de se servir de son pouvoir de stimulant de l'imagination pour esquisser l'horizon d'un projet d'investigation. Avec pour risque, non-négligeable au vu de l'histoire de la pensée scientifique, de favoriser ainsi la (re) naissance cyclique de l'«l'illusion transcendantale».
L'analogie qu'entretiennent ces réflexions avec la conclusion de nos remarques sur la complexité est évidente, quoique avec un degré de radicalité en plus. D'une part, si le réel-en-soi s'identifiait au pantè aporeton de Damascius, nous ne pourrions ni le comprendre, ni même le désigner (au delà des évocations métaphoriques) comme objet d'une compréhension possible; et d'autre part, nous n'avons aucun moyen de nous assurer qu'il n'en va pas ainsi.
L'enseignement partiel que je voudrai tirer de ces considérations est que la question du rapport de notre connaissance scientifique avec le réel-en-soi est indécidable, et qu'elle est par construction vouée à le demeurer. Aucun résultat scientifique, y compris s'il consiste à mettre en évidence un invariant structural aussi unifié et universel que possible à un moment donné, n'offre de garantie irréfutable de son isomorphisme avec quelque aspect d'un réel-en-soi. L'épistémologie n'est pas pour autant dénuée de toute perspective. Même si on la prive de la capacité d'expliquer le succès prédictif des théories scientifiques par leur convergence progressive vers la représentation satisfaisante d'une réalité indépendante, elle a bien d'autres ressources.
L'une de ces ressources est selon moi une réactualisation raisonnée de la méthode transcendantale telle que l'a proposée Kant pour la première fois. Il est vrai qu'une telle proposition peut susciter, si elle n'est pas assortie de beaucoup de précautions, bien des réactions négatives. Après tout, l'idée du caractère caduc du synthétique a priori en physique a été presque universellement admise au vingtième siècle. Cela va de la critique par Einstein, au nom de la théorie de la relativité, des formes a priori de l'intuition sensible (l'espace et le temps), jusqu'à la critique par Heisenberg, au nom de la théorie quantique, de certaines catégories de l'entendement (la causalité et la substance). Des penseurs néo-kantiens des années 1930, comme E. Cassirer ou G. Hermann , reconnaissaient d'ailleurs que leur tâche était de surmonter une croyance déjà bien ancrée chez leurs contemporains: celle que la philosophie transcendantale avait perdu toute crédibilité face aux sciences de leur temps.
Il est pourtant assez vite apparu que la situation n'était pas si tranchée, ni si défavorable à l'approche transcendantale qu'on avait pu le penser à première vue. D'une part, les créateurs de la mécanique quantique, comme Heisenberg et Bohr, admettent eux-mêmes que les formes a priori de Kant gardent toute leur pertinence dans la circonscription de l'expérience quotidienne; et que présupposer les traits spatio-temporels, causaux, et substantiels, de cette expérience au fil de l'utilisation du langage courant, reste indispensable à l'expression des résultats expérimentaux qu'ordonnent les nouvelles théories scientifiques . D'autre part, il est parfaitement possible de donner une actualité renouvelée à la philosophie transcendantale en physique moderne (y compris au-delà de la circonscription de l'expérience quotidienne et des manipulations expérimentales), à condition qu'on laisse de côté la forme mentaliste particulière que lui avait donné Kant par sa doctrine des facultés, et qu'on en retienne seulement l'essentiel. Or, l'essentiel de la méthode transcendantale consiste seulement à retourner l'attention, habituellement hypnotisée par l'objet à connaître, vers les pré-conditions de la connaissance.
Comme nous allons le voir, le caractère statique de l'a priori kantien ne fait pas partie de ce noyau minimal de la philosophie transcendantale. L'idée directrice de la réactualisation de la méthode transcendantale telle que je l'ai proposée tient en effet en deux points: une mobilisation de l'a priori et une généralisation de l'ordre qu'il instaure au delà du concept formel d'objet que véhicule le langage ordinaire . Le premier moment est commun à pratiquement toutes les entreprises contemporaines de réactualisation de la méthode transcendantale, mais le second est plus singulier; il vise à répondre au défi de la physique quantique par une prise de distance vis-à-vis de ce que Nietzsche appelle «notre plus vieux fonds métaphysique(...), (celui) qui s'est incorporé à la langue et aux catégories grammaticales» .
Au total, la démarche adoptée ne retient pas les formes kantiennes historiquement datées du synthétique a priori; ou du moins elle évite de considérer ces formes comme universelles et immuables, leur réservant la région de l'environnement immédiat du genre humain où elles ont fait leurs preuves. Ce qui est substitué au synthétique a priori kantien, c'est ce qu'on pourrait appeler, avec Putnam, un a priori fonctionnel, à savoir un ensemble de présuppositions fondamentales associé au mode d'activité pratiqué et à l'anticipation de ses résultats. Chaque type d'activité ayant sa propre armature de présuppositions, un a priori fonctionnel peut devoir être abandonné en cas de modification de cette activité, et remplacé par un autre. Ainsi comprend-on qu'on puisse s'affranchir au moins en partie des formes a priori de Kant sans pour autant abandonner la philosophie transcendantale.
Cette approche qui vient d'être dessinée, je l'appelle pragmatico-transcendantale. Elle ne permet certes pas de compenser la perte qu'un partisan de la version proprement kantienne de l'entreprise transcendantale risque de ressentir: celle du projet d'un savoir certain, assis sur des catégories supposées invariables de la pensée. Mais elle laisse entrevoir la possibilité d'atteindre un autre objectif dont l'intérêt épistémologique est loin d'être négligeable. Cet objectif est celui d'une justification de la structure des théories physiques, à tout le moins d'une théorie-cadre comme la mécanique quantique, non plus par leur inscription dans les lignes de forces d'une réalité indépendante préstructurée, mais par leur capacité à recueillir, au sein de leur formalisme, les présupposés minimaux structurants des activités expérimentales dont elles rendent compte. Les difficultés et les affaiblissements nécessaires du projet réaliste en physique quantique, qu'a si bien mis en évidence B. d'Espagnat , sont ainsi évités, sans pour autant obliger à la suspension empiriste du jugement au sujet des structures théoriques.
Dans la perspective adoptée, le formalisme quantique n'est ni privé de justification (comme l'admettent à demi-mot les empiristes les plus conséquents) ni justifié par son «déraisonnable» accord avec le monde tel qu'il est (comme le pensent certains réalistes). Il est justifié par son «raisonnable» accord structural avec le projet scientifique d'anticiper des phénomènes définis relativement à un contexte expérimental.
Ainsi aperçoit-on la possibilité de comprendre la démarche scientifique et les accomplissements de ses théories sans faire à aucun moment référence à son hypothétique rapport avec un réel-en-soi. Le silence maintenu à propos de ce rapport n'a dans ces conditions aucune raison d'être ressenti comme un renoncement; il devient plutôt l'occasion d'explorer des pistes jusque là négligées à cause de son excessif pouvoir de fascination.
الرجوع الى أعلى الصفحة اذهب الى الأسفل
https://philo.forumarabia.com
كمال صدقي
مدير المنتدى
كمال صدقي


ذكر
عدد الرسائل : 2376
العمر : 68
البلد : أفورار
العمل : متقاعد مُهتم بالدرس الفلسفي
تاريخ التسجيل : 20/12/2007

En quoi consiste la 'Révolution Quantique'? Empty
مُساهمةموضوع: رد: En quoi consiste la 'Révolution Quantique'?   En quoi consiste la 'Révolution Quantique'? Clock10الأربعاء نوفمبر 30, 2011 10:00 pm

Note sur Max Planck par Michel Bitbol
Retour à la page d'accueil

Né à Kiel (Allemagne) le 23 avril 1858, Max Planck s'inscrit à l'université de Munich en 1874. Il poursuit ses études de physique à Berlin sous la direction de Helmholtz et Kirchhoff, et soutient en 1880, à Munich, une thèse intitulée «Sur le second principe de la thermodynamique». Professeur à Kiel, puis à Berlin à partir de 1889, Planck poursuit des travaux en thermodynamique, en électromagnétisme et en physique statistique. Bien que partisan d'une «théorie mécanique de la chaleur» héritière de celle de Clausius, il exprime de fortes réticences à l'égard du modèle atomiste des gaz favorisé par Maxwell et Boltzmann. Dans un texte de 1882, il suggère que «la théorie atomique, en dépit de ses grands succès, devra en fin de compte être abandonnée en faveur de l'hypothèse de la matière continue».
C'est ce programme de formulation d'une version exacte, non statistique et non atomiste, du second principe de la thermodynamique, qui le conduit à s'intéresser à partir de 1894 à l'équilibre entre le flux continu du rayonnement électromagnétique et un «corps noir» fait de «résonateurs» jouant à la fois le rôle d'absorbeurs parfaits et d'émetteurs. Mais l'échec partiel de ses premières tentatives théoriques visant à rendre compte des spectres expérimentaux d'intensité du rayonnement du corps noir, le conduit finalement à adopter les méthodes statistiques de Boltzmann. Planck subdivise le continuum des énergies accessibles aux résonateurs en éléments de taille fixée (alors que la taille des éléments d'énergie de Boltzmann était arbitraire), fait un calcul statistique de l'entropie, et dérive en octobre 1900 la loi du rayonnement thermique qui porte maintenant son nom. La dimension des éléments d'énergie e dépend d'une nouvelle constante universelle h appelée la constante de Planck, et de la fréquence n du rayonnement. Elle est donnée par la formule e=hn.
Les travaux d'Einstein de 1905 et ceux de Bohr en 1913 conduisent par la suite les physiciens à considérer que le rayonnement électromagnétique et les orbites électroniques autour du noyau sont quantifiés selon des expressions formellement analogues à celle des éléments d'énergie de Planck. Max Planck est dès lors considéré rétrospectivement comme le père de la théorie des quanta.
Une prestigieuse carrière académique commence pour lui. Secrétaire perpétuel du comité de physique de l'académie de Prusse en 1912, il reçoit le prix Nobel de physique en 1919. La médaille Max Planck de physique, qui vient d'être fondée, lui est attribuée conjointement avec Einstein en 1929. En 1930, Planck devient président de la société Kaiser-Wilhelm. Il rédige pendant ce temps des traités de physique théorique, ainsi que des ouvrages de vulgarisation dont la clarté reste un modèle. Son nationalisme le conduit à partir de 1933 à faire le choix d'un compagnonnage douteux avec le nazisme, qu'il commencera à regretter à partir de 1938. Max Planck meurt le 4 octobre 1947 à Göttingen.
La question de savoir si Planck peut vraiment être considéré comme le fondateur de la théorie quantique, a été soulevée récemment par les études historiographiques de T. Kuhn en 1978, puis d'O. Darrigol en 1992. On considère habituellement que, pour obtenir sa loi du rayonnement du corps noir de 1900, Planck a introduit l'hypothèse selon laquelle l'énergie des résonateurs est restreinte à des multiples entiers du quantum d'énergie hn. Einstein n'aurait fait ensuite que transposer cette restriction au rayonnement électromagnétique lui-même. Or, comme le montre T. Kuhn, jusqu'en 1906 au moins, Planck s'exprimait en termes de segmentation d'une plage continue de valeurs de l'énergie, et non pas en termes de discrétisation de l'énergie émise ou absorbée. Les éléments finis d'énergie ne jouaient chez Planck que le rôle d'une «jauge de désordre élémentaire», dont la dimension était fixée par la constante h.
La véritable «découverte» de Planck n'est par conséquent pas celle de la quantification de l'énergie, mais celle de la constante universelle qui porte son nom. Ce sont les travaux d'autres chercheurs, entre 1905 et 1927, qui permettront de clarifier la signification de cette constante. En 1927, les relations d'«incertitude» de Heisenberg feront apparaître la constante de Planck comme l'expression quantitative d'une limite fondamentale imposée à la détermination des couples de variables qui définissent l'état d'un système en physique classique.
Le corps matériel
et l'objet de la physique quantique

Michel Bitbol
CREA, 1, rue Descartes, 75005
RETOUR A LA PAGE D'ACCUEIL
Article paru dans:
F. Monnoyeur (ed.), Qu'est-ce que la matière? Le livre de poche, 2000

Introduction
Un corps matériel est un objet occupant à chaque instant un certain secteur de l'espace tridimensionnel. Cette définition simple, qui peut se prévaloir d'une longue tradition philosophique, place le concept de corps matériel au confluent d'une exigence et d'une situation. L'exigence, d'abord portée par la vie individuelle et sociale puis systématisée par la recherche scientifique, est celle d'objectivation, c'est-à-dire d'extraction de configurations stables, invariantes vis-à-vis d'une large classe de transformations, à partir du flux de ce qui arrive. La situation, pour sa part, n'est autre que l'espace commun des diverses modalités perceptives et de l'activité gestuelle de l'homme. Un corps matériel, pourrait-on dire en retournant la définition initiale, est un secteur d'espace tridimensionnel objectivé par la détermination d'effets locaux invariants sous un ensemble de changements réglés. Parmi ces effets locaux, l'inertie et l'impénétrabilité (ou au moins la résistance) tiennent traditionnellement une place centrale.
Une telle association organique entre objectivité et spatialité ordinaire a été amplifiée et confortée par la physique classique. En revanche, la physique quantique a conduit soit à la briser, soit à payer un prix épistémologique très (peut-être trop) élevé pour son maintien. C'est cette mise en cause du corps matériel comme objet archétypal de la physique contemporaine que nous allons analyser ici. Mais il faut pour cela commencer par mettre brièvement au clair la constitution historique et cognitive du concept de corps matériel.
الرجوع الى أعلى الصفحة اذهب الى الأسفل
https://philo.forumarabia.com
كمال صدقي
مدير المنتدى
كمال صدقي


ذكر
عدد الرسائل : 2376
العمر : 68
البلد : أفورار
العمل : متقاعد مُهتم بالدرس الفلسفي
تاريخ التسجيل : 20/12/2007

En quoi consiste la 'Révolution Quantique'? Empty
مُساهمةموضوع: رد: En quoi consiste la 'Révolution Quantique'?   En quoi consiste la 'Révolution Quantique'? Clock10الأربعاء نوفمبر 30, 2011 10:00 pm

Matière et espace
L'histoire du concept de corps matériel tourne tout entière autour du statut de l'espace. L'espace est tantôt une partie intégrante, tantôt une simple détermination, de la matière; il est parfois identifié à l'objet même, et parfois considéré comme une condition subjective de l'appréhension d'objets sensibles.
Chez Aristote, la matière est radicalement distinguée de la forme et de ses corrélats spatiaux; c'est la surimposition à la matière première d'une forme pensée comme extrinsèque qui lui confère extension tri-dimensionnelle et "quantité" (ou volume), et qui en fait un corps. La quantité est donc considérée comme une simple détermination de la matière; seul son second rang dans la liste des catégories (juste après la substance), vient signaler la priorité qui lui est accordée. Chez la plupart des commentateurs tardifs d'Aristote, la tendance a été d'accentuer ce privilège de l'extension spatiale en l'élevant au premier rang (substantiel) de l'échelle catégoriale. Simplicius doit être tenu pour l'un des principaux promoteurs de ce changement par rapport à la tradition aristotélicienne . C'est cependant chez Jean Philopon, comme le remarque R. Sorabji , que l'itinéraire de pensée conduisant d'une étendue-détermination à une étendue-sujet est le plus facilement lisible. Dans ses premiers travaux (vers 517), Jean Philopon suivait Aristote à la lettre en qualifiant la matière de premier sujet (hupokeimenon prôton) et en admettant que les dimensions spatiales ne constituent qu'une "couche fondamentale de propriétés" quantitatives sur laquelle se greffe la couche ultérieure des propriétés qualitatives. Une douzaine d'années plus tard (en 529), le même auteur recommande pourtant de ne pas considérer l'extension tri-dimensionnelle comme propriété de la matière mais comme premier sujet; désormais, c'est cette extension même qui sera appelée matière première, et non pas le substrat complètement indéterminé d'Aristote. L'extension tri-dimensionnelle se trouve corrélativement promue au rang d'ousia (que l'on traduit par substance ou essence) . Le passage du sens ancien, aristotélicien, à quelque chose de proche du sens actuel du mot matière, est ainsi accompli: la matière n'est plus ce qui peut être doté d'extension mais ce qui est d'emblée étendu; elle n'est plus sous-jacente aux corps mais tend à s'identifier aux corps. L'ultime projet einsteinien d'identication des corpuscules matériels à des régions de grande intensité du champ, et d'identification du champ à une courbure de l'espace, peut se lire comme une limite contemporaine de la tendance qui vient d'être décrite.
L'époque de la naissance de la science moderne de la nature, au dix-septième siècle, est un moment-clé de ce passage; un moment où l'argumentation glisse d'un plan purement ontologique à un plan épistémologique. L'affirmation par Descartes que "(...) l'étendue en longueur, largeur et profondeur, constitue la nature de la substance corporelle" , s'appuie par exemple sur la remarque que la substance corporelle ne peut pas être conçue de façon claire et distincte indépendamment de son extension, alors qu'elle peut l'être indépendamment de telle ou telle qualité qui lui est associée. Chez Locke, la dichotomie entre les qualités primaires et les qualités secondaires, autrement dit entre les caractéristiques des corps matériels qui se montrent telles qu'elles sont en elles-mêmes, et les propriétés attribuées à ces corps sur la foi de phénomènes résultant de leur interaction avec les organes des sens, est aussi fondée implicitement sur des considérations d'ordre épistémique. Les qualités secondaires (saveur, couleur, chaleur, etc.) sont en effet mises à part parce qu'elles relèvent d'une seule modalité sensorielle, tandis que les qualités primaires spatiales coordonnent toutes les modalités sensorielles entre elles et avec l'activité gestuelle.
Il suffit à Kant de pousser à son terme ultime la remarque lockéenne selon laquelle "(...) certains prédicats n'appartiennent pas (aux) choses en elles-mêmes mais à leurs phénomènes seulement (...)" pour amorcer sa révolution copernicienne en philosophie. En mettant "(...) aussi au nombre des simples phénomènes les autres qualités des corps appelées primaires: l'étendue, le lieu et en général l'espace avec tout ce qui lui est inhérent (impénétrabilité ou matérialité, forme, etc.)" , Kant peut parachever son projet de dissoudre la question traditionnelle de la conformité de la connaissance à ses objets, au profit d'une investigation de la manière dont les objets se règlent sur notre connaissance. Car désormais les choses telles qu'elles sont en elles-mêmes sont dépouillées de leurs dernières caractéristiques intrinsèques, d'ordre spatial, et toutes les déterminations, y compris spatiales, qui peuvent leur être attribuées, résultent d'un rapport avec la faculté humaine de connaître. Cela n'implique pas, bien entendu, que les déterminations spatiales des corps sont relatives à une modalité sensorielle particulière, à l'instar des qualités secondaires de Locke, mais qu'elles sont relatives à une forme a priori de l'intuition sensible en général.
L'argument le plus spécifique de Kant en faveur de l'absence d'inhérence des déterminations spatiales aux corps, est que l'espace est une condition élémentaire de possibilité de la représentation de choses extérieures les unes aux autres et à soi-même; en aucune manière l'espace ne peut être abstrait de la perception sensible des corps, puisque cette perception le présuppose. L'espace, comme le temps, pré-conditionne la perception des corps. En tant que forme pure de l'intuition sensible, l'espace rend possible une connaissance de quelque chose comme des corps matériels parce qu'il permet la représentation des relations d'extériorité qui les définissent; de même, le temps rend possible une connaissance de quelque chose comme des déterminations de corps matériels, parce qu'il permet la représentation de relations de succession entre phénomènes, et qu'il évite ainsi la coexistence de traits contradictoires en un même lieu. Mais pour passer de ce premier arrière-plan de possibilité de la connaissance à une connaissance pleinement constituée, il est indispensable que le contenu de l'intuition sensible reçoive de l'entendement la détermination légale qui définit l'objectivité. Lier le divers des perceptions en une expérience, ordonner la succession des phénomènes locaux au moyen de règles prescrites par l'entendement (comme le principe de permanence de la substance et le principe de causalité), c'est cela qui objective certaines séquences sélectionnées de régions spatiales en corps matériels en mouvement. C'est cela qui autorise par exemple à définir la matière sur le plan dynamique comme "(...) le mobile en tant qu'il remplit un espace" . Au total, les concepts purs de l'entendement ne s'appliquant légitimement, chez Kant, qu'au contenu d'une intuition sensible informé a priori par son cadre spatio-temporel, les objets qu'ils conduisent à définir ne peuvent être que matériels. L'objet de connaissance s'identifie ici constitutivement à la matière et à son mouvement.
Jean Piaget, l'un des principaux précurseurs des sciences cognitives contemporaines (en particulier de leur branche dynamique et auto-organisationnelle), a mis en place ce qu'on pourrait appeler une réorientation pragmatiste et génétique de la conception kantienne de la connaissance.
Au couple kantien sensibilité - entendement est substitué par Piaget un couple réceptivité sensible - activité motrice structurée. L'architecture générale de la faculté de connaître kantienne est ainsi préservée, à ceci près que:
1) la part d'activité constitutive qui était attribuée par Kant à l'intuition sensible, par le biais de ses formes a priori que sont l'espace et le temps, est tout entière transférée par Piaget à l'activité motrice. C'est l'aspect pragmatiste de l'épistémologie piagétienne.
2) l'a priorité originaire des formes kantiennes de la sensibilité et de l'entendement est remplacée chez Piaget par un processus de développement par paliers, alternant durant l'enfance: (a) l'assimilation des phénomènes aux schèmes d'activité, et (b) une accomodation des schèmes d'activité qui permet d'élargir et d'améliorer leur capacité d'assimilation. C'est l'aspect génétique de l'épistémologie piagétienne.
La constitution de l'espace, de l'objectivité, et du concept de corps matériel, est à partir de là décrite par Piaget comme une histoire à la fois unique et multidimensionnelle. Unique parce que dérivant en bloc de la mise en oeuvre réglée des aptitudes sensori-motrices de l'homme, et multidimensionnelle parce que se différenciant au terme de son itinéraire en plusieurs composantes. L'espace et les corps sont en particulier, selon Piaget, génétiquement co-constitués, même s'ils sont nettement distingués en fin de parcours: "l'espace n'est (...) nullement la perception d'un contenant, mais bien celle des contenus, c'est-à-dire des corps eux-mêmes; et si l'espace devient en un sens un contenant, c'est dans la mesure où les relations constituant l'objectivation de ces corps parviennent à se coordonner entre elles jusqu'à former un tout cohérent" . Antérieurement à l'objectivation des corps, on ne peut même pas parler d'espace mais seulement d'un recouvrement de champs sensoriels et moteurs disjoints; la dissociation entre contenant et contenu n'intervient qu'à l'issue de la définition d'un contenu corporel objectivé. Que suppose alors l'objectivation des corps? Avant tout, selon Piaget, des schèmes d'activité motrice réversibles, organisés en systèmes d'actes réciproques, et dotés de ce fait d'une structure de groupe. C'est seulement par exemple lorsqu'une région caractérisée du champ visuel est insérée dans un schème de suivi oculo-moteur et de retour du foyer oculaire au point initial, que son mouvement se trouve défini par référence aux déplacements effectués pour la suivre. Et c'est seulement à partir du moment où le schème du suivi opère en l'absence momentanée de la région concernée (disons lorsqu'elle disparaît derrière un écran), qu'il constitue cette région caractérisée en objet permanent. D'autres schèmes contribuant à constituer une région d'un champ sensoriel en objet permanent sont ceux de déplacement et de replacement par manipulation, ou d'assemblage et de désassemblage en sous-régions. A ces schèmes s'ajoute celui de substitution réglée et reproductible de régions spatiales caractérisées, qui conduit, grâce à la maîtrise des antécédents qu'il autorise, à mettre en place des relations de causalité. Ensemble, ces schèmes (aussi bien ceux qui constituent l'objet permanent que les relations de causalité entre objets) permettent de détacher les objets corporels des circonstances, en anticipant leur devenir même lorsqu'ils sont hors de portée de l'appréhension sensorielle directe. Les schèmes décrits sont en somme porteurs de ce que nous nommerons une objectivation incarnée, ou encore présupposée, par l'activité motrice. Cette notion d'incarnation ou de présupposition de l'objectivité est à vrai dire suffisamment large pour s'appliquer à d'autres niveaux que celui de l'activité motrice, privilégié par Piaget. Elle s'applique aussi aux usages (ouvertement ou tacitement) performatifs du langage courant. Demander à quelqu'un: "vas me chercher une chaise dans l'autre pièce", cela présuppose autant la disponibilité permanente du corps matériel "chaise", et son détachement à l'égard des circonstances perceptives présentes, que sortir pour aller le chercher soi-même. Il faut simplement reconnaître que, comme le laisse entendre le fréquent usage conjoint de verbes d'action, la présupposition discursive reste conditionnée par le jeu des présuppositions sensori-motrices.
Dans cette perspective, ce que réussissent à accomplir les sciences physiques, c'est d'une part une transposition symbolique des schèmes réversibles d'activité constitutifs d'objectivité (essentiellement sous forme de structures de groupes mathématisées), et d'autre part une transformation des anticipations performatives spécifiques en anticipations symboliques systématiques ou pré-dictions. Le problème (d'ordre philosophique), c'est que le succès réitéré de cette stratégie incite à détacher les corps matériels objectivés non seulement de chaque circonstance perceptive mais aussi de la procédure même qui permet de les extraire en tant qu'invariants perceptifs. Il incite à projeter la forme des schèmes gestuels et discursifs qui incarnent le procédé d'objectivation sur l'objet résultant, et à traiter par conséquent cette forme comme si elle était un fait de la nature. De là dérivent les termes et l'inextricabilité du débat entre idéalisme et réalisme, remarquablement caractérisé par Wittgenstein: "Les (idéalistes) s'en prennent à la forme d'expression normale comme ils s'en prendraient à une affirmation, les (réalistes) la défendent comme ils constateraient des faits que reconnaît tout homme raisonnable" . De là vient aussi, sur le versant réaliste de l'antinomie, le sentiment d'une pérennité de la forme "corps matériel" de l'objet des sciences physiques. Car si cette forme appartient à la chose même et non pas à la classe des procédures sensori-motrices d'objectivation, alors on n'a aucune raison de douter à la fois de sa résistance aux avancées scientifiques et de son universalité à toute échelle et dans tous les domaines d'exploration. C'est cette dernière certitude que la révolution quantique est venue mettre à mal; et c'est corrélativement vers les procédures d'objectivation plutôt que vers le seul et problématique objet qu'elle a ré-orienté le regard philosophique.
الرجوع الى أعلى الصفحة اذهب الى الأسفل
https://philo.forumarabia.com
كمال صدقي
مدير المنتدى
كمال صدقي


ذكر
عدد الرسائل : 2376
العمر : 68
البلد : أفورار
العمل : متقاعد مُهتم بالدرس الفلسفي
تاريخ التسجيل : 20/12/2007

En quoi consiste la 'Révolution Quantique'? Empty
مُساهمةموضوع: رد: En quoi consiste la 'Révolution Quantique'?   En quoi consiste la 'Révolution Quantique'? Clock10الأربعاء نوفمبر 30, 2011 10:00 pm

Physique quantique et "retour au primitif"
D'un point de vue constitutif, la question n'est ni de savoir comment caractériser des corps matériels pré-existants, ni à l'inverse de trouver un moyen de démontrer l'"inexistence" de tels corps matériels dans un domaine d'investigation donné (disons celui de la physique quantique). Elle est de déterminer jusqu'à quel point les conditions qui autorisent à présupposer la disponibilité de corps matériels dans l'action et le discours familiers, sont encore remplies dans ce domaine d'investigation. Cette façon de voir a été remarquablement illustrée par Piaget, dans une discussion à propos de la tranformation des relations spatiales en microphysique. "Le microphysicien contemporain, écrit-il, s'impose (...) de lui-même à titre d'idéal scientifique une sorte de retour au primitif, mais de retour voulu et très lucide (...). Il s'efforce de se refaire une mentalité vierge de toute notion préconçue dans la mesure où ses actions individuelles se trouvent à la limite de leur échelle opérative: il s'applique, comme le tout jeune enfant, à ne croire aux objets que dans la mesure où il peut les retrouver, et ne veut connaître de l'espace et du temps que ce qu'il en peut construire, en reconstituant un à un les rapports élémentaires de position, de déplacement, de forme, etc." . Le "retour au primitif" dont parle Piaget revient à re-mobiliser point par point le cadre d'objectivité qu'incarnent nos formes de vie au lieu de se contenter de l'appliquer de façon irréfléchie. Ce retour n'est perçu comme une régression que dans la mesure où il oblige à mettre entre parenthèses la projection réifiante de la forme des procédures d'objectivation en corps matériels existant indépendamment d'elles. Mais il peut aussi, dans une perspective non-réifiante, être reconnu comme une importante avancée, parce qu'il permet d'une part de généraliser et donc de rendre plus largement efficients les schèmes de réciprocité initiaux, et d'autre part d'acquérir une conscience réflexive plus aiguë de la manière dont ces schèmes interviennent dans la constitution d'objet. Il a les vertus et la fraîcheur d'un recommencement, tout en bénéficiant des enseignements acquis lors du premier commencement. Comme le jeune enfant, explique Piaget, le microphysicien "(...) ne croit pas à la permanence de l'objet individuel tant qu'il ne peut pas le retrouver par des actions coordonnées (...). (Il) en construit au contraire la notion sitôt que les actions de retrouver peuvent être effectuées systématiquement (...)" . Mais à la différence du jeune enfant, "(...) le microphysicien ne se contente pas de refuser d'admettre des notions qui dépassent l'action effective (...)"; il élabore "tout un système d'opérations intellectuelles et mathématiques" afin de traduire l'éclatement et la disparition partielle des conditions performatives autorisant à présupposer des corps matériels, et de continuer en dépit de cela à maîtriser sur un mode pré-dictif les conséquences de ses manipulations expérimentales.
A vrai dire, dans le compte-rendu précédent, Piaget idéalise quelque peu la netteté des vues épistémologiques des physiciens, et il préjuge de l'univocité des attitudes acceptables face à l'indisponibilité en microphysique de quelques-uns des principaux critères opératoires de définition des corps matériels. Cela est certainement dû à la sélectivité des textes de physiciens sur lesquels il s'appuie (essentiellement ceux de Heisenberg, et ceux de de Broglie avant sa reconversion aux théories à variables cachées). Ici, Piaget n'opère que comme porte-parole averti, et interprète original, des thèses les plus couramment acceptées à l'époque de relatif consensus (vers la fin des années 1940) durant laquelle il écrit. Depuis, se sont faites jour au moins trois grandes possibilités de contourner l'obstacle constitué par la perte de certains invariants expérimentaux traditionnels, et de continuer à s'exprimer en dépit de cette perte comme si les expériences portaient sur des objets partiellement ou totalement assimilables à des corps matériels individualisés et porteurs de propriétés.
La première de ces possibilités se manifeste à travers l'attitude d'engagement ontologique flexible de la plupart des physiciens contemporains. Ceux-ci ont beau accorder une priorité de fait à leurs activités spécifiques de chercheurs (qu'elles soient expérimentales ou mathématico-symboliques), ils continuent à manipuler, à des fins heuristiques, des représentations fragmentaires d'objets dont certains aspects les apparentent aux corps matériels. Il utilisent parallèlement des termes à sémantique variable comme ceux de "particule élémentaire" ou d'"état", et mettent en oeuvre à travers eux ce que H. Putnam appelle des "notions à large spectre". Des notions qui sont encore empreintes de leur origine familière à l'échelle humaine, mais qui sont suffisamment assouplies, éclatées, et contextualisées en fonction des approches instrumentales utilisées, pour ne pas s'inscrire en faux contre la variété élargie des phénomènes microphysiques.
Une seconde possibilité de ne pas renoncer aux aspects les plus pertinents du concept de corps matériel, est de formaliser les lignes de force de l'attitude pragmatique des physiciens dans un cadre ensembliste et une logique modifiées: la théorie des quasi-ensembles et la (ou les) logique(s) quantique(s) . Une théorie des quasi-ensemble qui permet de manipuler des classes qui ne sont pas instanciées par des individus, et des logiques quantiques qui prennent en charge, le plus souvent par des règles altérées de conjonction et de disjonction, l'incompatibilité des contextes expérimentaux relativement auxquels sont définis les prédicats.
Une troisième possibilité, enfin, réside dans les théories à variables cachées, dont seules les variétés non-locales sont acceptables au regard du théorème de Bell, mais qui ont l'avantage d'éviter la fragmentation et les assouplissements consentis par l'attitude pragmatique des physiciens. Elles n'y parviennent toutefois qu'au prix d'une radicale dissociation entre les objets décrits et les schèmes d'activité expérimentale. Les objets de ces théories à variables cachées sont des points focaux idéaux, des lieux de convergence hypothétiques pour les invariants locaux des schèmes opératoires partiels. Ils ne représentent par contre l'invariant effectif d'aucun schème opératoire global. Ils résultent d'une sorte de fonctionnement à vide, parce que transposé dans un domaine trans-empirique, de l'entreprise cognitive de recherche des invariants.
L'existence de stratégies de contournement, comme celles qui viennent d'être exposées, ne doit cependant pas nous dissuader d'identifier clairement la nature de l'obstacle contourné. Elle ne doit pas non plus nous empêcher de tirer tous les enseignements de la démarche de ceux (à savoir les principaux créateurs de la théorie quantique) qui ont préféré pratiquer un "retour au primitif", vers les schèmes opératoires et les groupes de transformation de la microphysique, plutôt que de maintenir dans un état de survie artificielle le genre d'invariant qui était associé à des schèmes opératoires antérieurs. Car, il ne faut pas l'oublier, la part de pertinence du discours de ceux qui continuent à affirmer que la physique quantique a pour objets une multitude de petites entités assimilables par certains côtés à des corpuscules matériels, est elle-même suspendue au résultat de cet examen réflexif.
Espace, identité, et causalité
L'identité d'un corps matériel à travers le temps est présupposée par l'acte de langage consistant à y faire référence. Ce point est rendu particulièrement évident par les théories de la référence de J. Searle et S. Kripke. Selon Searle , se référer à quelque chose, c'est implicitement se déclarer capable d'identifier cette chose à l'heure actuelle, ou de la réidentifier si elle se présente à nouveau dans le futur. Kripke, pour sa part, considère qu'utiliser le procédé de la dénomination revient à admettre soit qu'il sera possible de reconnaître dans le futur la chose qui vient d'être "baptisée", soit à l'inverse qu'il est possible de rattacher la chose dont on utilise actuellement le nom à un acte de baptême passé . On pourrait remarquer dans le même ordre d'idées que l'identité trans-temporelle d'un corps matériel est présupposée par les procédures de poursuite à la trace d'une région caractérisée de l'espace, impliquant tantôt directement le système oculo-moteur tantôt des appareillages qui opèrent sur le même mode à d'autres échelles. Mais en vérité, cette dernière proposition est aussi susceptible de s'inverser: en cas de manque de tout autre critère d'identité, c'est le rattachement par continuité d'une région de l'espace à une autre, assuré par une procédure de suivi (voire de manipulation), qui est pris comme seule garantie de son identité trans-temporelle. Dans ce cas, on parle de l'identité généalogique, ou de la "génidentité", d'un corps matériel, pour la distinguer d'une identité assurée par la permanence de caractéristiques individuelles discriminantes.
Le problème est que dans le domaine d'investigation expérimentale de la physique quantique, aucun critère d'identité, qu'il s'appuie sur des déterminations individuelles discriminantes ou sur la possibilité d'un suivi permanent, n'est généralement opérant. Pour commencer, celles des déterminations des "particules" qui sont soumises à des "règles de supersélection" , à savoir diverses charges, la masse, le module du spin, etc. ne sont pas suffisantes pour caractériser une particule individuelle; leur ensemble définit tout au plus une espèce de particules (l'électron, le proton, le quark-u, etc.). D'autres variables non soumises à des règles de supersélection, comme la position dans l'espace tridimensionnel ordinaire, sont il est vrai susceptibles de fournir la détermination individuante recherchée. Mais elles sont régies par une relation d'indétermination de Heisenberg qui limite leur prédictibilité en fonction de la marge de prédictibilité d'une seconde variable, dite conjuguée; elles laissent de ce fait généralement subsister une zone de superposition entre la distribution de probabilité de trouver une certaine particule en un point au moyen d'un détecteur, et la distribution de probabilité d'en trouver une autre au même point. Sauf dans des cas bien particuliers (cavités contenant une seule particule, réseaux cristallins dont chaque site joue le rôle de cavité, etc.), ni la discrimination entre particules, ni l'identité de chacune d'entre elles, ne peut donc être assurée à chaque instant au moyen de ce genre de variable. Par ailleurs, en mettant encore une fois à part quelques cas spectaculaires conditionnés par un environnement restrictif (comme la micro-manipulation sur sites cristallins), on doit admettre qu'il n'y a pas moyen de mettre en place une procédure universelle de suivi ou de déplacement maîtrisé de chaque particule dans l'espace tridimensionnel. La relation d'indétermination entre coordonnées spatiales et coordonnées de quantité de mouvement a en effet pour conséquence que ce que l'on peut détecter du déplacement supposé d'une particule n'est pas tant une véritable trajectoire continue qu'une suite discontinue de régions spatiales assez étendues et plus ou moins alignées. On pourrait certes supposer, par analogie avec le cas des corps en mouvements provisoirement cachés derrière un écran, qu'une trajectoire continue se poursuit à l'insu de l'expérimentateur entre les régions de détection. Mais les deux situations ne sont en fait pas comparables. Car, dans le cas du corps matériels caché derrière un écran, quantité de descriptions conditionnelles de son mouvement sont autorisées: on pourrait passer derrière l'écran pour observer ce qui s'y passe, on pourrait aussi utiliser un procédé de rayons X, ou un système de miroirs, pour appréhender simultanément ce qui arrive devant et derrière l'écran. Au contraire, dans le cas des "trajectoires de particules", l'interpolation expérimentale (qui joue le rôle de "coup d'oeil jeté derrière l'écran") n'aboutit, une fois de plus en vertu des relations d'indétermination, qu'à une dispersion accrue des régions spatiales où les événements de détection sont susceptibles de se produire.
E. Schrödinger a sans doute été celui des créateurs de la théorie quantique qui a le plus insisté sur cette carence des critères d'identité dans l'espace ordinaire, et qui en a tiré les conclusions les plus radicales. Selon lui, en l'absence de critères d'identité ou de génidentité stricte, on doit aller jusqu'à refuser de faire référence à la moindre particule. "Selon moi, écrivait-il, abandonner la trajectoire équivaut à abandonner la particule" . L'indisponibilité principielle de toute trajectoire (principielle parce qu'ayant valeur légale en théorie quantique à travers les relations d'indétermination) conduit même à admettre que "(...) les particules, dans le sens naïf d'antan, n'existent pas" . Le discours du physicien s'en trouve complètement inversé. Au lieu d'admettre qu'à faible distance, des particules individuelles ont une "probabilité d'échange" non nulle, qu'on risque alors de les prendre l'une pour l'autre et de perdre les conséquences statistiques de leur individualité, Schrödinger n'hésite pas à affirmer qu'"(...) il n'y a pas d'individus qui pourraient être confondus ou pris l'un pour l'autre. De tels énoncés sont dénués de sens" . Plutôt que d'utiliser un formalisme impliquant des opérateurs de symétrie et d'anti-symétrie, avec ses états étiquetés par des noms de particules et ses permutations d'étiquettes, il préconise par conséquent de mettre en oeuvre le formalisme de la théorie quantique des champs, dans lequel il n'est plus du tout question de n particules dans un état, mais d'un état dans son n-ième niveau quantique. De plus, au lieu de considérer que des particules ont une trajectoire approximative, Schrödinger signale que tout ce dont on dispose, et tout ce que régit la mécanique quantique, ce sont "(...) de longs chapelets d'états successivement occupés (...)". La seule chose qui conduit bien des physiciens à parler de trajectoires de particules dans ce cas est que "(...) de tels chapelets donnent l'impression d'un individu identifiable (...)" . Il ne s'agit là que d'une impression, ou pire d'une illusion, surenchérit Schrödinger: "Quelques fois ces événements forment des chaînes qui donnent l'illusion d'entités permanentes" . Schrödinger suit ici à la lettre la prescription piagétienne de "retour au primitif". Au lieu d'extrapoler automatiquement, dans son discours, un système classique d'assertions sur les corps matériels, il en analyse les conditions performatives d'assertabilité. Ayant trouvé que l'une des plus cruciales de ces conditions, à savoir l'opérativité universelle des schèmes de suivi et de déplacement continu, n'est pas remplie, il suspend toute référence à des équivalents complets ou partiels des corps matériels en physique microscopique.
L'absence d'une autre de ces conditions, c'est-à-dire de la possibilité de faire usage du schème de substitution réglée et reproductible d'antécédents spatio-cinématiques afin de dégager des rapports de cause à effet entre événements, a été plus particulièrement analysée et discutée par Heisenberg et par Bohr. Dans l'article de 1927 dans lequel il exposait pour la première fois les relations d'indétermination qui portent son nom, Heisenberg remarquait que ce que ces relations interdisaient, c'était de fixer les conditions initiales du mouvement d'un (éventuel) corpuscule matériel avec une précision et une reproductibilité arbitrairement bonne. Il en inférait que "ce qui a été réfuté dans la loi exacte de causalité, selon laquelle 'quand nous connaissons le présent avec précision, nous pouvons prédire le futur', ce n'est pas la conclusion mais l'hypothèse" . Sans doute fasciné par la teneur révolutionnaire de l'idée d'une pure et simple réfutation de la loi de causalité, sans restriction d'aucune sorte, il se laissait aller à ajouter en fin de parcours que "(...) la mécanique quantique établit l'échec final de la causalité". Peu de temps après la publication de cet article, plusieurs chercheurs, parmi lesquels quelques philosophes , objectèrent cependant à Heisenberg que sa conclusion très forte ne découlait pas des prémisses dont il était parti. D'une part, l'impossibilité de fixer des antécédents ne réfute pas la loi de causalité dans l'absolu mais la rend opératoirement inapplicable; elle ne fait que lui retirer, comme le dit A. Kojève, tout "sens physique". C'est dans cette brèche que se sont engouffrés les partisans des théories à variables cachées. D'autre part, ainsi que le faisaient remarquer M. Schlick et E. Cassirer, la loi de causalité a une valeur essentiellement régulatrice pour la recherche; elle est un principe d'orientation plutôt qu'une loi au sens étroit du terme. Son inapplicabilité ou son incapacité à fournir des prédictions certaines lorsqu'on la fait porter sur les seules séquences singulières d'événements spatio-temporels, n'empêche pas de chercher un domaine plus vaste où pourrait être mise en pratique la demande vague d'ordre et de "promesses de connaissances futures" en quoi elle consiste en tant que principe. Sensible à ce genre d'argument, Heisenberg se ralliait dès 1929-1930 à une analyse plus nuancée, empruntée à Bohr, du statut de la "loi de causalité" en physique quantique. Selon cette nouvelle perspective, il n'est pas question d'affirmer, sans plus, que la loi de causalité a été réfutée par la physique quantique, mais seulement que "(...) La description des faits dans l'espace et dans le temps d'une part et la loi de causalité d'autre part, représentent des aspects des faits complémentaires et qui s'excluent l'un l'autre" . Autrement dit, la causalité en tant que principe peut rester à l'ordre du jour; seule son application dans le champ constitutif du concept de corps matériel, à savoir l'espace et le temps ordinaires, a été exclue ou du moins privée de "sens physique" et de fécondité prédictive, par l'avènement de la physique quantique.
Un autre lieu d'objectivité?
Pour récapituler, ni le schème d'identité de l'objet, ni celui de substituabilité d'antécédents reproductibles, ne sont généralement applicables à des régions délimitées de l'espace ordinaire, à l'échelle microscopique. En traduisant ce constat en termes kantiens, on pourrait aussi dire qu'au moins deux des règles qui contribuent à transformer la simple suite des apparences en une connaissance d'objets, à savoir le principe de permanence de la substance et le principe de causalité, sont inapplicables aux rapports de succession des phénomènes singuliers situés dans l'espace ordinaire à l'échelle microscopique. La conséquence de cela est qu'à moins de trancher définitivement le fil conducteur qui conduit des procédures d'objectivation à l'objectivité (comme acceptent de le faire les partisans des théories à variables cachées), on doit admettre que l'objet de la microphysique n'est ni de près ni de loin assimilable au type des corps matériels. Les conditions performatives d'assertabilité d'énoncés portant sur des corpuscules matériels ne sont pas remplies.
On aurait pu arriver à la même conclusion beaucoup plus directement en remontant à la racine définitionnelle du concept d'objectivation, et en montrant que le critère central permettant de satisfaire à une telle définition n'est pas rempli en microphysique. Objectiver cela veut dire avant tout stabiliser un aspect des phénomènes, le désolidariser non seulement du contexte perceptif ou instrumental de sa manifestation, mais aussi des circonstances particulières de la mise en place de ce contexte, et pouvoir ainsi le prendre comme thème d'une description valant pour tous ceux qui se placeraient dans des conditions perceptives ou instrumentales suffisamment voisines. Or, justement, l'une des premières conclusions importantes que les créateurs de la mécanique quantique ont tirées de leurs réflexions sur cette théorie et sur la situation épistémologique qu'elle exprime, consiste à dire qu'il est généralement impossible de défaire le lien entre le phénomène et les circonstances expérimentales particulières de sa manifestation. Bohr a été le premier à l'affirmer, entre 1927 et 1929: "(...) la grandeur finie du quantum d'action, écrit-il, ne permet pas de faire entre phénomène et instrument d'observation la distinction nette qu'exige le concept d'observation (...)" . Il a insisté plus tard sur les processus irréversibles, à la fois incompensables et incontrôlables, qui accompagnent chaque événement de détection, et qui interdisent en général de reproduire précisément les conditions initiales qui y ont conduit. La procédure de saisie opératoire du stable ou du répétable dans le mouvant, en quoi consiste fondamentalement l'objectivation, est donc entravée à la source lorsqu'on cherche à l'appliquer aux rapports et aux successions de phénomènes singuliers spatio-cinématiques relevant de la microphysique. Le projet scientifique de maîtriser le flux héraclitéen des phénomènes en un ordre réglé de succession des états d'objets, semble gravement compromis. Mais il n'est après tout compromis de façon avérée qu'au niveau des séries de phénomènes isolés comprenant des indications sur une stricte localisation dans l'espace-temps. Il ne rencontre d'obstacles clairement identifiés que lorsqu'on cherche à conférer à l'objet de la physique microscopique une forme plus ou moins inspirée du corps matériel. Pourquoi ne pas reprendre ab initio la procédure d'objectivation en changeant radicalement son niveau d'application, et en n'exigeant pas d'avance qu'elle aboutisse aux figures familières à l'échelle de l'homme?
Une méthode pour cela consiste à repousser d'un cran le projet général d'identification d'un invariant. Ne disposant pas d'une structure stable génératrice de phénomènes singuliers spatio-temporellement localisés reproductibles, rien n'empêche de chercher une structure stable génératrice de distributions statistiques reproductibles . Or, l'une de celles-ci est bien connue en mécanique quantique: il s'agit du vecteur d'état. D'une part, un vecteur d'état unique est associé de façon permanente à une classe définie de préparations expérimentales: à partir du moment où la préparation est fixée, le vecteur d'état l'est aussi, et il évolue par la suite conformément à une équation aux dérivées partielles strictement continue et déterministe (l'équation de Schrödinger). D'autre part, chaque vecteur d'état est le générateur d'autant de distributions fixes de probabilités que de mesures pouvant être accomplies à la suite de la préparation qui lui correspond. En somme, si le corps matériel peut être appelé (en s'inspirant de Leibniz et Merleau-Ponty) le "géométral" d'une classe d'aspects phénoménaux spatio-temporels, le vecteur d'état est, lui, le géométral des distributions statistiques de phénomènes obtenus à la suite d'une préparation expérimentale spécifiée. Une différence notable entre les deux est que, contrairement à l'invariant "corps matériel", qui est une entité située dans le cadre spatio-temporel ordinaire, l'invariant "vecteur d'état" se déploie dans un espace abstrait (l'espace de Hilbert). L'espace-temps où se manifestent les phénomènes est rigoureusement coextensif à la scène géométrique du devenir des entités "corps matériel", alors qu'il est complètement distinct du cadre géométrique où évoluent les vecteurs d'état. C'est ce dernier point qui explique que Heisenberg ait qualifié, dans Physique et philosophie, le vecteur d'état (ou la fonction d'onde) d'entité objective mais pas réelle. Le qualificatif "réel" est en effet réservé par Heisenberg, conformément à l'étymologie latine du mot allemand realität qu'il emploie ici, à des objets isomorphes à la "chose" familière (ou au corps matériel), c'est-à-dire à des objets situés dans l'espace-temps ordinaires. C'est aussi ce point qui justifie que G. Cohen-Tannoudji ait considéré que l'espace de Hilbert était le nouveau lieu de l'objectivité en physique, en remplacement de l'espace-temps ordinaire .
L'insistance de Schrödinger sur la réalité des fonctions d'onde (ou les vecteurs d'état) se comprend quant à elle si l'on se souvient de la tendance de cet auteur à faire converger les notions d'objectivité et de réalité . Quoi que l'on puisse penser de cette assimilation, il faut reconnaître qu'elle a donné à Schrödinger l'audace intellectuelle nécessaire pour contester l'ordonnancement convenu d'un atomisme encore mal affranchi de ses connotations "corpusculaires". Selon Schrödinger , la matière telle que nous la manipulons dans notre environnement immédiat ne consiste pas en un assemblage géométrique d'atomes plus ou moins assimilés à de petits corps matériels. Elle doit être considérée comme une observable spatiale macroscopique dont la stabilité relative est d'ordre statistique, et dont le rapport avec les observables spatiales microscopiques (comme celles qui sont appréhendées par le microscope à effet tunnel) est de l'ordre de la "coalescence" plutôt que de la juxtaposition. Ainsi, la matière se trouve-t-elle complètement dépossédée du privilège d'être auto-explicable parce qu'auto-composée (les grands corps matériels étant supposés résulter d'une sorte d'empilement de corps matériels plus petits). Elle ne peut plus prétendre qu'au statut de résultante d'une procédure limitée d'objectivation des phénomènes, approximativement acceptable à l'échelle spatiale macroscopique parce qu'appuyée sur un faible niveau de fluctuations statistiques relatives. Elle représente si l'on veut un type d'objet émergent à grande échelle. Les conséquences de cette réorganisation du champ conceptuel pour la définition même des sciences physiques ne sont pas minces. Si on l'accepte (et on doit l'accepter lorsqu'on assume toutes les conséquences du "retour au primitif" piagétien), on est en effet conduit à admettre du même coup que la matière n'est pas, n'est plus, l'objet universel des investigations du physicien. Elle ne représente rien de plus que la présupposition de base et la motivation initiale de ces investigations. En termes plus directs, le physicien ne peut plus être dit "chercher à percer les secrets de la matière". Son travail consiste plutôt à articuler des invariants performatifs de plus en plus étendus lui permettant de maîtriser anticipativement ceux des phénomènes qui, à son échelle et dans le cadre de pré-compréhension de l'activité et du langage humains, se manifestent comme des indications au sujet des propriétés de corps matériels.
الرجوع الى أعلى الصفحة اذهب الى الأسفل
https://philo.forumarabia.com
 
En quoi consiste la 'Révolution Quantique'?
الرجوع الى أعلى الصفحة 
صفحة 1 من اصل 1
 مواضيع مماثلة
-
» L’école : A quoi ça sert ? A quoi ça ne sert pas ?

صلاحيات هذا المنتدى:لاتستطيع الرد على المواضيع في هذا المنتدى
فيلوصوفيا :: دراسات فلسفية :: مقالات فلسفية-
انتقل الى: