Cours commun de TS Philosophie / Physique sur la mécanique newtonienne et sur la mécanique quantique.

Publié le 5 Septembre 2007

COURS COMMUN PHYSIQUE / PHILOSOPHIE. TS.

 

I-                  La mécanique newtonienne (Le physicien).

 

Tout objet en mouvement est défini comme un point matériel situé dans un espace absolu, c'est-à-dire qui garde l’ensemble de ses propriétés en l’absence de toute matière, dans un temps absolu, c'est-à-dire un temps qui s’écoule indéfiniment et à la même vitesse indépendamment des éventuels objets ou êtres qui sont dans le temps.

 

Ø      L’espace est euclidien, à trois dimensions, infini et isotrope.

Ø      Le temps est linéaire, infini, s’écoule toujours positivement et est absolu, c’est à dire que toutes les horloges marquent la même heure quel que soit le mouvement de l’observateur..

Ø      La matière correspond à des corps régis par des forces attractives ou répulsives mais surtout, à notre échelle, par la force d’interaction gravitationnelle et la force d’interaction électromagnétique. Ainsi les corps s’attirent, ou se repoussent dans le cas de l’interaction électromagnétique, mutuellement selon des forces proportionnelles à leur masse ou leur charge et inversement proportionnelles au carré de leur distance.

Ø      L’inertie est la capacité d’un corps de perdurer dans son mouvement et à l’infini si aucune force n’intervient pour modifier son mouvement. C’est le principe d’inertie ou première loi de Newton.

Ø      La force, alors que cette notion est bien vague dans le cas des interactions à distance, est ce qui modifie le mouvement. C’est la deuxième loi de Newton.

Ø      La mécanique newtonienne, dite classique, reste un pilier de la physique contemporaine, à l’échelle du quotidien de l’humain, même si au début du XX ème siècle, un certain Albert Einstein en remit en cause ses fondements.

 

II-              Réalisme et déterminisme (Le philosophe).

 

Ø      La physique et donc sa partie de mécanique newtonienne faisait dire à Laplace en 1796 dans son Exposition du système du monde que si un petit démon pouvait connaître toutes les positions et tous les mouvements des corps à un instant donné, il en déduirait alors nécessairement la totalité des états présents, des transformations passées et futures du monde. La science fonde donc sa validité sur la notion de prévisibilité.

Ø      Cette thèse, confortée par la mécanique newtonienne, est basée sur le postulat du déterminisme : rapport systématique, nécessaire et suffisant de cause à effet entre des choses, des êtres ou des phénomènes.

Ø      Le déterminisme s’applique à une science essentiellement réaliste. Celle-ci se propose la mission de décrire l’existence d’entités ou d’événements en fournissant une explication causale associant aux objets des caractéristiques elles-mêmes existentielles (cf. masse, vitesse, etc). Le réalisme scientifique est alors une ontologie, certes complexe pour le vulgaire mais en même temps, assez proche de notre expérience de la vie quotidienne.

 

Ø      Les rôles du savant correspondent alors à ceux d’un observateur, d’un expérimentateur, d’un théoricien. Mais à chaque phase de la méthode expérimentale, le but de la recherche est de révéler une réalité en enregistrant ses paramètres. Si l’on prend pour exemple l’expérimentation, elle doit reproduire ce qui se passe dans la nature. L’artificiel recrée les conditions naturelles d’émergence des phénomènes et confirme l’observation. Le tout passivement.(cf.p166, Etude du mouvement d’un objet, balle de golf, doc1, Manuel de physique TS)

 

III-           Le rôle charnière de la question de la lumière. (Le physicien).

 

Ø      En 1704, dans son traité l’Optique, Newton propose la thèse selon laquelle la lumière est faite de corpuscules. Ils se réfracteraient différemment en traversant la surface de séparation d’un corps transparent à un autre. Ceci était sensé expliquer les propriétés de la lumière, essentiellement la réflexion, la réfraction et la dispersion.

Ø      Au XIX ème siècle, Huygens, Fresnel et surtout Lorentz ont expliqué les propriétés de la lumière comme un phénomène ondulatoire, l’onde étant une perturbation qui se transmet et qui est pourvue d’une amplitude, d’une fréquence et d’une vitesse de propagation. Elle transporte une quantité d’énergie continue proportionnelle au carré de l’amplitude. En 1895, la théorie électromagnétique de Lorentz et les célèbres quatre équations de Maxwell qui la régissent constituent, avec la mécanique classique, un des piliers de la physique.

Ø      Des brèches avaient pourtant vu le jour dans ces monuments à la fin du XIX ème siècle. En 1887, Michelson et Morley montrent expérimentalement que la vitesse de la lumière dans le vide est un invariant pour tout observateur. C’est sans doute l’expérience négative la plus célèbre de la physique puisque le but était justement de démontrer le contraire. Elle remet donc en cause la loi de composition des vitesses et par là-même toute la mécanique classique. En 1900, Max Planck, avec sa théorie des quanta, explique certains phénomènes thermodynamiques et d’autres liés à la lumière, comme l’effet photoélectrique, par la notion de discontinuité de l’énergie. En 1903, Lorentz et Fitzgerald interprètent la mesure de Michelson et Morley par une contraction des longueurs en mouvement. Ces interprétations n’ont aucun lien avec les théories établies.   

Ø      En 1905, Einstein fait le lien dans sa thèse de Doctorat. En trois parties : La relativité restreinte, l’effet photoélectrique et la capacité calorifique molaire des métaux.

1)      La vitesse de la lumière est la même dans tous les référentiels galiléens. C’en est fini de la théorie classique, qu’elle inclut néanmoins, mais sa thèse explique également la contraction de Lorentz. L’espace et le temps ne sont plus absolus mais relatifs à l’observateur et constituent un espace-temps à quatre dimensions. Les horloges ne marquent pas toutes la même heure mais le principe de causalité n’est pas mis en défaut.

2)      L’énergie lumineuse est transportée par des grains d’énergie appelés photons. C’est l’explication de l’effet photoélectrique. La lumière n’est alors plus une onde, mais un flux de particules. L’énergie transportée par l’onde n’est donc pas répartie continûment mais localisée, sans que l’on sache exactement où..

3)      La discontinuité de l’énergie généralisée aux particules intègre la théorie des quanta et explique les travaux de Planck sur le corps noir.

 

IV-           La remise en cause du principe de non contradiction et le rôle nouveau de l’expérimentation.(Le philosophe).

 

Ø     « D’un côté, il y a l’ensemble des phénomènes d’interférence et de diffraction qui montrent que la lumière est formée d’ondes, et de l’autre côté, il y a le phénomène photoélectrique qui montre que la lumière est formée de corpuscules, les photons. » Louis De Broglie, Les progrès de la physique contemporaine.

Ø      « Chaque fois qu’une radiation échange de l’énergie avec la matière, cet échange peut se décrire comme étant l’absorption ou l’émission par la matière d’un photon mais, quand on veut décrire le déplacement global des corpuscules de lumière dans l’espace, c’est à une propagation d’ondes qu’il faut avoir recours. » Louis De Broglie, Les progrès de la physique contemporaine.

Ø      La science s’est heurtée ici à un des grands principes de la logique énoncée par Aristote : le principe de non-contradiction qui dit que l’on ne peut attribuer la même caractéristique et son contraire à une même substance, ou à une même proposition. Ou la lumière est corpusculaire ou elle est ondulatoire.Pour comprendre malgré tout la validité de ces deux définitions de la lumière, il faut recourir au principe de complémentarité. La lumière est corpusculaire ou ondulatoire selon l’expérimentation qu’on lui fait subir.

Ø      Ce qui entraîne un changement de la position de l’expérimentation dans le cadre de la méthode expérimentale (cf. la définition de cette démarche chez Claude Bernard, Introduction à l’étude de la médecine expérimentale).L’expérimentation ne révèle plus l’observable en recréant les conditions de son émergence mais se définit comme un outil herméneutique et contextuel. Dans certains contextes précis de recherche, on peut interpréter la lumière comme un phénomène corpusculaire ou ondulatoire.

 

V-               Qu’en est-il pour l’atome de la mécanique quantique ? (Le physicien).

 

Ø      Bohr et le modèle planétaire de l’atome (1911).

Rutherford met en évidence la structure lacunaire de l’atome et reprend les théories de la mécanique newtonienne de la cosmologie. Bohr établit un modèle planétaire de l’atome.

Deux forces sont privilégiées dans sa thèse : l’interaction gravitationnelle et l’interaction électromagnétique. La seconde est primordiale eu égard aux ordres de grandeur.

Ce modèle conclut à un mouvement circulaire des électrons autour du noyau comme le font les planètes autour du soleil. La trajectoire est donc toujours prévisible à n’importe quelle distance r du noyau puisque cette représentation est stable. Ce modèle simple permet d’expliquer les spectres de raies par transition des électrons d’une couche électronique à une autre avec émission ou absorption d’un photon.

Ø      Ce modèle possède pourtant ses limites.

 Le mouvement de l’électron autour du noyau est beaucoup plus complexe. Il est en mouvement incessant autour du noyau chargé positivement. Mais ici, la notion de trajectoire n’a plus de sens. Existe seulement la probabilité de le trouver au voisinage d’un certain point. De quoi dépend cette probabilité ? Comme il n’y a pas de direction privilégiée, elle est à symétrie sphérique et elle ne dépend que de la distance r de l’électron au noyau. Elle est faible à proximité du noyau et à grande distance et passe donc par un maximum à une certaine distance que l’on appellera le « rayon » de l’atome. En ce sens, le nuage électronique n’a pas de limite précise. Le recours à la probabilité modifie donc la perception de la mesure en physique et donne naissance à ce que l’on appelle le non déterminisme.

Ø      La dualité onde corpuscule et la naissance de la mécanique quantique.

La nature ondulatoire permet d’expliquer la réflexion, la réfraction, la dispersion et la diffraction. Sa nature corpusculaire permet d’expliquer l’effet photoélectrique et les transitions radiatives donc les spectres de raies. Alors, la lumière est-elle une onde ou un flux de particules ? La réponse est donnée en 1924 par Louis de Broglie et sa théorie de la dualité onde corpuscule qui jeta les bases de la mécanique quantique. La lumière n’est, ni l’un, ni l’autre mais les deux en même temps. C’est un flux de particules qui possèdent une onde associée. Selon la fréquence de l’onde, donc de l’énergie des photons, c’est le caractère ondulatoire ou corpusculaire qui prévaudra. Il en va de même pour toutes les particules et la démonstration en sera faite plus tard avec une expérience de diffraction d’électrons. Schrödinger, Heisenberg, Fermi, Dirac, Bose, Einstein et bien d’autres construiront le socle de la mécanique quantique actuelle où toutes les grandeurs ne sont déterminées qu’en terme de probabilité et où la mesure modifie l’état du système, ce qui revient à dire que deux grandeurs ne peuvent être déterminées conjointement pour un système donné. C’est le principe d’incertitude d’Heisenberg.

 

VI-           L’intégration de l’ignorance à la connaissance scientifique et la question des probabilités (Le philosophe)

 

Ø      Classiquement, l’effort de connaître a pour objectif de faire disparaître l’ignorance. Le progrès de la science est donc entendu comme une accumulation de connaissances qui nous laisse supposer que l’on ignore de moins en moins de choses au fur et à mesure que l’on connaît. Or la mécanique quantique est aussi une révolution de l’épistémologie. On intègre dans les modèles l’ignorance des trayectoires exactes des électrons qui ne sont pas des objets matériels mais un nuage hypothétiquement présent dans certaines régions de l’espace. Or c’est précisément à cause de ces imprécisions que la mécanique quantique fonctionne.

Ø      Comment penser ici les probabilités ? La probabilité est l’expression d’une ignorance au sujet de processus sous-jacents qui se déroulent d’eux-mêmes et obéissent à des lois déterministes. Dans l’Essai philosophique sur les probabilités de Laplace (1814), il affirme que :la probabilité est relative en partie à cette ignorance (en ce qui concerne la détermination principielle de toutes choses) et en partie à nos connaissances. Laplace intègre le calcul des probabilités dans le déterminisme newtonien en refusant qu’il traduise autre chose que du savoir à venir ou de l’ignorance temporairement présente.

Ø      La philosophie, à partir du XVIe Siècle, voit se développer une science des signes ou des qualités secondaires. Rappelons ce que cela signifie chez Locke par exemple. Celui-ci distingue des qualités premières qui sont des propriétés se montrant telles qu’elles sont, comme par exemple la position ou le mouvement. En ce sens, la géométrie et la mécanique sont des sciences réalistes correspondant à des modèles de raisonnement. Par contre, les qualités secondes sont des propriétés imputées aux corps matériels sur la foi d’impressions ou de signes résultant de leur interaction avec les organes des sens.La médecine et la chimie sont alors considérées comme des sciences inférieures à celles précédemment citées. La mécanique quantique serait-elle alors la science des qualités secondaires de notre temps si l’on considère l’interaction avec les instruments d’intervention ?

Ø      La physique quantique affronte une situation où les variables de position et de mouvement, considérées par Descartes ou Locke comme directes et primaires, doivent être tenues pour des manifestations relatives à un contexte instrumental. Elles sont alors en quelque sorte secondaires. Il y a donc ici un noumène inconnaissable qui est ce qui existe en dehors des instruments technologiques de manipulation. Les phénomènes physiques seraient des signes d’autres choses qu’eux-mêmes, des symptômes d’êtres supposés existant en dehors des signes qui leur font signe.

Ø      Or si cette théorie du sens des probabilités se tient logiquement, elle rappelle une conséquence mise en avant par Heisenberg en 1927 : La perturbation incompressible et incontrôlable par l’agent de mesure est ce qui empêche de connaître complètement les deux groupes de variables qui composent l’état initial d’une particule, et par conséquent, le principe de causalité, qui lie de façon contraignante un état initial et un état final, reste inapplicable en physique quantique.

Ø      Voilà donc des probabilités qui sont les conséquences du caractère inapplicable de la causalité, mais paradoxalement, les probabilités disent qu’il y a des causes mais que l’on ne peut pas prévoir leur ordre d’apparition.

 

BRUNO GUITTON- JEAN-MICHEL HUREAU-PATRICE DABADIE

Rédigé par Bruno Guitton

Publié dans #Expériences pédagogiques

Repost 0
Commenter cet article