Scientia - Vol. VII/Développement historique des théories de la physique

Da Wikisource.
Jump to navigation Jump to search
Henri Bouasse

Développement historique des théories de la physique ../La diversité de fortune des deux principes de la thermodynamique IncludiIntestazione 3 gennaio 2015 100% Da definire

Développement historique des théories de la physique
La diversité de fortune des deux principes de la thermodynamique
[p. 270 modifica]

DÉVELOPPEMENT HISTORIQUE DES THÉORIES DE LA PHYSIQUE


Aux cris de triomphe de nos modernes physiciens, il semble que dans ces dernières années la nature a livré ses ultimes secrets, qu’une ère nouvelle a commencé, qu’enfin on tient le bon bout de l’énigme.

Ceux qui savent l’histoire de la physique, se contentent de sourire. C’est toujours quand les hypothèses viennent d’être proposées qu’elles ont la forme la plus concrète et simulent le mieux la réalité. Le principe qui fournit la théorie par développement syllogistique, est encore tout chargé d’une gangue inutile. Nous voulons montrer dans ce travail comment il s’épure progressivement, pour devenir à l’ordinaire l’énoncé d’une condition abstraite, par exemple d’une condition de symétrie.

Une fois cette élaboration accomplie, on s’aperçoit avec tristesse que des chapitres entiers de la physique ne nous apprennent rien de positif sur la constitution de la matière. Tandis qu’au début une certaine structure des corps semblait nécessaire pour interpréter les phénomènes, les hypothèses sur cette structure qui suffisent à cette interprétation, deviennent définitivement si vagues, si indéterminées, si nombreuses, qu’il vaut mieux n’en rien dire et se limiter au principe abstrait. Le voile qui semblait déchiré, se referme plus impénétrable. Pour ne décourager personne, disons que des mille hypothèses possibles, une ou deux sont éliminées; l’indétermination est [p. 271 modifica]encore telle que la Terre disparaîtra, que nous serons carbonisés sous le choc de la comète avant que le mot de l’énigme nous soit revélé.

Malgré qu’il s’agisse d’un phénomène historique absolument général, cette faillite chronique de nos espérances semble insoupçonnée de la plupart des physiciens. Le Méphistophélès de Gœthe doit rire de nos chants périodiques de victoire qui bientôt s’assourdissent; son ironie transcendante doit s’amuser des cohues qui se précipitent tout à coup sur certains problèmes autour desquels régnera bientôt un silence de mort. Je veux admettre que les physiciens s’imaginent le saint des saints visible derrière le rideau pour m’expliquer que tous s’efforcent de le tirer. Hélas! il est trop lourd pour leurs mains. Ils en sont quittes pour s’élancer six mois après sur un autre problème, aussi nouvellement, par conséquent aussi mal posé, inspirant d’aussi fallacieux espoirs. Ne nous plaignons pas de cette forme supérieure de l’éternelle duperie, bienveillante puisqu’elle nous fournit le divertissement passionnant et indéfini dont nous avons besoin pour vivre.

Pour qu’une théorie soit parfaite, il ne faut pas seulement qu’on puisse tirer de son principe générateur les phénomènes, il faut encore qu’on les puisse tirer ni plus ni moins. Suivant l’excellente formule d’Ostwald, il faut que le principe soit suffisant et nécessaire. L’élaboration du principe se rattache intimement, comme nous allons le montrer, à deux problèmes fondamentaux: la simplicité des lois de la nature et l’origine des notions mathématiques. A Dieu ne plaise que j’aie l’outrecuidance de prétendre à des solutions définitives! Vous savez ce qui arrive de ces questions fondamentales. On les pose, on leur cherche une réponse; on n’en trouve point; mais un beau jour on s’aperçoit qu’elles étaient mal posées. On les repose, on leur cherche une réponse......... et indéfiniment depuis que la terre est habitée par des êtres pensants et jusqu’à leur totale disparition. C’est un plaisir divin de reposer une fois de plus et pas absolument de la même manière ces rébus affolants. Je ne manquerai pas de m’offrir un tel régal.

Toutefois j’aboutirai à des conclusions moins transcendantes, mais plus pratiques, sur la manière d’enseigner les sciences physiques. Pourquoi ne pas l’avouer? je montrerai les raisons philosophiques de la méthode que j’adopte tout [p. 272 modifica]au long du traité de physique dont la publication s’achève en ce moment. Je défendrai par des arguments a priori la clarté latine contre l’invasion de la soi-disant érudition allemande.

Je reconnais hautement les qualités de nos voisins d’Outre Rhin. Ce sont des travailleurs de premier ordre, laborieux et consciencieux à souhait.

Malheureusement ils ont une étrange idée de la science et de la manière de l’enseigner. Ils nous inondent de leurs traités en 25 volumes épais et compacts. Comme nous autres latins n’avons pas le courage de résister à une telle avalanche d’érudition, de citations, de renvois, de bibliographie, nous risquons d’être submergés et de perdre ce qui est notre caractéristique, l’amour de la logique et de la beauté.

Les allemands ont des qualités que nous n’avons pas; ils ont les défauts qui sont l’envers de ces qualités. Il sont consciencieux et n’élèvent un édifice qu’à grand renfort d’échafaudages, d’étais et de contrétais. Ces appareils leur semblent si beaux qu’ils les conservent indéfiniment, au point qu’on se demande si pour eux l’échafaudage n’est pas l’édifice. Dans leurs traités, ils ne nous font grâce d’aucunes des formes par lesquelles ont passé les théories, si rudimentaires qu’ elles soient. Les allemands sont pieux: il ont le respect de l’effort; nous n’admirons que le résultat. Pour construire l’édifice, des ouvriers se sont usés de travail, d’autres sont morts de chutes ou d’accidents. Nous, latins, refusons les plaques commémoratives qui briseraient l’harmonie des lignes. Les allemands font de leurs traités des martyrologes; ils leur dressent de petites statues à tous les paragraphes de leurs publications.

Or si l’évolution logique des théories physiques et de leurs principes consiste à se sublimer en des formules de plus en plus abstraites, à se transformer en de purs concepts mathématiques, sans pitié pour les savants disparus, sans regret pour les hypothèses intermédiaires, nous devons ne plus conserver que ces concepts, que ces schèmes abstraits. Détruisant les échafaudages énormes, supprimant les poutres nombreuses et encombrantes, nous apercevons enfin l’édifice tout petit qui nous était caché.

Les raisons qui empêchent les savants de consentir sans lamentations à la disparition des beaux échafaudages, sont faciles à démêler et vraiment excusables.

[p. 273 modifica]Je me rappelle que, huit jours avant sa mort, le bon chimiste Debray, corrigeant une leçon d’agrégation, me reprochait d’avoir attribué à Jacques je ne sais quelle découverte qui revenait incontestablement à Pierre. Quel découragement, disait-il avec une sorte de prescience, de songer qu’après une vie de travail, même récompensée par une notoriété justement acquise, rien ne restera de soi!

Il aurait voulu conserver la mémoire personnelle des savants. Cependant il comprenait qu’on n’en sauverait jamais que le nom; il finissait par avouer que cela n’en valait pas la peine. Il avait commencé son homélie d’une voix de reproche; il la terminait par l’acceptation douloureuse de l’inévitable: la science est impersonnelle; le tassement est sa loi.

Une autre excuse à conserver les échafaudages, est la tristesse de constater l’édifice très petit, comme si la taille avait rien de commun avec la valeur. A la vérité, des centaines de mémoires tiennent dans une formule abstraite: mais beaucoup de gens pleurent d’enterrer tant de mémoires dans un schème qui n’a même plus l’apparence de provenir de l’expérience, qui semble un pur concept mathématique a priori. Ils oublient que la formule est strictement équivalente aux mémoires, puisqu’elle les contient en puissance, et que ce tassement est la condition même du progrès.

Il est essentiel de rectifier les idées des savants sur la nature des schèmes qui leur paraissent trop mathématiques. Quand ils seront bien persuadés qu’il faut voir en eux le résultat des expériences élaborées par le raisonnement, ils attacheront leur véritable prix aux soi-disant théories physiques. Sans remords ils jouiront de la clarté admirable des concepts mathématiques, déchargeront leurs épaules d’un poids incommode, s’attacheront aux réalités, et verront dans tout le mécanisme qu’on leur a longtemps proposé comme un but, le moyen de parvenir à une vérité moins illusoire.

Il faudrait montrer de temps à autre le courage d’une révision de notre fortune scientifique. Laissant de côté tout ce qui n’est pas sûr, abandonnant toutes les théories particulières pour ne conserver que ce qui leur est commun, c’est-à-dire précisément les concepts mathématiques qui les expriment, nous serions plus légers pour aller de l’avant. Nous vivons du passé; n’en soyons pas accablés.

Expliquons par quelques exemples ces idées générales.

[p. 274 modifica]

À la fin du 18me siècle, après de magnifiques combats, la théorie de Newton sur l’attraction l’emportait. Par une réaction inévitable, la physique entière adopta les méthodes de l’astronomie et voulut tout expliquer par des attractions newtonniennes. Comme nous allons l’exposer, l’opération ne marcha pas sans difficulté; pour mieux dire, elle échoua misérablement. Racontons la catastrophe.

Par hypothèse les corps furent divisés en parties très petites qui s’attiraient, et naturellement avec des forces dites centrales, c’est-à-dire s’exerçant suivant la ligne de jonction. Aussi bien, depuis, toujours les liaisons mécaniques avaient été traitées comme des forces réciproques, c’est-à-dire deux à deux égales et de signes contraires (principe de l’action et de la réaction).

Une première question se posait: ces parties constitutives étaient-elles de pures abstractions mathématiques dans une matière continue? formaient-elles des ensembles distincts auxquels il convenait de donner les noms de molécules, de particules, ou tout autre impliquant une matière discontinue?

La compressibilité trancha le débat. On ne s’est jamais représenté un corps compressible continu. Dire qu’il est compressible et continu, c’est énoncer un fait et une propriété hypothétique: ce n’est pas donner une théorie de la compressibilité. En accordant à la matière la propriété essentielle d’être compressible, on néglige la difficulté, on ne la résout pas.

On supposa donc la matière discontinue. Il fut immédiatement évident que des attractions en raison inverse du carré de la distance n’expliquaient pas la cohésion. Cette force, énorme au contact, devient quasi nulle quand la distance n’est pas très petite, de l’ordre de millième de millimètre par exemple. Pour se tirer de peine, on ne spécifia pas la loi fonction de la distance; on admit sans plus que les particules s’attirent suivant leur ligne de jonction.

Mais alors pourquoi ne viennent-elles pas au contact? On fut bien obligé d’imaginer une force répulsive à très petite distance. En définitive les particules s’attirent suivant une certaine loi; mais leur attraction est équilibrée par une répulsion agissant suivant une autre loi. On explique ainsi tant bien [p. 275 modifica]que mal la compressibilité et la cohésion. Tout cela est passablement enfantin.

Donner une individualité à certains groupes de molécules et supposer que les éléments constituants se déplacent autour de leur centre de gravité par exemple, (ce en quoi consiste la théorie cinétique appliquée aux solides), n’avance pas la question. Ces mouvements ne changent pas sensiblement la position du centre de gravité puisque les corps ne se déforment pas spontanément; tout se passe en définitive comme s’ils n’existaient pas. La théorie cinétique et la cristallisation ne se concilient que si l’on réduit les mouvement à de pures oscillations autour d’une position d’équilibre moyenne.

Sur ces hypothèses travaillèrent des savants tels que Fresnel, Navier, Poisson.

Fresnel montra qu’un milieu constitué par un réseau de molécules peut transmettre des vibrations transversales; il assimila l’éther à un solide ainsi construit. Navier et Poisson s’efforcèrent de tirer des hypothèses une théorie générale de l’élasticité, c’est-à-dire de la déformation des solides sous l’influence de forces données. Enfin Cauchy parvint plus élégamment aux équations générales.

Bornons-nous pour l’instant aux corps isotropes.

Puisque rien ne distingue une direction d’une autre direction, il nous est permis d’imaginer les particules comme des sphères régulièrement distribuées. Or quelle que soit la loi d’attraction admise et à la seule condition que les changements de forme ou de dimension soient très petits, on aboutit alors pour calculer les déformations des solides à des équations qui ne contiennent qu’un seul paramètre arbitraire: les déformations d’un corps isotrope sont donc complètement définies quand on se donne, outre les efforts exercés, une seule constante caractéristique. En particulier les phénomènes de torsion d’un fil sont calculables dès qu’on a déterminé l’allongement de ce fil sous l’influence d’une traction connue.

L’expérience répond que ce n’est pas vrai: en se limitant toujours aux très petites déformations, il faut au moins deux paramètres distincts pour définir un solide isotrope. Les hypothèses que nous avons faites tombent donc à plat.

A la vérité, il est une échappatoire proposée par Green. Elle consiste à abandonner l’hypothèse des forces centrales, dirigées suivant la ligne de jonction; les actions réciproques [p. 276 modifica]de deux particules ne seraient plus directement opposées; l’action ne serait plus égale à la réaction. On démontre alors la possibilité de deux paramètres distincts. Mais nous avons si bien dépouillé nos hypothèses de toute spécification qu’elles s’évanouissent absolument. Nous finissons par dire simplement que les particules agissent les unes sur les autres, ce qui revient à énoncer en langage pompeux le fait qu’ il existe des corps solides.

Parvenus à ce point, les physiciens ont naturellement conclu qu’on pouvait se passer d’hypothèses qui ne supposaient rien d’autre que certaines conditions de symétrie.

Voici comment ils ont raisonné.

Pour simplifier, admettons la matière continue. Repérons les points par rapport à leurs positions initiales d’équilibre, positions définies au moyen des coordonnées cartésiennes x, y, z. L’état déformé est lui même défini par les déplacements très petits u, v, w, à partir des positions d’équilibre et parallèlement aux axes de coordonnées. De sorte que les points du milieu déformé sont caractérisés par les coordonnées x+u, y+v, z+w; u, v, w, sont des fonctions données de x, y, z.

Cherchons à représenter une déformation quelconque mais petite du milieu. On démontre aisément que pour caractériser complètement la déformation en chaque point, il suffit de connaître six fonctions des coordonnées, calculables quand on se donne les déplacements u, v, w, en fonction de x, y, z. C’est là un théorème de pure géométrie où n’intervient aucune hypothèse physique.

Cherchons maintenant, indépendamment de toute hypothèse sur la constitution du milieu, quelles relations doivent exister pour qu’il y ait équilibre, entre les forces appliquées de l’extérieur sur un élément du milieu et les réactions des parties voisines sur cet élément. On démontre non moins aisément qu’ il suffit de connaître en chaque point six pressions ou tractions.

Ceci posé, faisons l’hypothèse qu’il existe des relations linéaires entre les six quantités définissant les déformations et les six quantités définissant l’état mécanique du milieu. En d’autres termes, posons que les forces varient proportionellement aux déformations, ou inversement que les déformations varient proportionellement aux forces. Il résulte de là un [p. 277 modifica] système de six équations complètes du premier degré contenant 6×6=36 paramètres arbitraires.

Nous voici donc parvenus, en apparence sans jamais consulter l’expérience, à la théorie la plus générale de l’Elasticité des corps solides. Nous n’avons introduit d’autre hypothèse que la petitesse des déformations, l’absence de certains couples sur lesquels je ne puis insister, enfin la notion de proportionnalité. Implicitement, nous posons que les forces sont complètement déterminées par les déformations, et réciproquement que les déformations sont complètement déterminées par les forces, ce qu’on exprime aujourd’hui en disant qu’il n’y a pas d’hystérésis.

Les 36 coefficients n’existent pas nécessairement tous distincts: quelques-uns peuvent s’annuler; plusieurs peuvent avoir des valeurs égales. C’est alors qu’interviennent les conditions de symétrie. En particulier pour que le milieu soit isotrope, c’est-à-dire pour que toutes les directions jouissent des mêmes propriétés, on démontre que seuls subsistent comme distincts précisément les deux paramètres fournis par l’hypothèse de l’attraction suivant une loi absolument quelconque.

La théorie n’est pas plus difficile à parfaire dans le cas d’un cristal. On démontre que l’existence d’un potentiel (ou ce qui revient au même, la conservation de l’énergie) réduit à 21 le nombre des coefficients dans le cas le plus général; suivant la symétrie du cristal, la réduction est plus complète. Je ne puis insister.

Pour en revenir aux corps isotropes la pure et simple introduction des conditions de symétrie fournit exactement le même résultat que l’hypothèse des attractions, pour la raison évidente que cette hypothèse, ne recevant plus aucune limitation d’aucune espèce, ne nous apprend rien en définitive et se trouve par le fait inutile.

Avant d’aller plus avant, que le lecteur réfléchisse à ce résultat intéressant mais lamentable. Toute l’Elasticité proprement dite (Dieu sait combien de milliers de pages elle renferme sous forme de mémoires et de traités) tient dans les formules générales à deux paramètres; ces formules ne sont que l’expression des conditions de symétrie dans l’hypothèse où les [p. 278 modifica]déformations sont petites et où la proportionnalité existe entre ces déformations et les forces: voici donc une partie, et très importante, de la Physique qui ne fournira jamais le moindre renseignement sur la constitution des corps. Tout au plus en déduit-on ce résultat négatif, que les forces qui s’exercent entre les parties constitutives du milieu ne sont pas centrales, résultat d’ailleurs plutôt gênant.

On comprend maintenant pourquoi les physiciens bataillèrent avec tant d’ardeur pour savoir si la réduction s’arrêtait à deux paramètres distincts ou allait jusqu’à un seul. Leur lutte véritablement épique remplit un tiers du siècle dernier. Elle se rattache à la détermination de la valeur numérique du fameux coefficient σ de Poisson qui était 0,25 pour les partisans du paramètre unique, qui variait de 0 à 0,50 pour les partisans du double paramètre. C’est pitié de lire dans la plupart des traités de Physique l’historique de cette bataille; leurs auteurs n’ont pas la moindre idée de l’importance de la question ni de ses dessous philosophiques.

Pour fixer l’état d’âme des savants du siècle dernier, j’emprunte une citation à St. Venant. Elle est tirée de cet invraisemblable et merveilleux commentaire sur Navier (Dunod, Paris 1864), volume de 850 pages dont Navier occupe une centaine et dont le paragraphe 156 de Navier est accompagné d’une note de 250 pages. Au paragraphe 75 de l’Appendice V, St. Venant commence par faire amende honorable. Il avait cru d’abord que le coefficient de Poisson pouvait être quelconque entre certaines limites, conformément aux conclusions de la symétrie. Il est revenu de cette opinion qui lui paraît maintenant absurde: «Les convictions tardives sont les meilleures, si elles sont les mieux assises et les plus durables».

«Tous les phénomènes, continue-t-il, montrent que les particules des corps agissent à distance les unes sur les autres. Cette action réciproque, c’est-à-dire constamment accompagnée de réaction égale et directement contraire, est aujourd’hui prise d’une manière explicite pour base de la Mécanique....». Suit la définition des forces centrales que je passe; il arrive enfin à ces considérations philosophiques qui sont curieuses. «Si la prudence scientifique prescrit de ne pas se fier à toute hypothèse, elle n’ordonne pas moins de tenir fortement suspect ce qui est manifestement contraire à une grande synthèse reliant admirablement la généralité des faits, en sorte [p. 279 modifica]qu’on ne puisse lui refuser la plus immense probabilité (à défaut d’une certitude qui n’est pas de ce monde en pareille matière)....... Aussi repoussons-nous toute formule théorique en contradiction formelle avec la loi des actions fonctions continue des distances des points matériels et dirigées suivant leur ligne de jonction deux à deux. Si, en recourant à une telle formule, on explique plus facilement certains faits, nous la regardons toujours comme un expédient trop commode pour répondre à quelque chose de vrai et ne produisant qu’une illusion et un faux repos, propre à arrêter les recherches et à ajourner indéfiniment la découverte des explications véritables (telles que la mise en compte d’une hétérotropie non d’abord aperçue)». St. Venant voyait effectivement des cristaux partout où l’existence de deux paramètres distincts est démontrée par l’expérience.

Dans le passage cité, St. Venant a parfaitement raison: on ne saurait mieux dire. On ne doit abandonner une hypothèse simple que lorsqu’on ne peut plus la défendre. Mais précisément soutenir l’hypothèse des forces centrales est un héroïsme mal placé. St. Venant avait au moins raison de prétendre qu’abandonner cette hypothèse, c’est abandonner toute hypothèse.

Je devrais repéter mot pour mot les raisonnements précédents à propos de la théorie du frottement dans les liquides. Celle qui est généralement admise et dont Stockes a tiré d’intéressants résultats, n’est que l’application des conditions de symétrie aux déplacements relatifs. On retrouve deux paramètres distincts.

Essayons de tirer de ce qui précède quelques conséquences générales.

D’abord il va de soi que baser l’exposition de la théorie de l’élasticité sur l’attraction des particules est un détour sans aucun intérêt, puisque cette hypothèse, nous venons de le montrer, s’évanouit en réalité. Mais laissons ce côté pratique de la question; arrêtons nous aux deux problèmes philosophiques: simplicité des lois de la nature, origine des notions dites mathématiques.

[p. 280 modifica]Prenons un mathématicien génial, ne sachant rien, ayant des siècles devant lui, mais ne possédant aucune notion du monde extérieur et des phénomènes physiques (l’hypothèse, pour chimérique qu’elle paraîsse, est souvent réalisée avec une quasi perfection). Donnons lui comme unique renseignement que la théorie de l’élasticité exprime les relations les plus simples qui puissent exister entre les forces à l’intérieur d’un solide et les changements de forme et de dimension. Arrivera-t-il nécessairement aux équations que nous admettons comme exactes pour les très petites déformations? Pourra-t-il se passer absolument de l’expérience et obtenir la solution cherchée sur l’unique supposition de la simplicité des lois de la nature?

Je ne le crois pas, à moins que nous ne précisions les concepts qu’il doit utiliser, ce qui serait résoudre le problème. J’estime que les lois de la nature sont simples précisément parce que les concepts abstraits, les notions mathématiques qui nous permettent de les exprimer, ont été inventées justement pour cela: théorie qui résout en même temps les deux problèmes de la simplicité des lois et de l’origine des concepts.

Supposons-nous par exemple en possession de l’idée de quantité dirigée, de vecteur; nous connaissons la règle de l’addition des vecteurs (règle du parallélogramme). Nous sommes tentés de trouver simples les lois de la nature, puisque les forces ne sont en définitive que des vecteurs, et puisque la notion de vecteur nous paraît la plus simple que nous puissions imaginer. Mais la question se retourne entièrement, si nous observons (ce qui est historiquement démontrable) que la notion de vecteur a été lentement acquise par l’observation des mouvements et des forces qui les produisent. Le sophisme consiste à supposer un esprit tirant de son propre fonds la notion de vecteur, puis l’appliquant à l’étude des mouvements et des forces; en réalité, il étudie les mouvements et les forces, puis résume ses observations dans un concept abstrait qui est celui de vecteur. Voyant ce concept s’appliquer très exactement aux faits, ce qui n’a plus rien d’étonnant, il prend le change. Il s’imagine ne devoir le concept qu’au travail de son esprit non aidé de l’expérience et admire une correspondance si remarquable.

Cette théorie explique un phénomène au premier abord assez singulier. C’est tantôt la loi élémentaire, différentielle, [p. 281 modifica]qui nous paraît simple, tantôt la loi intégrale. La raison en est que le concept mathématique a été inventé, suivant les cas, pour représenter l’une ou l’autre. En induction électromagnétique, par exemple, la loi intégrale, basée sur la notion de flux, est très simple, le flux lui devant précisément son existence. La loi différentielle, ou plus exactement les lois différentielles équivalentes sont compliquées.

Il faut ici soigneusement distinguer une question de métaphysique et une question de méthodologie. Je crois que nos concepts abstraits, nos idées mathématiques nous sont fournies par l’expérience; voilà la question métaphysique. Cependant si nous enseignons la physique, nous devons faire comme si ces concepts étaient antérieurs à l’expérience, pour simplifier et parce qu’une fois découverts, peu importe pratiquement la manière dont ils l’ont été: voilà la question méthodologique. On trouve par exemple au début de mes différents ouvrages d’enseignement des introductions géométriques plus ou moins étendues, où je feins de croire que les concepts mathématiques étudiés sont antérieurs et indépendants de l’expérience. En réalité je ne préjuge pas la question métaphysique.

On dit quelquefois que la physique aide au développement des mathématiques en leur fournissant des problèmes: c’est exact mais incomplet. Elle aide surtout au développement des mathématiques en leur fournissant des concepts; plus exactement elle crée les mathématiques qui sont, non pas une science comme les autres, mais l’ensemble des formes abstraites de raisonnement nécessitées par les autres.

Bien entendu, une fois le concept fourni par une certain expérience, il peut s’appliquer à l’interprétation de beaucoup d’autres très différentes. Par exemple, après que l’observation des faits eut fourni l’idée de fonction et en particulier l’idée de proportionnalité qui est la plus simple, on fut tenté de l’appliquer à tous les phénomènes. Cela réussit parfois, parfois cela échoua.

Résumons maintenant l’histoire de l’électricité.

Au début, les concepts mathématiques nécessaires à son exposé n’étaient pas créés. On procéda donc par analogie; on copia les méthodes de l’Astronomie. Peu à peu les idées se filtrèrent. On comprit ce qu’il y avait d’essentiel dans tous ces tâtonnements. On trouva deux formes particulièrement intéressantes: l’une contenait l’étude abstraite de la [p. 282 modifica]déformation, l’autre contenait l’étude de l’équilibre des forces en un point d’un solide. En définitive, on résumait une infinité d’observations dans deux formes mathématiques. Écrivant la proportionnalité entre les êtres abstraits ainsi découverts, on aboutissait à la théorie la plus générale de l’élasticité.

Au fond, c’était exprimer élégamment le résultat de l’expérience.

Le lecteur commence à comprendre l’étrange erreur des physiciens qui, après avoir classé les théories en mathématiques et en physiques, les imaginent très différentes les unes des autres. La théorie dite mathématique n’est pas autre chose que le résultat de l’élaboration de théories physiques souvent nombreuses. Ces théories physiques dépouillées de leur gangue, réduites à ce qu’elles ont de commun, apparaissent comme un pur concept mathématique, de réalité supérieure par le fait même qu’il est nécessaire et suffisant. Les représentations matérielles qui pour beaucoup de physiciens sont l’essentiel d’une théorie, doivent au contraire en être considérées comme la gangue. Irrespectueusement j’appelle ces sortes d’illustrations des images d’Epinal; comme chacun sait, les vraies images d’Epinal sont chargées d’initier les petits enfants aux formules abstraites de la morale.

Historiquement, c’est toujours par la théorie physique qu’on débute, par la théorie mathématique qu’on finit. Cela prouve simplement que d’abord nous avons besoin de béquilles, puis que nous nous élevons progressivement et lentement jusqu’à la pure abstraction.

Je dis plus haut que la théorie mathématique est de réalité supérieure: si paradoxale que soit la proposition, elle est parfaitement exacte.

Raisonnons encore sur la théorie de l’élasticité.

Les formules à deux paramètres impliquent seulement que les forces ne soient pas centrales. Il existe donc une infinité d’hypothèses particulières qui ne supposent rien autre chose et qui par conséquent sont compatibles avec les formules à deux paramètres. En choisir une sans autre raison que de faire un choix, c’est courrir au devant d’une erreur. Laisser [p. 283 modifica]le problème dans l’indétermination est non seulement le plus simple et le plus clair, mais encore le plus sûr.

Un jour ou l’autre certain phénomène nous amènera à choisir. Nous nous imaginerons que le choix est définitif jusqu’à ce que nous nous apercevions que les hypothèses licites sont encore en nombre infini, et que nous aboutissions à un nouveau concept mathématique qui rentre dans le premier.

Étudions un certain nombre d’exemples; nous vérifierons ainsi les propositions énoncées.

A la fin du 18me siècle, Laplace explique dans l’hypothèse des attractions les phénomènes capillaires, c’est-à-dire ceux qui dépendent de la surface libre des liquides, généralement des surfaces de contact entre liquides ou liquides et solides. Il arrive à ce résultat, facile à prévoir, que tout se passe comme si la surface libre était contractile et tendait à prendre une aire minima compatible avec les liaisons imposées. En effet si les parties constitutives du liquide quasi incompressible s’attirent entre elles, elles tendent à se rapprocher les unes des autres; leurs distances tendent à diminuer. Il est évident que, si rien ne l’empêche, le liquide se mettra sous la forme de sphère; on sait que la sphère est pour un volume donné la surface d’aire minima. S’il existe des empêchements, si par exemple la pesanteur intervient, le liquide ne prend pas la forme sphérique, mais tend à diminuer sa surface libre. Le résultat se généralise aisément pour des surfaces de contact avec d’autres liquides ou des solides.

Voilà le premier stade de la théorie; elle est, si l’on veut, concrète et physique.

Mais Gauss remarqua bientôt que la théorie de Laplace n’introduit aucune hypothèse particulière sur la nature des forces; il est par conséquent inutile de les expliciter; elles ne servent à rien. Les phénomènes capillaires sont incapables de rien nous apprendre sur la constitution des corps. Ne conservons donc que le résultat; bornons nous à dire: Les surfaces de discontinuité ont des énergies potentielles proportionnelles à leurs aires, caractéristiques du système des deux milieux en présence, fonctions de la température (et de la différence de potentiel). Tel est le principe suffisant et nécessaire qui explique les [p. 284 modifica]phénomènes capillaires, c’est à-dire d’où découle un sorite dont les phénomènes sont les échelons.

Nos modernes physiciens français qui ont le plus profond mépris et l’horreur la moins dissimulée pour tout ce qui ressemble, de près ou de loin, à une théorie mathématique, se sont naturellement imaginés qu’il existait deux théories, une de Laplace et une de Gauss. L’un d’eux, que je n’ai pas la cruauté de nommer et qui a la prétention modeste de préciser l’analyse de Gauss, commence ainsi son mémoire: «On sait que Gauss a appliqué le principe des vitesses virtuelles au problème de l’équilibre des liquides; on se rappelle que l’équation qu’il a ainsi établie, fournit les principales lois de la capillarité, grâce à une déduction purement analytique». Et plus loin: «Considérons un système de corps solides et fluides en équilibre. Pour pouvoir appliquer le principe des vitesses virtuelles à ce système, admettons avec Laplace et Gauss qu’on puisse l’assimiler à un ensemble de points matériels soumis à leurs actions mutuelles....». C’est énorme! Pour ces braves gens, le principe des vitesses virtuelles est quelque chose d’à part et mystérieux; quand ils ont dit que Gauss applique le principe des vitesses virtuelles, il semble que Gauss soit tout à coup monté sur un piédestal. Puis ils s’étonnent qu’une fois un principe posé, on en puisse tirer grâce à une déduction purement analytique le sorite qui constitue la théorie; c’est le contraire qui me paraîtrait surprenant.

Où ces excellentes personnes ont-elles appris la mécanique et aussi la physique?

Les choses sont beaucoup plus simples et beaucoup plus belles. Gauss (qui est un homme admirable à tous égards) ayant vu que la théorie de Laplace aboutit à admettre que l’existence d’une surface libre équivaut à une énergie en puissance, à un travail disponible, (puis que la surface tend à diminuer, à se contracter), est naturellement conduit à écrire que pour l’équilibre cette énergie (ou la somme des énergies s’il existe plusieurs surfaces de discontinuité) est minima. Non moins naturellement ses équations adoptent la forme du principe des vitesses virtuelles qui est une des formes équivalentes du principe de la statique. Sa théorie ne diffère pas de celle de Laplace; il coupe simplement toutes les hypothèses préliminaires de Laplace, mais développe plus amplement le sorite qui constitue la théorie.

[p. 285 modifica]Comme il nous faut une image d’Epinal, nous disons donc que tout se passe comme si la surface libre des liquides était recouverte d’une membrane dont la tension est la même pour toutes les incisions passant par chaque point, la même en tous les points (uniforme), quelle que soit la courbure. Il est très difficile de se représenter cette membrane; elle est le sujet d’une infinité de malentendus; nous devons expliquer aux élèves que dans une bulle de savon il y a non pas une, mais deux membranes sphériques. Bref, sur dix licenciés, il y en a bien neuf qui ne comprennent pas ce que cela signifie.

Cependant nous sommes satisfaits; nous avons notre chère image d’Epinal.

Cette idée de membrane recouvrant les liquides a beau être analytiquement exacte, elle n’en est pas moins la source d’une collection d’idées fausses. Quand on tire sur une membrane, elle résiste et d’autant plus que son extension a été plus grande; or notre membrane hypothétique a une tension constante, indépendante des changements d’aire. Une membrane semble impliquer un accroissement local de densité; or il est de toute évidence que c’est à la surface libre des liquides que la densité est la plus petite, car c’est là que les actions réciproques des particules sont le moins nombreuses. Pour réaliser cette membrane les auteurs vont jusqu’à l’absurde; j’en connais un qui n’hésite pas à donner comme exemple de la membrane hypothétique la couche d’oxyde dont le mercure se recouvre nécessairement à l’air.

Tout cela parce que nos physiciens français (je ne connais pas assez exactement les méthodes pédagogiques étrangères pour en parler) n’ont pas encore voulu comprendre ce qu’est une théorie, parce que nos mécaniciens se font la plus étrange idée de l’enseignement de la mécanique.1 Les uns et les autres ne se contentent pas d’énoncer purement et simplement le résultat de l’expérience, élaboré sous forme de principe nécessaire et suffisant; il leur faut des images d’Epinal, fussent elles d’un coloris douteux et d’une compréhension quasiment impossible.

Je ne veux rien exagérer. Cette notion de membrane tendue est commode dans les raisonnements à la condition [p. 286 modifica]qu’on ne cherche pas à se la représenter, qu’elle reste une pure manière de parler. Malheureusement la plupart des lecteurs des images d’Epinal se figurent que leurs histoires sont arrivées.

L’électricité et le magnétisme ont fourni de très curieuses notions mathématiques qui ne sont encore que des faits élaborés. Il serait intéressant d’exposer, mais malheureusement long et difficile à comprendre sans figures, comment Faraday parvint aux idées de lignes, de tubes et de champs de force, comment Maxwell et Chasles revêtirent ces idées des algorithmes mathématiques au moyen de la notion générale de flux. La force se trouve assimilée à la vitesse d’un fluide: le flux de force à travers une surface devient l’équivalent du débit du fluide à travers cette surface. Le fluide pouvant être incompressible ou compressible, on est conduit à distinguer les flux de force conservatifs et les flux non conservatifs.

Toutes ces notions sont passées dans l’enseignement qu’elles ont transformé, auquel elles ont donné une incomparable clarté. Ce qui n’empêche pas certains physiciens de s’effarer quand on leur parle de la divergence d’un vecteur, quantité dont le calcul est indispensable pour déterminer si le flux de ce vecteur est conservatif ou non, s’il peut être comparé à la vitesse d’écoulement d’un fluide incompressible ou d’un fluide compressible.

Au flux conservatif se rattachent la curieuse notion de curl et la distinction intéressante entre les vecteurs polaires et les vecteurs axiaux. Entrons ici dans le détail: nous vérifierons remarquablement les idées directrices de notre thèse.

On appelle quantité dirigée une quantité qui peut-être représentée par une flèche. Elle est définie par sa direction, sa grandeur et par son point d’application, c’est-à-dire par le point où il faut placer l’extrémité postérieure de la flèche, point où nous étudions actuellement le phénomène. On s’est vite aperçu que les quantités dirigées se classaient en deux groupes essentiellement distincts. Dans le premier rentrent les forces, les translations, et généralement les quantités qui possèdent la symétrie du cône circulaire. La flèche représentative est placée suivant l’axe du cône; sa longueur mesure par [p. 287 modifica]exemple l’ouverture du cône. Ces premiers vecteurs sont dits polaires, parce qu’on pourrait les figurer, non plus par une flèche, mais par une droite dont on marquerait les extrémités par les signes + et -, pôle positif et pôle négatif.

Dans le second groupe rentrent les couples, les rotations, et généralement toutes les quantités qui possèdent la symétrie du cylindre circulaire tournant, si l’on préfère d’une roue qui tourne. La flèche représentative est placée suivant l’axe de la roue; sa longueur mesure, par exemple, la vitesse de rotation. Ces vecteurs sont dits axiaux, on voit immédiatement pourquoi.

Il peut arriver qu’un vecteur polaire, servant de cause, produise un autre vecteur polaire jouant le rôle d’effet; ou encore que les vecteurs cause et effet soient tous deux axiaux. Par exemple, quand un champ électrique produit la polarisation d’un isolant, les deux vecteurs sont polaires; quand un champ magnétique aimante un corps, nous avons affaire à deux vecteurs qu’on démontre axiaux. Bien que, pour une première approximation, les phénomènes de polarisation diélectrique et d’aimantation se représentent par les mêmes formules, (simplement parceque dans les deux cas il s’agit de deux vecteurs cause et effet de même espèce), cependant les phénomènes sont très différents parceque dans le premier cas les vecteurs sont polaires, dans le second il sont axiaux.

Mais il peut arriver aussi qu’un phénomène représenté par un vecteur axial serve de cause à un phénomène représenté par un vecteur polaire, ou inversement. Le problème est tout différent du précédent; la solution s’exprime par ces fameux curls dont nous voulons donner une idée.

Dans le cas de vecteurs de même espèce, la relation la plus simple entre les vecteurs cause et effet exprime que les composantes de l’un sont proportionelles aux composantes de l’autre; ce qui fournit trois équations linéaires du premier degré, à neuf paramètres distincts. L’étude de la dilatation des cristaux, de la polarisation diélectrique, de l’aimantation des corps peu aimantables, des conductibilités thermique et électrique,....... se ramène immédiatement à l’étude générale de ce système. Il semble encore aux observateurs pressés que l’expérience n’intervient pas; en réalité elle est nécessaire pour nous apprendre qu’il s’agit de quantités dirigées de même espèce. Ce point fondamental acquis, nous devons essayer les [p. 288 modifica]hypothèses les plus simples; il se peut qu’elles soient valables, il arrive qu’elles soient insuffisantes.

Je ne peux raconter tout au long comment les physiciens sont parvenus à ce concept mathématique de deux vecteurs de même espèce dont les composantes sont proportionelles. Ici encore c’est par des théories physiques qu’on à commencé; je rappellerai seulement la théorie des polarisations diélectrique et magnétique de Mossotti et de Poisson, le début de la théorie de la conductibilité de Fourrier (rayonnement particulaire), le mémoire si complexe d’Ohm.....

Peu à peu on s’est aperçu que sous des formes très différentes et très compliquées, se cachait le même concept mathématique. On a mis au rancart tout ce qui ne servait pas; on a conservé le résultat des expériences élaborées, c’est-à-dire une simple proposition abstraite. Les échafaudages ont disparu pour la joie de tous, à l’exception des physiciens encore nombreux qui sont navrés de la simplicité, parcequ’ils n’ont plus aucune excuse pour ne pas comprendre et qu’ils se savent incapables du moindre effort intellectuel.

Le concept mathématique n’est pas aussi évident dans le cas de deux vecteurs d’espèces différentes.

Imaginons un liquide incompressible qui sort à travers un cerceau, et posons que ce cerceau lui-même est formé d’un contour rigide, sur lequel sont enfilées des boules creusées d’un trou suivant un diamètre. Le liquide frottant sur les boules les fait tourner. D’une part, le flux du liquide s’exprime par un vecteur polaire défini dans tout l’espace; d’autre part la rotation des boules s’exprime par un vecteur axial.

Supposons au contraire que le liquide soit animé d’un mouvement tourbillonnaire s’exprimant en chaque point de l’espace par un vecteur axial. Il entraîne maintenant les boules le long du circuit rigide sur lequel elles sont enfilées: ce mouvement translatoire s’exprime par un vecteur polaire.

Les curls sont les procédés mathématiques qui traduisent la relation entre le flux (polaire ou axial) à travers un contour, et le travail d’un autre vecteur (axial ou polaire) le long de ce contour. Nous ne pouvons insister sur leur expresión et les conditions que doit satisfaire le flux de l’un des vecteurs pour que le concept soit applicable.

Une fois le concept élaboré, on fut tout surpris de constater que l’électricité dynamique tient en entier dans deux curls, [p. 289 modifica]exprimant complètement les lois fondamentales d’Ampère et de Faraday. On serait tenté de croire que les lois de la nature sont le plus simples possibles, si l’on ne savait pertinemment que le concept curl n’a été inventé que pour représenter ces lois. Naturellement étant créé pour elles et par elles, il doit s’y appliquer très exactement: les lois de la nature ne sont simples que grâce à leur expression.

L’optique fournit un excellent exemple de théories physiques absolument inconciliables venant se fondre dans une théorie plus générale et disparaissant comme n’ayant plus aucune raison d’exister. Mais cette histoire est si connue que je me contente d’en rappeller les grandes lignes.

Au commencement du siècle dernier, Malus découvrit que, sous certaines influences, un rayon de lumière change de symétrie, se polarise. Au lieu d’avoir par exemple la symétrie d’un cylindre à base circulaire, il prend la symétrie d’un cylindre à base elliptique. Réfléchi par un miroir incliné et sous un angle constant, il fournit un rayon dont l’intensité dépend de l’azimut du miroir.

Peu de temps après, Fresnel et Arago montrèrent que les propriétés d’un rayon polarisé s’expliquent complètement en supposant qu’il propage une vibration transversale, c’est-à-dire normale ou sensiblement normale à la direction de propagation. Fort heureusement Fresnel fit l’hypothèse que cette vibration est normale au plan de réflexion, quand la polarisation est obtenue par réflexion sur un miroir. Je dis fort heureusement, car Fresnel aurait pu supposer tout aussi logiquement que la vibration est dirigée dans le plan de réflexion. Le phénomène possède en effet deux plans de symétrie rectangulaires: il suffit pour la symétrie que la vibration soit dans l’un de ces plans. Grâce à ce choix, il parvint à représenter très simplement les phénomènes de la double réfraction et de la réflexion. Ce choix entraînait par ailleurs un système d’hypothèses parfaitement cohérentes mais qui n’étaient nécessaires qu’en vertu du choix initial.

Dès qu’on fut en possession de la théorie de l’Elasticité, on s’aperçut qu’elle fournissait encore l’explication de tous les phénomènes étudiés par Fresnel; seulement l’interprétation, encore parfaitement cohérente, différait entièrement de celle [p. 290 modifica]de Fresnel. En particulier la vibration propagée par un rayon polarisé était dans le plan de la réflexion qui servait à l’obtenir. Naturellement les théories n’étaient pas conciliables.

Au cours du 19me siècle, une foule d’autres théories apparurent qui tantôt donnaient raison à Fresnel, tantôt à ses adversaires. Naturellement on ne pouvait clore le débat, l’expérience étant incapable de répondre autre chose que ceci: la vibration supposée unique est dans l’un ou l’autre des plans de symétrie. Assurément les théories différent par certains détails qui à la rigueur peuvent être contrôlés par l’expérience, mais qui en fait donnent lieu à des différences absolument inappréciables.

Il suffisait de mettre les champions d’accord en ne les écoutant pas. Mais la question se compliquait de l’ignorance à peu près générale, les champions eux mêmes exceptés. Ordinairement chaque physicien ne connaisait qu’une théorie quand il en connaisait une: comme il la trouvait cohérente, il s’imaginait qu’elle était seule à pouvoir l’être et considérait les autres comme absurdes sans y aller voir. Si la chose paraît invraisemblable, qu’on relise le § 333 du Tome I du Traité d’optique de Mascart; le sophisme s’y étale avec candeur. Ne connaissant que la théorie de Fresnel, Mascart croit les raisonnements de Fresnel (au reste parfaitement liés) comme les seuls admissibles: il ne s’aperçoit pas qu’ils reposent sur une hypothèse arbitraire. Neumann choisissant une hypothèse différente raisonne aussi bien.

Parfois la discussion tournait au comique. Vers 1890, Cornu excommuniait comme de mauvais français, comme des gens pervertis, ceux qui n’admettaient pas l’excellence exclusive des idées de Fresnel; il les aurait fait brûler à petit feu si l’exécution eût été en son pouvoir.

Quant aux champions des diverses théories, ils savaient exactement à quoi s’en tenir. Mais on ne doit pas raisonnablement exiger d’un homme qu’il montre que ses adversaires n’ont pas nécessairement tort.

Aussi ce fut un soupir de soulagement quand la théorie électromagnétique l’emporta. Elle admet deux vibrations, une dans chaque plan de symétrie. Soyons exactes; elle admet trois vibrations; ce qui est encore bien mieux! Elle concilie toutes les théories, les proclamant toutes excellentes dans leurs résultats, toutes fausses dans leurs principes.

[p. 291 modifica]Je veux bien que la théorie électromagnétique soit encore une théorie physique, qu’elle ait encore à sa base certaines hypothèses sur la constitution du milieu. Mais comme on peut s’en passer presque absolument et tout ramener à la définition expérimentale d’un petit nombre de vecteurs, voici l’Optique enfin presqu’entièrement réduite à de purs concepts mathématiques. Je laisse pleurnicher de ce résultat les physiciens qui, ne se donnant jamais la peine d’apprendre une théorie à fond, trouvent sans inconvénient qu’on nous encombre d’un tas d’hypothèses dont ils se gargarisent sans se soucier de leur développement. Je connais un assez grand nombre de théories pour en être excédé; je demande qu’on finisse d’assommer les gens qui ont le malheur d’être consciencieux2.

En quoi je ne fais que reprendre les opinions des physiciens les plus illustres (Lord Kelvin, Maxwell, Hertz....)

S’ils s’amusaient à construire des théories, ils leur attribuaient l’importance qu’elles ont. Nous leurs devons le grand nettoyage de la physique d’une foule de théories basées sur la constitution des corps et leur remplacement par quelques concepts mathématiques simples.

Jusqu’ici j’ai pris mes exemples dans le passé; cherchons à prévoir ce qui arrivera d’un problème non encore résolu, de la théorie des raies spectrales, par exemple.

Quand on regarde certaines flammes à travers un spectroscope, on observe des raies brillantes et qui semblent irrégulièrement distribuées. Elles correspondent dans la source à différentes radiations plus ou moins simples dont les hauteurs sont différentes, le mot hauteur étant pris dans son acception musicale. Le problème consiste à trouver la loi de distribution de ces radiations, à déterminer la nature de l’accord complexe qu’elles fournissent par leur ensemble.

Après bien des efforts, on a découvert quelques relations empiriques; mais le problème théorique est à peine entamé. Voyons par analogie comment il se présente.

[p. 292 modifica]Avec un marteau, frappons l’un des bouts d’une verge métallique en dirigeant le choc dans le sens de sa longueur. L’expérience vulgaire montre qu’elle rend un son; une expérience plus précise décèle un série harmonique de sons, c’est-à-dire des sons dont les nombres de vibrations par seconde (hauteurs ou fréquences) sont entre eux comme la suite des nombres entiers: 1, 2, 3..... On dit alors que les oscillations sont longitudinales.

Frappons maintenant la verge normalement à sa longueur. Nous obtenons des oscillations transversales formant une série différente de la première.

Supposons qu’au lieu d’une verge cylindrique, nous utilisions une verge dont la section droite ne soit plus constante; nous obtiendrons des séries de vibrations longitudinales et des séries de vibrations transversales qui dépendront de la loi de variation de la section droite. Il se peut qu’une ou plusieurs séries ainsi découvertes soient avec une rigueur suffisante, identiques aux séries empiriques qui représentent les raies spectrales.

Alors nous pourrons dire que tout se passe comme si les particules hypothétiques dont les vibrations engendrent la lumière, vibraient à la façon des verges étudiées. Nous avons obtenu par analogie un commencement de théorie physique, réalisé un modèle mécanique.

Bien entendu, rien ne nous oblige à nous limiter à des verges; les vibrations d’un solide de forme plus compliquée satisferont peut être mieux aux conditions expérimentales.

Il est certain qu’une fois découvert un modèle mécanique, nous en trouverons sans peine une infinité, par suite d’une généralisation que l’histoire de la physique montre très aisée: seul coûte le premier pas. Pendant quelques années, on nous en accablera; tous les physiciens sauront, à n’en pas douter, comment sont constitués les point lumineux; au surplus ils en donneront des représentations différentes.

Un beau jour, lassé de tous ces modèles, un physicien aura l’idée ingénue de les comparer: il s’apercevra qu’ils ont en commun quelque chose qu’il élaborera sous forme d’un concept mathématique. On l’accusera, bien entendu, de ne pas avoir l’esprit physicien, de se complaire dans les abstractions, alors qu’il aura simplement résumé le meilleur de toutes les représentations mécaniques. Enfin on sera trop heureux d’être débarrassé d’un fatras encombrant: on adoptera le concept qui passera dans l’enseignement.

[p. 293 modifica]C’est ainsi que les événements se sont toujours déroulés; il n’y a pas de raison pour qu’ils cessent de le faire. En cela consiste, à proprement parler, l’inévitable et bienfaisant tassement de la science.

Prenons un exemple plus complexe, se rattachant à la théorie de l’Elasticité dont nous avons déjà parlé. Nous avons vu qu’une de ses hypothèses fondamentales est l’absence d’hystérésis; nous supposons qu’une déformation déterminée correspond à des efforts bien déterminés, et réciproquement. Or l’expérience montre que l’hystérésis est un fait absolument général chaque fois que la déformation n’est pas très petite. L’hystérésis existe non seulement pour les déformations dues à des forces, mais encore pour les changements de volume dus à des variations de température: on sait qu’un thermomètre d’abord placé dans la glace fondante, chauffé, puis remis dans le premier bain, n’indique pas, la seconde fois, exactement la même température que la première. A la même valeur de la variable (température) correspondent plusieurs valeurs de la fonction (volume). L’hystérésis existe aussi pour les phénomènes magnétiques; on peut obtenir les aimantations les plus diverses d’un électroaimant actuellement traversé par le même courant.

Il est à peine besoin de montrer à quel point la complexité des problèmes à hystérésis l’emporte sur celle des problèmes sans hystérésis; les derniers sont jeux d’enfant par rapport aux premiers. Au moins en est-il actuellement ainsi, les méthodes de représentation des phénomènes à hystérésis étant encore à créer. C’est ce que ne veulent pas comprendre la plupart des physiciens qui s’obstinent à raisonner dans les deux cas de la même manière; ils négligent dans leurs hypothèses l’hystérésis au lieu de la mettre au premier plan, comme l’expérience l’exige incontestablement. Ils s’efforcent de généraliser la théorie de l’Elasticité par l’introduction de termes du second degré qui n’en changeront pas le caractère; ils oublient systématiquement qu’une théorie ne redonne que ce que contient son principe.

Naturellement les gens les plus hostiles aux théories physiques, moi par exemple, sont bien forcés de commencer par [p. 294 modifica]le commencement, c’est-à-dire par des modèles mécaniques. J’ai usé dix ans de ma vie à étudier les déformations des métaux; j’ai essayé de représenter plusieurs des phénomènes observés par des systèmes matériels. J’ai reconnu après coup que l’un d’eux se ramenait au système proposé par Maxwell pour les résidus diélectriques; ce qui prouve et l’analogie des phénomènes, et la quasi nécessité de certaines représentations. Evidemment tout cela n’est qu’un commencement: il faudra créer, pour exprimer les lois des phénomènes à hystérésis, une sorte de géométrie de situation dont nous n’avons encore qu’une idée fort vague. Les mathématiciens pourraient nous aider; mais ils se gardent bien de ces questions difficiles, peu rémunératrices en résultats. Je ne doute pas que dans un quart de siècle (si pourtant les physiciens ne s’obstinent pas à traiter ces questions en dépit de tout bon sens, passant leur temps à déterminer des constantes numériques là où il n’en existe sûrement pas, copiant les méthodes des phénomènes sans hystérésis, énonçant des lois simples fausses d’après leur forme même), je ne doute pas qu’on ne découvre quelque concept mathématique résumant les phénomènes au moins comme première approximation, remplaçant heureusement les modèles mécaniques dont le nombre ira s’accroissant.

Et alors les physiciens qui ne verront plus que le résultat des efforts, s’imagineront que ce concept aurait pu être découvert sans le secours de l’expérience, et parleront de la simplicité des lois de la nature! Ils oublieront que nous ne le connaissons pas aujourd’hui, et que nous ne parviendrons à le découvrir que par la comparaison et la généralisation de théories physiques très particulières qui du reste sont encore à créer.

Naturellement, tout ce travail accompli, nous nous apercevrons n’en pas savoir plus long qu’aujord’hui sur la constitution de la matière, sur le vrai des choses; nous trouverons encore une infinité de manières de construire les corps, sans contradiction avec les résultats de l’expérience, ainsi qu’il est facile de le montrer.

La découverte d’un fait nouveau produit simultanément deux résultats inverses. C’est une idée exacte, émise voici longtemps par Descartes, que chaque phénomène rentrant [p. 295 modifica]dans le champ de notre connaissance, diminue l’indétermination actuelle. Mais regardons y de plus près. D’abord qui osera soutenir que cette diminution soit jamais appréciable; c’est quelque chose, soit: comparez avec l’inconnu qui subsiste! Mais le gain apparaît négatif, si l’on observe que ce fait nouveau exige, pour la définition complète des corps, un accroissement du nombre des paramètres. Comme les faits à découvrir resteront toujours, sinon en nombre infini, du moins un nombre très grand, nous aboutirons par avoir sur les bras une armée de paramètres que nous serons bien empêchés d’organiser en groupes cohérents.

Voici un exemple. Maxwell avait créé une théorie électromagnétique où intervenaient deux groupes de quantités reliées par des équations de forme finie. La découverte de certains phénomènes amena à relier ces mêmes quantités par des équations différentielles à déterminer: c’est ce qu’on appelle la théorie des ions. Comme disent les physiciens, la théorie de Maxwell devenait plus souple; ce qui en bon français signifie qu’elle devenait plus indéterminée, qu’il était plus difficile de la démontrer en opposition avec l’expérience. Nous serons parfaitement satisfaits quand nous aurons découvert une théorie encore plus souple, encore plus à l’abri de la contradiction: elle sera encore moins déterminée; et si, du point de vue pragmatique, qui a bien ausssi son intérêt, elle nous suffira pour représenter les résultats de l’expérience, elle sera de plus en plus incapable de nous apprendre quoi que ce soit de certain sur la constitution de la matière, une infinité de modèles mécaniques pouvant lui servir d’interprétation.

Nous avons, hélas! d’autres raisons de ne pas être fiers! Il paraît incontestable que nos moyens matériels de progrès diminuent relativement. J’énonce un paradoxe qu’un peu de réflexion montre une affligeante réalité.

Voici d’abord un exemple simple prouvant que les phénomènes échappent bientôt à notre étude. Nous savons qu’un minimum de 21 paramètres est nécessaire pour définir la première approximation des phénomènes élastiques dans un cristal anorthique: c’est dire qu’il est parfaitement inutile d’étudier ces phénomènes dans un tel cristal, puisqu’après 21 expériences convenablement choisies et suffisamment correctes, effectuées dans des conditions différentes, représentant à peu près toutes une taille spéciale pour le cristal, exigeant au [p. 296 modifica]moins une année de travail, nous n’aurons encore aucun moyen de contrôle. Dans un cristal quaternaire, il y a encore 6 paramètres distincts. On peut soutenir que la majeure partie des théories sur les corps cristallisés échappent quantitativement à toute vérification et cela d’une manière absolument définitive. Car, je le repète, il s’agit seulement des phénomènes de première approximation: que serait-ce quand on voudra pénétrer plus avant?

Les microscopes s’améliorent asymptotiquement à leur limite, si j’ose dire. Nous sommes quasiment au bout de ces perfectionnements. Nos lunettes ont atteint des dimensions telles que toute augmentation implique une dépense et surtout une habileté qu’il n’y a guère de raison d’espérer communes. Et ainsi du reste! De sorte que notre curiosité s’est accrue beaucoup plus que les moyens de la satisfaire; le rapport entre notre pouvoir et notre espoir tend à décroître: ce qui n’est vraiment pas très encourageant.

Il n’y a pas à objecter qu’on découvre tous les jours de nouveaux procédés. On parle de vision ultra microscopique; mais cette dénomination donne le change. On parvient effectivement à déceler l’existence d’objets qui échappent aux microscopes; mais si on démontre leur existence, (ce qui du reste n’a rien de plus extraordinaire que de regarder les étoiles), on est incapable d’en reconnaître la forme. Espérons qu’on trouvera mieux.

Autre sujet de désespoir pour les physiciens: à mesure que les expériences doivent se perfectionner pour servir utilement de tests à nos théories, les erreurs accidentelles et systématiques croissent, non seulement en valeur relative, mais encore en valeur absolue. Nos grands pères, il y a cent ans, possédaient des cercles gradués au moins aussi bons que les nôtres; mais la précision qui leur suffisait, ne nous contente plus. Les courants d’air, les trépidations du sol, les variations magnétiques.... deviennent des ennemis formidables. On arrive à les vaincre; grâce à quels efforts, les physiciens vous le diront. Vous objecterez que ces trépidations, ces orages magnétiques,... existaient de tous temps et vous croirez votre remarque sans réplique; c’est une erreur grossière. Aujourd’hui les physiciens ne peuvent plus travailler utilement dans les villes populeuses. A 300 mètres d’un tramway électrique, les galvanomètres et magnétomètres sont affolés: le sol est en trépidation perpétuelle.

[p. 297 modifica]De sorte qu’à mesure que nos théories se compliquent, s’assouplissent, exigeraient des expériences de plus en plus précises pour lever les indéterminations, pour nous servir de poteaux indicateurs à la croisée des chemins (il semble bien me rappeler que Descartes use d’une image analogue précisément à propos des théories), la technique expérimentale est très loin de se perfectionner avec une égale rapidité, à supposer qu’elle se perfectionne.

Il résulte de là deux phénomènes connexes, bien dignes de méditation: le développement de la science en surface et la frénésie du fait nouveau. Les problèmes posés restent en plan; on les résout jusqu’à un certain point, après quoi l’on s’occupe d’autre chose; telle est l’explication des cris d’enthousiasme en l’honneur de l’heureux savant que le hasard met sur la voie d’un phénomène jusqu’alors inconnu.

C’est une mauvaise plaisanterie de comparer Curie, Röntgen, Zeemann.... à des hommes comme Fresnel ou Maxwell qui n’ont découvert aucun fait nouveau; mais les premiers sont bien plus célèbres que les seconds. Le physicien Becquerel à qui l’on doit la radioactivité et qui fut six mois illustre, ne s’élevait pas au-dessus du médiocre: ses mémoires le prouvent sans contestation possible. Mais on fut pour lui plein d’injustice à rebours, parce qu’il fournit aux physiciens le moyen de se distraire un certain temps.

La radioactivité aura la sort de tant d’autres problèmes: un beau matin on cessera de s’en occuper, parce qu’elle ne rendra plus. Le sujet sera devenu trop difficile; il faudra trop de conscience et d’habileté pour en tirer un mémoire.

C’est en cela que consiste le développement superficiel de la science. Il existe évidemment un grand nombre de phénomènes qui ne sont pas encore révélés: pour l’heureux mortel que le hasard favorisera, les académies préparent leurs couronnes, leurs prix et leurs banquets. C’est justice: pour quelques mois, nos outils médiocres, nos habiletés aux étroites limites auront du pain sur la planche.

Bien que je m’adresse à des lecteurs familiers avec la pensée philosophique, je sens si bien qu’ ils hésitent à admettre [p. 298 modifica]ma thèse pessimiste, que j’insiste. La science nous étonne par ses applications qui se développent avec une merveilleuse exubérance pour notre amusement et notre bien-être. Malheureusement ce côté de la question ne nous intéresse pas ici. Si j’osais dire devant une foule que le succès des aéroplanes n’a qu’un intérêt scientifique minime pour ne pas dire nul, que l’aérodynamique n’a pas avancé d’un iota, je risquerais d’être lapidé. J’énoncerais pourtant une proposition incontestable dont on reconnaîtra l’évidence en songeant que, depuis l’arche de Noé, de nombreux navires ont été construits et que l’hydrodynamique est encore dans l’enfance. Or l’aérodynamique est beaucoup plus difficile: on ira sûrement de Paris à Rome en planant avant que les physiciens aient découvert l’explication vraiment scientifique du vol plané.

Et pourtant on connaît depuis de longues années les équations générales qui régissent les mouvements des fluides compressibles ou incompressibles; mais, sauf des cas très particuliers, les phénomènes qu’elles renferment nous restent inconnus. C’est trop difficile; comme disent les physiciens, ça ne rend pas. Personne ne veut s’occuper de ces questions; elles sont parvenues au degré de développement à partir duquel le moindre progrès demande un effort gigantesque, je ne dis pas disproportionné.

Ceux qui imaginent prochaine la solution du problème parce qu’on a créé une chaire d’aviation à la Sorbonne, sont des gobe-mouches dont il faut respecter la candeur et l’ignorance. On nous fournira des résultats empiriques tant que nous voudrons; je veux bien admettre, pour vous contenter, que les aréoplanes s’en porteront mieux; mais du point de vue science, la moindre petite expérience bien correcte de laboratoire serait autrement intéressante.

Mais alors que font la plupart des physiciens dans leurs laboratoires lorsqu’il s’est écoulé un temps notable depuis la découverte d’un fait nouveau? Ils déterminent des constantes; ils recommencent pour le corps X, ce qui a été successivement exécuté pour le corps A, B, C...... Ils accumulent des résultats numériques qui ne seront jamais utilisés et qui sont parfaitement inutiles: c’est toujours du papier noirci. On songe avec pitié au travail ainsi gâché et à ce qu’on pourrait obtenir par une organisation plus méthodique des efforts.

[p. 299 modifica]

Et l’on comprend les cris de triomphe de nos modernes physiciens qui, dans ces dernières années, ont eu la chance de voir éclore plusieurs faits nouveaux. Et l’on s’explique le goût de la masse pour les théories physiques qui sont la caractéristique des problèmes nouvellement posés, des beaux problèmes pleins de gâchis, où les plus médiocres artisans trouvent à pêcher un mémoire. C’est plaisir de contempler leurs airs de dédain pour la science classique qui leur semble ébranlée. Je me permets de leur rappeler qu’on trouve encore profit à lire les œuvres d’Ampère et de Fresnel, tandis que personne ne s’avise de consulter ni le mémoire d’Œrsted, ni même les travaux d’Arago qui fut l’un des plus heureux découvreurs de faits nouveaux qu’on puisse citer.

Toulouse, Université.

Note

  1. Je renvoie le lecteur à la préface de mon Cours de Mécanique Rationnelle et Expérimentale qui vient de paraître chez Delagrave, éditeur, 15 Rue Soufflot. Paris.
  2. J’ai discuté l’organisation de notre enseignement secondaire et supérieur français, ainsi par les idées qui le dirigent actuellement, dans un volume intitulé Bachot et bachotage qui vient de paraître chez Lethielleux, éditeur 10, Rue Cassette, Paris.