ENTROPIE (notions de base)
La notion d’entropie est née au plein milieu du XIXe siècle. La théorie de la chaleur qui avait alors cours - celle du « fluide calorique » qu’avait développée Antoine Laurent de Lavoisier (1743-1794) - était fondée sur une hypothèse de conservation de la chaleur. Cette « loi » supposée impliquait, entre autres conséquences, que la chaleur contenue dans un corps isolé (dont tout échange avec l’extérieur est interdit) était invariable. Benjamin Thompson (1753-1814) montra pourtant, expérimentalement, que la chaleur ne se conserve pas. Devant le vide théorique ainsi créé, Rudolf Clausius (1822-1888), William Rankine (1820-1872) et William Thomson, lord Kelvin (1824-1907), cherchèrent, indépendamment les uns des autres, s’il pouvait exister une autre grandeur, apparentée à la chaleur, qui se conserverait. Ils étaient guidés en cela par les idées que Sadi Carnot (1796-1832) avait exposées dans un mémoire prémonitoire, La Puissance motrice du feu (1824). Le résultat de ces recherches fut l’invention de l’entropie (1854). Ce nom vient d’un mot grec, entropê, qui signifie « retour ».
La variation d’entropie
La variation d’entropie entre deux états d’un système thermodynamique se calcule à partir d’une transformation réversible (Carnot disait « idéale ») qui joint ces deux états. Supposons que, au cours de cette transformation, le système soit mis en contact avec plusieurs sources de chaleur, de températures absolues T1, T2,..., qui lui fournissent les quantités de chaleur (algébriques) Q1, Q2,... respectivement. La variation d’entropie DS entre les deux états considérés est la somme des quotients Q1/T1, Q2/T2,... associés aux diverses sources : DS = Q1/T1 + Q2/T2 +... (Transformation réversible).
Mais Clausius eut une intuition qui allait s’avérer primordiale. Partant du fait, qu’il avait élevé au rang de principe, que la chaleur ne s’écoule jamais d’un corps plus froid vers un corps plus chaud, il proposa que l’égalité précédente devînt, pour les transformations réelles, une inégalité, qui porte depuis le nom de Clausius : DS … Q1/T1+ Q2/T2 +... DS est toujours la différence entre l’entropie du système dans son état final et celle de son état initial ; Q1 est la quantité de chaleur (comptée algébriquement) que le système a reçue de la source de température absolue T1,... ; l’inégalité de Clausius se transforme en égalité pour les transformations réversibles, et pour elles seulement.
L’inégalité de Clausius exprime de façon compacte le deuxième principe de la thermodynamique [cf. THERMODYNAMIQUE] , dont les applications sont multiples et variées.
L’entropie de Boltzmann
Le XIXe siècle vit aussi l’essor de l’hypothèse atomique, selon laquelle tous les corps sont faits d’atomes. C’est le développement de la chimie quantitative, initiée par Lavoisier, qui amena ainsi à reprendre pour l’affirmer une idée au demeurant fort ancienne puisqu’elle remonte à l’Antiquité grecque.
La thermodynamique n’avait, quant à elle, nul besoin d’une réalité sous-jacente - que l’on qualifie de microscopique - pour analyser avec succès les propriétés des corps à l’échelle courante - macroscopique. En 1872, pourtant, Ludwig Boltzmann (1844-1906) présenta une théorie nouvelle, que l’on appelle depuis mécanique statistique : elle se proposait, partant du microscopique (les atomes), d’en inférer les lois de la thermodynamique macroscopique. Ce lien entre le microscopique et le macroscopique s’exprime de façon saisissante dans la célèbre formule de Boltzmann : S = k ln W, dont voici l’interprétation. Un système thermodynamique est préparé, à l’échelle macroscopique, dans un état déterminé, où son entropie est S. Il existe, au niveau microscopique, un très grand nombre de configurations qui sont susceptibles de réaliser cet état macroscopique : par exemple, un litre de gaz, pris dans les conditions habituelles, renferme environ trente mille milliards de milliards de molécules ; les façons dont elles peuvent s’agencer, dans ce volume d’un litre, pour se partager une énergie macroscopique déterminée sont effectivement en nombre fabuleux. Boltzmann notait W ce nombre d’états microscopiques équivalents du point de vue macroscopique. Selon lui, l’entropie thermodynamique S de l’état macroscopique considéré est proportionnelle au logarithme de W ; le facteur de proportionnalité k, connu sous le nom de constante de Boltzmann, vaut k = 1,38 × 10-23 joule/kelvin. On peut insister sur le fait que W est gigantesque : son logarithme, multiplié par k, doit donner une entropie de quelques joule/kelvin ; le logarithme de W est donc de l’ordre du nombre d’Avogadro (6 × 1023).
La mécanique statistique issue des travaux de Boltzmann n’a cessé depuis de se conforter et de s’avérer.
L’entropie statistique
Intervient dans la formule de Boltzmann le nombre total W d’états microscopiques accessibles lorsque est fixé l’état macroscopique du système. Voilà qui est surprenant : on s’attendait plutôt à ce que l’un de ces états soit réalisé - même s’il est sans doute impossible de savoir lequel -, ce qui exclurait les autres. Ce dilemme est résolu si l’on admet que la description microscopique d’un système macroscopique est de nature probabiliste : les W états microscopiques compatibles avec des conditions macroscopiques données ont chacun - pour un système isolé - la probabilité 1/W d’être effectivement choisis dans la réalité.
La notion d’entropie s’étend à une situation probabiliste quelconque : N événements possibles e1, e2,... en,..., eN ont les probabilités respectives P1, P2,..., Pn,..., PN, avec 0 „ Pn „ 1 pour tout n, et Sn=1N Pn = 1.
Si l’une de ces probabilités est égale à 1, l’événement correspondant est certain, tous les autres étant impossibles puisque leurs probabilités sont nécessairement nulles. On considère que, dans ce cas particulier, on possède sur le système toute l’information nécessaire, puisqu’on sait à coup sûr quel événement va se produire. À une distribution de probabilités Pn différente de la précédente est en revanche associé un certain manque d’information : n’importe lequel des N événements peut se réaliser, certains ayant toutefois, en général, plus de chances de le faire que d’autres. La théorie de l’information, développée depuis les travaux de Claude Shannon et Warren Weaver (1948), propose de mesurer quantitativement le manque d’information par l’entropie statistique S, définie comme S = - k S n=1N Pn ln Pn (définition). la constante positive k est a priori arbitraire (en mécanique statistique, ce sera la constante de Boltzmann) ; les diverses probabilités étant toutes positives mais inférieures à 1, leur logarithme est négatif, de sorte que S est toujours positive. Dans la situation particulière où les probabilités Pn sont toutes égales (chacune d’elles vaut alors 1/N), on retrouve une expression analogue à la formule de Boltzmann : S = k ln N si Pn = 1/N pour tout n. On montre facilement que cette situation est celle où l’entropie statistique S est maximale ; c’est effectivement lorsque aucun événement n’est privilégié par rapport aux autres que le manque d’information est intuitivement maximum.
Ainsi, l’entropie thermodynamique d’un système s’interprète, dans le cadre de la mécanique statistique, comme la mesure du manque d’information qui subsiste au niveau microscopique lorsque l’état macroscopique de ce système est donné. Par ailleurs, l’entropie statistique peut être utilisée dans d’autres contextes où interviennent des probabilités.
Bernard DIU
© Encyclopædia Universalis 2005, tous droits réservés
Commentaires Forum fermé