Quelques réflexions sur "Entropie et Information" assistées par la TNN et la TGS

Ou le pélerinage d’un "puriste" aux sources de la Physique.
mardi 18 mars 2008
par  Xavier SALLANTIN

Dans ce texte, qui n’est encore qu’un brouillon dont je vous prie d’excuser les obscurités, je fais le point de l’avancement du chantier de la TGS, notamment en ce qui concerne sa concordance avec la Théorie Standard qui me paraît capitale. En voici le sommaire :

Sommaire :

1- De l’existence de normes naturelles de conformité et de latitude ontologique de s’y conformer ou de ne pas s’y conformer.

2- D’un emboîtement fractal structurant la physique de l’Univers.

3- L’emboîtement de ces sociétés est-il l’expression d’un principe de subsidiarité ?

4- De quelques requisits épistémologiques.

5- La distinction essentielle entre l’état de communion et l’action de communication.

6- La modélisation tétraédrique de l’intrication sémantique.

7- La formule de dimension de l’Action.

8- L’épistémologie de la physique exige d’expliciter le notion d’accord.

9- Le quantum d’action est un quantum d’oscillation.

10- La TGS éclaire la Théorie standard grâce à un outil conceptuel plus puissant.

11- Aperçu de la logique du tiers référent, logique trichrome ou "logique trine".

12- La triple indétermination en puissance au point 0 du concours des 3 axes.

13- Le protochamp est-il le champ de Higgs ?

14- Et maintenant que faire ?

7 figures et 1 tableau.


Documents joints

Réflexions sur "Entropie et Informations"

Commentaires  forum ferme

Logo de Bertrand LALLOUR
lundi 31 mars 2008 à 21h51 - par  Bertrand LALLOUR

ENTROPIE (notions de base)

La notion d’entropie est née au plein milieu du XIXe siècle. La théorie de la chaleur qui avait alors cours - celle du « fluide calorique » qu’avait développée Antoine Laurent de Lavoisier (1743-1794) - était fondée sur une hypothèse de conservation de la chaleur. Cette « loi » supposée impliquait, entre autres conséquences, que la chaleur contenue dans un corps isolé (dont tout échange avec l’extérieur est interdit) était invariable. Benjamin Thompson (1753-1814) montra pourtant, expérimentalement, que la chaleur ne se conserve pas. Devant le vide théorique ainsi créé, Rudolf Clausius (1822-1888), William Rankine (1820-1872) et William Thomson, lord Kelvin (1824-1907), cherchèrent, indépendamment les uns des autres, s’il pouvait exister une autre grandeur, apparentée à la chaleur, qui se conserverait. Ils étaient guidés en cela par les idées que Sadi Carnot (1796-1832) avait exposées dans un mémoire prémonitoire, La Puissance motrice du feu (1824). Le résultat de ces recherches fut l’invention de l’entropie (1854). Ce nom vient d’un mot grec, entropê, qui signifie « retour ».

La variation d’entropie

La variation d’entropie entre deux états d’un système thermodynamique se calcule à partir d’une transformation réversible (Carnot disait « idéale ») qui joint ces deux états. Supposons que, au cours de cette transformation, le système soit mis en contact avec plusieurs sources de chaleur, de températures absolues T1, T2,..., qui lui fournissent les quantités de chaleur (algébriques) Q1, Q2,... respectivement. La variation d’entropie DS entre les deux états considérés est la somme des quotients Q1/T1, Q2/T2,... associés aux diverses sources : DS = Q1/T1 + Q2/T2 +... (Transformation réversible).

Mais Clausius eut une intuition qui allait s’avérer primordiale. Partant du fait, qu’il avait élevé au rang de principe, que la chaleur ne s’écoule jamais d’un corps plus froid vers un corps plus chaud, il proposa que l’égalité précédente devînt, pour les transformations réelles, une inégalité, qui porte depuis le nom de Clausius : DS … Q1/T1+ Q2/T2 +... DS est toujours la différence entre l’entropie du système dans son état final et celle de son état initial ; Q1 est la quantité de chaleur (comptée algébriquement) que le système a reçue de la source de température absolue T1,... ; l’inégalité de Clausius se transforme en égalité pour les transformations réversibles, et pour elles seulement.

L’inégalité de Clausius exprime de façon compacte le deuxième principe de la thermodynamique [cf. THERMODYNAMIQUE] , dont les applications sont multiples et variées.

L’entropie de Boltzmann

Le XIXe siècle vit aussi l’essor de l’hypothèse atomique, selon laquelle tous les corps sont faits d’atomes. C’est le développement de la chimie quantitative, initiée par Lavoisier, qui amena ainsi à reprendre pour l’affirmer une idée au demeurant fort ancienne puisqu’elle remonte à l’Antiquité grecque.
La thermodynamique n’avait, quant à elle, nul besoin d’une réalité sous-jacente - que l’on qualifie de microscopique - pour analyser avec succès les propriétés des corps à l’échelle courante - macroscopique. En 1872, pourtant, Ludwig Boltzmann (1844-1906) présenta une théorie nouvelle, que l’on appelle depuis mécanique statistique : elle se proposait, partant du microscopique (les atomes), d’en inférer les lois de la thermodynamique macroscopique. Ce lien entre le microscopique et le macroscopique s’exprime de façon saisissante dans la célèbre formule de Boltzmann : S = k ln W, dont voici l’interprétation. Un système thermodynamique est préparé, à l’échelle macroscopique, dans un état déterminé, où son entropie est S. Il existe, au niveau microscopique, un très grand nombre de configurations qui sont susceptibles de réaliser cet état macroscopique : par exemple, un litre de gaz, pris dans les conditions habituelles, renferme environ trente mille milliards de milliards de molécules ; les façons dont elles peuvent s’agencer, dans ce volume d’un litre, pour se partager une énergie macroscopique déterminée sont effectivement en nombre fabuleux. Boltzmann notait W ce nombre d’états microscopiques équivalents du point de vue macroscopique. Selon lui, l’entropie thermodynamique S de l’état macroscopique considéré est proportionnelle au logarithme de W ; le facteur de proportionnalité k, connu sous le nom de constante de Boltzmann, vaut k = 1,38 × 10-23 joule/kelvin. On peut insister sur le fait que W est gigantesque : son logarithme, multiplié par k, doit donner une entropie de quelques joule/kelvin ; le logarithme de W est donc de l’ordre du nombre d’Avogadro (6 × 1023).

La mécanique statistique issue des travaux de Boltzmann n’a cessé depuis de se conforter et de s’avérer.

L’entropie statistique

Intervient dans la formule de Boltzmann le nombre total W d’états microscopiques accessibles lorsque est fixé l’état macroscopique du système. Voilà qui est surprenant : on s’attendait plutôt à ce que l’un de ces états soit réalisé - même s’il est sans doute impossible de savoir lequel -, ce qui exclurait les autres. Ce dilemme est résolu si l’on admet que la description microscopique d’un système macroscopique est de nature probabiliste : les W états microscopiques compatibles avec des conditions macroscopiques données ont chacun - pour un système isolé - la probabilité 1/W d’être effectivement choisis dans la réalité.

La notion d’entropie s’étend à une situation probabiliste quelconque : N événements possibles e1, e2,... en,..., eN ont les probabilités respectives P1, P2,..., Pn,..., PN, avec 0 „ Pn „ 1 pour tout n, et Sn=1N Pn = 1.
Si l’une de ces probabilités est égale à 1, l’événement correspondant est certain, tous les autres étant impossibles puisque leurs probabilités sont nécessairement nulles. On considère que, dans ce cas particulier, on possède sur le système toute l’information nécessaire, puisqu’on sait à coup sûr quel événement va se produire. À une distribution de probabilités Pn différente de la précédente est en revanche associé un certain manque d’information : n’importe lequel des N événements peut se réaliser, certains ayant toutefois, en général, plus de chances de le faire que d’autres. La théorie de l’information, développée depuis les travaux de Claude Shannon et Warren Weaver (1948), propose de mesurer quantitativement le manque d’information par l’entropie statistique S, définie comme S = - k S n=1N Pn ln Pn (définition). la constante positive k est a priori arbitraire (en mécanique statistique, ce sera la constante de Boltzmann) ; les diverses probabilités étant toutes positives mais inférieures à 1, leur logarithme est négatif, de sorte que S est toujours positive. Dans la situation particulière où les probabilités Pn sont toutes égales (chacune d’elles vaut alors 1/N), on retrouve une expression analogue à la formule de Boltzmann : S = k ln N si Pn = 1/N pour tout n. On montre facilement que cette situation est celle où l’entropie statistique S est maximale ; c’est effectivement lorsque aucun événement n’est privilégié par rapport aux autres que le manque d’information est intuitivement maximum.

Ainsi, l’entropie thermodynamique d’un système s’interprète, dans le cadre de la mécanique statistique, comme la mesure du manque d’information qui subsiste au niveau microscopique lorsque l’état macroscopique de ce système est donné. Par ailleurs, l’entropie statistique peut être utilisée dans d’autres contextes où interviennent des probabilités.

Bernard DIU
© Encyclopædia Universalis 2005, tous droits réservés

Logo de Bertrand LALLOUR
lundi 31 mars 2008 à 21h54 - par  Bertrand LALLOUR

NÉGUENTROPIE

Ce terme a été créé, semble-t-il, par le mathématicien et physicien français Léon Brillouin (1956, Science and Information Theory). Il l’a proposé pour remplacer les expressions d’« entropie négative » ou « entropie changée de signe », employée à peu près simultanément, mais indépendamment, par Norbert Wiener et Erwin Schrödinger. Ce dernier, dans un livre important (What is Life ?, 1945), avait mis en avant la possibilité physique de processus à « entropie négative » pour tenter de préciser les différences entre les processus thermodynamiques physiques et les processus vitaux. L’entropie avait été définie par Rudolf Clausius de telle manière qu’une destruction physique, de quelque ordre que ce soit, apparaisse, par une convention d’écriture, comme positive. Pour prendre en compte alors les phénomènes de structuration du réel, on devait les affecter d’un signe négatif. Subjectivement, de tels phénomènes apparaissaient ainsi comme liés à une négativité intrinsèque. C’est pourquoi certains auteurs avaient proposé pour les processus à entropie négative des dénominations qui apparaissent immédiatement positives, telle « syntropie » proposée par L. Fantappie (1944) et qui n’a pas été retenue. C’est effectivement le terme de néguentropie ou non-entropie (contraction de l’anglais negative-entropy) qui s’est imposé pour désigner une réalité physique précise sur le plan formel, mais lourde de problèmes d’interprétation.

Selon la thermodynamique classique, un système physique pourvu d’une certaine quantité d’énergie (mécanique, électrique, chimique, etc.) et d’un ordre global régissant ses micro-états ne peut évoluer spontanément que vers un état d’équilibre thermique homogène. Cet état signifie que le système est devenu indifférent à ce qui l’entoure, et qu’il a atteint un désordre maximal. Ses micro-états sont indifférenciés à l’échelle globale. Le déterminisme régissant l’univers comme un système isolé semble celui d’une loi de désorganisation progressive des structures matérielles qui le composent.

Il devenait dès lors quasi impossible de penser à l’intérieur d’un même déterminisme physique, et selon une même temporalité, les processus thermodynamiques de désorganisation croissante de l’univers, et les phénomènes d’organisation tels que l’épigenèse d’un embryon, l’évolution complexifiante des formes vivantes, la régulation homéostatique d’un organisme, l’adaptation croissante des comportements réflexes, instinctifs, intelligents. Comment comprendre thermodynamiquement ce phénomène, aussi lié aux échanges énergétiques, qu’est le métabolisme des vivants ? Il manifeste en effet la capacité des vivants non seulement de maintenir dans le temps leur complexité structurale et fonctionnelle, mais, bien plus, de la multiplier en la transmettant à leur descendance. Pendant un siècle, la réflexion sur les systèmes naturels se confrontera à une telle scission de la réalité : d’une part, un fond cosmique évoluant globalement vers ce qu’on appelait « la mort thermique de l’univers » ; d’autre part, des formes, thermodynamiquement aberrantes, de stabilisation dynamique, d’ordre, voire des processus de surstabilisation complexifiante des phénomènes (c’était là, par exemple, le paramètre mis en avant par C. Bernard pour comprendre l’organisation croissante du vivant).

À la fin du XIXe siècle, grâce aux travaux théoriques de Ludwig Boltzmann, de Willard Gibbs et de James Clerk Maxwell, le concept d’entropie va être réinterprété dans le cadre du calcul des probabilités. Devenant une réalité probabilitaire, l’entropie peut être comprise comme la mesure du processus physique qui contraint un système à évoluer de structures improbables vers des structures de plus en plus probables. Cela permet de préciser, entre autre, qu’un ordre biologique constant ou croissant n’est pas impossible, mais très improbable du point de vue physique. Ainsi, la probabilité d’apparition spontanée et aléatoire d’un échantillon de matière aussi complexe (ordre global) qu’une cellule est immensément petite, mais physiquement possible.

Devant une telle improbabilité d’apparition, de maintien et d’évolution, de l’ordre spécifique aux structures des êtres vivants, Schrödinger a affirmé la nécessité de comprendre les vivants à partir de leurs propriétés de non-équilibre auto-entretenu. C’était d’ailleurs une intuition partagée alors par d’autres théoriciens, notamment Ludwig von Bertalanffy (Théorie générale des systèmes), Norbert Wiener (Cybernétique), Lars Onsager et Ilya Prigogine (Études des états stationnaires et des systèmes loin de l’équilibre).

Selon Schrödinger, le métabolisme est la propriété organisationnelle de non équilibre la plus fondamentale du point de vue énergétique (le métabolisme est la propriété de maintenir des structures et des fonctions à travers un flux constant de matière et d’énergie). Comment comprendre thermodynamiquement ce flux par rapport à cette conservation d’ordre ? « Quel est donc ce précieux quelque chose incorporé à notre nourriture qui nous sauve de la mort ? Un organisme vivant accroît constamment son entropie - ou crée de l’entropie positive - et ainsi tend à se rapprocher de l’état dangereux d’entropie maxima, qui est la mort. Il ne peut s’en maintenir éloigné, c’est-à-dire rester en vie, qu’en soutirant continuellement de l’entropie négative, ce qui est en réalité quelque chose de très positif [...]. Donc, un organisme se « nourrit » d’entropie négative. En d’autres termes [...], la chose essentielle en métabolisme est que l’organisme réussisse à se débarrasser de toute l’entropie qu’il ne peut s’empêcher de produire » (What is Life ?, paragr. 57).

Cette notion d’entropie négative n’a pas été sans susciter de nombreux débats quant à ses significations physiques et surtout biologiques. Par exemple, que peut bien vouloir dire pour un être vivant une expression telle que assimiler de l’entropie changée de signe ? Selon Schrödinger, de telles élucidations montrent la nécessité de réinterpréter les lois statistiques de la physique comme des cas limites de lois « superphysiques », lois qui permettraient de rendre compte de ce qu’il appelle un « principe d’ordre à partir de l’ordre », attribuant au vivant une intelligibilité intrinsèque, à l’intérieur d’un déterminisme physique élargi.

Alain DELAUNAY
© Encyclopædia Universalis 2005, tous droits réservés

Logo de Bertrand LALLOUR
lundi 31 mars 2008 à 21h55 - par  Bertrand LALLOUR

BRILLOUIN LÉON (1889-1969)

Le père et le grand-père de Léon Brillouin ont été professeurs de physique au Collège de France. Après ses études à l’École normale supérieure, il a passé un an auprès de A. Sommerfeld, à Munich. Pendant la Première Guerre mondiale, il est affecté au laboratoire « de T.S.F. » du général Ferrié, où il rencontre Maurice et Louis de Broglie. Après la guerre, il est professeur à l’École supérieure d’électricité, à la Sorbonne, puis en 1932 au Collège de France. Directeur général de la Radiodiffusion française en 1939, il quitte la France en 1941 pour les États-Unis, où il s’établit définitivement : il sera professeur dans plusieurs universités, puis directeur de l’enseignement chez I.B.M. Il est mort aux États-Unis.

Mécanique quantique. Dès 1926, Léon Brillouin donne une méthode d’approximation pour résoudre l’équation de Schrödinger (méthode BWK) puis une équation Brillouin-Wigner toujours utilisée dans la chimie quantique. Le théorème de Brillouin établit que la méthode de Fock-Dirac est la meilleure approximation possible dans les problèmes à multiples électrons.

Physique des solides. Brillouin introduit les quanta dans la théorie des solides et cherche un modèle de cristal « parfait » et son équation d’état. Il établit que la pression de radiation doit être remplacée par des tensions de radiation. Sa découverte majeure est la diffraction des ondes lumineuses par les ondes élastiques du cristal et le changement de fréquence dans la diffusion. C’est l’effet Brillouin qui a été trouvé expérimentalement en 1932. L’effet Brillouin se retrouve dans la diffusion par les ondes élastiques des rayons X et des neutrons, ce qui est une technique très employée aujourd’hui pour étudier la dynamique des cristaux. Il avait aussi prévu la diffraction de la lumière par les ondes ultrasonores dans les liquides, effet qui a été expérimentalement vérifié postérieurement.

Les électrons dans les métaux. Brillouin a montré que certaines ondes associées aux électrons ne pouvaient pas se propager parce qu’elles subissent une réflexion de Bragg sur les plans réticulaires. Ces ondes sont déterminées par les « zones de Brillouin », dans le réseau réciproque. Quand le vecteur d’onde est voisin des valeurs critiques, l’énergie de l’électron est perturbée. Telle est l’origine des bandes interdites dans le spectre d’énergie des électrons, qui sont à la base de la théorie des semi-conducteurs. C’est dire l’importance qu’ont eue ses travaux dans le développement de la technologie moderne.

Le paramagnétisme. Brillouin a traité par la théorie quantique le problème du paramagnétisme. Pour déterminer le moment induit en fonction du champ appliqué et de la température, la fonction de Brillouin remplace la fonction de Langevin, valable en théorie classique.

Électronique. Pendant la Première Guerre mondiale, Brillouin eut à résoudre des problèmes posés par les communications radioélectriques. Il inventa l’amplificateur à résistance, construisit des appareils utilisés par la Marine nationale : récepteur radio pour sous-marins immergés, contrôle par signaux du vol d’un avion automatique. Aux États-Unis, il prit part à des travaux pour la défense : il fit la théorie du magnétron (avec le Brillouin flow), ce qui permit des progrès techniques pour ce composant des sources radar. Après la guerre, Brillouin publia d’importants mémoires sur la propagation des ondes guidées et la diffraction par des sphères.

Théorie de l’information. Léon Brillouin a introduit la notion de néguentropie, c’est-à-dire l’entropie changée de signe : pour diminuer l’entropie d’un système isolé, il faut lui fournir de la néguentropie. Il a prouvé l’équivalence de la mesure de la néguentropie et de la quantité d’information. Pour faire comprendre la portée de cette idée, Brillouin a montré comment elle pouvait résoudre le paradoxe du « démon de Maxwell ».

À la fin de sa carrière, il a fait des travaux appréciés de philosophie des sciences.

Léon Brillouin a été sans conteste un des physiciens français les plus éminents dans la période de l’entre-deux-guerres. On peut rapprocher sa figure de celle des grands savants de la fin du XIXe siècle ou du début du XXe. Comme eux, il a fait avancer la science dans des domaines très variés ; il a imaginé des théories abstraites et il a aussi réalisé des appareils électroniques originaux. Comme eux aussi, il a travaillé seul, sans animer une équipe autour de lui, comme il est habituel aujourd’hui. Mais s’il n’a pas eu d’élèves directs, on doit mentionner qu’il a pris la peine d’écrire plusieurs ouvrages d’enseignement, qui ont été utiles à beaucoup d’étudiants dans le monde.

André GUINIER
© Encyclopædia Universalis 2005, tous droits réservés

Logo de Alain BRUYERE
vendredi 4 avril 2008 à 20h44 - par  Alain BRUYERE

Ne pouvant me joindre à vous physiquement pour cette nouvelle réunion du groupe Béna (la première que je manque depuis 4,5 ans), je vous envoie ces quelques commentaires que m’inspire le dernier document de Xavier en vous souhaitant des échanges fructueux et j’en profite pour remettre mon bonjour à tous ceux qui sont là à Paris avec qui je reste en communion.

En ce qui concerne les Orthos et les Paras puis les Pros et les Antis

A chaque niveau, je perçois bien cette distinction mais pour être tout à fait clair je dirais qu’il y a même 3 niveaux :

1) la première distinction tient à la reconnaissence (dans le sens ; je tiens pour vrai) ou non du critère de discrimination ex le Temps ; je reconnais/j’adhère au fait ou non que c’est un critère de discrimination

2) ensuite une fois que le critère de discrimination est "reconnu"/"accepté"
il y a reconnaissance (dans le sens : je suis capable de distinguer) ou non des "sens" "opposés" qu’établit ce critère : je reconnais/distingue ou non le temps occurent et le temps désocurrent

3) et ensuite, il y a reconnaissance (dans le sens je prends parti et je m’engage) du "sens" qui permet le développement du processus vers plus de complexité et néguentropie : je reconnais/m’engage dans la voie où le temps occurent est le temps qui mène vers plus de complexité, vers la vie et l’homme via la cosmophysique, puis biophysique puis noophysique

la première distinction est celle qui sépare les "Orthos" des "Paras"
la deuxième distinction est celle qui sépare, dans les "Orthos", les "Orthos voyants" des "Orthos aveugles"
la troisième distinction est celle qui sépare, dans les "Orthos voyants", les "Orthos voyants et néguentropants" (ce sont les Pros de Xavier) des "Orthos voyant entropants" (ce sont les Antis de Xavier) (pardon pour ces expressions mais je pense que vous voyez ce que je veux dire !)

En ce qui concerne le signifiant, signifié et référent,

Lle plus bel exemple ne serait-il pas la Trinité : L’Esprit est le référent, Dieu le Père le signifié et le Christ le signifiant !

Il me semble normal que le photon soit sans masse car pour lui le temps n’existe pas ; en effet le photon voyage dans l’espace à la vitesse maximale 300.000kms/s ; sa vitesse dans le temps est nulle ; ce n’est pas comme nous ou comme une fusée où la vitesse dans l’espace est faible et la vitesse dans le temps élevée ; la vitesse doit être considérée dans l’espace-temps et la vitesse maximale dans cet espace-temps est 300.000 kms/s et ce maximum reste constant ; donc si ma vitesse dans l’espace augmente, ma vitesse dans le temps diminue ; c’est pour cela que le photon ayant la vitesse maximale de 300.000 kms/s dans l’espace a sa composante temporelle de vitesse égale à zéro ! dès lors, comme le photon est en dehors du temps (je trouve difficilement un autre mot, mais je sais que exister n’est pas le bon, faudrait dire n’est pas dans le monde temporel ou n’est pas incarné dans le temps, il ne peut faire l’épreuve du temps, il est comme éternel, il ne connait ni avant ni après, , il n’est pas dans le monde même si il est du monde, sa masse est nulle.

Enfin j’avais il y a un certain temps posté ces réflexions sur le site Béna et je n’ai pas eu de réaction, si ce n’est d’Eric avec qui nous avons échangé quelque peu ; si vous avez le temps et y portez de l’intérêt, ce serait sympa de réagir.

Vos réflexions m’amènent à aborder la question de l’Energie et de l’Information. J’aime à penser, mais ce ne sont qu’élucubrations personnelles qui ne demandent qu’à être critiquées, que l’Energie qui a été libérée lors du big-bang vient de la fluctutation du vide quantique qui n’était que pure Information donc grandeur immatérielle, et qui s’est transformée en Energie lors du big-bang. Cette Energie très riche en néguentropie a alors été et est toujours consommée par l’Univers pour sa structuration.

Avec E=mc², on a déjà une équivalence entre masse relativiste et Energie :
l’une pouvant se transformer en l’autre et vice-versa : une masse possède donc de l’Energie et une Energie est contenue dans une masse. On peut dès lors voir c, vitesse de la lumière, comme un quanta d’Energie égal à la racine carrée de l’Energie par unité de masse.

Avec E = hf, on a une 2ème équivalence ,entre rayonnement et Energie cette fois :
une onde de fréquence f transporte une Energie et une Energie est véhiculée par une onde . On peut dès lors voir h, constante de Planck, comme un quanta d’Energie égal à l’Energie par unité de fréquence c-à-d de nombre de vibrations par seconde.

Avec E=kT, on a une 3è équivalence, entre Température et Energie cette fois :
une Information contient de l’Energie et une Energie est emmagasinnée dans une Information. En effet Température, Chaleur et Entropie sont liées par la relation dQ=TdS (on peut imaginer que la température T fait varier l’Entropie S et le produit en est de la chaleur Q c-àd un transfert d’énergie, de même que la pression P fait varier le volume V et le produit en est du travail T càd de l’énergie) et l’on sait que l’Entropie est une mesure directe de l’Information que l’on peut avoir d’un système selon l’analyse statistique qui donne k = SlnO où O est le nbre d’états microscopiques permettant de réaliser l’état observé d’un système à l’échelle macroscopique et que S représente donc la quantité d’information moyenne de cet ensemble d’événements que constitue la réalisation par les divers états microscopique de ce même état observé. On peut dès lors voir k, constante de Boltzman, comme un quanta d’Energie égal à l’Energie par unité de variation de Température ou encore de variation de Chaleur par unité de variation d’Entropie, soit par unité d’Information