Considérations sur le code génétique

vendredi 20 octobre 2006
par  Michel NT

L’essai d’élucidation du code génétique dans le cadre de la TNN
nous a fait et nous fera encore couler beaucoup d’encre.
Dans un précédent mail, Alain Bruyère se demande s’il doit
continuer à essayer d’élucider le code génétique.
Le code génétique se trouve au coeur de la TNN
et même peut-être à son origine historiquement parlant.
Il me semble donc important de faire le point
d’après ma perspective.

Même s’il ne s’agit encore que d’une hypothèse gratuite,
et qu’il est possible à ce titre qu’elle soit fausse,
cette idée de trouver une explication déterministe
au code génétique nous permet d’avoir une idée
sur le plan épistémologique du genre de résultat
que l’on souhaite trouver. En outre elle nous a permis
d’apprendre beaucoup de choses sur le codage génétique
et la biologie. À ce titre la démarche est féconde,
même si l’objectif atteint diffère de ce que l’on espérait
au départ. Je salue donc le travail de Xavier, Alain et
d’autres gens du groupe.

S’agissant de la validité du résultat cherche,
quelles sont les présomptions dans son sens ?
Et si l’hypothèse est bonne, quelles sont nos chances
de montrer sa justesse ?

Si j’ai bien compris, historiquement parlant,
Xavier a d’abord découvert une coïncidence exacte
entre la distribution de la redondance des codons
et celle des nombres de 0 à 63 où chaque entier
est identifié au précédent sauf si cet entier
vaut 0, 1, est premier ou une puissance de trois.
Je vais appeler hypothèse (C) l’hypothèse moyennant
quoi ce n’est pas une coïncidence — C comme clé, code,
codons et coïncidence.

Deux idées apparaissent à expliquer : pourquoi des nombres
premiers, et pourquoi des puissances de trois.
Sauf erreur, historiquement, Xavier n’avait pas encore
d’explications à donner pour ces idées, il les a forgées
après.

L’explication de la première idée consiste à dire qu’il
existe une arithmétique biologique, dans laquelle les progressions
géométriques sont
bugguées. On ne fait pas de différences
entre un nombre et ses multiples. L’explication de la seconde
idée consiste à stipuler l’existence d’un accordeur
avec 3 comme valeur propre, si bien qu’on peut quand même
distinguer les puissances de 3 (en fait un nombre limité
de puissances de 3, si bien que 27 et 81 serait indistinguables,
mais comme 81 > 64 on n’y fait pas attention).

Il est bien possible que toute la théorie de la numérisation
naturelle soit partie de là. À Xavier de nous le dire.
En tout cas c’est dire l’importance du code génétique
dans cette théorie. Il reste qu’il semble que les idées
sous-jacentes à la TNN ont été élaborées de manière ad hoc
pour coller à la distribution des codons, et non pas
qu’il s’agissait au départ d’une théorie cohérente construite
à partir de concepts permettant de prédire ensuite plusieurs résultats
comme la distribution des codons.

La TNN en outre ne paraît pas donner d’autres applications
possibles directes autre que la distribution des codons.
Par association d’idées Xavier dit que l’on devrait
retrouver le bestiaire les particules élémentaires
avec une arithmétique encore plus débuggée,
mais on n’a pas encore décrit de bijection simple entre
une liste de nombres finalement assez restreinte
et l’ensemble des particules élémentaires qu’il resterait
d’ailleurs à délimiter à et numéroter.

Xavier souhaite qu’on élabore des logiciels pour valider
ou infirmer ses affirmations, mais avant cela deux points
restent à approfondir :
1) Que recouvre la notion d’arithmétique
dans la TNN, quelle est la portée opératoire de ses arithmétiques ?
2) Que peut-on simuler et valider avec un ordinateur ?

Dans la TNN on ne parle guère que des entiers, tous distingués
dans la nooarithmétique, puis partitionnés dans des classes
d’équivalence de plus en plus grandes lorsqu’une arithmétique
est de plus en plus buggées. Les opérations qu’on effectue
sur ces nombres sont laissées dans l’ombre, aussi bien
dans le monde inobservable quand dans le monde observable,
si ce n’est par exemple l’évocation dans le monde observable
au passage de la fusion ou la fission d’atomes.

La TNN accorde grand cas à des bestiaires de nombres
associées à des bestiaires d’objets naturels :
l’ensemble des particules élémentaires, l’ensemble des atomes
avec la classification périodique des éléments,
l’ensemble des codons... Il n’est pas abordé
quel serait le bestiaire d’objet naturels ou observables
auquel correspondrait la nooarithmétique.
Il est vrai que l’homme d’aujourd’hui utilise son arithmétique
quotidiennement et qu’on peut oublier de se demander ce qu’on
peut compter. Notons que parmi les objets observables
on peut compter tout ce qui est biologique ou macrophysique.
Au niveau de la microphysique où interviennent des probabilités
cela se corse. On notera également que l’homme peut compter
des objets virtuels, ou même manipuler des nombres sans unité
particulière.

De même, il n’est pas abordé quel serait l’arithmétique
mathématique associées aux arithmétiques naturelles débugguées,
au sens des opérations qu’on pourrait faire dans ces arithmétiques.

Posons-nous maintenant la question de ce qu’on peut simuler
avec un ordinateur. On ne peut pas simuler des arithmétiques,
on peut seulement les utiliser. On se détermine un ensemble
d’objets — nombres, matrices, booléens, listes, ensembles —
et des opérations qu’on peut effectuer dessus — additions,
multiplications, unions, intersections — mais ensuite
un programme nécessite une entrée, un algorithme et une sortie.

Ce qui est intéressant c’est qu’on peut simuler des phénomènes
naturels. Par exemple on peut simuler le mouvement céleste
de trois corps dans le cadre de la théorie newtonienne.
On peut prédire la météo dans une fenêtre future de quelques jours.
D’une certaine manière on peut dire qu’on donne en entrée
une configuration donnée. Les opérations qu’on applique
ensuite sont le passage du temps, et l’observance de lois
physiques justement modélisées par des mathématiques et qui donnent
lieu à des opérations sur les objets au fur et à mesure
que le temps passe.

À la limite l’ambition de notre groupe serait de pouvoir simuler
le monde : commencer par simuler le big-bang (voire ce qui se passe
en-deça du big-bang), puis l’apparition des particules élémentaires,
des objets célestes, du soleil, de la terre puis l’apparition
de la vie, de l’homme, de son histoire.

Je dis cela comme une expérience de pensée pour fixer les idées
sur ce qu’est une simulation, il n’y a aucune ironie
sur notre mégalomanie possible. Que retirer de cette expérience
de pensée ?

Il n’est évidemment pas question de resimuler le monde
dans son entièreté, donc il faut limiter nos ambitions
dans le scope d’une simulation possible. Mais l’exercice
de la simulation est intrinsèquement plus ambitieux
dans la mesure où il demande d’isoler des phénomènes
à la portée des ordinateurs, isoler des concepts à vérifier,
et interpréter ensuite les résultats des simulations.

Dans le cadre du code génétique, la TNN fait intervenir
un cube et un singe, qui peuvent faire office de configuration
de départ, mais ensuite il n’y a pas de règle simple
pour décrire les déplacements du singe. Qui plus est
l’existence du cube et du singe n’est pas expliquée,
et d’ailleurs cette expérience ne fait que compliquer
les choses : au lieu d’adhérer à la correspondance exacte
de la distribution des codons et des métanombres de la bioarithmétique,
deux triplets se retrouvent codés par le même cube,
et un cube se retrouve sans triplet. L’existence du ruban
et du crible d’Érathostène n’est pas expliquée ni de manière
naturelle — il n’y a pas d’objets naturels qui leur correspond
— ni de manière culturelle — il n’y a pas de structure
mathématique explicitée autour de la bioarithmétique.

Le temps passé par Alain Bruyère qu’on ne parviendra
pas à trouver une règle de numérotation des codons,
donc on ne peut même pas s’appuyer sur l’existence
du parcours du singe pour parler d’explicitation
du codage génétique.

Le faisceau de présomptions autour de la clé du codage génétique
me semble donc réduit. Et surtout l’outillage fourni par la TNN
ne permet même pas de parler de validation. En effet,
en supposant qu’on arrive à expliciter une suite de règles
pour numéroter les codons, ces règles ne se déduisent pas
d’une théorie, elles n’interviennent que de manière ad hoc.

À mon sens pour l’instant c’est l’impasse concernant
le codage génétique. Plutôt que d’essayer de valider
le parcours du singe, il faut plutôt explorer plus avant
les notions d’accord, d’arithmétique, d’opérations,
de débuggages. Il faut essayer d’exhiber différentes sortes
d’arithmétiques, quitte à ce qu’elles ne soient pas
les arithmétiques spécifiquement définies par la TNN.

Ces arithmétiques sont d’ailleurs peut-être un peu limitatives.
Les mathématiques actuelles sont d’une très grande richesse,
et la TNN n’en rend pas compte ni ne rend compte du fait
de l’adéquation entre les mathématiques et les théories physiques.
En outre l’action ne se voit pas nécessairemet comme un produit
TFL. On peut parler de relation de Heisenberg dès qu’on a deux
grandeurs A et B non commutatives et dont le produit est homogène
à une action. Donc A et B ne sont pas forcément dans l’ensemble
T,F,L. On pourrait donc parler de débuggage suivant A et B.
Ceci laisse à penser que la notion de nombre enfermée
dans l’écriture binaire avec des 0 et des 1 peut sans doute
se généraliser. Pure spéculation de ma part, bien entendu.

C’est à mon avis seulement après une théorie explicitée
qu’on pourra éventuellement revenir à l’établissement
d’une simulation ou une expérimentation pour valider
une interprétation du code génétique, pas forcément
suivant l’hypothèse (C).

Les notions de T, F, L, les remarques de Xavier
sur la chiralité des molécules des êtres vivants,
la dissymétrie des hémisphères présente seulement
chez les hommes (et les dauphins aussi en fait)
sont à mon avis très stimulantes. Je reste persuadé
qu’il y a quelque chose à creuser là-dessous.
Posons-nous donc des questions simples et précises
qui nous permettent d’avancer en espérant pouvoir
replacer ces remarques dans un cadre plus général.