Premières réflexions sur « l’Economie de l’Univers à la lumière de la Théorie de la Numérisation Naturelle » (TNN)
par
Comment avoir prise sur ce monolithe ?
Voilà un long moment que prenant connaissance (en ordre dispersé, il faut l’avouer) des développements apportés par Xavier Sallantin sur la TNN, je suis en même temps saisi d’admiration par la cohérence et l’intérêt de l’architectonique d’ensemble, et inquiet et perplexe devant la véritable O.P.A. de la pensée numérique sur la compréhension que nous pouvons avoir de notre Univers.
X.S. nous invite, à l’instar de la révolution informatique, à un véritable retournement épistémologique, un changement de paradigme, qui est certes le critère de toute création nouvelle (« Pour créer il faut penser à coté » a dit le grand mathématicien Raymond Poincarré ), mais ceci semble faire table rase de la Culture établie.
Le souci principal semble de disposer d’un nouveau langage universel, présenté comme naturel, qui se substitue à des approches trop culturelles, donc localisées et temporelles.
Il nous semble qu’il faut réfléchir à deux fois avant de « jeter le Bébé avec l’eau du bain ». Le « tout numérique » va certainement dans le sens de l’histoire (récente) et dans la direction d’une unification de la Physique, certes désirable, mais ceci entraîne
comme une sorte de dé-humanisation dans notre démarche, au profit de la seule technique (d’où risque de technocratie).
Le mode d’expression symbolique, basé sur l’analogie (c’est à dire dans son acception mathématique, rapport, proportion, jeu de différences) est le fruit d’une longue sédimentation, véritable terreau nourricier d’expériences de pensée.
La complémentarité (rappelons nous la thèse de Niels Bohr) s’impose, ce qui exclue toute exclusive de l’un ou de l’autre.
Par ailleurs, il faut bien remarquer qu’il est difficile d’échapper a la médiation du symbole, ni non plus à l’emprise culturelle, puisque les bases d’un système numérique varient au fil des civilisations (60, 12, 10, et enfin binaire) et s’expriment par des signes et symboles conventionnels et arbitraires. Le nombre n’est pas « le signifié d’une séquence digitale » ( p.245), mais un chiffre numérique qui reste à interpréter de façon analogique (à partir du rapport qu’il exprime) !
Lorsque X.S. déclare (I,31) que « la langue de l’arithmétique n’a pas besoin d’être inventé car elle existe (naturellement) », cela me semble contestable car elle repose sur une axiomatique qui reste un jugement synthétique a-priori. Il est abusif d’assimiler évidence et naturel ! Rappelons la Pensée de Pascal : » Qu’est ce que nos principes naturels, sinon nos principes accoutumés » ?
La pensée spéculative analogique ,pour sa part, est généralement limité par les notions de fondement et de commencement, sauf quand elle se risque à penser l’origine , l’absolu et l’infini. (La pensée mathématique s’y aventure aussi, mais elle admet prudemment l’incertitude et l’indécidable) !
X.S. reconnaît plus avant, que la langue numérique a pour objet principal d’exprimer le quantitatif, mais il ajoute « cette codification quantitative (le nombre) est celle d’une notion quantitative, (le quantum) d’action, fonction de trois grandeurs réversibles Temps, Force et Espace, qui sont des qualités ».
Il est évident que la mesure est par définition, la façon quantitative d’exprimer ce qui est mesurable, c’est à dire une qualification, mais on peut s’interroger sur la façon de traiter numériquement les « Qualias philosophiques », qui relève du sensible et de l’affectif. A plus forte raison, j’imagine mal la place de la TNN dans les domaines ou intervient la dimension de la foi !
X.S. s’attaque ensuite à la notion de Sens, en I, 32 : « J’appelle métasème (très beau néologisme) ces radicaux originels de sens qui dans le cas des langages machines ont la propriété essentielles d’être naturels et non pas culturels. La machine les comprends par nature, car ils sont l’expression première d’un couplage naturelle entre physique et arithmétique ».
Je suis réellement perturbé par cet automatisme, que je qualifierais de « mécaniciste » et par cette référence systématique au « naturel ». Ici, comme pour la physique quantique en matière hylétique, la fonction prime la forme.
Pour ma part je ressens la sève du Sens comme essentiellement d’ordre culturelle. Le Sens, cette « idéalité », piégée entre le signifiant et le signifié, nous est « révélé » par un jugement personnel, façonné malgré nous par notre milieu culturel. Dans un esprit universel, le sens devient « valeur humaine ».
Je pose, par intime conviction, que le « sens », cette distillation de l’essentiel, n’est pas numérisable, car il ne peut y avoir de quanta de sens. C’est pourquoi nous avons imaginé la notion de valeur numérique (en tant qu’étalon du sens dans son acception mathématique). Il s’agit d’une affectation (qualitative) paradoxalement analogique (fonction d’un rapport de proportion). C’est pourquoi, il m’apparaît meilleur de parler d’un raisonnement logique, plutôt que naturel, pour tout ce qui est construit par l’esprit comme artifice comptable, le nombre ! Il faut réserver le « naturel », à ce qui est donné, et reconnu par nous comme « a-priori » (le postulat ou l’axiome).
Toutes ces objections, peuvent cependant, être d’une certaine manière, retournées au bénéfice du langage numérique, mais il me semble (pensée intuitive), sans pour autant pouvoir apporter des éléments décisifs, que la TNN se trompe en cherchant, à expliquer à elle-seule tous les aspects de la Genèse de l’Univers.
La « Numérisation » (forme nominale de l’adjectif numérique), est une technique de représentation aussi ancienne que l’écriture ; l’une et l’autre inventées par le développement de la pensée abstraite pour faciliter les échanges de marchandises et laisser traces des lois.
De nos jours, grâce au langage informatique, l’information circule à vitesse électronique et les applications transdisciplinaires sont toujours plus nombreuses.
Cependant cet outil, s’il convient le plus souvent aux sciences dites « dures », est nettement moins approprié aux sciences dites « humaines » .
L’action de penser, peut assurément toujours être codifiée et transmise par un traitement numérique, mais cela n’est qu’un moyen et non pas l’objet ni le sens de « l’idée en acte ». Il faudrait approfondir les spécificités du concept scientifique et le mettre en parallèle avec celles du concept philosophique !
La numérisation décompte des « quanta d’action », mais l’ordinateur (machine numérique) ne peut les interpréter que par l’application d’ un programme préalable de significations logiques convenus, restituant au niveau de la compréhension, un langage symbolique, vivant.
On peut rappeler ici l’aphorisme de Hégel : « Penser, c’est concevoir. Calculer, c’est construire ». Distinguons Phusis et Mathésis (Souffle et Mesure), même si la clarté réside dans leur unité !
On aura bien compris que je ne suis pas prêt à jeter aux orties la « logique Aristotélicienne », qui m’apparaît aussi « naturelle » (et efficiente dans son domaine d’investigation ) que la logique mathématique.
Ces deux approches doivent se respecter l’une l’autre et savoir « vivre ensemble », car elles sont également utiles, pour interpréter correctement le devenir de l’Univers, ceci aussi bien dans la dimension diachronique (cosmique et historique) que dans la dimension synchronique (contemporaine et prospective).
Ces questions , qui relève de la méthodologie, ne préjugent en rien de l’architecture logique proposée au fil des pages par Xavier Sallantin. Les éléments qui la construisent sont particulièrement judicieux et pour certains originaux, mais ils me semblent pouvoir exister indépendamment de la numérisation binaire, même si elle facilite considérablement leur communication .
Il ne s’agit dans cette première réflexion que d’un balayage d’ensemble, pour laisser une trace des difficultés rencontrés. Il me semble souhaitable, pour aller plus avant ; que Xavier Sallantin se positionne de façon précise sur les places respectives qu’il réserve à l’outil analogique et à l’outil numérique, dans la nouvelle compréhension de l’Univers qu’il propose. Il nous dit partir, comme Descartes, du simple (notions premières) vers des développements (embranchements) complexes ; mais ne serais t’il pas utile pour vérification, de procéder en sens inverse ( comme Husserl avec sa méthode de « réduction eidétique » : remonter des phénomènes à l’essence même des choses).
Comment, après cet ouvrage - considérable - , résumer avec des mots simples
(en 100 lignes), les avantages proposés par l’emploi systématique de la « numérisation », pour progresser dans notre quête de compréhension ?
Pourquoi s’agit il véritablement d’une nouvelle façon de penser (alternative ou complémentaire) ?
De quelle façon pouvons nous en faire l’apprentissage ?
Voici, ce qui me semble nécessaire d’expliciter aujourd’hui, pour convaincre véritablement (et à juste titre) les penseurs de tous bords, de la portée de cette nouvelle approche !
A peine terminé ma première réflexion, intitulé « Comment avoir prise sur ce
monolithe » ? (TNN), je relis sur le site Béna « La problématique du sens » et découvre sur le site Ciret, le « Manifeste sur la Transdisciplinarité » de Barbara Nicolescu. (Merci à Xavier de toutes ces occasions de penser !) Tous deux m’apportent des éclaircissements et bien sûr de nouvelles interrogations.
La Transdisciplinarité
La Transdisciplinarité « est ce qui est à la fois entre les disciplines (scientifiques), à travers..., et au delà. Sa finalité est la compréhension du monde présent, par l’unité de la connaissance » (comme la TNN).
« Une connaissance universelle est théoriquement possible par un superordinateur (c’était déjà le matérialisme Laplacien), mais cet ordinateur pourrait tout savoir et ne rien comprendre ». (Il faut cependant prendre en compte les progrès constants de la Robotique et de la Cybernétique).
« Sur le plan technique, l’intersection entre les différents domaines du savoir est un ensemble vide ». (J’aurais plutôt tendance à évoquer la situation de coalescence : à la fois soudé et distinct).
« En présence de plusieurs niveaux de réalité (c’était déjà la thèse de Schrodinger), l’espace entre, (et au delà), des disciplines, est plein comme le vide quantique de toutes les potentialités ». « la Transdisciplinarité s’intéresse à la dynamique engendrée par l’ action de plusieurs niveaux de Réalité à la fois . La découverte de cette dynamique passe nécessairement par la connaissance disciplinaire ; elle lui est complémentaire ».
« Sa méthodologie s’appuie sur trois piliers : les niveaux de réalités, la logique du tiers inclus ( ?) , et la complexité.
Saisissant parallèle avec les trois postulats de la science moderne ( ? à éclaircir).
Seule la Physique qui relève de ces trois critères, peut être formaliser mathématiquement. Ce n’est pas le cas de la psychologie, de l’histoire des religions et d’une multitude d’autre disciplines, qui n’en sont pas moins scientifiques.
Il y a donc également des degrés de disciplinarité (a prendre en compte) ».
La Problématique du Sens
Avec la Problématique du Sens, Xavier S. développe « l’outillage logique entièrement nouveau , à la base du changement de paradigme, qui procède des deux constats contradictoires suivants : la thèse de l’absolu de la relativité pour les sciences humaines, et celle de la vérité des sciences dures.
D’une part, la vérité expérimentale, d’autre part la relativité spéculative.
Il suffit de distinguer les domaines respectifs de la recherche fondamentale et de celle appliquée : leurs objets et les degrés de certitude varient forcément.
X.S. fait observer, que l’outil arithmétique dépends d’un accord préalable entre les utilisateurs sur des règles conventionnelles de normalisation, ceci pour des raisons de rigueur comptable. « ce sont des anthropomorphismes culturels qu’il ne faut pas projeter sans examen sur la réalité naturelle. (sic).
Il est parlé ensuite, de l’arithmétique élémentaire univoque, celle de l’enfant qui apprends à compter (absolu de référence des logiciens, que la TNN propose d’inverser) ; Le sens précis de cette occurrence « univocité », n’est pas pour moi évident (« se dit d’une correspondance entre deux ensembles, qui d’un élément du premier conduit à un élément, et à un seul, du second) !
« Il faut concevoir cette arithmétique classique (élémentaire) univoque, comme une nécessité comptable, d’une arithmétique générale équivoque » .( Equivoque = qui a un double sens, ambigu).
Je reprends maintenant toute la suite de ce texte, dont je perçois l’importance pour expliciter cette nouvelle approche, mais que malgré mon attention soutenue et ma bonne volonté je n’arrive pas à assimiler (c’est a dire à reformuler à ma façon pour y donner un acquiescement sans réserves) !
« Lorsqu’on dérègle méthodiquement l’arithmétique usuelle ( pourquoi boguer ce qu’il faudra ensuite déboguer ?) on engendre des indéterminations qui procèdent de ce que, au principe, le digit est à l’informatique, ce que le quantum d’action est à la physique. Ces indéterminations des comptes sont la transposition numérique des indéterminations quantiques (je comprends qu’il s’agit de « marquer » les indéterminations de la matière physique, mais au fait de quelle manière exacte est réalisé ce boguage artificiel ?) ; est ainsi mise en évidence au principe de toute information une correspondance, nécessaire et non plus arbitraire , entre un signifié arithmétique et un signifiant physique. ( L’explication de I, 245, me semble une construction très complexe). L’analyse axiomatique des règles d’univocité comptable révèle qu’elles sont des normes intrinsèquement significatives car elles expriment une équivalence naturelle et non plus culturelle entre les catégories premières de l’arithmétique et celles de la physique. Avec cette concordance primordiale on touche ici à la source de toute signification et l’on découvre à l’état naissant un sens absolu de référence en qui se composent la nécessité de déterminations et la liberté d’indéterminations. Il en est d’ailleurs ainsi de tout accord sur un référentiel d’orientation qui laisse facultatif le choix de la direction.
La logique de cette arithmétique générale méthodiquement déréglée est l’outil qui est élaboré par le laboratoire Béna pour modéliser et formaliser une théorie du sens. Elle se fonde sur un axiome unique d’accord qui prend acte de ce que tout consensus sur une norme présuppose un critère de discrimination entre l’acceptation et le refus de s’y soumettre. Cet accord ontologique sur la signification du consensus et du dissensus est l’absolu de référence ( cela va de soi si l’on considère notre liberté d’esprit fondamentale !) présidant à l’élaboration d’une théorie du sens qui est inséparablement théorie de l’accord. Béna inscrit ainsi sa recherche sur le sens dans une problématique inédite par rapport aux courants dominants de la pensée contemporaine. Dans cette perspective le prochain millénaire pourrait être celui d’un commun accord au plan verbal sur un sens de référence réservant au plan du comportement la possibilité d’aller ou non dans ce sens. Au paradigme de la relativité du sens succéderait le paradigme de l’évidence du sens ».
Comme je l’ai dit ci-dessus, l’évidence naît pour chacun, d’une adhésion personnelle entraînant la certitude. Pour cela il faut qu’elle soit à la fois comprise et ressentie comme vraie et nécessaire. Le sens relatif n’est jamais qu’une ébauche dans la quête du Sens
Mais peut on dépasser cette ébauche ? C’est l’esprit du très intéressant article de Grégory sChaitin dans « La recherche » de décembre 2003, présenté par Olivier Postel-Vinay.
Article de Chaitin : « L’Univers est il intelligible ? ».
J’en extrais la citation de Hermann Weyl : « L’étonnant n’est pas qu’il existe des lois naturelles ( ce que j’ai peut-être à tort discuté * ) , mais que plus on avance dans l’analyse, plus fins sont les éléments auxquels les phénomènes sont réduits et plus les relations fondamentales deviennent simples ».
Godel et Turing affirment qu’il y a des « propositions vraies et pourtant non démontrables » .Le sens mathématiques n’est donc qu’une évidence relative (non pas dogmatique) ! (Je comprends difficilement les réfutations de Xavier dans son mail du 29 novembre, faute de compétence en la matière. Ceci en particulier pour les développements sur le nombre Oméga. Par contre la superconvention impliquant la discrimination entre le convenir et le disconvenir » me semble aller de soi- car pour chacun d’entre nous, la liberté est le droit de n’être pas d’accord !
* Cette question de » loi naturelle », qui me turlupine est certes un « donné », mais qui doit cependant être interprété pour être reçu. Je vais relire (en diagonale) « La nature de la nzture » d’Edgar Morin et approfondir l’ouvrage de Bernard d’Espaniat, « Physique et Philosophie ». J’ai également à lire le dernier livre de mon ami Michel Lefeuvre (épistémologue) écrit en collaboration avec Michel Troublé (roboticien), « Une critique de la raison matérialiste : l’origine du vivant ». (L’Harmattant, 2003).
Je suis également intéressé par Paul Bernay « Philosophie et Mathématiques » (Vrin 2003), annoncé par La Recherche de janvier, ainsi que par l’ouvrage, conseillé par Xavier, « Les espaces infinis et les silences de Dieu », de Louis Châtellier.
Briques pour construire : Assimilation et questionnements concernant la TNN !
L’ouvrage de Xavier Sallantin, « L’’Economie de l’Univers, à la lumière de la Théorie de la Numérisation Naturelle (TNN) », embrasse un domaine tellement vaste, qu’il nécessite un mode d’emploi et la bonne compréhension des termes et néologismes employés.
a/La Théorie de la Numérisation Naturelle, abrégée TNN, a besoin d’une parfaite compréhension de la signification de chacun de ces trois termes.
Je commencerai par le plus important : Numérisation. (forme nominale pour numérique) La définition du Journal Officiel repris par le Littré déclare : « Se dit, par opposition à analogique (acception mathématique = rapport, proportion), de la représentation des données d’information ou de grandeurs physiques au moyen de caractères- de chiffes généralement- et aussi des systèmes, dispositifs ou procédés employant ce mode de représentation discrète ». (« discrète » : en mathématiques qualifie une grandeur).
Dans le même esprit un ordinateur est un « calculateur numérique » à système électronique permettant automatiquement l’exécution d’un programme (algorithmique).L’ informatique utilise une « numération » à base binaire.
L’action de nombrer est très certainement, il y a trois mille ans, à l’origine de l’écriture par le moyen de signes conventionnels symboliques devenus par la suite des systèmes à base de chiffres, introduisant la notion de valeur numérique. Cette dernière est d’ordre quantitative et fixe la mesure.
Pour « Théorie », le même Littré parle d’ « une donnée générale par rapport à une notion scientifique », ce qui corresponds bien à notre objet . Mais la théorie implique pour être validé sa confirmation par une pratique expérimentale (ce qui est le cas pour le langage informatique).
Le mot « Naturel » mérite également des explications :
J’avoue être gêné par l’adjonction de cette adjectif dont l’emprise me semble trop général, surtout pour un langage qui est « par nature », artificiel et arbitraire.
Pris dans le sens large, « est naturel tout ce qui coule de source, donc qui n’est pas acquis », or le langage numérique, pour moi, est un mode d’écriture, outil d’investigation privilégié, inventé par l’homme, pour exprimer la séquence des faits mathématiques (principalement algébriques).
Dans mon dictionnaire, je relève cependant qu’on nomme « logarithmes naturels » ceux dont la génération est donné d’une manière indépendante de leur base » ; du coup je me demande ce que cela peut signifier par rapport au calcul binaire ?
b/En regard du titre de l’Ouvrage, je reprends une observation déjà faite le 27 novembre :
Le mot « Economie », n’est pas vraiment inapproprié, dans le sens d’un « ensemble de lois qui régissent l’organisation du Monde connu », mais il aurait peut-être intérêt à être qualifié de « dynamique », pour évoquer le type d’évolution qui caractérise notre Univers. Ce qui est recherché, par notre effort conceptuel, c’est l’Intelligence critique (faculté de Jugement) du devenir historique de la Création : pensée récurrente pour l’aspect diachronique et pensée prospective pour les aspects synchroniques et futuribles.
Mais cette perspective « historique » (revisiter les étapes de l’évolution à la lumière de l’interprétation numérique) est t’elle véritablement l’intention de Xavier S., ou s’agit t’il plus modestement des « Applications du mode d’expression numérique, au service de la Connaissance Universelle » (pourquoi pas de la connaissance systémique).
Il me semble qu’il y a une ambiguïté peut-être volontaire, mais qui perturbe ?
c/Quelle est exactement la part de l’analyse numérique dans cette
entreprise ? Voilà, me semble t’il le nœud de notre problématique.
A première vue, je ressens l’impression que la TNN nous est proposé comme chemin d’explication global et universel de « l’Economie de l’Univers » ! Fil rouge principal, sinon exclusif, de cette quête « naturelle » de savoir et de compréhension. N’est- ce point, en l’occurrence, vouloir trop en faire ? D’autant plus que cet objectif se double de la comparaison avec « l’économie de la Création selon le credo chrétien ».
L’écriture numérique est depuis peu (révolution informatique) incontournable, mais elle directement tributaire des technologies électroniques et des phénomènes électriques.
Pour moi, il s’agit toujours d’une application scientifique de logique quantitative (qui relève du hardware), à partir d’une pensée spéculative conceptuelle originaire (software).
Je concède volontiers, que toute analyse se construit à partir d’une dichotomie fondamentale (même la physique quantique imagine la matière à la fois comme onde et particule).
Mais, dans ce mouvement dialectique créatif, ce multiple n’est que composants d’une unité, bien vite remise en question par une nouvelle multiplicité.
Selon la formule de Whitehead, « La multitude devient l’Un, et s’accroît d’un Un ».
J’ai déjà développé mon attachement à une énergie noétique primordiale, toute récente chez l’Homme (sapiens-sapiens), mais résurgence de la Pensée Créatrice de Dieu, qui selon son Verbe a crée l’Homme à son image (co-créateur de l’univers en évolution continue). La notion de Temps est purement anthropique par rapport à ce Plan divin !
d/ Peut t’on parler véritablement d’un « Génome de l’Univers ?
Il me semble que ce n’est que par comparaison (analogie) et assimilation théorique, que l’on puisse évoquer le génome de l’Univers, puisqu’il est lié à la phase du « pas de la Vie ». Il n’y a pas d’informations génétiques sur les phases précédentes, donc impossibilité d’en écrire le séquençage !
Notons au passage, que l’émergence du « pas de la vie » est toujours presque aussi mystérieux pour l’homme, que celle du « pas de la réflexion », (pensée réfléchie au double sens du mot).
« Vents de Béna » Noël 03.
« Vents de Béna » Noël 2003 ; nous apporte, sous la plume de Xavier S., un certain nombre d’informations sur la T N N , qui apportent , comme il se doit, leur lot d’éclaircissements mais aussi de nouvelles interrogations et de perplexité !
P 3 : « Je découvre que la numérisation a commencé dès le Big Bang / processus d’informatisation engagé dans la Nature dès l’origine ».
Il y a lieu de préciser cette notion de numérisation. S’agit il de la seule dichotomie (illustré par le quantum d’action) créatrice d’une nouvelle unité, elle-même remise en question par une nouvelle multiplicité, à son tour synthétisé dans un nouvel état du continuum d’action...
Qui y a t’il de vraiment nouveau, de révolutionnaire, dans ce modèle mathématico-informatique (à base binaire), pour lequel il est écris : « J’ouvre donc une piste entièrement nouvelle que ne soupçonnent aucun des maîtres faisant aujourd’hui autorité ».
La T N N n’est t’elle pas une autre façon de parler, du « tout numérique », à la mode dans notre environnement multimédia, alors que globalement 80 % des informations sont actuellement encore en analogique !
P 4 : Pourquoi être de façon systématique contre la Science établie ?
« Il fallait donc avoir la peau de ces conventions inaperçues qui conditionnent l’exactitude et l’univocité des comptes si essentielles à l’harmonie des rapports sociaux ».
Je n’arrive plus à savoir si la T N N est favorable à l’univocité (au sens de la détermination des faits), ou à l’équivocité (indétermination, ambiguïté) !
Les deux expressions ne sont pas explicitées, et leur emploi n’est pas évident.
Pourquoi parler de « pessimisme épistémologique »,à propos de l’article de G. Chaittin, dans La Recherche ? C’est à mon avis un article qui soulève des questions très pertinentes !
P 5 : Il est écris « En m’attaquant aux dogmes sacro-saints de l’absolu du hasard, de l’incomplétude, et de la complexité, je renverse trois idoles »...
Je ne vois pas de quelle façon et pour quelles raisons la T N N prendrait le contre-pied de ces situations de fait !
Les changements de paradigme existent et la mise en place de la physique quantique en est l’exemple le plus récent et le plus significatif ; la conception de la matière et par voie de conséquence du réel en est bouleversé.
Mais l’utilisation de plus en plus systématique de l’outil numérique pour traiter à vitesse électronique la saisie de l’information n’est elle pas un modèle technique performant, sans être pour autant directement constitutif d’une nouvelle approche du réel ?
Comme exprimé par ailleurs, je crois indispensable l’établissement d’un « vade-mecum » (le plus court possible), clair, méthodique et allant à l’essentiel, écris avec des mots simples (ou dument expliqués), qui puisse positionner la T N N , et en justifier l’ambition comme nouvelle lecture du Monde dans lequel nous vivons ?
Commentaires Forum fermé