Vivons-nous dans une simulation ? Le trilemme de Nick Bostrom et l’infodynamique de Melvin Vopson

Are We Living in a Simulation?
Susan Hill
Susan Hill
Rédacteur en chef de la section technologie. Science, programmation et, comme tous les lecteurs de ce magazine, passionné de cinéma, de divertissement et d'art.

Sommes-nous les habitants d’un constructo numérique plutôt que d’une « réalité de base » indépendante de l’esprit ? La question de la simulation nous oblige à revenir aux premiers principes : qu’est-ce qui compte comme preuve ? Qu’est-ce qu’une loi physique ? Qu’est-ce qu’un esprit ? Depuis deux décennies, le débat s’est cristallisé autour du Simulation Argument de Nick Bostrom et, plus récemment, autour des tentatives de Melvin Vopson de requalifier les régularités physiques comme des conséquences de la dynamique de l’information. Ensemble, ces approches invitent à un examen neutre mais persistant : si le monde était un programme, que devrait-il paraître différent — si tant est que quelque chose doive l’être ? Et si rien ne change, la thèse est-elle explicative, scientifique ou purement métaphysique ?

Cadrage de l’hypothèse : prétentions philosophiques vs. physiques

L’hypothèse de la simulation se présente souvent sous deux registres. Le premier est philosophique et concerne la probabilité et les classes de référence : en fonction d’hypothèses sur les civilisations futures et leur puissance de calcul, quelle est la probabilité que des êtres ayant des expériences comme les nôtres soient simulés ? Le second est physique et interroge la structure des lois naturelles : si l’information est fondamentale, des forces, des symétries ou des tendances thermodynamiques pourraient-elles émerger d’une optimisation de type computationnel ?

Ces deux registres affûtent le problème, mais l’exposent aussi à des critiques distinctes. Côté philosophie, les fragilités tiennent aux postulats glissés dans le calcul probabiliste et au choix de la classe d’observateurs. Côté physique, les enjeux centraux sont la testabilité, l’indétermination et le risque de re-décrire la physique connue à l’aide de métaphores informatiques sans gain prédictif réel.

L’argument de Bostrom : un trilemme, pas un verdict

La contribution de Bostrom est souvent lue — à tort — comme l’affirmation que nous sommes simulés. En réalité, il s’agit d’un trilemme : (1) presque aucune civilisation n’atteint le stade « posthumain » ; ou (2) presque aucune civilisation posthumaine n’exécute un nombre significatif de simulations d’ancêtres ; ou (3) nous vivons presque sûrement dans une simulation. La force de l’argument est de rendre inconfortable un réalisme trop serein : si l’on admet l’indépendance du substrat pour la conscience et la faisabilité d’émulations à grande échelle, la « classe de référence » des observateurs comme nous est dominée par des simulacres.

Points de tension essentiels :

  • Problème de la classe de référence. La puissance probabiliste de l’argument dépend de ceux que l’on compte comme « semblables à nous ». Si la classe se définit par la phénoménologie (avoir des expériences comparables aux nôtres), les simulés dominent. Si elle se définit par l’origine causale (primates issus de l’évolution biologique), les non-simulés dominent. Il n’existe pas de façon non circulaire de trancher sans théorie supplémentaire.
  • Premisses agnostiques. Les deux prémisses opérantes — esprit indépendant du substrat et émulation réalisable — sont contestables. L’émulation pourrait exiger non seulement une puissance de calcul astronomique, mais aussi une modélisation haute fidélité de systèmes quantiques en décohérence et d’accouplements écologiques incarnés, repoussant la faisabilité bien au-delà des estimations « à la louche ».
  • Gêne décisionnelle. Si la troisième corne du trilemme était vraie, comment agir ? La recommandation pragmatique de Bostrom — « continuer comme avant » — est sensée, mais révèle une asymétrie : une thèse qui ne guide ni l’action ni les prédictions risque de demeurer une élégance sans conséquence.

Lu charitablement, l’apport du trilemme est d’élargir l’éventail des possibilités sérieuses sans revendiquer une clôture probatoire. Il opère surtout comme épreuve de résistance sceptique appliquée à nos présupposés sur la technologie, la conscience et la typicalité.

L’infodynamique de Vopson : du parallèle à la mécanique

Là où le trilemme œuvre dans l’abstraction, Vopson vise le mécanisme. Il avance que la dynamique de l’information obéit à une « seconde loi » distincte de l’entropie thermodynamique : dans des systèmes informationnels fermés, l’entropie de l’information tend à diminuer ou rester constante, entraînant compression et optimisation. Il esquisse ensuite comment ce principe pourrait éclairer des motifs récurrents — en évolution génétique, en symétrie mathématique, voire pour la gravité — en traitant le monde comme un système de traitement de l’information en quête d’économie représentationnelle.

Le saut est audacieux : passer de la métaphore (« l’univers est comme un ordinateur ») à l’hypothèse opérationnelle (« les régularités physiques émergent d’une pression à la compression »). Plusieurs thèses se détachent :

  • La compression comme tendance unificatrice. Si les systèmes évoluent vers une complexité descriptive minimale, on devrait observer des convergences vers la symétrie, la régularité et des codes efficaces. La « légalité » ne serait plus un fait brut, mais un sous-produit émergent d’une comptabilité informationnelle.
  • « Cellules » d’espace-temps discrètes. En modélisant la réalité comme un réseau d’unités porteuses d’information, on peut dériver des dynamiques où rapprocher la matière réduit le nombre de descripteurs d’état nécessaires — produisant le comportement attractif que nous appelons gravité.
  • Lien masse–énergie–information. Si l’information est physique, elle peut porter des attributs énergétiques ou massiques, reconfigurant des énigmes telles que la matière noire en termes informationnels et motivant des tests de laboratoire basés sur le « gommage » d’information.

L’attrait du programme est clair : il promet des ponts testables entre théorie de l’information et physique fondamentale. Mais l’exigence doit être élevée. Re-décrire des régularités connues en langage de compression ne suffit pas ; ce qui compte, c’est la prédiction nouvelle et discriminante. L’infodynamique annonce-t-elle une anomalie quantitative que les modèles standards n’anticipent pas ? Rétrodéduit-elle des constantes établies sans paramètres libres ? Ses engagements « en treillis » peuvent-ils être falsifiés par des mesures de précision qui différeraient si la réalité était continue ?

Qu’est-ce qui vaudrait comme preuve ?

Une évaluation mûre exige de préciser ce qui rendrait l’hypothèse de la simulation — ou son avatar infodynamique — vulnérable aux faits. Plusieurs pistes sont discutées :

  1. Artéfacts de treillis. Si l’espace-temps était discrétisé sur une grille computationnelle, des processus d’énergie extrême (par ex., rayons cosmiques) pourraient révéler d’infimes anisotropies ou des relations de dispersion alignées sur les axes de la grille. L’absence de telles signatures fixe des bornes inférieures à l’échelle de discrétisation.
  2. Plafonds de complexité. Un simulateur fini pourrait imposer des limites de ressources — à la profondeur d’intrication quantique, par exemple, ou à la complexité d’interférences. Des expériences pourraient traquer des seuils de saturation inattendus, non prévus par la théorie standard.
  3. Asymétries thermodynamiques. Si une seconde loi informationnelle diverge de l’entropie thermique, des systèmes d’information « fermés » et soigneusement conçus pourraient montrer une directionnalité (vers la compression) irréductible à la mécanique statistique classique.
  4. Coût énergétique de l’effacement. Le principe de Landauer relie déjà l’effacement d’information à la dissipation de chaleur. Des liens plus forts et non redondants — p. ex., des déficits de masse corrélés à l’effacement — seraient décisifs s’ils étaient observés proprement, isolés des dissipations ordinaires.

Chaque piste affronte des obstacles connus : précision métrologique, effets de fond et, surtout, indétermination. Un signal compatible avec la simulation peut l’être aussi avec des théories non simulationnistes (propositions de gravitation quantique, espace-temps émergent, analogies originales en matière condensée). Le danger est la dérive confirmatoire : voir des motifs « amis de la computation » là où plusieurs cadres prédisent déjà des phénomènes similaires.

Prudences méthodologiques : quand l’analogie surjoue

Trois prudences méthodologiques tempèrent les conclusions empressées :

  • La métaphore de la technologie dominante. Les cultures comparent le cosmos à leur machine la plus avancée : horloges, moteurs, aujourd’hui ordinateurs. Ces métaphores sont fécondes comme heuristiques, mais risquent la faute de catégorie si on les érige en ontologie sans arbitrer leur pouvoir face aux rivales.
  • Comptabilité explicative. Rebaptiser la « gravité » en « compression d’information » ne doit pas seulement renommer l’explanandum. Une profondeur mécaniste exige de montrer comment la nouvelle description réduit les paramètres libres, unifie des phénomènes disparates ou résout des anomalies sans échafaudages ad hoc.
  • Comptabilité bayésienne. Les priors comptent. Si l’on assigne une probabilité préalable faible à la conscience indépendante du substrat ou à l’émulation faisable à l’échelle des ancêtres, la probabilité a posteriori de « nous sommes simulés » demeure faible, même avec des vraisemblances à la Bostrom. À l’inverse, des priors trop larges érodent la discipline empirique.

Retombées éthiques et existentielles (quelle que soit l’ontologie)

Si l’hypothèse fascine, c’est aussi parce qu’elle reconfigure un terrain éthique familier :

  • Éthique de la conception. Si des êtres futurs peuvent instancier des vies conscientes en logiciel, nos choix présents concernant l’IA, les agents virtuels et les émulations de masse prennent un poids moral. La question rebondit en politique publique : devons-nous créer des mondes habités par des esprits capables de souffrir ?
  • Sens sans garanties métaphysiques. Même si la réalité était calculée, les projets humains — soin, savoir, art — ne s’évaporent pas. La valeur supervient sur l’expérience et la relation, non sur le substrat. La posture pratique est donc robuste à travers les ontologies.
  • Humilité épistémique. L’hypothèse rappelle que nos modèles peuvent n’être que des compressions locales d’un ordre plus profond. Cette humilité nourrit une meilleure science, que l’univers repose — ou non — sur un « silicium » fondamental.

Appréciation neutre

Où en est un observateur académique consciencieux ?

  • Le trilemme de Bostrom demeure un défi puissant au réalisme naïf, mais son tranchant dépend de prémisses discutables et de choix de classes d’observateurs que la philosophie n’a pas encore fixés.
  • Le programme de Vopson est prometteur comme agenda de recherche dans la mesure où il produit des prédictions nettes et risquées que la physique standard n’offre pas. Sa valeur se mesurera moins à sa résonance rhétorique qu’à l’économie explicative et à la prise empirique.
  • L’hypothèse de la simulation, en tant que prétention scientifique, ne gagne en crédibilité que lorsqu’elle « paie son loyer » en prédictions. Comme épreuve philosophique de pression, elle le fait déjà en disciplinant nos présupposés sur la typicalité, l’incarnation et l’esprit.

La posture intellectuellement honnête n’est ni la crédulité ni le dédain, mais une curiosité critique soutenue. Si des travaux futurs dérivent des signatures quantitatives — anisotropies alignées sur un treillis avec mises à l’échelle spécifiques, effets masse-énergie liés à l’information au-delà de Landauer, plafonds de complexité inexplicables pour la théorie standard —, l’équilibre des raisons évoluera. À défaut, la thèse simulationniste reste une option métaphysique vivante et une heuristique féconde, sans être encore une hypothèse empiriquement préférée.

Conclusion : la valeur de la question

Demander si nous vivons une simulation n’est pas un jeu d’ontologie spéculative. C’est un levier qui entrouvre plusieurs charnières de l’enquête : comment naissent les esprits, pourquoi les lois sont simples, ce qu’est l’information. Bostrom nous apprend à suivre nos hypothèses sur la distribution des observateurs ; Vopson nous met au défi de convertir « l’information est physique » en mécanismes susceptibles de se tromper. La prédiction la plus sûre est que, quelle que soit la vérité ultime de l’hypothèse, les méthodes élaborées en chemin — classes de référence mieux ajustées, liens resserrés entre information et dynamique, expériences plus discriminantes — enrichiront notre compréhension du monde que nous habitons, simulé ou non.

Tant qu’aucun test décisif ne distinguera la « réalité de base » de la « réalité émulée », refusons à la fois la certitude complaisante et le scepticisme performatif. Laissons plutôt la question faire le meilleur de son travail : affiner nos standards de preuve, clarifier nos ambitions explicatives et étendre la frontière où se rencontrent physique, informatique et philosophie. Si le rideau peut être tiré, il le sera par ces vertus — non par des slogans, mais par des résultats.


Sources

  • Bostrom, Nick. « Are You Living in a Computer Simulation? » The Philosophical Quarterly 53, n° 211 (2003) : 243–255.
  • Eggleston, Brian. « A Review of Bostrom’s Simulation Argument ». Stanford University (matériel de cours symbsys205), synthèse du raisonnement probabiliste de Bostrom.
  • Vopson, Melvin M. « The Second Law of Infodynamics and its Implications for the Simulation Hypothesis ». AIP Advances 13, n° 10 (2023) : 105206.
  • Vopson, Melvin M. « Gravity Emerging from Information Compression » (AIP Advances, 2025) et communications associées de l’University of Portsmouth.
  • Orf, Darren. « A Scientist Says He Has the Evidence That We Live in a Simulation ». Popular Mechanics, 3 avril 2025.
  • Tangermann, Victor. « Physicist Says He’s Identified a Clue That We’re Living in a Computer Simulation ». Futurism, 3 mai 2023.
  • IFLScience (réd.). « Physicist Studying SARS-CoV-2 Virus Believes He Has Found Hints We Are Living In A Simulation ». Octobre 2023.
  • Vopson, Melvin M. Reality Reloaded: How Information Physics Could Explain Our Universe. 2023.
  • Contexte classique de scepticisme philosophique : « Allégorie de la caverne » de Platon ; René Descartes, Méditations métaphysiques (ancrage historique).
Partager cet article
Aucun commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *