De ‘Kosmische Computer’ – Een idealistische benadering


In een eerder artikel heb ik de basis-ideeën uiteengezet van een theorie die ik graag – bij gebrek aan een betere term – Absoluut Idealisme 2.0 noem. Daarin gebruik ik moderne wiskunde en computatiewetenschap om een digitale versie van het oude Absoluut Idealisme te formuleren: het “Absolute Bewustzijn” van filosofen als Fichte, Schelling en Hegel blijkt dan de ‘kosmische computer’ te zijn. Volgens deze theorie bestaat ons heelal als computationele structuur in de wiskundige ontvouwing van het Absolute Zelfbewustzijn. In het volgende geef ik hier wat meer achtergrond bij: ik ga in op de terugkeer van het Idealisme in de hedendaagse filosofie en natuurkunde. Daarbij zal ik met name ingaan op de digitale fysica en de hypothese van het heelal-als-computer(-programma). Die hypothese roept de vraag op wat de ‘kosmische hardware’ is waarop het computerprogramma van ons heelal dan draait. Zoals ik in het bijzonder zal laten zien, kan deze ‘kosmische hardware’ zelf niet in fysische termen begrepen worden. Daarvoor is dus een vorm van Idealisme nodig.


Terugkeer van het Idealisme?

Maar voordat we ingaan op het kosmische hardware-probleem, moeten we ons eerst afvragen of het Absoluut Idealisme überhaupt nog levensvatbaar is. De ambitieuze systemen van het Duits en Brits Idealisme behoren immers tot de grote verliezers van de 20ste eeuwse filosofie. Met name de analytische filosofie is gebouwd op de graven van denkers als Green, Bradley en McTaggart. Zeker tot 1900 stond de Britse filosofie in het teken van “the Eternal Mind” (Green), waarvan de materiële wereld in ruimte en tijd een verschijning zou zijn (een illusoire verschijning zelfs, aldus Bradley en McTaggart). Ook daar echter stortte het Absoluut Idealisme uiteindelijk in, door de mokerslagen van Russell en Moore die – gewapend met de nieuwe mathematische logica, het oude empirisme en een flinke dosis common sense – korte metten maakten met alle ‘metafysische speculatie’ over de ‘Wereldgeest’ (Hegels Weltgeist). Vanaf dat moment stond de Angelsaksische filosofie in het teken van logische taal-analyse en de verdediging en uitwerking van het wetenschappelijke wereldbeeld. Idealisme werd vervangen door natuurkundig Materialisme: de realiteit bestaat niet primair uit geest of bewustzijn, maar uit materiële deeltjes als moleculen, atomen, elektronen, etc. Bewustzijn is slechts een secundair product en ontstaat uit materie zodra deze door Darwinistische evolutie een kritieke organisatiegraad heeft bereikt, zoals in de menselijke hersenen.


Toch is de overwinning van het Materialisme nooit totaal geweest. Al in de eerste decennia van de 20ste eeuw ontstonden er scheurtjes in het materialistische wereldbeeld, met name – ironisch genoeg – door de ontwikkeling van de natuurkunde zelf. De net ontwikkelde kwantummechanica leek de waarneming (en daarmee het bewustzijn) een constitutieve rol toe te bedelen in de zogenoemde “ineenstorting van de golffunctie”, wat aanleiding heeft gegeven tot diverse (quasi-)idealistische interpretaties van de kwantummechanica (o.a. bij Bohr, Von Neumann, Wheeler, Wigner en Stapp). Hoewel interpretatie van de kwantummechanica nog altijd een uiterst controversieel terrein is, wordt ook de meer recente experimentele bevestiging van Bells theorema (dat “lokaal realisme” uitsluit) opgevat als een aanwijzing dat de kwantummechanica idealistisch geïnterpreteerd moet worden (Hoffman 2019: 96-98). 


Ook in de filosofie – met name de analytische filosofie – valt er een opmerkelijke terugkeer naar idealistische posities te bespeuren. Zo pleiten de “Pittsburgh Hegelians” McDowell en Brandom op basis van “semantisch holisme” voor een (analytisch gekuiste) versie van het Absoluut Idealisme (hoewel hun epistemologische insteek minder relevant is voor de ontologische inzet van het Absoluut Idealisme 2.0). Ook in de philosophy of mind zien we dat het Materialisme steeds meer betwijfeld wordt en er een heroriëntatie plaatsvindt ten aanzien van de status van bewustzijn in de materiële wereld – zoals in het verrassend populaire Panpsychisme, waarin bewustzijn gezien wordt als een inherente eigenschap van álle materie, dus ook van ogenschijnlijk levenloze objecten als stenen, sterren en atomen. 


Een cruciale stap in deze ontwikkeling was de uitwerking van het zogenoemde “moeilijke probleem van het bewustzijn” (hard problem of consciousness) door met name Chalmers, die via een scala aan logische argumenten liet zien dat materialistische verklaringen van bewustzijn uiterst problematisch zijn en tegen aporieën aanlopen. Natuurlijk zijn er significante correlaties tussen hersenprocessen en bewustzijnsprocessen, maar – zoals Chalmers e.a. hebben laten zien – dit betekent niet dat bewustzijn restloos vanuit de hersenen verklaard kan worden. Als echter het bewustzijn geen effect van materie is, welke ontologische status heeft het dan wel? Moeten we de afhankelijkheidsrelatie dan wellicht omdraaien en met het Idealisme zeggen: materie is een effect van bewustzijn?


Uitgaande van het “moeilijke probleem van het bewustzijn” kunnen we inderdaad een (indirect) argument voor het Idealisme formuleren, dat ik hier kort zal samenvatten. We kunnen dit het Sherlock Holmes-argument voor het Idealisme noemen, naar de typische logica van de beroemde detective: “Als je al het onmogelijke hebt geëlimineerd, moet datgene wat overblijft – hoe onwaarschijnlijk ook – de waarheid zijn.” Welbeschouwd staan ons namelijk slechts vier mogelijkheden ter beschikking om de relatie tussen materie en bewustzijn te begrijpen: (1) materie verklaart bewustzijn (Materialisme), (2) bewustzijn verklaart materie (Idealisme), (3) materie en bewustzijn zijn gescheiden substanties (Cartesiaans Dualisme) en (4) materie en bewustzijn worden beide verklaard door een derde, onbekende substantie (Neutraal Monisme, dat bijvoorbeeld door Spinoza werd aangehangen). We kunnen nu de meest twijfelachtige of onhoudbare posities wegstrepen; zoals we zullen zien, blijft dan alleen het Idealisme over. 


We zagen al dat het Materialisme van optie (1) wegvalt door het “moeilijke probleem van het bewustzijn”. Het Dualisme van optie (3) struikelt over het aloude geest-lichaam-probleem: als bewustzijn en materie gescheiden substanties zijn, hoe kunnen ze dan interacteren? Ook het Neutraal Monisme van optie (4) is onaantrekkelijk, omdat het volstrekt onduidelijk blijft wat de onderliggende substantie is, waaruit zowel materie als bewustzijn zouden voortkomen. The last man standing, kortom, is het Idealisme van optie (2): materie moet begrepen worden als een manifestatie van bewustzijn. Zo lijkt het moeilijke probleem van het bewustzijn – weliswaar indirect – de juistheid van het Idealisme aan te tonen (vgl. Hutto 2000; Hoffman 2019).


Het heelal-als-computer(-programma)

Een tweede natuurkundige ontwikkeling die – naast de kwantummechanica – in de richting van het Idealisme wijst, is de opkomst van de digitale fysica, die zoals gezegd de computationele aspecten van de fysische natuur onderzoekt. Met name de hypothese van het heelal-als-computer(-programma) laat zich moeilijk met het materialisme rijmen. Oorspronkelijk ontwikkeld door natuurkundigen en computerwetenschappers als Fredkin, Wolfram, Toffoli, Lloyd en (zij het met bedenkingen) Deutsch, heeft deze hypothese ook diverse filosofen gestimuleerd (zoals Bostrom en Chalmers) en uiteraard tot de verbeelding gesproken van tal van science-fiction boeken en films. Vooral The Matrix (1999), waarin de mensheid gevangen wordt gehouden in een virtuele schijnwereld gecreëerd door kwaadaardige robots, heeft publieke bekendheid gegeven aan de theoretische mogelijkheid dat onze wereld een computersimulatie is.


Dat dit idee de scifi-fantasie prikkelt is niet verwonderlijk, maar ook de wetenschappelijke aantrekkingskracht ervan is begrijpelijk. Het centrale punt is de nagenoeg volledige berekenbaarheid (computability) van fysische processen. Zoals Deutsch (2008: 2) opmerkt, zijn de functionele afhankelijkheidsrelaties in de fysische natuur “altijd steevast” beschrijfbaar als berekenbare functies (computable functions), dwz. input-output-functies die door algoritmes uitgevoerd kunnen worden. Volgens Wolfram (1984: 188, 203) zijn de natuurwetten simpelweg algoritmes, die een toestand van een fysisch systeem S op tijdstip t₁ als input nemen om een toestand van S op een tijdstip t₂ als output te geven. Het is deze inherente berekenbaarheid van de natuur die ons in staat stelt tot natuurkunde én om überhaupt computers te maken, niet slechts in abstracto als mathematisch concepten (zoals Turing de logische structuur van de Turing-machine heeft bedacht), maar als concrete fysische objecten. In feite gebruiken we dan het computationele karakter van fysische processen voor onze eigen doeleinden: “Onze computers doen niets meer dan een deel van het heelal herprogrammeren, om het te laten berekenen wat wij willen berekenen.” (Zenil 2013: 1) 


De totale ontwikkeling van het heelal, van de oerknal tot nu, kan beschreven worden als een alomvattende ‘supercomputatie’ waarin de natuurwetten als algoritmes fungeren. Aldus computerwetenschapper Toffoli (1982: 165): “In zekere zin berekent de natuur al miljarden jaren lang continu de ‘volgende toestand’ van het heelal [...].” De algoritmes van individuele fysische processen – van de formatie van sterrenstelsels tot de elektrochemische processen in onze hersenen – kunnen dan begrepen worden als subroutines in deze kosmische supercomputatie. Maar als het heelal één grote computatie is, dan kan het heelal net zo goed als een computer beschreven worden, waarop de natuurwetten als software draaien. Kwantumtheoreticus Deutsch, hoewel kritisch op de hypothese van het heelal-als-computer(-programma), wijst op de verklarende kracht ervan: “Op het eerste gezicht lijkt dit een veelbelovende strategie te zijn om de connecties tussen fysica en computatie te verklaren: misschien zijn de wetten van de fysica wel formuleerbaar in termen van computerprogramma’s omdat ze daadwerkelijk computerprogramma’s zijn.” (Deutsch 2011: 190) 


Diverse andere argumenten ondersteunen vervolgens deze conclusie. Zo is er bijvoorbeeld het feit dat – wiskundig gezien – de natuurwetten van ons heelal slechts een (minieme) deelverzameling vormen van de omvattende en oneindig grote verzameling van alle algoritmes. Vanuit wiskundig oogpunt hadden onze natuurwetten dus net zo goed anders kunnen zijn, wat bijdraagt aan het beeld van het heelal als computerprogramma: de ‘kosmische computer’ had net zo goed een ander ‘heelal-programma’ kunnen draaien. Een volgende overweging extrapoleert vanuit de exponentiële groei van rekenkracht bij computers (Moore’s wet) en de navenant groeiende mogelijkheid om computersimulaties te genereren: op een gegeven moment zullen computersimulaties zó realistisch zijn dat ze nauwelijks meer van ‘echt’ te onderscheiden zijn. In dat geval kan de fysieke realiteit net zo goed als een virtuele realiteit begrepen worden (conform het principe: als het eruit ziet als een eend, kwaakt als een eend, loopt als een eend, dan is het waarschijnlijk een eend; zie Steinhart 2014: 78). 


Ten slotte wordt volgens sommige wetenschappers (zie Vopson 2023) de hypothese van het heelal-als-computer(-programma) empirisch bevestigd door bepaalde fysische eigenschappen van het heelal die wijzen op data-compressie, wat onder computerwetenschappers en -programmeurs een bekende techniek is om het functioneren van computers te optimaliseren. We kunnen dan retorisch vragen: waarom zou het heelal gebruik maken van data-compressie, als het zelf geen computer(-programma) zou zijn? 

 

Is de kosmische hardware fysisch? (1) Het cirkel-probleem
Zodra we uitgaan van de hypothese van het heelal-als-computer(-programma), veronderstellen we ook meteen het onderscheid tussen software en hardware, dwz. enerzijds de algoritmes van de natuurwetten en anderzijds de onderliggende ‘machine’ waarop deze algoritmes draaien. Dit roept echter een hoop nieuwe vragen op (zie Brown 2000: 333), zoals: Waarom draaien deze algoritmes op de kosmische hardware? Wie of wat heeft, bij wijze van spreken, op de startknop gedrukt? En waarom juist deze algoritmes en niet een andere deelverzameling van alle mogelijke algoritmes? En wat is dan de kosmische hardware, de ‘machine’ waarop de natuurwetten draaien? Zoals gezegd is het vooral dit laatste probleem dat om een Idealistische oplossing vraagt. 


Het probleem is dat de kosmische hardware zelf niet in fysische termen begrepen kan worden. Fysische realiteit is immers die realiteit die door de natuurwetten wordt beschreven; dus als de natuurwetten gezamenlijk de software vormen, dan moet de hardware logisch gezien daaraan voorafgaan. De hardware vormt een fundamentelere realiteit, die aan de “virtuele realiteit” van het fysische ten grondslag ligt: “Volgens de digitale fysica is ons heelal een software-proces draaiend op een computer. Ons heelal is virtueel. Natuurlijk impliceert virtualiteit niet dat ons heelal onwerkelijk is. Het betekent slechts dat dat het niet in ultieme zin werkelijk is. Net zoals een golf supervenieert op water, zo superveniëren alle fysische dingen in ons heelal op een computer.” (Steinhart 2014: 78) Ultiem werkelijk is alleen de onderliggende computer, die dan echter non-fysisch of “sub-fysisch” moet zijn (ibidem). 


Zoals Fredkin, een van de pioniers van de digitale fysica, zegt: de kosmische hardware kan niet in het (gesimuleerde) heelal bestaan, maar moet daar principieel ‘buiten’ vallen: “Op de vraag waar de Ultieme Computer zich bevindt, kunnen we een [...] precies antwoord geven: deze bevindt zich niet in het heelal – maar is ergens anders. Als ruimte en tijd en materie en energie allemaal gevolgen zijn van de informatieverwerking die draait op de Ultieme Computer, dan wordt alles in ons heelal gerepresenteerd door dat informationele proces. De plek waar die computer bestaat, de machine waarop dat proces draait, noemen wij daarom “het Andere”.” (Fredkin 1992) 


Deze conclusie is echter voor sommige theoretici binnen de digitale fysica lastig te accepteren, met name de natuurkundigen. Zij zijn immers beroepshalve geneigd om de fysieke realiteit te zien als de ultieme realiteit, waartoe alle andere ‘werkelijkheidsniveaus’ gereduceerd moeten worden (van psychologie naar neurologie, van neurologie naar biologie, van biologie naar scheikunde, en ten slotte van scheikunde naar natuurkunde). De overtuiging dat natuurkunde de meest fundamentele wetenschap is, is voor veel natuurkundigen een bron van trots (of arrogantie, zoals sommigen menen). Natuurkundigen die binnen de digitale fysica werken, zijn daarom vaak geneigd om de kosmische hardware zelf ook als fysisch te begrijpen. Dit zorgt voor een zekere ambiguïteit in de hypothese van het heelal-als-computer(-programma) (en vandaar de haakjes rond “-programma”): is het heelal zelf de hardware waarop de natuurwetten draaien, of is het heelal – als gedefinieerd door die natuurwetten – slechts het programma dat door die computer gedraaid word?

Sommige theoretici houden onvoldoende rekening met deze ambiguïteit en halen zo de niveaus van hardware en software door elkaar, wat tot paradoxale resultaten leidt. Als we de kosmische hardware zelf ook als fysisch begrijpen, dan komen we ofwel in een vicieuze cirkel terecht, ofwel in een regressie. Beide komen we tegen in de digitale fysica. De cirkel vinden we bijvoorbeeld bij kwantumtheoreticus Lloyd, die het heelal zelf ziet als de hardware waarop de natuurwetten draaien: “De machine die de “universele” computatie uitvoert is het heelal zelf.” (Lloyd 2007: 16) Aangezien echter het heelal als fysisch object zelf pas ontstaat door de computationele werking van de natuurwetten, is het heelal dan zowel datgene wat berekend wordt als de computer die de berekening uitvoert – een circulaire verhouding die Lloyd echter probleemloos lijkt te omarmen: “Wat berekent het heelal? Het berekent zichzelf.” (Idem: 3)


Lloyd probeert het paradoxale van die cirkel te omzeilen door het heelal-als-computer op te vatten als een “cellulaire automaat”, bestaande uit elementaire cellen die met elkaar interacteren en daarbij volgens de algoritmes van de natuurwetten informatie verwerken. Het is bekend dat dergelijke cellulaire automaten als volwaardige computers kunnen functioneren. Het problematische aan Lloyds visie is echter dat hij de ‘rekenende cellen’ zonder meer gelijkstelt aan fysische objecten: “Elke molecuul, elk atoom en elementair deeltje registreert bits aan informatie. Elke interactie tussen die onderdelen van het heelal verwerkt die informatie door de bits te veranderen. Dat wil zeggen, het heelal rekent, en omdat het heelal beheerst wordt door de wetten van de kwantummechanica, rekent het op een intrinsiek kwantummechanische wijze [...].” (Idem: 3) Dus door causaal met elkaar te interacteren, kortom, verwerken fysische objecten bits aan informatie volgens de algoritmes van de kwantummechanische wetten. 


Dat lijkt op het eerste gezicht een elegante oplossing voor het kosmische hardware-probleem, maar bij nader inzien blijft de situatie paradoxaal. Alle fysische objecten zijn immers zelf ook volgens de natuurwetten ooit ontstaan – denk aan het allereerste moment van de oerknal, toen zelfs de meest elementaire deeltjes nog niet bestonden. De eerste deeltjes ontstonden minuscule fracties van een seconde na de oerknal, de wat complexere deeltjes ontstonden enkele seconden of minuten daarna, de eerste atomen ontstonden pas zo’n 380.000 jaar later, en moleculen nog veel later. Het punt is dat al deze deeltjes vanuit de oerknal ontstonden volgens de algoritmes van de natuurwetten en dus als resultaten van wat Lloyd de “universele computatie” noemt. Kortom, fysische objecten kunnen niet ingezet worden als de ‘rekenende cellen’ om deze computatie uit te voeren: fysische objecten zijn zelf de uitkomsten van die computatie. Ook de cellulaire benadering van het heelal-als-computer komt niet uit onder de principiële scheiding tussen niet-fysische hardware en de virtuele realiteit van het fysische. 


Is de kosmische hardware fysisch? (2) Het regressie-probleem

Willen we deze cirkel vermijden en desondanks vasthouden aan de fysische realiteit van de kosmische hardware, dan komen we uit bij de tweede hoorn van het dilemma. Software en hardware blijven dan gescheiden niveaus. Het gevolg is echter dat elke hardware – qua fysische realiteit – zelf ook weer begrepen moet worden als software draaiend op een nog fundamentelere fysische hardware, enzovoort. We krijgen dan een eindeloze hiërarchie van fysische realiteiten, waarbij elke realiteit berekend wordt vanuit een onderliggende fysische realiteit. 


Voor kwantumtheoreticus David Deutsch is het met name deze dreigende regressie die hem aan de hypothese van het heelal-als-computer(-programma) doet twijfelen: “Er zou dan dus een onderliggende fysica verantwoordelijk zijn voor deze computer, en [...] die onderliggende fysica zou dan niet op haar beurt ook een programma uitgevoerd door een computer kunnen zijn, tenzij je een oneindige regressie wil aannemen. Hoe dan ook, de hypothese lost niets op.” (Deutsch in Brown 2000: 335) Merk op dat Deutsch hier, als een typische natuurkundige, voetstoots ervan uitgaat dat ook de kosmische hardware fysisch moet zijn; het is echter juist die veronderstelling die tot de regressie leidt. Met de hypothese van het heelal-als-computer(-programma) op zich is dus niets mis.

Maar Deutsch heeft natuurlijk gelijk dat het idee van een oneindige hiërarchie van fysische realiteiten, waarbij elk niveau vanuit een onderliggend niveau berekend wordt, niets oplost. Deze regressieve optie is zo mogelijk nog absurder dan de circulaire zelf-berekening van het heelal bij Lloyd. Toch is juist deze optie verrassend populair, met name in de literatuur naar aanleiding van Bostroms veelbesproken “simulatie-argument”, waarin hij onderzoekt hoe groot de kans is dat wij leven in een computersimulatie gecreëerd door een technologisch superieure beschaving (Bostrom 2003). In dat kader suggereert hij dat ook díe beschaving zou kunnen leven in een computersimulatie, gecreëerd door een nog eerdere beschaving, etc. Zo ontstaat het idee van nested simulations: “Virtuele machines kunnen gestapeld worden: het is mogelijk om een machine te simuleren die een andere machine simuleert, enzovoort in een arbitrair aantal iteraties.” (Idem: 12) Bostrom blijft echter (relatief) voorzichtig in die zin dat hij blijft vasthouden aan een “basement-level” (ibidem), dwz. een ‘oer-heelal’ waarin de allereerste hoogtechnologische beschaving ontstaat die tot computersimulatie van andere werelden overgaat (waarin vervolgens weer andere werelden gesimuleerd worden, enzovoort). Het probleem is echter dat de fysica van dat ‘oer-heelal’ dan onverklaard blijft of tenminste niet in termen van computatie begrepen kan worden; mede daarom noemt Bostrom de “metafysische status” van de aanname van een oer-heelal “enigszins onduidelijk” (Bostrom 2003: 12). De verklaringsstrategie van de digitale fysica stokt dan. 


We zien Bostroms voorzichtigheid dan ook verdwijnen bij andere denkers, die zijn suggestie van nested simulations oppakken om de verklaringsstrategie van de digitale fysica wél consequent vol te houden. Met name Steinhart introduceert het idee van “iterated simulationism”, waarin de optie van eindeloze regressie bewust omarmd wordt. Beginnend met ons heelal als niveau nul (in die zin dat wij technologisch nog niet in staat zijn tot simulatie van andere heelallen), postuleert Steinhart (2014: 92-93) een oneindige reeks van steeds fundamentelere heelallen, waarbij elk heelaln gesimuleerd wordt vanuit een heelaln+1. De reeks heelallen is dan isomorf met de oneindige verzameling van de natuurlijke getallen ℕ={0, 1, 2, 3, … }. 


Vanuit het perspectief van de digitale fysica blijft zo inderdaad geen enkel heelal onverklaard. Bovendien heeft elk heelal slechts een eindig aantal gesimuleerde heelallen onder zich (aangezien elk getal in ℕ eindig is), zodat ook de “computationele kosten” (zoals rekenkracht en energie) voor elk heelal eindig en dus ‘behapbaar’ blijven. De reeks als geheel is echter oneindig: net zoals er geen hoogste getal in ℕ is, is er ook geen ‘hoogste heelal’ vanwaaruit de overige heelallen als simulaties verklaard kunnen worden (eindigend met ons heelal als nul-niveau). De vraag blijft dan: waarom bestaat de reeks als geheel? Elk heelal wordt wel verklaard vanuit een fundamenteler heelal, maar de oneindige reeks van heelallen zelf blijft onverklaard. 


Steinhart (idem: 94) is zich van dit probleem bewust en hij formuleert er een wiskundig elegante oplossing voor; het punt is echter dat de vraag naar de kosmische hardware zo dubbel en dwars terugkeert. In zijn oplossing maakt Steinhart gebruik van Cantors theorie van het transfiniete, waarin er voor elke reeks eindeloos groeiende getallen een eerstvolgend limiet-getal bestaat, dat groter is dan alle voorafgaande getallen; voor de reeks van de natuurlijke getallen 0, 1, 2, 3, … is dat het getal ⍵ (omega), het eerste oneindige getal. En net zoals ⍵ in de verzamelingentheorie gelijkgesteld wordt aan de verzameling ℕ={1, 2, 3, …}, zo postuleert Steinhart op niveau ⍵ een ‘Super-Computer’ die de oneindige reeks van gesimuleerde heelallen in gesimuleerde heelallen omvat en berekent. 


Deze ‘Super-Computer’ noemt hij de “Godheid” (Deity): “De limiet-regel stelt dat er een oneindig hoge machine M(⍵) bestaat. Aangezien deze oneindig hoog is, is deze machine de Godheid. [...] Terwijl elke eindige machine zich tot zijn opvolger verhoudt als software tot hardware, is de Godheid geen software voor enige hardware – integendeel, deze is pure hardware (wat voor digitalisten misschien hetzelfde betekent als de uitspraak dat de Godheid puur zijn is). [...] Fysisch zijn betekent virtueel zijn. Echter, omdat de Godheid pure hardware is, is de Godheid niet fysisch. [...] De Godheid is een supra-fysische computer, wiens zelfgerichte cognitie alle fysische existentie genereert.” (Idem: 95-97)


Het zal duidelijk zijn dat Steinharts oplossing, hoe elegant en fascinerend ook, uiteindelijk meer vragen oproept dan beantwoordt. Uiteindelijk is zijn oplossing nogal inconsistent. De hele bedoeling van Steinharts iterated simulationism is immers om vast te kunnen houden aan het fysische karakter van de kosmische hardware (zie idem: 81); juist daarvoor werd de eindeloze regressie van gesimuleerde heelallen in gesimuleerde heelallen omarmd. Dus als Steinhart vervolgens ter verklaring van deze oneindige reeks een niet-fysische ‘Super-Computer’ M(⍵) postuleert, dan is dat in strijd met die bedoeling. Het fysische karakter van de (ultieme) kosmische hardware is dan alsnog opgegeven. Men vraagt zich af waarom de hele hiërarchie van “nested simulations” dan überhaupt nodig was. Als we uiteindelijk toch het niet-fysische karakter van de kosmische hardware moeten toegeven, waarom zouden we dan niet ons heelal rechtstreeks als computersimulatie daaruit verklaren? Dus zonder de regressieve omweg van een fundamenteler heelal gesimuleerd vanuit een nog fundamenteler heelal etc. Kortom, als Steinharts iterated simulationism iets duidelijk maakt, dan is het wel dat het fysische karakter van de kosmische hardware uiteindelijk niet volgehouden kan worden. 


Literatuur

– Bostrom, Nick (2003), “Are you living in a computer simulation?”, in: Philosophical Quarterly, vol. 53, no. 211, pp. 243-255.

– Brown, Julian (2000), Minds, Machines, and the Multiverse: The Quest for the Quantum Computer. Simon & Schuster: New York.

– Deutsch, David (2008), “What is Computation? (How) Does Nature Compute?”, talk held at the 2008 Midwest NSK Conference, October 31-November 2, at Indiana University: https://legacy.cs.indiana.edu/~dgerman/hector/deutsch.pdf

 – Deutsch, David (2011), The Beginning of Infinity: Explanations that Transform the World. Penguin Books: London.

– Fredkin, Edward (1992), “A New Cosmogony”: https://people.duke.edu/~ng46/meteorites/nc-meteorites/Ed%20Fredkin%20-%20A%20New%20Cosmogony.pdf

– Hoffman, Donald (2019), The Case Against Reality: How Evolution Hid the Truth from Our Eyes. Penguin Books: London.

– Hutto, Daniel (2000), Beyond Physicalism. John Benjamins Publishing Company: Amsterdam.

– Lloyd, Seth (2007), Programming the Universe: A Quantum Computer Scientist Takes on the Cosmos. Vintage Books: London.

– Steinhart, Eric (2014), Your Digital Afterlives: Computational Theories of Life after Death. Palgrave Macmillan: New York.

– Toffoli, Tommaso (1982), “Physics and Computation”, in: International Journal of Theoretical Physics, #21, pp. 165-175.

– Vopson, Melvin (2023), Reality Reloaded: The Scientific Case for a Simulated Universe. IPI Publishing: Hampshire.

– Wolfram, Stephen (1984), “Computer Software in Science and Mathematics”, in: Scientific American, #251, September, pp. 188-203.

– Zenil, Hector (2013), “Introducing the Computable Universe”, in: Hector Zenil (ed.), A Computable Universe: Understanding and Exploring Nature as Computation, pp. 1-20. World Scientific Publishing: New Jersey.







No comments:

Post a Comment