Full Framework PDF
Auf Academia
Seit fast einem Jahrhundert ist die Physik gespalten. Auf der einen Seite steht die Allgemeine Relativitätstheorie, Einsteins Meisterwerk, das beschreibt, wie Gravitation die Raumzeit krümmt und die Zeit in der Nähe massereicher Objekte verlangsamt. Auf der anderen Seite steht die Quantenmechanik, die gespenstisch erfolgreiche Theorie des unvorstellbar Kleinen, in der Teilchen gleichzeitig an zwei Orten existieren können und Gewissheit durch Wahrscheinlichkeit ersetzt wird. Beide Theorien funktionieren in ihrem jeweiligen Geltungsbereich hervorragend. Das Problem: Sie widersprechen sich grundlegend. Jeder große Vereinigungsversuch der letzten Jahrzehnte, ob Stringtheorie oder Schleifenquantengravitation, hat versucht, das eine Rahmenwerk dem anderen unterzuordnen, oder nach einem magischen Verbindungsstück gesucht, das beide zusammenfügen könnte. Keiner war erfolgreich.
Die Scale-Time Theory, kurz STT, schlägt einen radikal anderen Weg ein. Sie versucht gar nicht erst, die beiden Theorien miteinander zu versöhnen. Stattdessen behauptet sie, dass sowohl Quantenmechanik als auch Allgemeine Relativitätstheorie lediglich unterschiedliche Betriebsmodi eines einzigen, tieferliegenden Systems sind, einer Art kosmischer Rendering-Engine, die das, was wir als Raum, Zeit, Materie und Kraft erleben, aktiv erzeugt. Was folgt, ist eine Führung durch die Kernideen dieser Theorie, geschrieben für alle, die sich fragen, woraus die Wirklichkeit tatsächlich besteht.
Das Erste, was STT verlangt, ist die Bereitschaft zu akzeptieren, dass Raum und Zeit nicht die Bühne sind, auf der Physik stattfindet. Sie sind das Ergebnis eines tieferen Prozesses. Bevor dieser Prozess beginnt, gibt es keinen dreidimensionalen Raum, keine tickende Uhr, keine Geometrie. Es gibt nur das, was die Theorie als Scale Plane bezeichnet: eine minimale zweidimensionale Fläche mit einer einzigen Punktur in ihrem Zentrum. Man sollte sich darunter keinen physischen Ort vorstellen, den man besuchen könnte, sondern die geringstmögliche Arena, auf der sich Struktur überhaupt organisieren kann.
Auf dieser Fläche existiert keine Zeit im gewöhnlichen Sinne, keine Sekunden, keine Stunden, kein „Jetzt". Es gibt nur einen sogenannten Ordnungsparameter, bezeichnet als Lambda. Lambda liefert nichts weiter als Reihenfolge: ein Vorher und ein Nachher. Dinge geschehen nacheinander, aber es gibt keine Uhr, die misst, wie lange etwas dauert. Es ist der primitivste denkbare Begriff von Fortschreiten.
An der Punktur, dem Zentrum dieser Fläche, sitzt die sogenannte Dipolquelle. Wer ein Bild braucht, stelle sich ein Yin-Yang-Symbol vor, das niemals aufhört zu rotieren. Es handelt sich um einen kohärenten zweilappigen Phasenanreger: zwei ineinandergreifende Hälften eines einzigen rotierenden Musters, das kontinuierlich eine strukturierte Wellenform nach außen in die Fläche injiziert. Dieser nach außen gerichtete Fluss von Rohdaten heißt in der Theorie Scale Flux. Der Dipol dreht sich, die Wellenform breitet sich aus, und der Prozess, Realität zu erzeugen, beginnt.
An dieser Stelle hilft eine Analogie. Man stelle sich einen Computerprozessor vor, der einen Puffer nutzt, um Rohdaten zwischenzuspeichern, bevor er sie an den Monitor schickt, wo sie als sichtbares Bild gerendert werden. Die rotierende Dipolquelle funktioniert wie ein Programm, das unaufhörlich rohe Phasendaten in diesen Puffer schreibt und sie in sich ausdehnenden Ringen nach außen drückt. Doch es gibt ein kritisches Problem: Wie viele Daten können diese Ringe tragen, wenn sie sich ausdehnen?
Während der Scale Flux sich von der Quelle nach außen ausbreitet, verlangsamt er sich. Und weil er langsamer wird, packt die rotierende Quelle immer mehr spektrale Daten in jeden nachfolgenden Ring. Die kumulative spektrale Last wächst mit dem Quadrat des radialen Abstands, ein sich verschärfendes Problem, das rasch überwältigend wird. Die Phasenüberfüllung erzeugt eine unvermeidliche Frequenzrampe: Das gesamte Dateninventar, das nach außen transportiert wird, wächst unerbittlich, und das System kann schlicht nicht Schritt halten.
Die Quelle versucht, eine kontinuierliche Spirale aus Information einzuschreiben, das Paper nennt sie einen abgeschnittenen bipolaren Fermat-Sweep. Aber die Datenlast kompoundiert so aggressiv, dass das System an eine harte Grenze stößt. Es erreicht einen Kipppunkt, an dem die rohen, kontinuierlichen Daten nicht mehr glatt dargestellt werden können. STT nennt diese Schwelle das Distribution Limit. Es ist der exakte Moment, in dem kontinuierliche Realität versagt.
Was passiert, wenn ein fundamentales System einen katastrophalen Datenüberlauf erleidet? Es ist gezwungen zu diskretisieren. Das Universum muss gewissermaßen pixeln, um weiter zu funktionieren. Es behebt den Overflow-Fehler, indem es den sogenannten Master Sampler zündet.
Dies geschieht an einer bestimmten Grenze, dem Critical Ring. Für alle praktischen Zwecke markiert dieser den absoluten Ursprung der diskreten Raumzeit. Es ist im Wesentlichen der Urknall, aber statt einer chaotischen Explosion aus Feuer und Materie ist es die Zündung einer hochstrukturierten Rendering-Engine. Der Master Sampler erzeugt diskrete Ticks, die wir biologisch als Zeit erleben. Er erzeugt diskrete Zellen, die wir als physischen Raum erfahren. Und er nutzt ein Verfahren namens Fourier-Readout, um all die übergelaufenen Pufferdaten in die physische Realität zu übersetzen, die wir bewohnen.
Der Master Sampler funktioniert wie ein diskreter Abtaster: Bei jedem Tick nimmt er eine Momentaufnahme der eintreffenden kontinuierlichen Wellenform. Man kann sich das wie Einzelbilder eines Films vorstellen. Doch hier kommt das entscheidende Detail, man könnte sagen, der Angelpunkt der gesamten Theorie: Der Master Sampler zündet ohne Anti-Alias-Filter.
Wer jemals mit digitaler Audio- oder Videoverarbeitung gearbeitet hat, weiß, dass ein Anti-Alias-Filter zur Standardausrüstung gehört. Er ist ein Mechanismus, der Frequenzen abschneidet, die zu hoch sind, um vom System korrekt verarbeitet zu werden, und so verhindert, dass sie die Aufnahme mit unerwünschten Artefakten verfälschen. Die naheliegende Frage lautet also: Warum hat die fundamentale Rendering-Engine des Universums keinen solchen Filter?
Die Antwort ist elegant und unausweichlich. Ein Vorfilter benötigt eine bereits existierende physische Struktur, die das Filtern übernimmt. Aber der Master Sampler ist selbst der Ursprung physischer Struktur. Es gibt nichts vor ihm, das filtern könnte. Wenn er also die Daten abtastet, verschwinden die extrem hochfrequenten Anteile aus dem Distribution Limit nicht einfach. Sie falten sich in das darstellbare Band zurück. Diese Rückfaltung nennt man Aliasing.
In STT erzeugt dieses Aliasing das, was das Paper als strukturelle Nicht-Injektivität bezeichnet. In einfachen Worten: Mehrere völlig verschiedene zugrundeliegende Datenzustände können exakt dasselbe rekonstruierte physische Ergebnis hervorbringen. Die Rendering-Engine faltet Frequenzen übereinander, sodass sie die ursprünglichen Rohdaten nicht perfekt auflösen kann. Sie rendert stattdessen eine mehrdeutige Mischung von Möglichkeiten.
Das ist STTs Antwort auf das tiefste Rätsel der Quantenphysik. Quantenunbestimmtheit, der Grund, warum Teilchen gleichzeitig an zwei Orten zu sein scheinen, warum Ergebnisse probabilistisch statt deterministisch wirken, ist keine mystische, den Teilchen innewohnende „Spukhaftigkeit". Sie ist das erwartbare, mathematisch unvermeidliche Artefakt eines filterlosen diskreten Abtasters, der nahe an seiner absoluten Darstellungsgrenze operiert. Die Unschärfe der Quantenmechanik ist ein Rendering-Glitch.
Es gibt eine wunderbar anschauliche Art, sich das vorzustellen. Wahrscheinlich hat jeder schon einmal ein Video gesehen, in dem ein Auto auf der Autobahn fährt und die Bildrate der Kamera mit der Rotation der Räder kollidiert. Die Radkappen scheinen rückwärts zu drehen oder gespenstisch zwischen zwei Positionen zu schweben. Das physische Rad widersetzt sich nicht den Naturgesetzen. Die diskrete Abtastrate der Kamera ist schlicht zu langsam im Verhältnis zur Rotation, um die Bewegung korrekt darzustellen.
STT besagt, dass auf der Quantenebene genau dasselbe geschieht. In einem filterlosen Abtaster, der in diskreten Ticks aktualisiert, wird Bewegung relativ zur sich wiederholenden Struktur des räumlichen Gitters dargestellt. Wenn sich ein subatomares System schnell im Vergleich zur lokalen Aktualisierungsrate des Samplers verändert, kann sein scheinbares Verhalten eingefroren, rückläufig oder wild probabilistisch aussehen, rein als Rendering-Artefakt. Phänomene wie Quantentunneln und Nullpunktsschwingung sind in dieser Sichtweise stroboskopische Bildratenfehler des Universums selbst.
Doch wenn die Realität in diskreten Ticks wie ein Stroboskop aktualisiert wird, warum fühlt sich ein Gang durch den Raum dann völlig fließend an? Weil unsere biologische Wahrnehmung vollständig innerhalb der abgetasteten Architektur aufgebaut ist. Wir haben keinen Aussichtspunkt außerhalb des Stroboskops, von dem aus wir die Blitze bemerken könnten. Wir sind das Stroboskop. Hinzu kommt, dass unser Körper auf einer völlig anderen Skala operiert als ein Quantenteilchen, was eine zentrale Kenngröße der Theorie ins Spiel bringt: das Oversampling Ratio, kurz OSR.
Das Oversampling Ratio beschreibt, wie weit ein gegebenes System von der Darstellungsgrenze entfernt ist. Direkt an der Quantengrenze ist das OSR extrem niedrig, das System nimmt kaum genug Abtastungen vor, um Veränderungen zu verfolgen, was zu starkem Aliasing und turbulentem, unberechenbarem Verhalten führt. Doch je größer die Strukturen werden, Atome, Moleküle, Alltagsgegenstände —, desto mehr Abtastungen erfolgen pro relevanter Veränderung. Das Aliasing verblasst, der Fluss wird glatt und stabil, und man erhält die solide, vorhersagbare, klassische Welt, die wir kennen.
STT verankert dies an einer realen, messbaren Zahl. Die Theorie zeigt, dass der Bohrsche Radius, die fundamentale Größe eines Wasserstoffatoms, genau auf der Skala auftritt, auf der das Oversampling Ratio ungefähr 137 erreicht, den Kehrwert der Feinstrukturkonstante. In diesem Rahmenwerk ist das Wasserstoffatom exakt so groß, wie es die Stabilitätsmarge des Samplers erlaubt, bevor das Rendering zusammenzubrechen beginnt. Es ist die erste vollständig stabile atomare Struktur, die die Rendering-Engine aufrechterhalten kann.
Die Aufrechterhaltung dieser hohen klassischen Stabilität hat einen gewaltigen Rechenpreis, denn sie verlangt, dass die Rendering-Engine eine enorme Anzahl von Frames verarbeitet. Dies führt zum sogenannten Render Capacity Postulate: Das Universum verfügt über ein festes Verarbeitungsbudget pro Rendering-Scheibe. Die Aufrechterhaltung kohärenter Masse, das stabile Existieren eines physischen Objekts, erfordert einen massiven Anteil dieses Budgets.
Was geschieht nun, wenn ein sehr massereicher Körper ins Spiel kommt, etwa ein Planet oder ein Stern? Er zwingt das System, mehr Rechenzyklen für das Rendering dieses spezifischen Bereichs aufzuwenden. Das Paper nennt dies einen Scale-Upshift. Die lokale „Scale Clock" verlangsamt sich buchstäblich, um die immense Datenlast zu bewältigen. Die Zeit läuft langsamer in diesem Raumabschnitt, und die räumlichen Zellen dehnen sich, um die Last aufzufangen.
Wer aufmerksam gelesen hat, erkennt jetzt: Was hier gerade beschrieben wurde, ist Gravitation. Ein dichter Planet zwingt die Rendering-Engine des Universums, härter zu arbeiten, wodurch die Zeit langsamer vergeht und der Raum sich um ihn herum krümmt. Gravitation ist in STT keine mysteriöse Kraft, die Objekte zusammenzieht. Sie ist der rechnerische Lag, der durch die Rendering-Kosten der Aufrechterhaltung massereicher Strukturen entsteht. Die Kausalkette ist identisch mit dem, was Einsteins Allgemeine Relativitätstheorie vorhersagt, aber der zugrundeliegende Mechanismus ist rechnerischer statt rein geometrischer Natur.
Dies liefert auch eine bemerkenswert klare Erklärung für Einsteins Äquivalenzprinzip, die seltsame Tatsache, dass es sich identisch anfühlt, auf einem massereichen Planeten zu stehen oder in einer Rakete im leeren Weltraum zu beschleunigen. In STT erfordert das Beschleunigen eines Raumschiffs ständige, schnelle strukturelle Aktualisierungen der Position über das Gitter hinweg, was kinematischen Overhead für die Rendering-Engine erzeugt. Sowohl Masse als auch Beschleunigung verbrauchen die Render-Kapazität des Universums. Der Lag ist derselbe, ob man schwer ist oder sich schnell bewegt.
Die klassische Allgemeine Relativitätstheorie behauptet, dass im Zentrum eines Schwarzen Lochs eine unendliche Singularität liegt, ein buchstäblicher Punkt, an dem die Mathematik vollständig zusammenbricht. STT beseitigt die Singularität ersatzlos. In diesem Rahmenwerk wird ein Schwarzes Loch als Readout Horizon klassifiziert. Die Rendering-Last eines kollabierenden Sterns ist so extrem, dass der resultierende Lag einen steilen Gradienten erzeugt, der Informationspfade nach innen beugt, wie eine mächtige optische Linse. Am Ereignishorizont läuft der Rekonstruktionsprozess des externen Beobachters schlicht in einen Timeout. Er kann keinen stabilen Zugang zu den inneren Daten mehr aufrechterhalten. Es gibt keinen Punkt unendlicher Dichte. Es ist ein Rendering-Timeout, ein Ort, an dem die Verarbeitungskapazität des Universums überwältigt wird.
Wenn Gravitation daraus entsteht, dass das Universum mit dem Rendering dichter Objekte kämpft, was geschieht dann bei massiven, ausgedehnten Strukturen wie Galaxien? Astronomen beobachten seit Langem, dass Sterne an den äußeren Rändern von Galaxien viel zu schnell kreisen. Es gibt schlicht nicht genug sichtbare Masse, um sie gravitativ an ihrem Platz zu halten. Um die Rechnung zum Aufgehen zu bringen, erfand die Physik die Dunkle Materie, eine unsichtbare Substanz, die angeblich etwa 27 Prozent des Universums ausmacht. Doch trotz jahrzehntelanger Suche mit aufwändigen unterirdischen Detektoren wurde nie ein einziges Dunkle-Materie-Teilchen gefunden.
STT argumentiert, dass Dunkle Materie als physische Substanz nicht existiert. Stattdessen zerlegt die Theorie die Illusion der Dunklen Materie in zwei klar getrennte Ebenen der Rendering-Mechanik.
Die erste Ebene ergibt sich aus dem vollständigen bipolaren Rekonstruktionszyklus. Man erinnere sich an die Yin-Yang-Dipolquelle am Fundament. Nach der Zündung des Master Samplers arbeitet das Universum weiterhin in zwei Sektoren. Der erste, der q-plus-Sektor, ist unsere sichtbare, elektromagnetisch aktive Welt, alles, was wir sehen und messen können. Aber es gibt auch einen q-minus-Sektor, einen verborgenen Gegenphasen-Kanal. Entscheidend ist: Dies ist nicht gewöhnliche Antimaterie. Laborantimaterie, Positronen, Antiprotonen, ist elektromagnetisch aktiv und gehört vollständig zu unserem sichtbaren Sektor. Der q-minus-Sektor ist etwas grundlegend anderes: ein separater Rekonstruktionskanal, dessen elektromagnetische Signatur aus unserer Perspektive strukturell unterdrückt ist. Aber er beansprucht dennoch Render-Kapazität. Die Raumzeitgeometrie reagiert auf die gesamte Rendering-Last beider Sektoren zusammen, sodass die universelle Basis der Gravitation stets effektiv doppelt so hoch ist wie das, was wir sichtbar nachweisen können.
Die zweite Ebene heißt Scale-Clock Enhancement. Ein einzelnes Sonnensystem ist relativ einfach für das Universum zu rendern. Aber eine Galaxie ist eine enorm verschränkte Koordinationsoberfläche, die gewaltige Mengen an wechselseitiger Konsistenz über ihre gesamte Struktur hinweg erfordert. Wegen dieser massiven Koordinationskosten läuft die Scale Clock von Galaxien auf einem deutlich langsameren Grundtakt als die einzelner Sonnensysteme. Diese organische, systemweite Verlangsamung verstärkt inhärent ihre effektive Gravitationsantwort. Eine Galaxie läuft gewissermaßen von Anfang an auf einem langsameren Server. Und genau das erklärt eine Schlüsselbeobachtung: Die Illusion Dunkler Materie tritt am stärksten in den dünnen, materieschwachen Außenbereichen von Galaxien auf, dort, wo die Kombination aus globalem System-Lag und lokaler Rendering-Instabilität sich am stärksten aufschaukelt und die Anwesenheit unsichtbarer Masse perfekt imitiert, ohne dass ein einziges Phantomteilchen nötig wäre.
Was bedeutet das alles für Teilchen, für Materie, für uns? STT verlangt ein grundlegendes Umdenken darüber, was ein physisches Teilchen eigentlich ist. In der traditionellen Physik sind Teilchen fundamentale Punktobjekte, die auf einer bereits existierenden Bühne platziert werden. In STT sind Teilchen stabile Readout Knots, persistente, lokalisierte geometrische Konfigurationen, die es schaffen, in den Stabilitätsbecken des Samplers über viele Rendering-Ticks hinweg zu überdauern. Es sind Muster, die sich in jedem Zyklus selbst rekonstruieren, nicht weil etwas Äußeres sie an Ort und Stelle hält, sondern weil ihre internen Phasenbeziehungen harmonisch auf die Rendering-Architektur abgestimmt sind. Masse ist in dieser Sichtweise nichts anderes als die Rendering-Kosten für die Aufrechterhaltung eines gegebenen Knotens.
Wir als Leser und biologische Wesen sind nicht nur ein einzelner Knoten auf einer einzigen Skala. Das Paper beschreibt biologische Beobachter als Observer Stack: ein verschachteltes Spektrum von Skalenbändern, das von der atomaren Ebene über Moleküle und Zellen bis hin zum makroskopischen Körper reicht. Innerhalb dieses Stacks operieren Anchor Bands bei hohem Oversampling Ratio, stabile, zuverlässige Zonen, in denen physisches Gedächtnis, Zellstruktur und biologische Ausführung stattfinden. Aber wir besitzen auch sogenannte Roam Bands, die näher an den aliasing-reichen Rändern operieren und Exploration, Neuartigkeit und die Erzeugung neuer Kandidatenmuster unterstützen.
Das lässt sich bemerkenswert gut auf menschliche Kognition abbilden. Wenn wir brainstormen, wilde und unverbindliche Ideen generieren, operieren wir funktional im Roam Band, unscharf, schnell, flexibel. Wenn wir auf eine gute Idee stoßen und sie ins Gedächtnis überführen, stabilisieren wir sie im Anchor Band mit hohem OSR. Unsere Biologie nutzt buchstäblich die Rendering-Architektur des Universums, um zu denken.
Evolution ist in STT nicht nur die vertraute biologische Geschichte von Zufallsmutation und natürlicher Selektion. Diese Mechanismen wirken weiterhin, aber sie wirken innerhalb einer Stabilitätslandschaft, die ihrerseits von der Entwicklung des Master Samplers geformt wird. Das Paper beschreibt zwei Modi.
Scale Drift ist die allmähliche, stetige Feinabstimmung der Sampler-Parameter im Lauf der Zeit, die kontinuierlich umgestaltet, welche biologischen Konfigurationen stabil sind, welche Koordinationsmodule zur Verfügung stehen und wie schnell sich tragfähige Neuheiten ansammeln können. Es ist die langsame Hintergrundentwicklung dessen, welche Arten von Strukturen als stabile Readout Knots bestehen können.
Scale Leaps sind etwas grundlegend anderes. Es handelt sich um diskrete, plötzliche Rekonfigurationen des Samplers, die ohne Zwischenschritte völlig neue Stabilitätsbecken eröffnen. Neue Arten stabiler Strukturen werden auf einen Schlag verfügbar, nicht durch schrittweise Verfeinerung bestehender Strukturen, sondern durch die plötzliche Zugänglichkeit eines zuvor nicht erreichbaren Regimes.
Das hat eine direkte und verblüffende Konsequenz für eines der größten Rätsel der Biologie: die Kambrische Explosion. Die traditionelle Biologie tut sich seit jeher schwer zu erklären, warum vor ungefähr 540 Millionen Jahren nahezu alle großen Tierstamm-Baupläne innerhalb eines geologisch kurzen Zeitfensters im Fossilbericht auftauchten, ohne erkennbare evolutionäre Vorläufer. STT bietet eine natürliche Erklärung: Ein Scale Leap fand statt. Der Master Sampler überschritt eine Stabilitätsgrenze, neue Phase-Lock-Becken öffneten sich im Rendering-Raum, und die Biologie besiedelte rasch die neu verfügbaren Geometrien. Es war kein Versagen des Gradualismus. Es war ein fundamentales Software-Update.
Ein letztes Puzzleteil vervollständigt das Bild. Was wir als Elektromagnetismus erleben, die Kraft hinter Licht, Radiowellen, Chemie und Elektronik, wird in STT als Neighbor-Scale Phase Transport beschrieben. Es ist der geometrische Mechanismus, der benachbarte Scheiben der Rendering-Architektur mathematisch konsistent zueinander hält. In einer Reformulierung, die auf die Kaluza-Klein-Theorie zurückgreift, entsteht die elektromagnetische Kraft auf natürliche Weise aus der kompakten Phasengeometrie jeder Skalenscheibe, und die elektrische Ladung ist schlicht die Windungszahl, ein Etikett, das beschreibt, wie sich eine stabile Konfiguration um diese interne Phasenkoordinate wickelt.
Scale-Time Theory erhebt nicht den Anspruch, bereits die endgültige Theorie von Allem zu sein. Ihr Anspruch ist enger, aber dennoch tiefgreifend: Sie identifiziert einen plausiblen strukturellen Weg, Quantenverhalten, Raumzeit und Gravitation in Beziehung zu setzen, und dieser Weg lässt sich mathematisch formalisieren, statt auf der Ebene von Metapher oder Intuition zu verbleiben.
Doch die Tragweite dessen, was STT aus einem einzigen Satz von Prinzipien heraus zu erklären beansprucht, ist atemberaubend. Wir leben in einem filterlosen diskreten Abtaster. Die Quantenseltsamkeiten, über die Physiker seit einem Jahrhundert debattieren, sind Aliasing, Glitches in der Bildrate. Die Gravitation, die unsere Füße auf dem Boden hält, ist Rendering-Lag auf dem zugrundeliegenden Prozessor des Universums. Dunkle Materie ist eine Illusion, erzeugt durch verborgene bipolare Verarbeitung und systemweiten Koordinations-Lag. Unser physischer Körper ist ein persistenter Readout Knot, der sich über mehrere Stabilitätsskalen erstreckt und Chaos und Gedächtnis in perfekter Balance hält. Und die Kambrische Explosion war möglicherweise nichts anderes als ein kosmisches Software-Update, das neue Lebensformen plötzlich möglich machte.
Quantenmechanik und Allgemeine Relativitätstheorie waren nie zwei unvereinbare Brücken, die von entgegengesetzten Ufern aus gebaut wurden. Sie waren immer dieselbe Struktur, betrachtet aus unterschiedlichen Entfernungen, mit unterschiedlichen Bildraten, von derselben zugrundeliegenden Rendering-Engine.