Warum Voxel die Zukunft von Videospielen, VR und Simulation der Realität sind

quelle

Ich bin nicht im Besitz einer Kristallkugel. Aber ich habe ein obsessiv angesammeltes, enzyklopädisches Wissen über Echtzeit-Rendering-Techniken. Diejenige, die mich in all den Jahren am meisten fasziniert hat, ist die Voxel-Engine. Voxel werden allgemein als 3D-Würfel verstanden, können aber auch als Punkte gerendert werden, beispielsweise die durch 3D-Scannen erzeugten Punktwolkenmodelle.

quelle

Wenn Sie einen Laser in aufeinanderfolgenden Reihen auf und ab oder hin und her bewegen und in Ihrer Software an jeder Stelle, an der der Laser auf etwas trifft, einen Punkt erzeugen, ist das Ergebnis eine Punktwolke. Wenn die Punkte dicht genug gepackt sind, erscheint das resultierende virtuelle Objekt solide, keine Polygone erforderlich.

quelle

Die heute verfügbaren GPUs sind für Polygone optimiert, nicht für Voxel. Wenn Sie jedoch Hardware hätten, die speziell für eine absolut unergründlich große Anzahl von Voxeln entwickelt wurde, könnten Sie eine wirklich fotorealistische Szenerie erstellen. Ein beispielloses Maß an winzigen, komplizierten Details würde möglich werden, ebenso wie realistischeres Verhalten für Licht, Flüssigkeiten, Gase und so weiter.

Die obige Simulation basiert auf Voxeln (lassen Sie etwas Zeit zum Laden, sehr großes GIF). Es kann aufgrund der schieren Anzahl / Dichte der beteiligten Partikel nicht in Echtzeit gerendert werden, aber sie sind ausreichend zahlreich, um überzeugende feste Objekte zu erzeugen, und die genau simulierte Strömungsdynamik führt zu Wechselwirkungen zwischen den Wasserpartikeln, die dem realen Verhalten von Wasser ähneln.

Die Fähigkeit, die Realität auf diese Weise genauer zu modellieren, sollte nicht überraschen, da die Realität auch auf Voxeln basiert. Der Unterschied besteht darin, dass unsere Voxel außerordentlich klein sind und wir sie subatomare Teilchen nennen. Wie bei einer Punktwolke würden Sie, wenn Sie weit genug hineinzoomen, viel Platz zwischen ihnen sehen. Aber zoomen Sie genug heraus und sie nehmen das Aussehen eines festen Objekts an.

quelle

Die Natur von Voxelobjekten besteht darin, dass sie wie Polygonobjekte „hohl“ sein können, um Rechenleistung zu sparen, aber im Gegensatz zu Polygonobjekten können sie auch fest sein. Ein Voxelobjekt kann durch und durch aus festen Voxeln bestehen. Dies würde in einem Computerspiel bedeuten, dass Sie einen Apfel aus jeder Richtung in zwei Hälften schneiden und einen genauen Querschnitt sehen können.

quelle

Wenn Sie von einer feindlichen Rakete explodiert würden, würde Ihr Körper nicht in vormodellierte polygonale Stücke zerfallen, sondern sich tatsächlich auf eine für dieses Ereignis einzigartige Weise trennen und Ihr Inneres wie in der Realität verschütten. Reale Objekte sind schließlich nur Atome, die in einer bestimmten Form zusammengefügt sind, und alles, was passiert, ist nur eine Wechselwirkung zwischen diesen Teilchen, die durch physikalische Gesetze geregelt wird.

quelle

Das Potenzial, mit dieser Methode zumindest begrenzte Teile der Realität in Software zu replizieren, ist so groß, dass diejenigen, die auf das Hochladen von Gehirnen hoffen, dies gezielt erreichen wollen, indem sie das Gehirn auf subatomare Partikelauflösung herunterscannen und aus diesen Daten eine identische Punktwolke erzeugen, bei der jeder Punkt jedem dieser subatomaren Partikel entspricht (und ihm das bekannte Verhalten zugewiesen wird). Die Erwartung ist, dass dieses virtuelle Gehirn dann die Kognition dort wieder aufnimmt, wo es aufgehört hat.

quelle

Minecraft ist ein gutes Beispiel für ein beliebtes Voxel-basiertes Spiel, das das Gameplay-Potenzial von Voxel-Terrain und Interaktionen nutzt. Es „betrügt“ in dem Sinne, dass die Voxel nur polygonale Würfel sind, aber die Mathematik, die bei der prozeduralen Generierung von Terrain in Minecraft eine Rolle spielt, wird jedem bekannt sein, der jemals an einer Voxel-basierten Terrain-Engine aus einem anderen Spiel gebastelt hat.

quelle

Outcast (das 1999 herauskam, wenn Sie es glauben können) ist ein weiteres bemerkenswertes Beispiel für ein Voxel-basiertes Spiel, diesmal ohne polygonalen Betrug, und es zeigte das Potenzial, weitaus detaillierteres Gelände zu erzeugen, als es in polygonalen 3D-Engines des Tages möglich war.

quelle

So klar, einige erstaunliche Dinge sind mit Voxeln möglich. Da unsere eigene Realität aus Partikeln und ihren Wechselwirkungen besteht, ist dies der natürliche Weg, um die Realität zu simulieren. Euclideon hat kürzlich eine moderne Voxel-Engine mit Umgebungen demonstriert, die aus 3D-Scans realer Standorte generiert wurden:

quelle

Die Ergebnisse sind so atemberaubend, dass man kaum glauben kann, dass es sich nicht um ein Foto handelt. Verständlicherweise nannten viele vom ersten Tag an Bullshit. Seitdem haben sie jedoch gezeigt, dass ihre Engine auch auf einem relativ bescheidenen Laptop in Echtzeit läuft, da ihr zentraler Anspruch darin besteht, ein Mittel zur Optimierung des Voxel-Renderings gefunden zu haben.

quelle

Sobald sie demonstrierten, dass der Motor in Echtzeit lief, wurden die Torpfosten verschoben, und ihre Kritiker sagten: „In Ordnung, es kann statische Umgebungen, aber keine beweglichen / animierten Objekte“. Sie zeigten dann animierte und sich bewegende Objekte, sodass sich die Torpfosten wieder verschoben. „Nichts davon ist skelettartig. Es ist alles Frame für Frame, vorberechnet.“

quelle

So ging es. Ähnlich wie bei der anhaltenden Skepsis des EmDrive wird die Skepsis jedes Mal, wenn er einen Test besteht, nur wütender und intensiver. Wir haben solche Angst, getäuscht zu werden, dass wir nicht einmal auf einen so fantastischen Durchbruch zu hoffen wagen.

quelle

Dies ist alles auf Hardware, die nicht für Voxel optimiert ist. Sie haben es nur durch die Entdeckung einer selektiven Rendering-Methode erreicht, die den größten Teil der Arbeitslast ausschneidet, indem sie durch ein dunkles Juju bestimmen, was für Sie sichtbar ist oder nicht, und entsprechend ausmerzen, aber einen kleinen Bruchteil der Verarbeitungsleistung verwenden, die normalerweise benötigt wird.

Stellen Sie sich vor, was mit Grafikkarten der nächsten Generation möglich wird, die speziell für Push-Points und nicht für Polys entwickelt wurden. Stellen Sie sich vor, diese Punkte werden klein genug, um selbst mit VR-Headsets mit 4k-, 8k- und sogar 16k-Auflösung nicht wahrnehmbar zu sein. Das Ergebnis sind wirklich fotorealistische virtuelle Umgebungen, die von realen Objekten und Orten erfasst werden.

quelle

Wenn Sie Echtzeitbeleuchtung, Fluiddynamik usw. hinzufügen, steigt die Rechenlast natürlich in die Höhe. Aber wenn es etwas auf dieser Welt gibt, das so sicher ist wie Tod und Steuern, dann werden Computer mächtiger. Stellen Sie sich in einem Jahrhundert Computer vor, die die gesamte Erde in Punkten darstellen können, die so klein sind wie tatsächliche subatomare Teilchen. Oder Computer in zwei Jahrhunderten, die das gesamte Sonnensystem oder die Galaxie rendern können.

quelle

Bereits jetzt werden Punktwolkensimulationen verwendet, um die Kollision von Galaxien oder die Expansion des Universums zu modellieren. Stellen Sie sich vor, diese Simulationen wären wirklich vollständig. Wenn Sie auf einen einzelnen Planeten zoomen könnten und es wäre so detailliert, bis auf die subatomare Ebene, wie tatsächliche Planeten sind. Was würde es an diesem Punkt von der Realität unterscheiden, in der wir leben?

quelle

Dies sollte einen Sinn ergeben, warum Elon Musk, Stephen Hawking und andere kürzlich über die hohe Wahrscheinlichkeit gesprochen haben, dass wir uns bereits in einer Simulation befinden. Unsere eigene Technologie nähert sich der Fähigkeit, große Teile der Realität mit der gleichen Wiedergabetreue wiederzugeben wie die, in der wir uns befinden.

Wenn wir eines Tages ein ganzes Universum simulieren können, werden wir wahrscheinlich nicht die ersten sein, die dies tun, es sei denn, die Menschheit ist das erste intelligente Leben, das sich jemals im Universum entwickelt hat. Wahrscheinlich werden wir auch nicht die letzten sein, die es tun, da die Simulation ganzer Universen offensichtliche wissenschaftliche Vorteile hat, wenn es darum geht, etwas über unser eigenes Universum zu lernen.

quelle

Wenn diese Simulationen tatsächlich vollkommen genau sind, dann wird Leben innerhalb der Sim-Universen aus den gleichen Gründen entstehen wie in diesem. Die simulierten Spezies, die intelligent werden, werden dann schließlich die Technologie entwickeln, die erforderlich ist, um ihre eigenen Simulationen des gesamten Universums durchzuführen, und so weiter.

quelle

Dies würde dazu führen, dass jedes tatsächliche Universum zu einem bestimmten Zeitpunkt viele simulierte Universen enthält, von denen jedes viele weitere Untersimulationen enthält, von denen jedes viele weitere Untersimulationen enthält und so weiter in einem fraktal angeordneten Prozessbaum. Natürlich kann es nicht ewig dauern, da die Rechenleistung der Root-Sim begrenzt ist, aber selbst dann ist die Anzahl der simulierten Universen notwendigerweise viel größer als die der tatsächlichen Universen auf der ‚obersten Ebene‘.

quelle

Wahrscheinlich nehmen dann die intelligenten Bewohner all dieser Universen (zumindest diejenigen, die all dies noch nicht herausgefunden haben) an, dass sie in einem realen Universum existieren, genau wie die meisten Menschen. Wie stehen die Chancen, dass wir tatsächlich in einem der vergleichsweise wenigen realen Universen leben und nicht in den weitaus zahlreicheren simulierten? Verschwindend klein.

quelle

Wenn Sie das nächste Mal auf die unzähligen Lichtpunkte am Nachthimmel schauen, denken Sie an die unergründliche Menge an Partikeln, aus denen jeder dieser Sterne besteht. Wenn Sie sich einen besonders schönen Baum ansehen, denken Sie an „schöne Grafiken“. Und wenn dich das nächste Mal jemand fragt, ob du denkst, dass dies ein Spiel ist, nicke.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Previous post Die Wissenschaft der Narkolepsie
Next post Vail Pass Shuttle