Wie Echtzeit-Rendering Ihre Arbeitsweise für immer verändert

Wir haben ausführlich über das Aufkommen von GPU-beschleunigtem Raytracing mit Renderern wie Octane, Indigo und dem kommenden V-Ray RT gesprochen. Die Grafikkarte in den meisten Workstations ist jedoch auch in der Lage, mit der latenten Kraft von Echtzeit-Engines qualitativ hochwertige Bilder zu erstellen - Videos wie dieses von Beniot Dureau Mit Unreal Engine 4 können Sie ausführlich demonstrieren, wozu die neueste Technologie in der Lage ist.

Die Architekturvisualisierung nutzt die Grafikkarte bereits mit Apps wie E-Ons LumenRT . Die Dynamic Immersive Visualization Engine basiert auf modifizierten Versionen von DirectX auf dem PC und OpenGL auf dem Mac und bietet Architekten und Stadtplanern eine einfache Möglichkeit, sich ihre Kreationen in Echtzeit vorzustellen, mit physischen Effekten wie Sonnenlicht, Schatten und Reflexionen sowie realistischen Effekten Wasser, Vegetation, Verkehr und sogar Wetteränderungen.

Die App ist genauso in der Lage, ein Designer-Apartment wie ein ganzes Stadtbild nachzubilden. Im Gegensatz zu Spielen, bei denen der Großteil der Szene zuvor zusammengestellt wurde, erledigt LumenRT alles im laufenden Betrieb und kann jederzeit bearbeitet werden. Die Berechnung der realistischeren Beleuchtungsschemata kann jedoch einige Zeit in Anspruch nehmen, bevor sie in die Simulation eingebrannt werden.



Für Unternehmen wie Der dritte Stock Echtzeit-Engines bieten eine Möglichkeit, schnell vorherige Animationen zu generieren: Es ist kein zeitnahes Ray-Trace-Rendering erforderlich, wenn ein Maya-Playblast ausreicht. Verbesserungen an Mayas Ansichtsfenster 2.0 - in Verbindung mit leistungsstärkeren GPUs - hat die Situation verbessert.

'Wir stellen fest, dass wir Szenen mit mehr Polygondichte mit besseren Shadern als je zuvor verarbeiten können', sagt Albert Cheng, Supervisor des dritten Stocks. 'Und zusammen mit dem anderen höherwertigen Beleuchtungsmodell, das zu einem wichtigen Motivator für den Wechsel geworden ist.' Auf VP2.0 ist die visuelle Qualität unserer Arbeit gestiegen. '

Um sein Angebot zu verbessern, evaluiert das Studio derzeit Unreal Engine 4.5 als Ersatz. 'Ich denke, die Ausgabe spricht für sich', sagt der ausführende Produzent Duncan Burbridge, 'aber sie bietet eine viel bessere Flexibilität bei Shadern, Licht und Schatten.' Der Workflow ist jedoch sehr unterschiedlich. Wir prüfen noch, wie der laufende Prozess aussehen wird, aber wir konnten Assets und Animationen von Maya in Unreal integrieren. '

Sehen Sie sich unten das Promo-Video zum dritten Stock an…

Unwirkliche Geschwindigkeitsgewinne

Der Motor von Epic wird auch in verwendet RenderDigimania , eine eigenständige App, die die Unreal-Technologie verwendet, um in Maya oder Max erstellte Animationen zu rendern. Sie modellieren und animieren einfach Ihre Netze, exportieren sie dann über FBX oder Alembic und importieren sie in RenderDigimania. Dort können Sie Ihre Assets ordnen, Materialien hinzufügen und die Beleuchtung einrichten, mit sofortigem und nahezu rendergenauem Feedback. Es kann auch eine Reihe von Render-Durchgängen zur Feinabstimmung Ihrer Animation in der Post ausgeben und ist dazu in der Lage 4K Ausgang .

Während der Ausgabe die Feinheiten des echten Raytracing fehlen - wie Brechung, globale Beleuchtung usw. -, gibt es viele Studios, die dieses Maß an Realismus nicht benötigen, wie Paul Collimore, kaufmännischer Leiter von Digimania in Glasgow, erklärt: ' Wir sind der Meinung, dass die Software ideal für große Produktionsstudios, Animationsfabriken und Leute ist, die stundenlang Animationen mittlerer Qualität produzieren. '

Und was RenderDigimania an Realismus fehlt, macht die Geschwindigkeit mehr als wett. In frühen Tests dauerten Szenen, die mit mental ray gerendert wurden, 210 Sekunden pro Bild, während RenderDigimania sie mit einer Geschwindigkeit von fünf Bildern pro Sekunde durchkaute. Wenn Sie jede Woche eine 15- oder 20-minütige Episode rendern, können Sie leicht erkennen, wie effizient und erschwinglich diese Pipeline ist. In einem typischen Testfall berechnete Digimania, dass bei einer Produktion mit 52 Folgen durch die GPU-Lösung ein Studio Renderingkosten von über 340.000 GBP einsparen könnte.

Und es ist kein Entweder-Oder-Vorschlag für Unternehmen, die bereits in eine Raytracing-Pipeline investiert haben, schlägt Collimore vor. „Wenn Sie ein Projekt haben, das Sie möglicherweise abweisen würden, weil es für Sie nicht kosteneffektiv ist, kann diese Lösung es kostengünstig machen. Es gibt nichts, was jemandem das Herz bricht, als das Geschäft abzulehnen, also gibt es den Studios eine weitere Option. Wir haben mit Studios gesprochen, die gesagt haben: 'Nun, wir werden diesen Teil der Serie auf diese Weise rendern, aber diese Teile muss ich schnell herausbringen, damit ich RenderDigimania verwenden kann.'

Offener Standard

Für die plattformübergreifende Unterstützung ist OpenGL immer noch der richtige Weg, und eine App nutzt ihre Leistung wirklich Element 3D , das Plug-In von Video Copilot, mit dem OBJ- und C4D-Dateien direkt in After Effects geladen werden können. Es bietet eine qualitativ hochwertige Vorschau in Echtzeit und wird dann in nahezu Echtzeit gerendert, abhängig von der Komplexität der Szene und Effekten wie Anti-Aliasing, Bewegungsunschärfe usw.

Die Idee kam von der Qualität von Videospielen wie Call of Duty, sagt Andrew Kramer, Gründer von Video Copilot. 'Es begann ursprünglich mit der Herstellung von Hubschraubern und Jets, insbesondere in 3D. Es war eine doppelte Sache: Wir arbeiteten an einem Partikel-Plug-In und dann an dem Hubschrauber-Plug-In, nur zum Spaß. Und als wir anfingen, damit zu spielen und zu erkennen, wie gut es aussah und wie schnell es war, dachten wir, meine Güte, es muss einen Weg geben, dies in etwas noch Nützlicheres zu integrieren als etwas, das nur Hubschrauber oder Jets ist. '

Das Endergebnis ist ein Werkzeug, das eine einfache Möglichkeit bietet, einem 2D-Verbund 3D-Elemente hinzuzufügen, ohne Vorkenntnisse in 3D-Modellierung oder -Rendering. 'Ich denke, es gibt so viele Projekte und Jobs, in denen es Bewegungsgrafiken oder zusätzliche visuelle Effekte gibt - fügen Sie einer Szene ein' 3D-Etwas 'hinzu', sagt Kramer.

„Sie haben Redakteure und Komponisten und Leute, die keine 3D-Künstler sind. Sie haben wahrscheinlich keine Zeit, in eine große, dedizierte Anwendung einzusteigen - ganz zu schweigen von den damit verbundenen Kosten. Element ist als Zwischenort gedacht, und selbst wirklich fortgeschrittene 3D-Benutzer haben uns gesagt, wie sehr sie es lieben, weil sie das tun können, was sie wirklich, wirklich schnell tun müssen. '

Die Version 2.0 wurde im November 2014 veröffentlicht und bietet Echtzeit-Schatten und physisch basierte Shader sowie ein völlig neues Maß an Realismus und damit potenzielle neue Benutzer. 'Mit Version 2 sind wir endlich in den Bereich vorgedrungen, der sich auf visuelle Effekte konzentriert', schlägt Kramer vor, 'wo Sie Schatten und echte, strahlenverfolgte Umgebungsokklusion haben und die Dinge, die für eine qualitativ hochwertigere Composites und Integration erforderlich sind.' Wir haben also großes Interesse an einigen wirklich großen Studios, die nur Compers haben, die Elemente zu Aufnahmen hinzufügen, und sie sind wirklich begeistert davon. '

Wie andere Entwickler, mit denen wir gesprochen haben, schlägt Kramer vor, dass Cloud-basierte Raytracing-Lösungen letztendlich Echtzeitausgaben liefern. Derzeit konzentriert sich Video Copilot jedoch auf OpenGL. 'Im Moment denken wir, dass dies der schnellste Weg ist', kommentiert er. „Es hat nicht alle Vorteile von Raytracing, aber um 75 oder 80 Prozent zu erreichen und das zu tun, was es jetzt mit der Geschwindigkeit tut, die es hat, halten wir es für einen erstaunlichen Vorteil . Und natürlich müssen wir sehen, wo OpenGL hinkommt. wir können es nicht einfach ausschließen. Ich kann möglicherweise sehen, dass OpenGL einige andere strahlbasierte Verarbeitungstechnologien nutzt. '

Um zu sehen, was Andrew Kramer über die Zukunft von Element 3D und die kommenden Video Copilot-Tools zu sagen hat, Lesen Sie dieses Interview .

Wörter : Steve Jarratt

Steve Jarratt ist seit vielen Jahren in CG. Er schreibt regelmäßig Beiträge für 3D World und hat das Magazin einmal zwei Jahre lang herausgegeben.

So was? Lese das!