portable VR equipment by njb design<sup>®</sup>

portable VR equipment by njb design®

 

Verbindet Marketing und Technologie,
3D-Medien und Realität - njb design®

  • Gründung 2008
  • Joint-Venture für digitale Medien seit 2012
  • standardisierte Prozesse
  • modulare Workflows
  • langfristiges Setup

Umfassendes Knowhow und langjährige Erfahrung

  • Forschung im Bereich der 3D-Medien
  • Evaluation von Anwendungen für Präsentations- und Marketingzwecke
  • Implementierung neuer Entwicklungen in professionelle Workflows
  • Design von Inhalten und Applikationen für sämtliche 3D-Medien
  • Produktion von 3D-Animationen, interaktiven 3D-Präsentationen und Games

 

3D-Interaktiv

Medien: Desktop, Web, VR / AR Equipment, Mobile, Spielekonsolen

  • virtuelle Interaktion mit Produkten
  • interaktive Produktkonfiguration
  • benutzergesteuerte Rundgänge
  • Interaktion zwischen Benutzern via Web
  • Präsentationsumgebung nach Mass
  • komplett kundenspezifisches UI-Design
  • beliebige Eingabegeräte
  • Applikationen für Marketing, Verkauf, Schulung und Support
  • Automatische Software Updates
  • Plattformen: Windows, macOS, HTML5 / WebGL, Android, iOS

3D-Animation

Medien: Desktop, Web, TV

  • Animation von Produktfunktionen und technischer Highlights
  • Animation von Prozessabläufen
  • beliebiges Ein- und Ausblenden von Komponenten
  • Animation von Flüssigkeiten und Partikeleffekten
  • nahtlose Kombination mit Filmmaterial
  • Videoausgabe standardmässig in 4K oder 8K
  • Basis für interaktive 3D-Präsentationen

3D-Visualisierung / Illustration

Medien: Desktop, Web, Druck

  • einheitliche Präsentation von Produkten und Produktoptionen
  • übersichtliche Darstellung und modulare Konfiguration grossflächiger Anlagen
  • Visualisierung von Bauprojekten
  • Illustration von Prozessen und Prozessabläufen
  • Abstraktion komplexer Prozesse
  • Schnitt- und Explosionsdarstellungen
  • realistische Darstellungen während der Produktentwicklung

Fluid / Particle Systems

Partikelsysteme kommen bei der Simulation von Flüssigkeiten und Gasen im virtuellen Raum zum Einsatz. Mit Emittern, den eigentlichen Quellen der Partikel, werden die gewünschten Partikelwolken generiert. Dies kann im freien Raum oder abhängig von Oberflächen und Volumen geschehen. Für jede Quelle werden Spawnrate (Geburtsrate), Lebensdauer, Geschwindigkeit, Dichte und Viskosität definiert. Effekte wie Turbulenzen, Gravitation und Wind können gezielt eingesetzt werden, um das Verhalten der Partikel zu beeinflussen. Bei Flüssigkeiten werden zwischen den einzelnen Partikelpositionen, abhängig von deren Abstand zueinander, Oberflächen generiert. Je höher die Partikeldichte, desto genauer wird das Ergebnis.

Fluid / Particle Systems

Environment Capture

Panoramaaufnahmen oder einzelne Fotos eines Standortes, können im virtuellen Raum als Umgebung verwendet werden. Panoramen werden dabei in den meisten Fällen aus verzerrungsfreien Einzelbildern zusammengestellt (Stiching) und anschliessend im virtuellen Raum auf eine sphärische Fläche projiziert, welche die jeweilige Szene umgibt. Inhalte einzelner Fotos können flexibel in einer Szene positioniert werden, um angrenzende Bereiche wiederzugeben. Je nach gewünschter Ansichtsrichtung kann der Einsatz von Drohnen oder anderen Fluggeräten bei der Aufnahme sinnvoll sein.

Environment Capture

3D-CAD

3D-Modelle welche bei der Planung und Konstruktion erstellt werden, können direkt für Visualisierungen und Animationen verwendet werden. Bei interaktiven Produktionen dienen die Modelle als Basis und werden entsprechend optimiert. Bei grösseren Baugruppen ist es sinnvoll, diese bereits vor dem Export auf die sichtbaren bzw. in den Prozess involvierten Teile zu reduzieren. Das optimale 3D-Format für den Import wird abhängig vom eingesetzten CAD-System festgelegt.

3D-CAD

Objects

Objekte werden abhängig von der Form, mittels manueller Vermessung und der anschliessenden Modellierung oder dem Einsatz eines Scanverfahrens in den virtuellen Raum überführt. Technische Formen werden dabei eher manuell Vermessen, während bei natürlichen Formen der Einsatz von Scannern sinnvoll ist.

Objects

2D-CAD

Technische Zeichnungen aus 2D-CAD Systemen sind bestens geeignet für die Erstellung von 3D-Modellen. Sämtliche Geometrien und Abmessungen können direkt in den 3D-Raum überführt werden.

2D-CAD

Sketches / Photos

Skizzen dienen als erste Grundlage zur Visualisierung von Ideen und Konzepten. Zusammen mit Fotos ähnlicher Objekte oder Formen, bieten sie eine gute Basis zum Erstellen von 3D-Modellen. Während des Modellierens, können sämtliche Inputs berücksichtigt werden. Schritt für Schritt werden so die finalen Formen festgelegt. Es ist jederzeit möglich, anhand von Zwischenresultaten in 3D, die Formen weiter auszuarbeiten und so die Vorstellungen möglichst genau abzubilden.

Sketches / Photos

Grayscale heightmap

Eine Heightmap ist ein Graustufenrelief, bei welchem dunkle Bereiche tiefe-und helle Bereiche hohe Gebiete von Landschaften oder Oberflächen wiedergeben. Die Höhengenauigkeit ist dabei abhängig von der Farbtiefe des Bildes. Ein Graustufenbild mit 8-Bit Farbtiefe enthält 255, eines mit 16-Bit 65‘535 Höhenabstufungen. Die Auflösung bestimmt die Genauigkeit der Fläche. Ein Pixel ist dabei die kleinste darstellbare Länge, welche einem bestimmten Mass in der Realität entspricht. Heightmaps basierend auf Daten aus der Satellitenvermessung und Luftbildfotografie sind für die gesamte Erdoberfläche verfügbar.

Grayscale heightmap

3D-scan

Für die Erstellung von 3D-Modellen realer Objekte, bieten sich neben der klassischen Modellierung auch verschiedene Scanverfahren an. Der Einsatz eines 3D-Scans ist insbesondere bei natürlichen Formen von Vorteil. Mittels Laser werden die Oberflächen in einem bestimmten Raster vermessen. Das Resultat ist eine Vielzahl von Messpunkten (Punktewolke), auf deren Basis anschliessend ein polygonales Modell erstellt wird. Eine einfache Alternative zur Laservermessung bietet die Fotogrammmetrie. Dabei werden die Objekte aus verschiedenen Winkeln fotografiert. Anschliessend wird anhand von übereinstimmenden Bildpunkten das 3D-Modell berechnet. Ein Vorteil liegt darin, dass die aufgenommenen Fotodaten auch zur Materialisierung der 3D-Modelle verwendet werden können.

3D-scan

Modeling

Auf Basis der vorhandenen Daten werden die 3D-Modelle erstellt. Bei der Modellierung kommen die verschiedensten Werkzeuge zum Einsatz, vergleichbar mit Fertigungsmethoden in der Realität. Jede Fläche eines 3D-Modells ist durch drei Punkte definiert und wird Polygon genannt. Eine rechteckige Fläche besteht somit aus zwei Polygonen. Je genauer eine Form wiedergegeben werden soll, desto mehr Polygone / Unterteilungen sind dazu erforderlich. Rechteckige und zylindrische Formen sind in heutigen Systemen weitgehend automatisiert. Bei Freiformen wird jeder Punkt einzeln definiert. Dies geschieht meist mit wenigen Unterteilungen, also kleiner Polygonzahl. Das Modell wird anschliessend auf die gewünschte Qualität hochgerechnet. Dabei wird jede Fläche automatisch weiter Unterteilt. Zudem kommen Deformer zum Einsatz, welche es erlauben Modelle an bestimmten Stellen zu deformieren (biegen, stauchen, expandieren usw.).

Modeling

Heightmap painting

Beim Erstellen von Heightmaps werden vorhandene Höhendaten in Grauwerte umgewandelt oder komplett neue Landschaften erstellt. Dabei kommen Programme zum Einsatz, welche die Grauwerte der Heightmaps direkt als 3D-Modell visualisieren. Durch die Verwendung von verschiedenen Rauschfunktionen (Noise) und manuellen Anpassungen, können so realitätsnahe Landschaftsformen erstellt werden.

Heightmap painting

Referencing / Grouping

Baugruppen aus dem technischen Bereich sind meist der Montage / Funktion entsprechend gruppiert. Für 3D-Animationen wird nun geprüft ob sämtliche Bewegungen mit der vorhandenen Struktur ausgeführt werden können, sofern nötig werden weitere Bewegungsgruppen erstellt. In einem zweiten Schritt werden die Einzeleile pro Baugruppe, dem Material entsprechend sortiert. Bestehende Materialzuordnungen werden wenn immer möglich übernommen. Mehrfach verwendete Baugruppen werden jeweils nur einmal erfasst und an den verschiedenen Positionen referenziert.

Referencing / Grouping

Motion Capture

Das Erfassen von Bewegungen in der Realität und die anschliessende Wiedergabe im virtuellen Raum, erzeugen äusserst natürliche Ergebnisse. Die Positionen verschiedener Referenzpunkte an Objekten, werden dazu während des Ausführens von Bewegungen fortlaufend aufgezeichnet. Im virtuellen Raum wird ein der realen Struktur entsprechendes Skelett erstellt. Die aufgezeichneten Bewegungen können danach direkt auf das virtuelle Skelett übertragen und wiedergegeben werden.

Motion Capture

Storyboard

Vor der Umsetzung eines Projekts werden mit dem Storyboard sämtliche Vorgaben erfasst. Ausgehend von der Kernaussage der jeweiligen Szene, werden Kameraeinstellungen, Perspektiven, Bewegungsabläufe, Materialisierung, Länge, Audio und die Umgebung abgeleitet. Bei interaktiven 3D-Produktionen können zusätzlich die gewünschten Interaktionen mit Produkten und der Bewegungsraum festgelegt werden.

Storyboard

Rigging

Bei Animationen welche die Modellform auf polygonaler Ebene verändern, werden die einzelnen Punkte eines 3D-Modells einem Skelett zugewiesen. Eine Komposition von Skelett und 3D-Modell wird Charakter genannt. Dabei repräsentiert ein Skelett wie in der Realität die tragende Struktur eines Objekts und besteht aus Knochen (Bones) und Gelenken (Joints). Die Oberfläche eines 3D-Modells kann dabei mit der Haut verglichen werden. Anstelle der aufwendigen Animation einzelner Modellpunkte, werden nun die Knochen und Gelenke bewegt, während die Oberfläche automatisch den zugewiesenen Knochen folgt. Einzelne Modellpunkte können unter dem Einfluss mehrerer Knochen stehen. Ein Oberflächenpunkt nahe einem Gelenk, kann beispielsweise zu 40% dem Knochen vor und zu 60% dem Knochen nach dem Gelenk folgen. Sämtliche Zuweisungen werden in einer Weightingtable auch Vertexmap genannt, hinterlegt. Für jedes Gelenk können Constraints definiert werden, welche das Einschränken des Bewegungsraums oder die Definition von Abhängigkeiten zu anderen Gelenken ermöglichen. So können auch Inverse Kinematik-Systeme erstellt werden, die beispielsweise beim Verschieben eines Fingers die Positionen der Knochen bis hin zur Schulter in umgekehrter Richtung berechnen.

Rigging

Production Data

Für die Herstellung von Objekten mittels 3D-Druck oder spanabhebenden Verfahren, werden die 3D-Modelle optimiert und die gewünschten Fertigungsdaten in beliebigem Massstab abgeleitet. Die Optimierung der 3D-Modelle kann das Verschmelzen von einzelnen 3D-Teilen oder das Verbessern von Kanten beinhalten. Die Fertigungsdaten umfassen 3D-Modelle wie auch technische Zeichnungen oder 2D-Konturen für die Laserberarbeitung und Gravuren.

Production Data

Animation / Simulation

Bei der Animation werden sämtliche Parameter entlang der Zeitachse festgelegt. Mit der klassischen Key-Animation, werden Position, Ausrichtung, Skalierung oder andere Eigenschaften der jeweiligen Elemente, Punkt für Punkt definiert. Zur Erstellung der gewünschten Animationskurven stehen für jeden Key und jede Achse oder Eigenschaft, verschiedene Formen der Interpolation zur Verfügung. So können sowohl harte wie weiche Übergänge erstellt werden. Durch die Definition von Bedingungen, z.B. die Ausrichtung von Elementen zu anderen oder die Positionierung von Elementen entlang von Pfaden oder auf Oberflächen, wird die klassische Animation ergänzt. Sofern Bewegungen in Relation zu Benutzereingaben oder anderen Ereignissen erfolgen, werden diese Abhängigkeiten entsprechend programmiert. Das Abspielen der jeweiligen Animation kann danach zu jedem Zeitpunkt erfolgen und ist nicht mehr an einen festen Ablauf gebunden. Bei der physikalischen Simulation von Kräften in Echtzeit, beispielsweise der Gravitation, wird auf die klassische Animation verzichtet. Die Bewegungen der Elemente werden dabei, abhängig von den jeweiligen Simulationswerten berechnet.

Animation / Simulation

Corporate Standards

Grafische Vorgaben werden während des gesamtem Prozesses berücksichtigt. Farben und Logos können immer auf dem neusten Stand gehalten werden. Neue Inhalte und Weiterentwicklungen werden so implementiert, dass sie mit bestehendem Material kompatibel sind.

Corporate Standards

Environment

Die Umgebung einer Szene hat wesentlichen Einfluss auf das Aussehen einer Visualisierung. Dabei kann zwischen Umgebungen welche zur Beeinflussung von Materialeigenschaften dienen (1) und Umgebungen welche in der finalen Visualisierung als Hintergrund dargestellt werden (2), unterschieden werden. Erstere legen beispielsweise fest, was auf spiegelnden Objektflächen dargestellt wird, während letztere ausschliesslich grafische Aspekte bedienen und keinen Einfluss auf die Darstellung der Objekte haben. Bei der Darstellung von Objekten in realen Umgebungen kann diese Unterscheidung entfallen, da der sichtbare Hintergrund in der Visualisierung, der Renderumgebung entspricht. Zur Darstellung des Himmels stehen neben Panorma-Aufnahmen auch Shader zur Verfügung, welche abhängig vom Datum, Uhrzeit und Wetter die Umgebung generieren. Dabei sind sämtliche Faktoren animierbar.

Environment

Surface scan / photo

Die Erfassung von Oberflächen zur Erstellung virtueller Materialen erfolgt in den meisten Fällen fotografisch. Dabei wird auf eine gleichmässige Ausleuchtung der Fläche geachtet, da möglichst keine Schattierungen oder Reflexionen, welche der in einer virtuellen Umgebung vorhanden Beleuchtung widersprechen können, erfasst werden sollen. Neben Frontal Aufnahmen zur Wiedergabe der Farben können, wie bei der Erfassung von Objekten, auch die Fotogrammmetrie oder andere Scanverfahren eingesetzt werden um Unebenheiten von Oberflächen dreidimensional zu erfassen. Die Aufnahmen werden anschliessend in ein 3D-Modell umgewandelt, welches als Basis für die weitere Verwendung dient.

Surface scan / photo

Parametric shader

Parametrische Shader sind mathematisch definierte Materialen. Im Gegensatz zu Materialien welche auf Fotodaten basieren, sind sie Auflösungsunabhängig und werden für jede Position anhand von Algorithmen zufällig berechnet (procedural). Es können auch kombinierte Varianten mit Fotodaten zum Einsatz kommen. Ein Beispiel wäre, dass der Shader Fotos einzelner Kieselsteine enthält und nach dem Zufallsprinzip eine unendliche, für jede Position einmalige Kiesfläche generiert.

Parametric shader

Texture processing

Eine Textur ist meist eine quadratische Bilddatei, bei welcher die gegenüberliegenden Seiten miteinander Kompatibel sind. Durch die Kombination verschiedener Foto-Ausschnitte einer Oberfläche, werden die kachelbaren Texturen generiert, welche anschiessend als endloses Muster auf Oberflächen projiziert werden können. Dabei wird darauf geachtet, dass Wiederholungen möglichst nicht erkennbar sind. Sofern zusammen mit den Fotodaten auch 3D-Daten erfasst wurden, werden diese vorab zur Erstellung einer Bumpmap (andere Bezeichnung für Heightmap) verwendet. Die Bumpmap wird zusammen mit den Fotodaten kachelbar gemacht und beinhaltet sämtliche Höhendaten der Oberfläche. Bumpmaps werden zur Deformation von Modelloberflächen oder als Basis für Normalmaps, welche Ausrichtung der Oberflächennormalen wiedergeben, verwendet. Bei interaktiven Produktionen in Echtzeit, werden oft auch verschiedene Oberflächentypen in einer Bilddatei zusammengefasst, um die Anzahl Texturen und damit den Speicherbedarf zu reduzieren. Diese Texturen sind nicht kachelbar und werden spezifisch pro 3D-Modell erstellt.

Texture processing

Materializing

Ein Material (Shader) besteht aus verschiedenen Kanälen, welche die optischen Eigenschaften einer Oberfläche definieren. Dazu gehören Farbe, Glanzlicht, Reflektion, Transparenz und Brechung, verschiedene Verfahren zur Darstellung von Verformungen, die Maskierung und Leuchten (Emissive). Jeder Kanal kann einzeln und für jede Position auf der Oberfläche angepasst werden. Neben der Diffusionmap welche die Farbeigenschaften definiert, kommen Speculartiymaps zur Definition der Glanzlichteigenschaften und Bump- oder Normalmaps für die Darstellung von Verformungen zum Einsatz. Verformungen können durch die Projektion von Schattierungen auf die Oberfläche (Relief/Normal) oder mittels Parallaxe simuliert werden. Daneben ist es auch möglich mittels Displacement die Polygone eines 3D-Modells direkt auf Basis einer Bumpmap zu verformen. Die Materialien werden kompletten Baugruppen, Einzelteilen oder einzelnen Polygonflächen zugewiesen. Bei 3D-Modellen mit UV-Map kann direkt auf der Modelloberfläche und allen verfügbaren Kanälen gezeichnet werden. Schatten und andere Lichteffekte können vorgerendert und als Lightmap auf das Modell projiziert werden (Backing), was den Rechenaufwand reduziert. Bei der physikalischen Simulation werden neben optischen Eigenschaften, auch Werte für Dichte, Reibung und Elastizität der Oberflächen, definiert.

Materializing

Lighting

Die Ausleuchtung einer Szene ist wie in der Realität abhängig vom Hauptmotiv und der Ansichtsrichtung. Ein klassisches Setup beinhaltet, ein Führungslicht zur Definition der Grundbeleuchtung, ein Aufheller welcher die vom Grundlicht nicht beleuchteten Bereiche aufhellt und ein oder mehrere Effektlichter zur Betonung von Kanten oder bestimmter Bereiche. Für jede Lichtquelle können individuell Intensität, Farbe, Form und Schattenwurf definiert und animiert werden. Dabei kommen Punktlichter, welche in alle Richtungen Licht abstrahlen, Spotlichter, welche einen Lichtkegel bilden oder Flächenlichter, welche basierend auf einer Objektform Licht abstrahlen, zum Einsatz. Zusätzlich besteht auch die Möglichkeit mit IES-Lichtprofilen, die Form realer Leuchtmittel wiederzugeben. Licht kann im virtuellen Raum mit Hilfe volumetrischer Lichter sichtbar gemacht werden. Neben einzelnen Lichtquellen, werden auch Skylights eingesetzt, welche die Szene umgeben. Die Lichteigenschaften werden dabei von einer HDR-Panorama-Aufnahme (Environment Capture) oder durch den Einsatz eines Shaders, welcher die physikalischen Eigenschaften des Himmels simuliert, festgelegt.

Lighting

Rendering

Beim Rendering werden Material- und Lichteigenschaften für die finale Bildausgabe berechnet. Die Strahlen sämtlicher Lichtquellen werden verfolgt (Ray-Tracing) bis sie auf ein Objekt treffen. Auf Basis der Distanz einer Lichtquelle zu einem Objekt werden so die Helligkeit und der Schattenwurf abgeleitet. Durch den Einsatz von globaler Illumination können reflektierte Strahlen, mehrfach weiterverfolgt werden. Dabei wird abhängig von den Oberflächeneigenschaften und dem Einfallswinkel eine bestimmte Lichtmenge reflektiert. Durch den Einsatz verschiedener Effekte kann das Ergebnis gezielt beeinflusst werden. Mit Ambient Occlusion lassen sich beispielsweise abhängig vom Winkel und der Distanz zwischen Flächen, Schattierungen erzeugen. Daneben sind Verfahren im Einsatz welche die Überführung der Resultate in der Pixelraum und die Wiedergabe der Einzelbilder als Animation optimieren (Antialiasing, Motion-Blur). Die Dauer der Berechnung ist abhängig von der finalen Bildauflösung, der Genauigkeit und Tiefe der Lichtberechnung, Komplexität der Modelle und Materialien, und der eingesetzten Effekte und deren Genauigkeit. Für jedes Element in einer Szene kann mit verschiedenen Faktoren die Dauer der Berechnung, beispielsweise abhängig von der Distanz zur Kamera, optimiert werden.

Rendering

Compiling

Durch das Kompilieren werden sämtliche Funktionen und Inhalte eines Projekts, auf Basis der verwendeten Engine, in ausführbare Programme umgewandelt. Die Ausgabe der Anwendungen kann für verschiedene Betriebssysteme und Geräte erfolgen. Für interaktive Webanwendungen können Animationen und Spiele als HTML5- bzw. WebGL-Projekt generiert werden.

Compiling

Graphic processing

Bei der grafischen Bearbeitung werden die Render-Ergebnisse der Verwendung entsprechend aufbereitet und die gewünschten Bildformate exportiert. Die Renderings werden mit einer Farbtiefe von 32-bit generiert (HDR, High Definition Range), was bei der Umwandlung in 8-bit Druckformate, die gezielte Optimierung von Kontrast, Helligkeit und Farbwerten ermöglicht. Einzelne Elemente einer Szene können auf separaten Ebenen gehalten und durch Maskierung mit transparentem Hintergrund dargestellt werden. Bei der Kombination von 3D-Objekten mit Fotos, kann so beispielsweise auch der Schattenwurf von Objekten in der Fotoumgebung eingefügt werden. Der Einfluss einzelner Lichter und Rendereffekte einer Szene, kann mit dem Einsatz von Licht- bzw. Effektkanälen, einzeln angepasst werden.

Graphic processing

Audio / Video

Sämtliche Audio- und Videodaten können zur Ergänzung von Animationen und interaktiven Projekten eingesetzt werden. Hintergrundmusik kann den Ablauf einer Animation unterstützen und die Taktung von Bewegungen oder die des Videoschnitts vorgeben. Sprachaufnahmen werden zur auditiven Beschreibung von Szenen oder bei Dialogen in Spielen eingesetzt. Bei interaktiven Projekten können Audiosequenzen bestimmten Ereignissen oder Benutzereingaben zugewiesen werden. Zudem ist es möglich die Form der Wiedergabe z.B. die Wiedergabegeschwindigkeit durch Modulation, von Simulationswerten abhängig zu machen. Bei der nahtlosen Kombination von 3D-Sequenzen mit Filmmaterial (Morph) gibt die Filmaufnahme die Ansichtsrichtung und Kameraeinstellungen vor. Daher wird das Filmmaterial bereits bei der Kameraanimation im virtuellen Raum eingesetzt.

Audio / Video

Cutting / Effects

Der Videoschnitt erlaubt die Komposition von 3D-Animationen mit Bild-, Film- und Audiomaterial. Vektorgrafiken wie Logos und Texte können den Firmenstandards entsprechend positioniert und animiert werden. Mit Motion-Tracking lassen sich Elemente fortlaufend am Inhalt des Filmmaterials ausrichten. Bei Updates an 3D-Animationen können die betroffenen Bereiche oder Bildausschnitte gezielt ersetzt werden. Für Übergänge zwischen Szenen und/oder verschiedenen Medien, stehen eine Vielzahl von animierbaren Effekten und Blenden zur Verfügung. Wie bei Einzelbildern sind auch bei 3D-Animationen Anpassungen zur Optimierung von Kontrast, Helligkeit und Farbwerten möglich. Bei der Synchronisation wird das Film- und Audiomaterial aufeinander abgestimmt. Überblendungen werden dabei beispielsweise der Hintergrundmusik angeglichen und Sprachaufnahmen dem Inhalt entsprechend eingefügt.

Cutting / Effects

Encoding

Ausgehend von der finalen Komposition, werden die gewünschten Videoformate generiert. Die Wahl des Formats, der Komprimierung und der Auflösung, ist dabei abhängig vom späteren Verwendungszweck. Für jedes Projekt können bei Mehrfachverwendungen auch verschiedene Versionen erstellt werden. Ein weit verbreitetes Format ist MP4 mit H.264 Komprimierung. Für die Weiterverwendung der Daten in anderen Projekten, ist ein unkomprimierter Export möglich. Dabei können animierte 3D-Elemente durch Maskierung mit transparentem Hintergrund ausgegeben werden. Die in einem Projekt enthaltenen Vektorgrafiken werden beim Export in den Pixelraum überführt.

Encoding

Illustration / Visualisation

Hochauflösende Einzelbilder für Druck, Web und Desktop.

Illustration / Visualisation

Animation

Videopräsentationen für Web, Desktop und TV.

Animation

Interactive experience

Interaktive Applikationen für VR- / AR- Equipment, Desktop, Mobile, Web und Spielekonsolen

Interactive experience

Erosion simulation

Heightmaps können verschiedenen Formen von Erosion ausgesetzt werden. Dies umfasst die auf Flüssigkeit basierende Flusserosion welche Kanäle und Täler bildet, die äolische Erosion welche durch im Wind enthaltene Partikeln das Gestein abträgt und die küstennahe Erosion welche durch die Brandung von Meeren entsteht. Verschiedene Faktoren wie Dauer der Erosion, Härte des Gesteins und Dichte des abgetragenen Materials werden in der Simulation berücksichtigt. Neben der Ausgabe von erodierten Heightmaps, können zusätzlich auch Masken für die anschliessende Texturierung der Landschaft erstellt werden, welche die einzelnen Oberflächen wie Erosionskanäle, Fels, Schutt usw. wiedergeben.

Erosion simulation

Staging

Für jede Szene werden die Hauptansichtsrichtung und Anordnung der einzelnen Elemente, gemäss Storyboard, Layouts oder Firmenstandards festgelegt. Zur Definition von Perspektiven, stehen wie bei Kameras und Objektiven in der Realität, entsprechende Einstellungsmöglichkeiten zur Verfügung (Brennweite, Blende / Tiefenschärfe usw.). Das Bildformat kann dabei jederzeit frei bestimmt werden. Sämtliche Kameraeinstellungen sind animierbar. Abhängig von Ansichtsrichtung und Position der Elemente wird später auch die Beleuchtung und Umgebung festgelegt.

Staging

Mapping

Um Materialien korrekt auf Oberflächen von 3D-Modellen darstellen zu können, wird eine Abwicklung der Modelloberfläche im 2D-Raum erstellt. Eine Abwicklung eines 3D-Modells wird UV-Map genannt, wobei die Buchstaben U und V die Bezeichnungen der beiden 2D-Achsen sind. Bei gewölbten Freiformen, welche ohne Auftrennung nicht im 2D-Raum dargestellt werden können, wird eine gewisse Verzerrung der Flächen in Kauf genommen. Damit wird die Kontinuität der Flächen im 2D-Raum erhalten und sichergestellt, dass bei der Projektion der Materialien auf die Oberfläche keine Unterbrüche entstehen. Bei 3D-Modellen mit verschiedenen Materialzuweisungen, kann die UV-Map pro Material bearbeitet werden. Neben dem UV-Mapping sind auch Verfahren verfügbar, welche die Objektform bei der Projektion nicht direkt berücksichtigen. Die Materialien werden dabei beispielsweise ausgehend von einer einfachen Fläche, Kugel-, Würfel- oder Zylinderform auf die Modelloberfläche projiziert.

Mapping

UI / Programming

Bei interaktiven Anwendungen und Spielen werden Eingaben oder das Verhalten der Benutzer, bestimmten Funktionen innerhalb des Projekts zugewiesen. Dabei werden die verschiedensten Eingabegeräte (Touchscreen, Maus, Tastatur, Gamepad, VR-Brille, usw.) berücksichtigt. Durch die Einblendung von Menus während dem Ausführen der Anwendung lassen sich Einstellungen vornehmen und Benutzerdialoge verarbeiten.

UI / Programming