3D AND VISUALS

From CAD model to visualization

As already mentioned in the previous chapter, 3D models in Rhino were created relatively early in the process with the help of Grasshopper in addition to paper sketches. This has the advantage that the proportions could be checked with true-to-scale human models. Furthermore, Google Earth was used to check the conceived dimensions with real objects in the environment. To evaluate a distance of 400m or a room height of 30m you have to go outside and experience these measurements. This helped me a lot in the process to create the impressions I wanted within the system. 
Grasshopper was a big help in the process because I was able to test different parameters after I had created a definition. For example, I could change the diameter of the city and the building units automatically adjusted and reduced the number so that they all kept the same area. This meant that different scenarios could be tested quickly. 

Wie bereits im Kapitel vorher erwähnt wurde relativ früh im Prozess neben Papierskizzen auch 3D Modelle in Rhino unter Zuhilfenahme von Grasshopper erstellt. Dies hat den Vorteil, dass mit maßstabsgetreuen Menschenmodellen die Größenverhältnisse überprüft werden konnten. Des Weiteren wurde mit Google Earth die konzipierten Maße mit realen Objekten im Umfeld überprüft. Um eine Distanz von 400m oder eine Raumhöhe von 30m bewerten zu können muss man nach Draußen gehen und diese Maße erleben. Dies hat mir im Prozess sehr geholfen die von mir gewünschten Eindrücke innerhalb des Systems zu gestalten. Grasshopper war eine große Hilfe im Prozess, da ich nach dem ich eine Definition erstellt hatte, verschiedene Parameter testen konnte. So konnte ich zum Beispiel den Durchmesser der Stadt verändern und die Gebäudeeinheiten passten sich automatisch an und reduzierten die Anzahl, sodass weiterhin alle die gleiche Fläche beibehielten. So konnten schnell verschiedene Szenarien durchprobiert werden. 

The final Grasshopper definition

In addition, the concepts were also tested relatively early in the process in virtual reality. Here I tried different tools, from UnrealEngine to GravitySketch VR and Mindesk VR. VR was very helpful in checking the sizes in the system. After all parameters had been defined, the geometry could be baked from Grasshopper. This had the disadvantage that the files became very large and slowed down the work from that moment on. But since I wanted to do the last steps in visualizing the concept in Blender, the geometry had to exist as such. The data was then processed in Rhino. So UV maps of all four basic bodies were created and Seams were defined. In addition, the different components were previously assigned different materials, as a later selection of the individual components in the sheer mass would no longer have been possible. The data was then imported into Blender via a COLLADA file. This has a big disadvantage: The mesh which is exported from Rhino is not clean. A lot of unnecessary edges and vertices are created, which slow down the scene unnecessarily. Therefore the geometry within Blender has been optimized and tidied up. This could partly be done by a plugin called Bmesh. Afterwards the building units per level and third were grouped to simplify a selection.

I wanted to create a visualization for each of the four areas of the city as well as an outdoor shot. So I started by creating a camera for each area and looking for a suitable viewing angle. I tried to orientate myself on architectural photography and chose a wide-angle shift lens. Due to the fact that the city has very high spaces, I chose the portrait format in a ratio of 4:5. So even a portrait format still shows a lot in the horizontal. Later, this image format was adapted again for the exhibition on the basis of the layout data. Once the viewing angles had been determined by quick proof renderings, the scenes could be set up. I would like to explain the setup with the follwing two scenes.

Zudem wurden die Konzepte relativ früh im Prozess auch in Virtual Reality überprüft. Hier habe ich verschiedene Tool ausprobiert, von UnrealEngine über GravitySketch VR und Mindesk VR. VR war sehr hilfreich bei der Überprüfung der Größen im System. Nachdem alle Parameter festgelegt waren, konnte die Geometrie aus Grasshopper gebaked werden. Dies hatte den Nachteil, dass die Daten direkt sehr groß wurden und das Arbeiten ab diesem Moment stark verlangsamten. Da ich aber die letzten Schritte bei der Visualisierung des Konzeptes in Blender erledigen wollte, musste die Geometrie als solches existieren. Die Daten wurden dann in Rhino aufbereitet. So wurden von allen vier Grundkörpern UV-Maps erstellt und Seams festgelegt. Zudem wurden die verschiedenen Komponenten zuvor mit unterschiedlichen Materialen belegt, da eine nachträgliche Auswahl der einzelnen Komponenten in der schieren Masse nicht mehr möglich gewesen wäre. Im Anschluss wurden die Daten per COLLADA-Datei nach Blender importiert. Dies hat einen großen Nachteil: Das Mesh, welches aus Rhino exportiert wird ist nicht sauber. Es werden sehr viele unnötigen Kanten und Vertices erstellt, welche die Szene unnötig verlangsamen. Daher wurde die Geometrie innerhalb von Blender aufwendig optimiert und aufgeräumt. Dies konnte zum Teil durch ein Plugin namens Bmesh erledigt werden. Anschließend wurden die Gebäudeeinheiten pro Ebene und Drittel gruppiert, um eine Auswahl zu vereinfachen.

Für jede der vier Bereiche der Stadt sowie eine Außenaufnahme wollte ich eine Visualisierung erstellen. Daher begann ich zunächst für jede der Bereiche eine Kamera zu erstellen und suchte nach einem passenden Blickwinkel. Hierbei versuchte ich mich an der Architekturfotografie zu orientieren und wählte ein weit-winkliges Shift-Objektiv. Dadurch, dass die Stadt sehr hohe Räume hat, wählte ich das Hochformat in einem Verhältnis von 4:5. So zeigt auch ein Hochformat noch sehr viel in der Horizontalen. Später wurden dieses Bildformat noch mal für die Ausstellung auf Basis der Layoutdaten angepasst. Nachdem die Blickwinkel durch schnelle Proberenderings festgelegt waren, konnte mit dem Aufbau der Szenen begonnen werden. Den Aufbau möchte ich an Hand von zwei Szenen erklären.

Colored wireframe of scene gamma in blender3d 2.8 beta

500,000 particles
2,000,000 particles
20,000,000 particles
building the scene in blender
typical viewort display durning work
Gamma: This scene was a very big challenge because of the many natural elements. First a new file was created from a master file with all camera settings and the building modules especially for this scene. Only the objects that were visible in the scene were reused. This was important because geometry outside the field of view also had to be calculated. Thus a later change of the perspective was only possible with a complete new construction of the scene. 
After the building modules had been aligned and all invisible ones had been deleted, the construction of the scene was started. First I use cuboids as placeholders to generate a composition. Then I worked from large to small elements. So the background of this scene was built first. Beside the building modules so-called billboard trees were made. For this I created three-dimensional trees, which were then rendered out as 2D images.  Afterwards a special shader was created, which processes the image with a few more maps created during rendering. So light influence could be simulated with the help of a normal map on the two-dimensional object. This has the advantage that this kind of representation consumes substantially fewer resources than a 3D tree consisting of individual leaves and branches. To ensure that not only one tree is visible in the background, several trees were generated and then distributed in the scenery with a particle system. 
Then the footpath was built and placed in the scene. Afterwards people were placed in the scene again with several particle systems. This was important because this way I had a control size. Then assets like the basketball court were modeled and brought into the scene. 3D trees were created and replaced the placeholders. Finally the grass was created. This was again a particle system, which distributes the individual grass elements in the scene. Because I took an elevated position in my perspectives, the grass had to be very dense, otherwise you can see the ground. As a result, the number of particles had to be increased by a factor of 10 to 20. This was problematic, as the number of particles was straining the system. The compilation took between 30 and 60 minutes before the actual rendering process. This made the process very slow, as each sample rendering took about an hour. Thus, setting the particle system was an unscheduled time killer. After the grass had been set, further elements were applied in this way by particle systems.

Gamma: Diese Szene war auf Grund der vielen Naturelemente eine sehr große Herausforderung. Zunächst wurde aus einer Masterdatei mit allen Kameraeinstellungen und den Gebäudemodulen eine neue Datei speziell für diese Szene erstellt. Es wurden nur die Objekte weiterverwendet, die in der Szene sichtbar waren. Dies war wichtig, da Geometrie außerhalb des Sichtfeldes ebenfalls berechnet werden muss. Somit war ein nachträgliches ändern der Perspektive nur mit einem kompletten Neubau der Szene möglich. 
Nachdem die Gebäudemodule ausgerichtet und alle nicht sichtbaren gelöscht waren, wurde mit dem Aufbau der Szene begonnen. Zunächst nutze ich Quader als Platzhalter um eine Komposition zu generieren. Anschließend wurde von großen zu kleinen Elementen gearbeitet. So wurde bei dieser Szene zunächst der Hintergrund gebaut. Neben den Gebäudemodulen wurden sogenannte Billboard-Trees angefertigt. Hierzu erstellte ich dreidimensionale Bäume, welche dann als 2D-Bild rausgerendert wurden.  Anschließend wurde ein spezieller Shader erstellt, welcher das Bild mit ein paar weiteren Maps die beim Rendern erstellt wurden verarbeitet. So konnte Lichteinfall unter Zuhilfenahme einer Normalmap auf dem zweidimensionalen Objekt simuliert werden. Dies hat den Vorteil, dass diese Art der Darstellung wesentlich weniger Ressourcen verbraucht als ein 3D Baum der aus einzelnen Blättern und Ästen besteht. Damit im Hintergrund nicht nur ein Baum zu sehen ist, wurden mehrere Bäume generiert und dann mit einem Partikelsystem in der Szenerie verteilt. 
Anschließend wurde der Fußweg gebaut und in der Szene platziert. Anschließend wurden wieder mit mehreren Partikelsystemen Menschen in der Szene platziert. Dies war wichtig, da ich so eine Kontrollgröße hatte. Danach wurden Assets wie der Basketballplatz modelliert und in die Szene eingebracht. 3D Bäume wurden erstellt und an Stelle der Platzhalter gesetzt. Als letztes wurde das Grass erstellt. Hierbei handelte es sich wieder um ein Partikelsystem, welches die einzelnen Grass Elemente in der Szene verteilt. Dadurch, dass ich in meinen Perspektiven einen erhöhten Standpunkt eingenommen habe, musste das Gras sehr dicht sein, da man sonst den Boden sieht. Dies hatte zur Folge, dass die Partikelanzahl um den Faktor 10 bis 20 erhöht werden musste. Dies war problematisch, da dies das System stark forderte. So dauerte das Kompilieren vor dem eigentlichen Rendervorgang zwischen 30 und 60 Minuten. Dies machte den Prozess sehr langsam, da für jedes Proberendering ca. eine Stunde Zeit aufgewendet werden musste. Somit war das Einstellen des Partikelsystems ein nicht vorgesehener Zeitfresser. Nachdem das Grass dann eingestellt war, wurden weitere Elemente durch Partikelsysteme auf die Weise aufgebracht.
World Machine. Creation of the landscape
First tests with World Machine generated mesh in blender
using scetches as compositional guides in blender
adding constraints to all 15,000 heliostats in blender
testbuilding a marsian landscape in blender
Exterior shot: This scene differs greatly from the interior shots due to the location. Accordingly, the process was different here. First a terrain had to be created in which the scenery could be set. For this I use World Machine. I had never worked with the program before, but due to my knowledge with other Node based programs I was able to get used to it quite quickly. Since I already had an idea for the composition in my head, I could roughly sketch it in the layout generator and then run it through the pipeline. So I had quite good control over the terrain. In the end, a 30km x 30km terrain was created, which served as the basis for the final rendering. Beside the terrain also different maps were exported, which I could use for the coloring. 
The terrain was then imported into Blender, where I first positioned a camera and determined the image section. Then the tower was brought into the scene. Afterwards the heliostats were created and distributed with a particle system in the scene. Afterwards the individual elements were converted by a particle system to real geometry. This had to be done, because otherwise all heliostats faced in the same direction. Since these in reality have a slightly different rotation, all 15,000 heliostats were provided with a so-called constraint, which enabled me to focus all heliostats on one point (empty). Thus I could align the heliostats by the movement of the empty. The next step was to integrate the astronauts into the scene. Afterwards stones and larger rock formations were distributed in the scene to have more details in the foreground and middle ground. In the last step of the process, volumes were distributed in the scene that were supposed to indicate an approaching dust storm and represented the typical red-orange atmosphere of Mars. 
After rendering, all images were processed in Photoshop and prepared for printing. 

Außenaufnahme: Diese Szene unterscheidet sich auf Grund der Location stark von den Innenaufnahmen. Dementsprechend war hier der Prozess anders. Zunächst musste ein Terrain erstellt werden in welches die Szenerie gesetzt werden konnte. Hierzu nutze ich World Machine. Zuvor hatte ich noch nie mit dem Programm gearbeitet, konnte mich aber auf Grund meiner Kenntnisse mit anderen Node basierten Programmen recht schnell einarbeiten. Da ich schon eine Idee zur Komposition im Kopf hatte, konnte ich diese dann im Layout Generator grob vorzeichnen und anschließend durch die Pipeline laufen lassen. Somit hatte ich eine recht gute Kontrolle über die Beschaffenheit des Terrains. Letzten Endes wurde dann ein 30km x 30km großes Terrain erzeugt, welches als Basis für das finale Rendering diente. Neben dem Terrain wurden auch verschiedene Maps exportiert, welche ich bei der Kolorierung nutzen konnte. 
Das Terrain wurde dann in Blender importiert, wo ich zunächst eine Kamera in Position brachte und den Bildausschnitt festlegte. Anschließend wurde der Turm in die Szene gebracht. Im Anschluss wurden die Heliostaten erstellt und mit einem Partikelsystem in der Szene verteilt. Anschließend wurden die einzelnen Elemente von einem Partikelsystem zu richtiger Geometrie umgewandelt. Dies musste sein, da sonst alle Heliostaten in die gleiche Richtung schauten. Da diese aber in der Realität eine leicht unterschiedliche Rotation haben, wurden alle 15.000 Heliostaten mit einem sogenannten Constraint versehen, welches es mir ermöglichte, dass alle Heliostaten auf einen Punkt (Empty) fokussierten. Somit konnte ich durch die Bewegung des Empties die Heliostaten ausrichten. 
Im nächsten Schritt wurden die Astronauten in die Szene eingebunden. Anschließend wurden Steine und größere Felsformationen in der Szene verteilt um mehr Details im Vorder- und Mittelgrund zu haben. Im letzten Prozessschritt wurden Volumen in der Szene verteilt, die einen annähernden Staubsturm andeuten sollten und die typische rot-orangene Atmosphäre des Mars darstellten. 
Nach dem Rendervorgang wurden alle Renderings in Photoshop weiter bearbeitet und für den Druck vorbereitet. 


Back to Top