Eric Kalsbeek
26.09.2019

3D, WAT KEN JE D'R MEE? [DEEL 2]

3D-WAT-KEN-JE-DRMEE-2

Het is frustrerend én prikkelend om in een vakgebied te werken waar er elke week weer een nieuwe tool wordt uitgebracht. Een snellere grafische kaart, een betere workflow of een renderer met nóg realistischere resultaten. In de wereld van 3D moet het altijd sneller, beter en mooier. En ik hol er steeds op een drafje achter aan. Achterblijven is geen optie. Relevant blijven is een must.

Waar ik vooral blij van word zijn ont­wik­ke­lin­gen die het technische aspect van 3D - niet mijn sterkste punt - mak­ke­lij­ker maken. Zo kan je je als artiest focussen op het creatieve aspect. Hieronder vind je drie van dat soort ont­wik­ke­lin­gen die mijn ‘inner geek’ doen glimlachen.

Nvidia RTX
Ik gebruik in mijn 3D-werk grafische kaarten (afgekort: GPU’s) om te renderen met Otoy’s Octane Render. Renderen is het berekenen van re­a­lis­tisch licht, schaduwen en reflecties in een 3D-scène. Hoe meer grafische kaarten je hiervoor gebruikt, hoe sneller het gaat.
Nvidia, de grootste ont­wik­ke­laar van grafische kaarten ter wereld, lanceerde onlangs haar nieuwe RTX-lijn. De al­ler­snel­ste grafische kaart ooit ever. Al die re­ken­kracht is leuk, maar volgens de ont­wik­ke­laar zijn deze kaarten re­vo­lu­ti­o­nair. Ze kunnen namelijk realtime raytracen. Dit houdt in dat ze zonder wachttijd fo­to­re­a­lis­tisch de werking van licht in een scène kunnen berekenen.
Dit heeft in eerste instantie vooral impact op games. Waar je eerst, om pro­cess­or­kracht te besparen, licht moest ‘inbakken’ in een scene, kan dat nu on-the-fly. Denk bij­voor­beeld aan een brandende fakkel die in een donkere hal wordt gegooid. Het licht van de vlammen zal weer­kaat­sen op de vloer, muur en stenen, maar ook op andere objecten. De weer­kaat­sing zal zich anders gedragen op ver­schil­len­de materialen. Dit was eerst niet realtime mogelijk. Realisme in games zal naar een nieuwe hoogte worden getild, claimt de ontwikkelaar.
Het is nog even afwachten wat deze ont­wik­ke­ling betekent voor mijn workflow, maar op z’n minst (veel) sneller renderen is altijd welkom.

Procedurele workflow
Stel, je wilt een landschap maken in 3D. Dan begin je met het ‘modelen’ van terrein. Bergen, dalen, rivieren. Dit terrein moet van textures worden voorzien. Vervolgens plaats je details zoals bomen, planten en rotsen. Misschien wil je ook nog een stad, met honderden gebouwen, wegen en voertuigen. Dit klinkt als een enorm tijd­ro­ven­de klus.
Waar dit voorheen heel veel handwerk was, is dat nu anders. Algoritmes kunnen je helpen. ‘Pro­ce­du­ral­ly generated’ objecten en texturen versnellen de workflow van elke 3D-artiest. Er zijn pro­gram­ma’s waarmee je hyperrealistische landschappen kunt genereren. Door middel van sliders geef je aan hoeveel bergen en dalen je wilt hebben en hoeveel erosie het landschap heeft door­ge­maakt door de jaren heen.
Je modelt vervolgens een stuk of drie rotsen en genereert met een ander stukje software re­a­lis­ti­sche bomen en planten. Door middel van algoritmes plaatst de computer hier willekeurig klonen van op het landschap die er ieder iets anders uitzien, om herkenbare patronen te voorkomen. De textures van de rotsen en de bomen worden ook door middel van algoritmes gegenereerd, op basis van bijvoorbeeld foto’s.
Met een andere tool genereer je een stad. Je geeft de maximale hoogte van de gebouwen aan en definieert woon­ge­bie­den en het centrum. Met een verkeerssimulator bouw je een volledig func­ti­o­ne­rend ver­keers­net­werk dat zich op basis van AI re­a­lis­tisch gedraagt. Vervolgens kan je de hele stad verwoesten door er destruction simulations op los te laten.
En dit alles gebeurt met een ‘non-de­struc­ti­ve workflow’. Oftewel, je kunt altijd terug en ge­tal­le­tjes en sliders kan aanpassen, waardoor je assets zich anders gaan gedragen. Deze manier van werken is niet alleen veel sneller, maar ook mak­ke­lij­ker. Hierdoor is er meer ruimte voor cre­a­ti­vi­teit.

De uncanny valley voorbij
Ooit een karakter in een film gezien waarbij je dacht: hier klopt iets niet? Dat zijn je hersenen die extreem goed zijn in het detecteren van nepmensen. Dit noemen ze de uncanny valley. Het menselijk gezicht bestaat uit enorm veel subtiele details en onze hersenen zijn feilloos in het detecteren van af­wij­kin­gen.
3D-personen in films zijn extreem moeilijk om écht te krijgen. Gelukkig worden we er steeds beter in. Waar voorheen 3D-mensen met de hand werden gemaakt - dus echt als een sculptuur werden gekleid in 3D - worden ze nu gescand. Letterlijk. Tom Cruise gaat in een speciale studio staan waar honderden camera’s tegelijk elk detail van zijn lichaam en gezicht di­gi­ta­li­se­ren. Deze 3D-scan kan dan bij­voor­beeld op een stuntman worden ge­pro­jec­teerd. Voor de kijker is het dan Tom Cruise die daar uit een brandend vliegtuig springt.
Scan je ook nog ver­schil­len­de emoties op zijn gezicht in dan kan je Tom zelfs laten praten, lachen en huilen. En zo gaan we langzaam de uncanny valley voorbij. Waar we een tijdje geleden nog voelden dat er iets niet klopte aan een karakter in een film, hebben we straks niets meer door. En dat is geweldig en creepy tegelijk.

Het gaat dus hard in de wereld van 3D. De grens tussen nep en echt vervaagt steeds verder. Maar zolang ik meer ruimte heb om me te focussen op het leuke, creatieve gedeelte, ben ik allang blij.

Meer blogs