En marge du GDC 2018, Epic Games a tenu sa traditionnelle conférence consacrée au moteur Unreal Engine, et cette année l’éditeur a époustouflé le public avec une démonstration du prochain moteur UE qui sera notamment capable d’effectuer du calcul de ray-tracing en temps réel. Une scène du dernier Star Wars a été ainsi reproduite en temps réel (certes avec des PCs surpuissants pour le calcul du rendu), et le résultat est totalement incroyable. Epic a aussi mis au point un système de reconnaissance faciale qui permet d’appliquer en temps réel les mouvements du visage sur un modèle 3D, une avancée spectaculaire qui est ici illustrée par un Andy Serkis en 3D citant du Macbeth ou animant le visage d’un Alien pas gentil.
On pourrait penser que ce rendu n’est qu’une projection à très long terme de ce que seront les jeux du futur; il n’en est rien. Kim Librery, le directeur technique d’Epic Games, estime en effet que les prochaines générations de consoles ou PC seront capable d’approcher ces rendus (d’ici 2 ou 3 ans selon Libery) et que l’on ne pourra plus faire la différence avec le réel d’ici seulement une dizaine d’années ! Et imaginez donc un tel niveau de rendu sous un casque VR !
Elgato Stream Deck Mini - Contrôleur de création de contenus en direct avec six touches LCD personnalisables, pour Windows 10 et macOS 10.13 ou versions ultérieures
En tout cas on aura des jeux AAA, « graphiquement », vraiment époustouflant d’ici quelques années