Seit Anbeginn der computergenerierten Bilder versuchen Künstler und Techniker immer wieder, virtuelle Menschen zu erschaffen. Ich persönlich habe eine sehr gespaltene Beziehung zu virtuellen Charakteren, die den Anspruch haben, die Realität abzubilden: Selbst preisgekrönte Visual Effects Teams bringen in ihren Hollywoodproduktionen immer wieder Ergebnisse hervor, die einem grausige Schauer über den Rücken jagen. Dieser Effekt nennt sich „Uncanny Valley“ – ein Charakter, der real sein will, aber bei dem kleine Details fehlen die ihn „robotisch“ wirken lassen. Über die Jahre hat sich unser Team immer wieder an virtuellen Charakteren versucht – mit dem Fazit, dass abstrakte Charaktere definitiv der bessere Weg sind. Bis heute: Denn Epic Games hat mit seinem „Metahuman“ Werkzeugkoffer die gesamte Branche grundlegend verändert. Mit einem einfachen „klick, klick, fertig“ Ansatz erstellt man virtuelle Menschen, die dem echten Gegenstück verblüffend ähnlich sind und in allen Unreal-Produktionen eingesetzt werden dürfen.

Das Uncanny Valley ist tot.

Der Metahuman Editor liefert quasi fertig einsetzbare Charaktere: Zum aktuellen Stand mit einer nur kleinen Auswahl an Frisuren und Bekleidung. Dadurch, dass die Charaktere auf einer Reihe an „Standard-Typen“ basieren, die man miteinander mischt, um zum Endergebnis zu kommen entstehen außerdem häufig visuell sehr ähnliche Ergebnisse – schließlich basieren diese alle auf der „gleichen“ DNA. Eine insbesondere große Herausforderung ist das Nachstellen von natürlichen Personen als virtuelle Kopie: Hier muss immer manuell in 3D-Modellierungsprogrammen Hand angelegt werden, was einem Drahtseilakt gleicht, da man sehr schnell ausversehen die vordefinierten Eigenschaften („Blendshapes“) des Charakters zerstört.

Das Leben einhauchen

Ist der virtuelle Charakter erschaffen kann er mit wenigen Handgriffen in Unreal-Projekte eingebunden werden. Die Animation des Charakters kann entweder auf Basis von zugekauften Bewegungsdatenbanken erfolgen (was sich jedoch meist als eher robotisch erweist): Oder ein „echter“ Schauspieler schenkt dem Charakter seine Seele und die Bewegungen durch eine Technologie namens Motion Capturing.

Die Einsatzzwecke für Metahumans sind vielfältig. Egal, ob mit ihnen eine Szene ausdekoriert wird – zum Beispiel im Bereich der Architekturvisualisierung – oder sie als Centerpiece der Aufmerksamkeit direkt in die virtuelle Kamera sprechen. Neben dem klassischen Ansatz von vorproduzierten Animationen kann das AI-Toolkit der b.ReX GmbH den Charakter an führende AI-Anbieter anschließen, zum Beispiel die künstliche Intelligenz von OpenAI. Damit wird direkt das Gespräch mit dem Charakter möglich, als ob er tatsächlich am Leben ist. Wobei die Erwartungshaltungen hier ein wenig einzuschränken sind und sich die Konversation mehr oder weniger auf ein Frage-Antwortspiel beschränkt, welches zeitweilen noch etwas ulkige Aussagen hervorbringt. Um die conversational AI korrekt zu trainieren sind sehr große Mengen an qualifizierten Daten nötig, die mehr oder weniger manuell eingesteuert werden müssen.

Ich bin mir sicher: Epic Games wird die „Metahumans“ über die kommenden Jahre weiter voranbringen. Anwendungen im Metaversum machen immer häufiger virtuelle Repräsentanzen im digitalen Raum nötig. Der nächste Clou wäre hier ganz klar eine Funktion, die einfach auf Basis eines Fotos den virtuellen Charakter generiert. Hierzu sind bei anderen Anbietern bereits AI-basierte Ansätze vorhanden, deren Ergebnisse aber wiederum weitaus schlechter sind als Epic’s Metahumans.

Das Bildmaterial in diesem Blogpost wurde Großteils von Epic Games zur Verfügung gestellt