NVIDIA-CEO Jensen Huang kündigte gestern in seiner Abschlussrede auf GTC 2026 überraschend einen besonderen Gast an: Olaf, der Roboter, der in Zusammenarbeit von NVIDIA, Disney und Google DeepMind entwickelt wurde, feierte sein erstes beeindruckendes Debüt. Dieser Roboter, der fortschrittliche KI und physikalische Simulation kombiniert, zeigt flexible Bewegungen und tänzelt lebensecht. Disney kündigte kürzlich an, dass Olaf ab Ende März in den Disney-Themenparks in Paris und Hongkong zu sehen sein wird.
NVIDIA arbeitet mit Google DeepMind an der Entwicklung von Newton, damit Olaf laufen lernt
Die Technologie, die Olaf das Gehen ermöglicht, verbindet Hardware-Rechenleistung mit Software-Simulation. Das Projekt nutzt den Newton Physics Engine, der gemeinsam von Disney Research, NVIDIA und Google DeepMind entwickelt wurde. Dieser Physik-Engine erlaubt es Hochleistungsrobotern, in GPU-Umgebungen schnelle Simulationen durchzuführen. Dank NVIDIAs GPU-gesteuerter Simulationen kann der Roboter stabil in der realen Umgebung agieren. Für den visuellen Eindruck im Animationsstil wurde Olafs Körper mit schimmernden Fasern versehen, um den Schneeffekt zu simulieren. Das Design ist magnetisch, sodass seine stangenförmigen Arme, die Karottennase und das Fell abnehmbar und neu anordbar sind, um die charakteristischen Bewegungen und Gesichtsausdrücke aus dem Film nachzubilden.
Bei der Bewegungsentwicklung haben Disney-Animatoren umfangreiche KI-Trainingsdaten bereitgestellt, um dem Roboter das Gehen in virtuellen Umgebungen beizubringen. Das Entwicklerteam legte nicht nur Wert auf Mobilität, sondern auch auf die präzise Nachbildung des „Wackelgangs“ von Olaf in der Animation. Diese Technik löst das Problem, dass Roboterbewegungen oft zu steif oder charakterlos wirken. So kann Olaf im Park frei herumlaufen und dabei authentisch bleiben. Bei Interaktionen zeigt Olaf eine gute Dynamik, wobei die Bewegungskoordination von Mund und Augen die Interaktivität deutlich realistischer macht.
Menschliche Bedienung unterstützt Olaf beim Sprechen
Laut einem Medienbericht von CNET, der im Disney Imagineering Headquarters in Los Angeles vorab vorgestellt wurde, benötigt Olaf derzeit noch menschliche Unterstützung beim Sprechen. Bediener vor Ort können je nach Situation Sprachantworten auswählen. Obwohl die Dialoge noch eingeschränkt sind, kann Olaf bereits nach vorgegebenem Skript auftreten. Disney-Imagineering-Designer Josh Gorin erklärte, dass das Team seit Jahren daran arbeitet, virtuelle Charaktere zu realen Objekten zu machen, und dass moderne KI- und Hardware-Technologien dieses Ziel nun ermöglichen. Der Roboter ist noch nicht bereit für Umarmungen mit Besuchern, aber das Team plant, die Interaktionsfunktionen weiter auszubauen, um das immersive Erlebnis zu verbessern.
Nach seinem Debüt wird Olaf eine Weltreise antreten. Die erste Station ist die Eröffnung des „Frozen“-Themenbereichs im Disneyland Paris am 29. März. Anschließend wird Olaf auch im Hongkonger Disneyland zu sehen sein, wo KI-gesteuerte Interaktionen mit den Besuchern stattfinden. Zukünftig könnten Disney-IPs in Robotern umgesetzt werden, die mit Menschen interagieren – eine großartige Nachricht für Disney-Fans.
Diese Artikel über die Zusammenarbeit von NVIDIA, Disney und Google DeepMind bei der Entwicklung des Olaf-Roboters, der bald in Themenparks zu sehen sein wird, erschien zuerst bei Chain News ABMedia.