Interview mit Stefan Bächler von Nexum

Wie man ein virtuelles Sitzungszimmer baut

Uhr
von Sandro Morghen, Senior Experience Designer, Nexum

Das Enhanced Interaction Lab von Nexum hat im Rahmen eines Virtual-Reality-Experiments zwei ihrer Sitzungszimmer ­digital nachgebaut. Lab-Chef Stefan Bächler, Senior Software Engineer bei Nexum, gibt im Interview Einblicke in die Entwicklung des virtuellen Raums.

Was sind Ihrer Erfahrung nach die grössten Herausforderungen, mit denen sich Entwickler bei der Kreation von VR-Anwendungen gerade konfrontiert sehen? Inwieweit mussten Sie umdenken, seitdem Sie sich mit Virtual Reality beschäftigen?

Stefan Bächler: Was die technischen Aspekte der Softwareprogrammierung betrifft, war die grösste Umstellung für mich der Wechsel von der codezeilenbasierten Programmierung hin zu einer visuellen Programmiersprache, wie sie die beiden führenden Entwicklungsplattformen für VR-Anwendungen, Unity und Unreal, vorsehen. Dabei werden die Logik und die Prinzipien der Interak­tivität der Applikation in der Regel nicht über Programmzeilen eingespeist, sondern über ein visuelles Entwickler-Interface. Dies erfordert vom Entwickler in der Tat ein gewisses Umdenken. Aber auch weitere Faktoren, wie die Grundlagen der Bewegungsphysik oder der Einsatz von Licht und Schatten, sind Themen, mit denen VR-Entwickler lernen müssen umzugehen. Vieles, was man für VR-Projekte an Know-how-Rüstzeug benötigt, erinnert übrigens an das Skillset, das auch bei der Entwicklung von Computerspielen verlangt wird.

Mit welchen «Knacknüssen» hatten Sie bei der Entwicklung Ihres eigenen Experiments, dem virtuellen Sitzungszimmer, zu kämpfen?

Da gab es schon ein paar. Zum Beispiel haben wir aus Effizienzgründen auf bestehende 3-D-Assets (etwa Stühle) zurückgegriffen, die wir in den Meetingraum integriert haben. Zwar gab es hier den Vorteil, dass wir mit kostenfreien Open-Source-Bibliotheken arbeiten konnten, jedoch waren diese Elemente – etwa was den Lichteinsatz betrifft – nicht für die Anwendung in einer dynamischen, interaktiven 3-D- beziehungsweise VR-Anwendung, sondern lediglich für den Einsatz als statische Renderobjekte optimiert. Dies führte dazu, dass ein nicht unbeträchtlicher Teil des Entwicklungsaufwands in die Aufbereitung und Anpassung dieser Objekte an die geforderten Lichtverhältnisse floss. Viel mehr Zeit hat aber wohl die Vermessung und Konstruktion des Sitzungszimmers als solches in Anspruch genommen. Wir wollten mit unserem Experiment unsere beiden Meetingräume möglichst real nachbauen. Ohne fundierte Kenntnisse in Fachgebieten wie etwa dem Anfertigen von Innenausbauplänen kann hier schnell viel Aufwand entstehen. Nachdem wir das Grundsetting der beiden Räume schliesslich fertigstellen konnten, folgte gewissermassen das «Dessert» – nämlich die Integration der verschiedenen Interaktionsmöglichkeiten im Raum.

Was erwartet den Besucher in den beiden virtuellen Sitzungs­zimmern?

In der ersten Version des virtuellen Sitzungszimmers integrierten wir verschiedene Kundenarbeiten bei Nexum und vergangene Experimente unseres Enhanced Interaction Labs. Die Informationen und weiterführenden Animationen zu diesen Projekten verbergen sich jeweils hinter verschiedenen Gegenständen, die der User in der VR-Simulation vorfindet und explorativ entdecken kann. Deutet er beispielsweise auf den TV-Screen, wird darauf ein kurzes Case-Video zu einem Nexum-Kundenprojekt abgespielt. Im virtuellen Raum befindet sich auch ein nachgebildetes Poster mit den Porträts des Nexum-Teams. Zeigt der User auf eines der Teamfotos, erscheinen auf dem Screen daneben die Informationen zum jeweiligen Mitarbeiter. Eine identische Anordnung bauten wir übrigens auch an unserem Eröffnungsevent im September 2016 auf – in echt wohlgemerkt und unter Verwendung des Leap-Motion-Bewegungssensors. In ähnlichem Stil integrierten wir verschiedene weitere Projekte in dieses virtuelle «Museum». Dabei experimentierten wir auch mit den verschiedensten UX-Prinzipien.

Was muss man Ihrer Meinung nach bei der Gestaltung einer gelungenen User Experience in der virtuellen Realität beachten? Welche Bedienprinzipien haben Sie in Ihrem Experiment verbaut?

Wir einigten uns, was die verwendeten UX-Patterns betrifft, auf eine Mischung aus verschiedenen Stilmitteln. Zum einen spielten wir mit selbstentwickelten Mustern herum, zum anderen kamen auch Bedienmuster zum Einsatz, die sich durchaus als frühe «Best Practices» der Virtual-Reality-UX bezeichnen lassen – wobei die ganze VR-Bewegung ja noch verhältnismässig jung ist, und von wirklichen Standards diesbezüglich will ich nicht sprechen. Was die UX-Standards in der virtuellen Realität angeht, ist also noch alles offen – das macht die Arbeit mit dieser faszinierenden Technologie natürlich umso spannender.

Bleiben wir beim Thema Technologie: Können Sie für uns die wichtigsten Rahmendaten zur technischen Umgebung zusammenfassen, die Sie für das Projekt eingesetzt haben?

Wie schon erwähnt, verwendeten wir als Hauptentwicklungsplattform die Unreal Engine. Der grösste Teil der Anwendung wurde mithilfe des visuellen Programmierwerkzeugs «Blueprint» programmiert. Vereinzelt griffen wir auch auf die Sprache C++ zurück, zum Beispiel für die Simulation eines Raspberry-Screens mit 2048 einzelnen LED-Pins, den wir im Rahmen der virtuellen Ausstellung realisieren.

Als ich Ihnen bei der Entwicklung über die Schulter geschaut habe, ist mir zu meiner Überraschung recht schnell aufgefallen, dass man die Stühle herumwerfen kann. Wie sind Sie darauf gekommen?

Wir haben das zufällig entdeckt. Der Physik-Engine der Unreal-Plattform stellt von Haus aus eine Funktion bereit, dank der im Raum platzierte Objekte durch den User verschoben, gegriffen und eben herumgeworfen werden können – da macht die Software letzten Endes keinen Unterschied. Das Feature hat aber einen durchaus ernst gemeinten Hintergrund. Bei der Entwicklung haben wir uns unter anderem auch mit der Frage beschäftigt, wie aus einer virtuellen Experience ein möglichst lebensechtes Erlebnis wird. Ein wichtiger Faktor ist da beispielsweise die Qualität und Detaillierung der grafischen Ausarbeitung. Wir merkten aber schnell, dass dies allein für einen wirklich realitätsnahen Eindruck nicht ausreicht und auch die Frage der Interaktivität im VR-Raum eine grosse Rolle spielt. Je mehr bewegliche und interaktive Elemente in eine virtuelle Umgebung integriert werden, desto lebensechter präsentiert sich auch der Gesamteindruck. Da reichen dann auch kleine Dinge, ein Handy, das aufgehoben werden kann, Stühle, die umplatziert, herumgeschoben – oder eben herumgeworfen werden können.

Reden wir über die Branche. Welche Entwicklungen bezüglich Systeme und Hardware erwarten Sie in den nächsten 12 bis 18 Monaten?

Mit Sicherheit werden komplexere VR-Systeme wie etwa die HTC Vive, die Oculus Rift oder die Playstation VR in Zukunft kabellos funktionieren. Es gibt ja bereits heute entsprechende Umrüstungskits; künftige Versionen dürften dann sogar gänzlich kabelfrei erhältlich sein. Weitere Fokuspunkte für Innovationen innerhalb der Industrie sind die Erweiterung des Sichtfelds oder die stetige Verbesserung beziehungsweise Erhöhung der Bildschirmauslösung. Aber auch an der Preisfront wird sich in nicht allzu ferner Zukunft einiges bewegen. Erst kürzlich senkte Oculus die Preise seiner Rift drastisch, ein Trend, der sich auch bei anderen Endgeräten und Umsystemen fortsetzen dürfte. Für die junge VR-Branche ist das ein positives Signal. Schliesslich bedeuten tiefere Preise eine stärkere Verbreitung der Technologie und höhere Enduserzahlen.

Was werden wir in Zukunft vom Lab hören?

Alles kann ich natürlich nicht verraten, sonst wäre der Überraschungseffekt weg. Aber die Themen Augmented Reality und Virtual Reality, wie auch das Thema Internet of Things werden uns auch in Zukunft erhalten bleiben und weiter beschäftigen. Auch das Thema der digitalen Kollaboration, das wir mit dem virtuellen Sitzungszimmer angerissen haben, möchten wir im Rahmen weiterer Experimente und voraussichtlich auch im Rahmen des VR-Meetingrooms weiter bearbeiten und ausbauen.

Könnten Sie uns ein paar Beispiele für UX-Patterns nennen?

Da wäre etwa das Auslösen bestimmter User-Aktionen über das simple Deuten auf Objekte, die sich im Raum befinden. Dazu muss man wissen, dass wir den VR-Meetingraum auf der Basis des Vive Systems der Firma HTC entwickelt haben, bei dem der User zwei Controller in der Hand hält. Über diese steuert er virtuelle Hände, die er für die unterschiedlichen Interaktionen – beispielsweise eben die Interaktion per Fingerzeig – einsetzen kann. Daneben haben wir auch Funktionen eingebaut, die bereits nativ in der verwendeten Entwicklungsumgebung Unreal integriert sind. Beispielsweise vibriert der Controller leicht, sobald sich der User einem Objekt mit dahinter verborgenen Interaktionen nähert.

Welche UX-Ideen haben Sie sonst noch in den Prototyp integriert?

Aus anderen VR-Anwendungen kennt man das Prinzip, dass man sich Objekte oder Punkte, hinter denen sich Interaktionsmöglichkeiten verbergen, über den Kopf zieht, um in einen völlig anderen Bereich der Simulation (auch gerne als «Levelsprung» bezeichnet) zu wechseln. Dieses Prinzip haben wir mit einem Lichteffekt als Feedback-Indikator angereichert. Sobald der User nach einem Objekt greift und dieses etwas näher an sich heranzieht, wird der ganze Raum heller ausgeleuchtet. Der User erhält auf diese Weise eine visuelle Rückbestätigung und merkt intuitiv, dass es am betreffenden Punkt etwas Neues zu entdecken gibt.

Wie haben Sie sich innerhalb des Enhanced Interaction Labs organisiert?

Wir haben uns recht früh auf eine vereinfachte Spielform von Scrum geeinigt. In unserem VR-Lab-Team decken wir alle notwendigen Rollen wie Entwicklerteam, Scrum-Master und Product-Owner ab und halten uns an die vorgegebenen Rituale. Pro Projekt, wie zum Beispiel der VR-Meetingroom, besteht unser Scrum-Backlog aus 1,5 Quadratmetern Modellbaukarton und stapelweise Post-its, auf denen wir unsere User-Storys festhalten. Obschon wir einen eher pragmatischen Ansatz verfolgen, erhält der Backlog aber durchaus die notwendige Aufmerksamkeit (lacht).

Wie sind Sie eigentlich auf die Idee gekommen, ein virtuelles Sitzungszimmer zu bauen?

Dafür gab es verschiedene Gründe. Zum einen hat uns im Zusammenhang mit der VR-Technologie schon früh die Frage der standortversetzten Kollaboration fasziniert. Und wir haben im Team von Anfang an den Wunsch formuliert, dass wir für unser Lab eine interaktive, kreative Spielwiese bereitstellen wollen, auf der wir verschiedenste Bedienpatterns und Bewegungsmuster für VR-Welten ausprobieren können. Während eines Brainstormings – im jetzt nachgebauten Meetingraum – ist dann die Idee entstanden, diese beiden Aspekte zu kombinieren, und dass diese Spielwiese unser Sitzungszimmer in virtueller Form sein könnte.

Webcode
DPF8_71295