Vielleicht begann alles in den Nullerjahren des 21. Jahrhunderts mit den bekannten im Internet verfügbaren Computer-Rollenspielen, oder auch schon mit von Benutzer:innen damals virtuos ausgestalteten virtuellen Welten: Hier wurde abseits des Gamings versucht, die echte Welt und ihr Ökosystem nachzuahmen. Der Grundstein für viele erfolgreiche Onlinewelten war gelegt – und jetzt sind wir mittendrin im neuen Universum namens Metaverse. Keine völlig neue Innovation, sondern ein rein logischer Schritt, basierend auf rund 20 Jahren Entwicklung, befeuert durch reichlich Tech-Power und getrieben von dem Drang, dezentral arbeiten und leben zu wollen. Denn das Metaverse schießt eine Lücke …
Das Internet, wie wir es kennen, birgt eine große Lücke: Im Web 2.0 fehlt die Verbindung und die Freude am physischen Zusammensein, dem „sich spüren“. Das war auch lange nicht sein Anforderungsprofil – aber jetzt kommt es eben genau darauf an, im Web 3.0: Wie können Menschen miteinander interagieren, welche Welten können sie schaffen, wie können sie gemeinsame Erfahrungen teilen, direkt im Web? Und damit verbunden eine ganz einfache Frage, die bislang kaum diskutiert wurde: Wie gelingt die Darstellung, wie muss die User Experience gebaut sein, damit man das alles auch fühlt? Und was muss sich verändern zu den heutigen – bereits so ausgeklügelten – App-, Web und Embedded Experiences?
Eine Sache ist klar: Vieles muss immersiver werden, und das bedeutet den logischen Übergang von 2D zu 3D. Die Virtual-Reality-Welle rollt heran, mit so vielen Möglichkeiten, dass allein diese aufzulisten, Fachbücher füllen würde, und die Tech-Industrie arbeitet mit Hochdruck daran, VR massentauglich zu machen.
Aktuell sind viele VR-Anwendungen noch als technische Demos oder zur reinen Unterhaltung angelegt, immer wieder blitzt aber schon das Potenzial durch. Ausgeklügelte VR-Spiele ermöglichen Usern, beispielweise den Everest zu besteigen, als wäre man Teil der Expedition: Kein anderes Medium macht dieses virtuelle Erlebnis so erlebbar. Und wenn man den Gedanken einer gemeinsamen Expedition weiterdenkt, dann kommt man zu sehr sinnvollen Anwendungen – zum Beispiel in der Arbeitswelt oder der Medizin: Es heißt, dass VR-Onboardings eine um 70 % höhere Erfolgsquote haben, weil Menschen sich einfach leichter an Dinge erinnern, die sie so erlebt haben.
Oder stellen Sie sich vor, Sie müssten sich einer Gehirn-OP unterziehen und Ihre Ärztin könnte Ihnen vor Ihren Augen an Ihrem Gehirn demonstrieren, wo es warum welche Probleme gab. Ganz neue Möglichkeiten der Aufklärung und der medizinischen Betreuung werden somit vorstellbar.
Das Metaverse ist da – und wie schaut es aus?
Wann genau wird dies für uns normal sein, so zu leben, uns zwischen realer Welt und virtueller Welt, Universum und Metaverse zu bewegen und alles vermischt sich? Dieses Jahr noch nicht, aber das Metaverse, kleinere dedizierte Metaverses oder schlichtweg einfache XR-Applikationen werden bereits gebaut – und damit auch konzipiert, wie sie aussehen und sich anfühlen sollen. UX-Design spielt dabei eine zentrale Rolle – auch wenn bislang wenig darüber gesprochen wird, vielleicht auch deswegen, weil UX-Design sich radikal ändern wird, ändern muss? Denn das Metaverse erfordert eine radikale Verschiebung in der Definition und Gestaltung dieser Erfahrungen, da die User hier mit einer immersiveren, komplexeren und vor allem multisensorischen Umgebung konfrontiert werden.
Neue Dynamik, neue Devices, neues Design – Realities & Devices
Sind wir doch mal ehrlich: Wir alle haben uns sehr an die Formfaktoren und Anforderungen von Desktop- und Mobile-Applikationen gewöhnt. Sowohl als UX-Designer:in, wie auch als User. Doch das wird sich im Metaverse drastisch ändern.
Der endlose virtuelle Raum, die vielfältigen Interaktionsmöglichkeiten, die unzähligen bekannten und vor allem aber neuen Devices für den Konsum von XR sind für das UX-Design eine einzigartige Herausforderung – denn je komplexer die virtuelle Welt, umso klarer muss das UX-Design sein, muss es der Komplexität entgegenwirken. Ein bisschen so wie in den alten Zeiten, als für zehn verschiedene Smartphone Größen in mehreren Densities perfekt an die Entwicklung übergeben werden musste, Screen für Screen. Und dann noch speziell fürs Web responsive gedacht. Alles musste damals penibel genau aufgesetzt werden – diese Dynamik wird nun wieder entstehen und das ist durchaus reizvoll, denn zu viel, bezogen auf aktuelle UX-Designs, ist mittlerweile standardisiert, folgt einem Workflow und ist schlicht charakterlos vervielfältigt.
Natürlich haben UX-Designer:innen mittlerweile und zukünftig durch Designsysteme, Plugins, A.I. und Co. noch mehr Hilfsmittel zur Hand, aber es fehlt der Branche noch zu sehr an Wissen über XR-Technologien, deren Devices, potenzielle Nutzer:innen etc. Es reicht nicht, mal kurz eine VR-Brille aufzusetzen, um die Strategien und Designs der Zukunft entwickeln zu können. Die UX-Design-Branche sollte jetzt einsteigen und sich mit dem Thema beschäftigen und tiefgründig explorieren, UX-Patterns finden, die sich derzeit versuchen zu etablieren, Beispielszenen mit einer 3D/Game-Engine bauen und idealer Weise auch versuchen, ein erstes Interface zu designen, zu integrieren und zu interagieren. Und: Mit Kund:innen in den Diskurs treten und evtl. sogar einen ersten Case erarbeiten, Partnerschaften mit 3D-Studios schließen und vor allen Dingen all diese Neugier und diesen Elan für die nächsten Jahre beibehalten.
Für alle, die es ausprobieren möchten, wie viel Spaß und Ergebnis diese Neugierde bringt: Mit kostenfreien KI-Tools lässt sich stundenlang ausprobieren, was man auf bislang unbekannte Art und Weise machen kann: Man gibt z. B. einen Text ein, der das Bild beschreibt, das man als Ergebnis sehen möchte. Dann „steuert“ man die KI mit einigen Optionen, bis man zufrieden ist. Man kann die Verarbeitung ein wenig anpassen, aber schon die originären Ergebnisse sind beeindruckend. Und nun stelle man sich vor, im Alltag mit Hilfe von KI immersive virtuelle Erlebnisse entwerfen und den Designprozess bereits miterleben zu können …
Ja wohin gehen sie denn, die User? – Accessibility & Inclusiveness
Um den Übergang zu mehr virtuellen Experiences zu gestalten, ist ein wesentlicher Faktor, diese von Anfang an zugänglicher und inklusiver zu denken. Gerade in den ersten Konzeptions-Phasen sollten Unternehmen nicht den Fehler machen, zu wenig Zeit zu investieren. Man bedenke, wie viele Monate resp. Jahre sich bekannte Film- und Game Studios hierfür nehmen, in dem Wissen, dass dieses Invest sich mehr als auszahlen wird. Zwar muss man eine AAA-Game-Experience nun nicht komplett als Maßstab sehen, aber sich daran zu orientieren, wenn eine mehrdimensionale und immersive Experience geschaffen werden soll, die nachhaltig Erfolg hat, sollte jetzt der Mindset sein.
Wenn es konkret um das UX-Design geht, könnte selbst die Typographie demnächst wieder ein größeres Kapitel schreiben. Eine der größten bekannten Suchmaschinen im Netz beschäftigt sich bereits mit Richtlinien, den sogenannten „dmms (distance-independent millimeters)“, um Lesbarkeit und Verhalten von Text je nach Entfernung zum:r Nutzer:in anzupassen, um maximale Barrierefreiheit zu erreichen (Quelle: https://www.youtube.com/watch?v=ES9jArHRFHQ).
Das wird natürlich umso wichtiger, je mehr davon auszugehen ist, dass der:die Nutzer:in deutlich mehr Freiheiten haben wird, sich im Raum zu bewegen – und hier kommt die Verantwortung des UX-Designs ins Spiel: Inhalte oder gar wichtige Interaktionen müssen so gut wie immer erreichbar, lesbar und durchführbar sein!
Aber auch die klassischen Personas rücken wieder ganz klar in den Vordergrund. UX-Design-Agenturen können es sich einfach nicht mehr leisten, nicht über die Nutzer:innen nachzudenken. Auch hier funktioniert die Analogie zu AAA-Game-Studios, in denen Hunderte von QA-Tester:innen versuchen, alle Möglichkeiten des z. B. „Steckenbleibens“ oder „Cheatens“ vor Launch zu unterbinden.
Dieses Vorgehen lässt sich einfach übertragen auf beispielsweise ein Unternehmen, das Haushaltsgeräte herstellt, und nun eine eigene VR-Welt bauen lässt, um Geräte und Marke noch greifbarer zu machen. Würde sich dieses Unternehmen keine Gedanken darüber machen, ob auch ein:e Rollstuhlfahrer:in in jeder Situation perfekt mit Allem interagieren könnte, wäre das nicht zielführend. Man muss einfach verstehen, welche Möglichkeiten und Voraussetzungen Nutzer:innen einer Marke mitbringen und welche Experiences im Metaverse nun auf diese zugeschnitten werden müssen.
Vom Museum ins Metaverse: Field of View & Orientation
Der Mensch braucht laut Wissenschaft ungefähr 10 Sekunden, um sich mit einer neuen Umgebung (auch im VR-Space) vertraut zu machen.
Und jetzt denken wir uns in die Metaverse- und VR-Welt – und finden uns selbst nicht gleich erkennbar platziert, sehen keinen Kontext der Interaktionsmöglichkeiten, können uns einfach nicht orientieren. Ergebnis: Frustration pur.
Es gibt viele Möglichkeiten, Usern Kontext zu geben, aber er sollte immer gut durchdacht und systematisch geplant sein. Warum sollte das in der Gestaltung des Metaversum auch anders sein als in sonstigen Prozessen? Texte, Klänge und Stimmen oder auch klassische Richtungspfeile können User führen. Was hier gewählt wird, hängt von der Experience ab, von der Story, die ich erlebe.
Generell wird Storytelling wieder viel wichtiger werden, ähnlich einem Besuch in einem Museum: Wo will ich meine Besucher durchführen, wo möchte ich, dass sie frei agieren und wo, dass sie sich auf eine Sache konzentrieren? Um hier grundlegend für ein Raumgefühl zu sorgen, hat sich der VR-Designer Mike Alger mit ergonomischen Zonen beschäftigt, die sich auf so ziemliche jede VR-Aktion anwenden lassen, er nennt sie die „Viewing Zones“.
Laut Alger sollten im Umkreis von 0,5 m um den:die Nutzer:in herum keine wichtigen oder permanenten Interfaces oder Interaktionsmöglichkeiten vorhanden sein, da diese zu nah sind, um sich darauf konzentrieren zu können – oder User sie teilweise gar nicht wahrnehmen. Das Gegenteil gilt aber auch: Jeglicher Inhalt, der weiter entfernt ist als 20 Meter, verliert erheblich an Tiefe und ist immer schwieriger wahrzunehmen. Somit sollten die wichtigsten Elemente zwischen zwei und zehn Metern, ausgehend von den Usern, platziert werden, um angenehm wahrgenommen zu werden.
Heuschnupfen im Metaverse? – Interaction & Reaction
Die Interaktion im Metaverse und in der VR-Welt ist das, worauf es ankommt – und was den Unterschied macht zu Allem, was es bisher gab: greifen, zeigen, starren, gestikulieren, sprechen – dies zu ermöglichen ist der heilige Gral.
Kür und Pflicht gleichermaßen ist es also, jede Interaktion so offensichtlich und natürlich wie möglich zu machen. Für das UX-Design bedeutet das, die Elemente zur Interaktion ansprechend zu gestalten, aber noch viel wichtiger ist die Frage: Welche Interaktion würde ein User im realen Leben in einer Situation – ganz unbewusst – machen? Wie gestalte ich die virtuelle Welt so, dass der:die Nutzer:in sich natürlich darin zurechtfindet und bewegt?
Und hier kommt dann umgehend noch etwas weiteres Wichtiges dazu: Wie führen User Interaktionen aus? Mit einem Laserpointer auf eine Stelle zu zielen, gelingt manchen mühelos, anderen eher mit einer größeren Streuung. Eine mögliche Lösung wäre, je nach Interaktionsmethode, das anzuwählende Element größer zu machen, heranzuzoomen oder die sog. Hit-Area zu erweitern, um eine fehlerfreie und wenig frustrierende Experience zu schaffen.
Um Frustration zudem vorzubeugen, sollte die Erkennbarkeit einer Interaktionsfläche maximal gefördert werden. Besonders in XR stehen zahlreiche Möglichkeiten zur Verfügung, mittels Bewegung/Animation, Skalierung, Licht, Audio und/oder Farbe die Interaktivität eines Objektes und dessen Status darzustellen. Und um noch immersiver und somit eine noch realistischere Wahrnehmung zu generieren, sollte vor allem jedes interaktive Element auf jede Bewegung des Users, egal ob gewollt oder nicht, reagieren.
Aber auch nicht interaktive Elemente sollten reagieren, entweder auf die Nutzer:innen oder auf die Umwelt. Gehe ich z. B. durch eine Wiese mit hohem Gras, möchte ich, unbewusst, dass sich das Gras bewegt. Ziel ist es, dass sich der:die Nutzer:in so präsent wie möglich in der Experience fühlt. Je mehr er oder sie sich als aktiver Teil der Experience sieht, desto immersiver fühlt es sich an.
Hören statt sehen – Design Skills & New Tools
Alles bisher Genannte macht klar: Im Metaverse geht es nicht mehr um das klassische Interface, die Navigation, das Kärtchendesign … Die Skills und Rollen der UX-Designer:innen werden sich zukünftig sehr viel mehr in Richtung Gaming, Storytelling, Animation, 3D-Design und immersive Skills wie Sound Design entwickeln müssen.
In der UX-Design-Branche spricht man bereits davon, dass es zukünftig Sinn macht, wieder mehr Generalist:in als Spezialist:in zu sein, vor allem für den fachlichen Teil. Zusätzlich dazu müssen sich UX-Designer:innen, aufgrund der Thematik Metaverse und somit der Erschaffung von immersiven Welten, mit Expert:innen anderer Fachgebiete tiefgründig austauschen, Erfahrungen & Cases teilen und noch enger zusammenarbeiten als bisher.
UX-Designer:innen werden auch weiterhin in den gängigen Interface Design Tools designen, aber um exzellente Experiences zu bauen, sollten sie sich schnellstmöglich auch mit den gängigen 3D-Engines auseinandersetzen, um zu verstehen, was möglich ist, und wie sich alle Aspekte der Experience harmonisch miteinander verknüpfen lassen, ohne dass es sich anfühlt, als hätten mehrere Gewerke für sich daran gearbeitet.
Let’s go exploring!
Immer wieder wird ein dystopisches Bild vom Metaverse aufgezeigt … dabei ist es „nur“ ein weiterer, wenn auch tiefgreifender, technologischer Sprung, der derzeit vollzogen wird. Und auch damit werden UX-Designer:innen nun umzugehen wissen. Am besten funktioniert das, meiner Erfahrung nach, indem man sich selbst und auch der Verantwortung, die man trägt, treu bleibt. Die Arbeit an sinnvollen digitalen Erfahrungen sollte immer, auch im Metaverse, das Ziel sein. Es gibt Tausende von sehr wichtigen Cases, die das Leben der Menschen verbessern können, die nur darauf warten, von XR „disrupted“ zu werden. Let’s go exploring …
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.