Mikhail Sekerin's profile

Uni-Projekt: Human-Computer Interaction

Informationsanzeige und Navigationstechniken für AR Glasses im Touristik-Showcase
Das ist mein erster UX-Projekt. In den Sommersemester 2018 habe ich in einen Pflichtmodul Human-Computer Interaction teilgenommen. Wir waren eine Gruppe von 3 Studenten mit der betreurung von Prof. Strzebkowski. Wie sollten ein komplett  UX-Research durchzuführen und ein Hi-Fi Prototyp zu erstellen. Hier möchte ich unsere Ergebnisse präsentieren.   
Abstract
Die Popularität des Tourismus ist sehr hoch, es war schon immer so. Gleichzeitig entwickelt er sich zusammen mit der Entwicklung der Technologie. Wenn früher Leute Papierkarten und eine klare Routenplanung benötigten, reicht es jetzt, ein Handy mitzunehmen. Die nächste Stufe ist die Nutzung von AR-Brillen, viele Unternehmen sind aktiv an der Entwicklung beteiligt, erfolgreiche Modelle werden bereits vorgestellt.
Das Ziel unserer Anwendung ist es, den Touristen das Leben zu vereinfachen. Dafür gibt es in der App eine Navigation und die Möglichkeit, zusätzliche Informationen über die Sehenswürdigkeiten anzuzeigen. Darüber hinaus gibt es noch weitere Funktionen wie die Möglichkeit, die Bewertungen anderer Nutzer und die aufgenommene Fotos zu sehen, usw.
Eine solche Anwendung könnte bei den Inhabern von AR-Brillen sehr beliebt werden, da bei ihrer Erstellung die Merkmale der Interaktion zwischen dem Benutzer und dem System sowie die Konstruktionsmerkmale berücksichtigt wurden.
Recherchen
Im Moment gibt es drei große Projekte im Zusammenhang mit dem AR. Erstens, es ist
Microsoft Hololens. Microsoft Hololens verwendet das Betriebssystem Windows
Holographic (Version von Windows 10). HoloLens kann mit Gesten, Sprache (das Gerät
unterstützt den integrierten Sprachassistenten „Cortana“) und mit Hilfe eines speziellen
Clickers gesteuert werden.

Jetzt gibt es recht beeindruckende Lösungen für Unternehmen basierend auf HoloLens.
Zum Beispiel, mit dem OpenSight AR System von Novarad kann man ein Bild eines
Tomographen über einem echten Patienten einblenden, was bei Operationen der
Wirbelsäule hilfreich ist. HoloLens ist jedoch kein Massengerät - $3000 ist zu teuer.
Apple und Google versuchen, eine Massennische zu gewinnen. Jetzt geht es besser bei
Apple. Während Google mit Google Glass-Brillen und Tango-Smartphones
experimentierte, stellte Apple im Juni ARKit vor, ein Toolkit für Entwickler, das Millionen
von iPads und iPhones in Augmented-Reality-Geräte verwandelt. Der Chef von Apple Tim
Cook steht der virtuellen Realität ziemlich skeptisch gegenüber und betrachtet sie als
marginale Technologie und setzt auf Augmented Reality. Für Entwickler von Augmented-
Reality-Anwendungen ist der Zugriff auf eine Plattform wie iOS natürlich eine Goldmine.
Schon heute kann man im App Store rund tausend Anwendungen herunterladen, die auf
die eine oder andere Art mit Augmented Reality benutzen. Die Tatsache, dass die Initiative
zur Förderung der Augmented Reality von Apple abgefangen wurde, bedeutet nicht, dass
sich Google zur AR abgekühlt hat.

Kürzlich hat Google auch ein neues Toolset für die Entwicklung eingeführt - ARCore, das
aus dem Projekt „Tango“ entstanden ist. Mit der Telefonkamera verfolgt ARCore die
Referenzpunkte in dem Raum, in dem sich das virtuelle Objekt befindet, und bestimmt die
Position und Ausrichtung des Geräts während der Bewegung. ARcore ist in der Lage,
horizontale Oberflächen und das Umgebungslicht zu erkennen, wodurch Entwickler
virtuelle Objekte entsprechend der Umgebung beleuchten können.
Im Allgemeinen sind die Ressourcen von Unternehmen, die auf diesen Markt gekommen
sind, riesig. Und so können ernsthafte Investitionen Ergebnisse bringen - die Frage ist
vielmehr, wie schnell das passieren wird. Unterdessen wuchs der Markt für VR und AR im
Jahr 2017 im Vergleich zu 2016 nach Analysten von „CCS Insight“ um 47% und ist 1,6
Milliarden US-Dollar. Laut einem anderen Analyseunternehmen „Greenlight Insights“, wird
die Augmented Reality-Branche bis 2023 auf 36 Milliarden US-Dollar anwachsen
Ergebnisse der Befragungen
Wie haben mit Hilfe von Google-forms eine Befragung durchgeführt um Nutzerbedürfnisse zu verstehen. In den folgende Tabelle könnten Sie die Ergebnisse sehen.
Persona
 Der nächste Schritt war, eine Person anzulegen.
Story-Map
Keypath-Szenario(Lo-Fi Prototyp)
Wir beginnen mit dem Hauptscreen. In der Tat ist es genau das, was der Benutzer vor sich sieht. Es gibt nur 2 Tasten: die erste öffnet das Anwendungsmenü, und die zweite ermöglicht einen schnellen Schnappschuss zu machen.
Wenn einige Sehenswürdigkeiten im Sichtfeld des Benutzers sich befinden, wird auf dem Bildschirm ein Indikator angezeigt, auf den der Benutzer klicken und Informationen zu diesem Objekt lesen kann.
Wenn Sie auf die Menütaste klicken, erscheint vor dem Benutzer ein Fenster mit einer Auswahl der Hauptfunktionen. Es gibt 4 Menüpunkte: Sightseeing, Gallery, Maps,
Explore. Der Benutzer kann diese Menü auch ausblenden, wenn er auf die Taste "Explore" klickt.
Wenn der Menüpunkt „Sightseeing““ ausgewählt ist, geht der Benutzer zum Such - und Sightseeing - Fenster. In diesem Fenster kann der Benutzer eine Suchanfrage eingeben, sortieren und den gewünschten Standort auswählen. Der Benutzer kann auch die Spracheingabe für die Suchanfrage verwenden.
Wenn der Standort ausgewählt ist, kann der Benutzer eine vollständige Beschreibung des gewünschten Objekts mit dem Bild und seine Bewertung sehen und den Ort zu den Favoriten hinzufügen.
Mit der Geste „runterscrollen“ kann der Benutzer zu einem weiteren Bereich gehen und zusätzliche Informationen sehen: verschiedene Fotos des Objekts sowie Benutzerkommentare und ihre Bewertungen.
Wenn der Ort für diesen Benutzer interessant ist, kann er auf die Taste "Route" klicken, um die Route dorthin zu berechnen. Danach öffnet sich das Fenster "Maps", wo der Weg für den Benutzer automatisch berechnet wird.
Das nächste Element unserer Anwendung ist die „Map". In diesem Fenster wird eine Karte geöffnet, die die wichtigsten Sehenswürdigkeiten in der Umgebung anzeigt. Hier kann der Benutzer auch die Route zum gewünschten Ort berechnen. Für die Suche ist auch eine Spracheingabe verfügbar.
Endergebnisse(Hi-Fi Prototyp)
Dies ist der Screen den man sieht wenn die Anwendung gestartet ist. Zu sehen ist das Bild der AR-Brillen, der durch Computer Vision weiße Punkte an zugänglichen Orten, die durch Anklicken den Namen des Objekts anzeigen.
Mit der Hilfe von folgende Geste, kann man Menü aufrufen.
Es sieht so aus:
Mit der Hilfe von Pinch-to-Zoom Geste kann das Menü verkleinern und vergrößern. Um ganze Schnittstelle auf statische Bildschirm anzuzeigen, machen wir das Menü maximal groß.
Auf Startseite kann man eine von vier Hauptfunktion aufrufen, und zwar: Gallery, wo sich unsere selbstgemachte Fotos befinden, Explore führt zu AR-Funktionen, Sightseeing hilft die Information über nächste Objekten und Maps, da kann man seine Standort auf die Karten scheuen und die Route planen.
Wir fangen mit der Galerie an.
Zuerst kann man letzte gemachte Foto sehen. Durch Drücken auf das Foto, öffnet sich das Foto in vollständige Große.
Da kann man nach links und nach rechts scrollen. Außerdem gibt es ein Möglichkeit
Zurück durch klick auf  "Zurück"-Button gehen, mit der Hilfe von "Menu"-Button kann das
Hauptmenü aufrufen, "Close"-Button schlisst die Schnittstelle und "Share"-Button öffnet „Share“- Menü. Da kann man das Foto in sozialen Netzwerken verteilen.
Maps
Hier könnte man mit Hilfe einer Stimme ein Route zu gewünschte Ort planen.
Wir haben diese Eingabemethode ausgewählt, weil normale Tastatur in diesem Fall unbequem ist.
Dann könnte man auf gewünschte Ort klicken.
So sieht Routenübersicht aus. Der klick auf „Live route“ eröffnet eine AR-route.
Sightseeing
Folgende Bildschirm zeigt uns nächste Objekten mit Kurzbeschreibung, Entfernung, Hauptfoto und benutzerdefinierte Bewertung. Diese Karten können nach links und rechts gescrollt werden.
Dann könnte man interessante Objekt auswählen und Kurzinformation erhalten. Mit Hilfe
von Klick "Location"-Button kann man eine Route zu diesem planen. Ein Klick auf "Sternen" ermöglicht Ihnen angezeigte Ort zu bewerten.
Dann könnte man nach Oben scrollen und mehr detaillierte Beschreibung des Objects durchlesen. Außerdem kann man diesen Object in sozialen Netzwerken teilen,
Mehr Foto angucken
und Kommentar lesen.
Explore
Diese Funktion ist Hauptfunktion unserer Anwendung. Durch Klicken auf einen Punkt wird der Objektname aufgerufen.
Diese Punkte erstellen sich automatisch, während der Bewegung.Die zweite Betätigung öffnet eine kurze Beschreibung des ausgewählten Objekts.
Mit Hilfe von folgende Geste kann man Foto machen:
Zusammenfassung
Mit Hilfe von diesen Projekt habe ich ein Basistechnik in den Bereich UX gelernt. Der nächste schritt sollte User-testing sein, aber es fällt in den Rahmen von dieses Projekts. 
es half mir, die Notwendigkeit von UX-Design zu verstehen, weckte das Interesse an diesem Bereich und half mir, meine Karriere als UI/UX-Designer zu beginnen. 
Uni-Projekt: Human-Computer Interaction
Published:

Uni-Projekt: Human-Computer Interaction

Ein Uni-Projekt in den Bereich HCI "Informationsanzeige und Navigationstechniken für AR Glasses im Touristik-Showcase"

Published: