Accessibility Features auf der Apple Vision Pro

Als eines der ersten Unternehmen in der Schweiz mit einer Apple Vision Pro hatten wir schon oft die Ehre, verschiedenen Personen die Brille vorzustellen. So auch letzte Woche, als uns überraschend jemand besuchte, der gelesen hat, dass man bei Bitforge die Vision Pro ausprobieren kann. Er hat eine physische Beeinträchtigung, aufgrund der die Beweglichkeit seiner Arme und Finger eingeschränkt ist und dadurch nur limitiert Touch Screens oder eine Maus bedienen kann. Die Apple Vision Pro hingegen, bei der die Navigation grösstenteils über die Augen geschieht, ist für ihn eine echte Revolution!

Ansicht auf die Accessibilty Einstellungen der Vision Pro. Das Fenster ist in einem Wohnzimmer platziert.

Quelle: Apple

Wir haben uns nach diesem Treffen sofort in die Accessibility Settings gestürzt und brauchten eine Weile, um nur schon eine Übersicht über alle Funktionen zu haben. “Ist Sound Actions und Voice Control das Gleiche? Gibt es diese Einstellungen nicht auch auf dem iPhone?” Es ist tatsächlich so, dass die Accessibility Features auf der Vision Pro sehr ähnlich sind wie auf iOS. Es gibt aber auch Features wie z.B. Zoom, die ganz anders funktionieren. In diesem Blogpost wollen wir auf die interessantesten und wichtigsten Accessibility Features eingehen.

Accessibility Features im Detail

Voice Control

Wer die Accessibility Options auf dem iPhone kennt, weiss schon alles, was es über Voice Control zu wissen gibt. Man kann durch Phrasen wie “Open AppStore” und “Tap Continue” durch die Menüs navigieren – das funktioniert genauso auf der Brille. Das deckt schon einen Grossteil der Navigation ab, nutzt aber noch nicht die einzigartigen Stärken von der Vision Pro. Dazu kommen wir bei der nächsten Option.

Sound Actions

Eines der innovativsten Features der Vision Pro ist das Augen-Tracking. Die ersten Momente mit der Brille fühlen sich an wie Magie. Man schaut einfach die gewünschte Taste an und drückt Daumen und Zeigefinger zusammen. Kein Zielen mit Controllern oder Händen, einfach anschauen reicht. Für manche Personen mit Beeinträchtigungen ist der erste Teil vielleicht einfach, aber der zweite Teil, also Zeigefinger und Daumen zusammendrücken, kann mühsam oder sogar unmöglich sein.

Diese Lücke schliessen die Sound Actions. Es gibt eine Handvoll vorgefertigter “Geräusche” (z.B. Zunge Schnalzen oder “Schhh”), welche mit Befehlen belegt werden können. Die Geräusche sind keine Phrasen wie bei Voice Control, sondern ganz einfache, kurze Laute. Ein offensichtlicher Nutzen davon ist die alternative Methode, eine Taste mit dem Augen-Tracking zu drücken. Man kann also einen Grossteil der Menüs nur mit den Augen und den Geräuschen bedienen. Dass es sogar nur mit den Augen geht, sehen wir beim nächsten Feature.

Dwell Control

Dwell (also “Verweilen”) Control ist wie geschaffen für Augen-Tracking. Um zu klicken, muss man nicht mehr Zeigefinger und Daumen zusammendrücken oder sonst eine Aktion ausführen, sondern nur einen kurzen Moment auf den Button schauen. Mit ein paar Kniffen kann man so sogar scrollen und Fenster umherziehen. Das ist aber ganz klar die Interaktion mit der steilsten Lernkurve.

Pointer Control

Mit Pointer Control kann man seine Kopfposition, das Handgelenk oder den Zeigefinger als Pointer verwenden, anstatt die Augen.

Quelle: Youtube

Die Vision Pro deckt individuelle Bedürfnisse ab

Das war nur ein kurzer Überblick über die wichtigsten Accessibility Features. Aber es gibt natürlich unzählige Optionen und Kombinationen. Tippen und Scrollen mit einem Playstation Controller? Kein Problem! Ton ein- und ausschalten mit einem Kopfschütteln? Geht alles! Ganz spannend wird es, wenn man daran denkt, dass die Vision Pro ja mit einem Mac Computer verbunden werden kann – der Computer kann ganz ohne Tastatur und Maus bedient werden. Als Ergänzung zu diesem Blogbeitrag empfehlen wir dieses Youtube Video.

Vision Pro: Das digitale Hilfsmittel für die Barrierefreiheit der Zukunft?

Wenn man sich die Brille aus der Perspektive Accessibility anschaut, wird klar, dass noch sehr viel mehr möglich ist. Nur eine Idee: Untertitel für Gehörlose in einem echten Gespräch. Am besten gleich als Speech-Bubble über der sprechenden Person. Klar, mit der Brille sieht man noch nicht sehr viele Leute auf der Strasse. Aber das Potential ist gewaltig, wenn man die Brille als “Accessibility-Filter” der realen Welt sieht. Also genau das, was “Augmented Reality” eigentlich verspricht: eine verbesserte Realität.

 

Beitrag von: Raphael Anderegg, Entwickler mit Spezialisierung auf AR Anwendungen