Auf der Eröffnungskeynote der WWDC 2023 stellte Apple neben den Betriebssystemneuheiten wie iOS 17, macOS 14 und watchOS 10 auch ein gänzlich neues Produkt vor: die Vision Pro. Hierbei handelt es sich um eine Mixed-Reality-Brille, die vereinfacht gesagt das Sichtfeld des Trägers um digitale Komponenten erweitern kann oder den Nutzer in gänzlich andere Welten abtauchen lässt.
Schnell kam nach der Vorstellung die Frage auf, ob dieses Konzept für blinde Endanwender überhaupt nutzbar ist. Und tatsächlich: Auch visionOS, so der Name des Betriebssystems der neuen Gerätegattung, hat diverse Bedienungshilfen integriert, darunter auch VoiceOver.
Erster Ausblick auf VoiceOver auf der Apple Vision Pro
Obwohl die Brille schon im Sommer 2023 vorgestellt wurde, wird sie erst im Laufe des Folgejahres, und dann auch zuerst nur in den USA, erhältlich sein. Eine detaillierte Beschreibung der Funktionsweise von VoiceOver ist daher in diesem Artikel nicht möglich.
Apple hat für Entwickler allerdings ein interessantes Session-Video veröffentlicht, in dem detaillierter auf die Entwicklung von VoiceOver-kompatiblen Apps eingegangen und auch die grundlegende Funktion kurz gezeigt wird.
Handgesten steuern den VoiceOver-Fokus
Zuerst muss VoiceOver natürlich aktiviert werden. Dies geschieht mit einem Dreifachklick auf die Digital Crown am Gerät. Ist der Bedienungshilfen-Kurzbefehl entsprechend eingerichtet, was nach der Ersteinrichtung mit VoiceOver wie bei allen anderen Apple-Plattformen der Fall sein dürfte, wird der Nutzer mit einer vertrauten VoiceOver-Stimme begrüßt.
Die Navigation durch die endlose Welt der erweiterten und virtuellen Realität gestaltet sich anschließend denkbar einfach: Durch das Zusammentippen von Fingern kann der VoiceOver-Fokus zum nächsten oder vorherigen Element bewegt oder fokussierte Elemente aktiviert werden.
Tippt man beispielsweise seinen rechten Zeigefinger und den Daumen zusammen, springt VoiceOver zum nächsten Element. Dieselbe Geste mit dem Mittelfinger anstelle des Zeigefingers springt ein Element zurück. Um ein fokussiertes Element zu aktivieren, tippt man einfach den linken Zeigefinger und den Daumen zusammen.
Spatial Audio sorgt für räumliche Darstellung von Objekten
Damit auch VoiceOver-Nutzer, die das Umfeld nicht sehen können, wissen, wo sich ein Element befindet, wird zur räumlichen Darstellung Spatial Audio verwendet. Damit soll es möglich sein, sich ungefähr ein akustisches Bild davon zu verschaffen, wo die Komponenten im Raum platziert sind.
Direkte Interaktion mit Apps
Zusätzlich zur sogenannten Standard-Steuerung gibt es für VoiceOver-Nutzer noch eine weitere Möglichkeit, mit Apps und Objekten im Raum zu interagieren. Apple führt dafür den Direktgesten-Modus ein. Dieser wird aktiviert, wenn man den linken Zeigefinger und den Daumen dreimal zusammentippt und anschließend kurz hält.
Alle Handgesten, die im Anschluss durchgeführt werden, werden direkt an die digitalen Komponenten der aktiven App durchgereicht.
Um sich im Direktgesten-Modus in einer App zurecht zu finden, gibt es sogenannte Accessibility Notifications. Entwickler von Apps für visionOS können über diese Schnittstelle akustische Benachrichtigungen an den Nutzer senden, die von der VoiceOver-Stimme vorgelesen werden. Zusätzlich dazu wird man informiert, wenn die App eine Interaktion erkannt hat, neue Objekte im Raum hinzukommen oder beispielsweise in einem Spiel ein neuer Raum betreten wird. Die Möglichkeiten sind grenzenlos und Entwickler können für jegliche Events während der App-Nutzung solche Hinweise an den Nutzer ausspielen.
Abzuwarten bleibt, inwieweit sich insbesondere der Direktgesten-Modus als praktikabel erweist. Die Standard-Steuerung, also das Verschieben des VoiceOver-Fokus und das Aktivieren von Elementen wird in jedem Fall keine größere Herausforderung darstellen. Wichtig ist auch anzumerken, dass Entwickler solch immersiver 3D-Applikationen für die praxistaugliche Nutzung des Direktgesten-Modus einige Vorkehrungen treffen müssen, damit VoiceOver-Nutzer die richtigen Informationen zur Steuerung der App erhalten.