Hinweis
Dieser Artikel wurde ursprünglich 2021 im Rahmen des BlindWorld-Projekts veröffentlicht.
Am 20. September ist es endlich soweit und Apple wird iOS 15 für alle Nutzer freigeben. Neben den zahlreichen VoiceOver-Neuerungen gibt es noch zwei weitere Funktionen, die gerade blinden und sehbehinderten Anwendern einen großen Mehrwert versprechen.
Bilder entdecken mit VoiceOver
Einerseits handelt es sich dabei um die Möglichkeit, Bilder strukturiert durchsuchen zu können. In einer eigens dafür vorgesehenen Darstellung kann so durch die verschiedenen Elemente eines Bildes navigiert werden, darunter Objekte, Personen oder auch Texte. Zudem liefert die Ansicht detaillierte Bild- und Szenenbeschreibungen samt Angaben zur relativen Position von abgelichteten Personen.
Die Funktion lässt sich systemweit nutzen und ist über den Aktionen-Rotor über den Punkt „Bild entdecken“ erreichbar. Unter der Überschrift „Bild“ finden sich dann die verschiedenen Bildinhalte samt der zugehörigen Positionsbeschreibungen, unter den beiden Überschriften „Bildbeschreibung“ bzw. „Szenenbeschreibung“ jeweils eine Zusammenfassung des Fotos. Ebenfalls erfreulich ist, dass diese Funktion keine größeren Geräteanforderungen voraussetzt und somit auf allen iPhone-Modellen funktioniert, die das Update auf iOS 15 erhalten.
Livetext: Bilder werden interaktiv und durchsuchbar
Neben den neuen Bildinfos führt Apple mit iOS 15 eine weitere Funktion namens Livetext ein, die ebenfalls hervorragend im Zusammenspiel mit VoiceOver funktioniert. Livetext sorgt zunächst dafür, dass in Bildern enthaltener Text durchsuchbar und damit mit VoiceOver fokussierbar wird, ohne dass hierfür eine zusätzliche Aktion des Nutzers erforderlich ist. Öffnet man beispielsweise ein beliebiges Foto in der Fotos-App, kann einfach per Wischgesten durch den gefundenen Text navigiert werden. Darüber hinaus macht Livetext den erkannten Inhalt von Fotos interaktiv, so dass mit erkannten Telefonnummern, QR-Codes, Weblinks oder Kalenderereignissen ganz einfach interagiert werden kann. Erhält man beispielsweise einen Screenshot von einer Ankündigung, ließe sich das darin erkannte Kalenderereignis ohne Umwege direkt in den Kalender integrieren.
Neben der Fotos-App funktioniert Livetext auch direkt in der Live-Vorschau der Kamera. Sofern VoiceOver euch darauf hinweist, dass Text erkannt wurde, müsst ihr nur den Button „Text erkennen“ aktivieren, um den Text vorübergehend zu speichern. Im Anschluss könnt ihr den Text kopieren, auswählen oder nachschlagen. Um die Kamera wieder wie gewohnt verwenden zu können oder neuen Text zu erkennen, doppeltippt ihr einfach erneut auf den „Text erkennen“-Button und der gespeicherte Text verschwindet wieder. Im Gegensatz zu den Bildinfos erfordert Livetext mindestens ein iPhone mit einem A12 Bionic Chip oder neuer und damit mindestens ein iPhone XR oder XS, da die Funktion auf die Neural Engine zurückgreift und die Daten ausschließlich lokal auf eurem Gerät verarbeitet.