Apple hat eine Vielzahl neuer Barrierefreiheitsfunktionen für iPhone, iPad und Mac geprüft, die noch in diesem Jahr verfügbar sein sollen. Apple kündigte an, in diesem Jahr neue Softwarefunktionen einzuführen, um den Zugang zu kognitiven, sprachlichen und visuellen Funktionen zu verbessern. Es ist wahrscheinlich, dass diese Funktionen in den kommenden Betriebssystemen enthalten sein werden, beginnend mit dem iOS 17-Update, iPadOS 17 und macOS 14. Es wird erwartet, dass Apple auf der WWDC-Konferenz Anfang Juni eine Vorschau dieser Betriebssysteme präsentieren wird. wann es offiziell eingeführt wird.


Unterstützender Zugriff

Es handelt sich um eine Funktion, die das Benutzererlebnis auf dem iPhone und iPad vereinfacht, indem sie sich auf die Grundfunktionen verschiedener Anwendungen konzentriert. Es kombiniert beispielsweise Anruf-Apps und FaceTime in einer einzigen Anruf-App. Darüber hinaus sind weitere wichtige Anwendungen wie Nachrichten, Kamera, Fotos und Musik enthalten. Assistive Access bietet eine benutzerfreundliche Oberfläche mit klaren, gut lesbaren Schaltflächen und großen Textbeschriftungen. Außerdem können Benutzer ihr Erlebnis individuell anpassen, indem sie zwischen verschiedenen Layouts wählen. Sie können ein visuelles Layout mit einer rasterbasierten Anordnung der Apps auf dem Startbildschirm oder ein textbasiertes Layout mit in Zeilen angeordneten Apps wählen. Ziel ist es, die Benutzeroberfläche für Personen mit unterschiedlichen Vorlieben und Bedürfnissen einfacher und zugänglicher zu machen.


Live Speech- und Personal Voice-Funktionen erhöhen die Benutzerfreundlichkeit

Live Speech ist eine auf iPhone, iPad und Mac verfügbare Funktion, mit der Benutzer ihre Nachrichten oder das, was sie sagen möchten, eingeben können. Diese geschriebenen Wörter oder Nachrichten werden dann bei Telefonanrufen, FaceTime-Anrufen und persönlichen Gesprächen in gesprochene Wörter umgewandelt . Diese Funktion ist besonders nützlich für Personen, die möglicherweise Schwierigkeiten beim Sprechen haben oder lieber per Text kommunizieren. Darüber hinaus können Benutzer häufig verwendete Phrasen speichern, sodass sie schnell zu Gesprächen beitragen können, ohne detaillierte Eingaben vornehmen zu müssen.

Für Personen, bei denen das Risiko besteht, dass sie nicht mehr sprechen können, beispielsweise bei denen, bei denen Amyotrophe Lateralsklerose diagnostiziert wurde, bietet Personal Voice eine gute Lösung. Mit dieser Funktion können Benutzer eine digitale Stimme erstellen, die ihrer Stimme am nächsten kommt. Um dieses benutzerdefinierte Audio zu erstellen, folgen Benutzer einer Reihe zufälliger Textnachrichten und zeichnen etwa 15 Minuten Audio mit einem iPhone oder iPad auf.

Die aufgezeichneten Audiodaten werden dann mithilfe maschineller Lerntechnologie auf dem Gerät verarbeitet, um sicherzustellen, dass die Informationen des Benutzers sicher bleiben und seine Privatsphäre gewahrt bleibt. Die Personal Voice-Funktion kann nahtlos in Live Speech integriert werden, sodass Benutzer beim Anrufen ihre digitale Personal Voice verwenden können. Dieser Fortschritt gibt Einzelpersonen die Möglichkeit, eine vertraute und natürliche Sprechweise beizubehalten, auch wenn sie dazu körperlich nicht mehr in der Lage sind.


Der Erkennungsmodus der Lupe ermöglicht das Zeigen und Sprechen mit blinden oder sehbehinderten Benutzern

Die Point-and-Speak-Funktion, die in die Magnifier-App auf iPhone und iPad integriert ist, soll Benutzern dabei helfen, physische Objekte zu manipulieren, die mehrere Textbeschriftungen enthalten. Wenn Sie beispielsweise ein Heimgerät verwenden, kombiniert Point and Speak die Funktionalität einer Kamera-App, eines Lidar-Scanners und maschinelles Lernen auf dem Gerät. Wenn Benutzer ihren Finger über die Gerätetastatur bewegen, identifiziert Point and Speak vorhandenen Text und spricht ihn in Echtzeit laut vor. Mit dieser Funktion können Benutzer akustisches Feedback erhalten und effektiver mit dem Gerät interagieren.

Point and Speak ist mit VoiceOver kompatibel und arbeitet nahtlos mit anderen Lupenfunktionen zusammen. Durch die Verwendung von Point and Speak können Benutzer auf Echtzeitinformationen zugreifen und so mit Objekten interagieren, Personen identifizieren, Türen erkennen und Beschreibungen von Bildern abrufen. Navigieren Die physische Umgebung wird effektiver genutzt, was zu einem verbesserten und effizienten Mobilitätserlebnis beiträgt.


Zusatzfunktionen

◉ Für das iPhone entwickelte Hörgeräte können direkt an einen Mac angeschlossen werden und sind individuell anpassbar.

◉ Sprachsteuerung schlägt Sprachalternativen zum Bearbeiten von Text vor und unterstützt Sprachautoren.

◉ Sprachsteuerung bietet Sprachvorschläge zum Eingeben von Texten und hilft Benutzern, die mit ihrer Stimme tippen, aus vielen Wörtern, die möglicherweise ähnlich klingen, das richtige Wort auszuwählen.

◉ Der Sprachsteuerungsführer bietet Hinweise und Tipps zur Verwendung von Sprachbefehlen anstelle von Berühren oder Tippen.

◉ Switch Control kann jeden Schalter in eine virtuelle Videospielkonsole verwandeln.

◉ Das Anpassen der Textgröße ist in Mac-Apps wie Finder, Nachrichten, Mail, Kalender und Notizen am einfachsten.

◉ Automatisches Stoppen von Animationen in Nachrichten und Safari für Benutzer, die empfindlich auf schnelle Animationen reagieren.

◉ Siris Sprechgeschwindigkeit kann von 0.8x bis 2x angepasst werden.

◉ Verknüpfungen erhalten die Aktion „Dies merken“, sodass Benutzer mit kognitiven Behinderungen visuelle Notizen in der Notes-App erstellen können.

Was halten Sie von den neuen Barrierefreiheitsfunktionen? Möchten Sie ein weiteres wichtiges Feature sehen? Sag es uns in den Kommentaren.

Quelle:

Apfel

Verwandte Artikel