Pocket-lint wird von seinen Lesern unterstützt. Wenn Sie über Links auf unserer Website kaufen, erhalten wir möglicherweise eine Partnerprovision. Mehr erfahren

Diese Seite wurde mit Hilfe von KI und maschinellem Lernen übersetzt, bevor sie von einem menschlichen Redakteur in Ihrer Muttersprache überprüft wurde.

(Pocket-lint) - Apple hat eine Reihe neuer barrierefreier Funktionen angekündigt, darunter Live Captions, die noch in diesem Jahr auf iPhone, iPad, Mac und Apple Watch eingeführt werden sollen. Hier finden Sie alles, was Sie wissen müssen.

Was sind Apple Live Captions?

Mit Live Captions können Sie automatisch generierte Untertitel am unteren Rand Ihres Bildschirms in Echtzeit lesen, wenn Sie ein Video bei ausgeschalteter Lautstärke ansehen möchten. Laut Apple kann diese Funktion bei Streaming-Diensten, FaceTime-Anrufen und anderen Anwendungen für Videokonferenzen genutzt werden. Dies ist eine nützliche Funktion für jeden, und für die Gemeinschaft der Hörgeschädigten ist es eine Zugänglichkeitsfunktion, die es einfacher macht, Videos auf dem iPhone, iPad, Mac und der Apple Watch anzusehen. Eine ähnliche Funktion ist bereits auf Google Pixel-Telefonen und ausgewählten Android-Telefonen verfügbar .

-

Wie bei Google werden auch bei Apple die Untertitel auf den Geräten generiert, so dass Ihre Daten privat bleiben. Das Unternehmen hat jedoch noch nicht gesagt, wie Sie Live Captions aktivieren können.

Wo können Sie Apple Live Captions verwenden?

Apples Live Captions werden in FaceTime-Anrufen, Videokonferenz-Apps (mit automatischer Zuordnung zur Identifizierung des Sprechers) und Video-Streaming unterstützt. Die Funktion wird auch bei persönlichen Gesprächen funktionieren.

Welche Sprachen werden von Apple Live Captions unterstützt?

Apple Live Captions transkribiert alle Audioinhalte in englischer Sprache auf dem iPhone, iPad und Mac.

Wann wird Apple Live Captions verfügbar sein?

Apple wird eine Beta-Version von Live Captions später im Jahr 2022 ankündigen. Die Beta-Version wird in den USA und Kanada für iPhone 11 und höher, iPad-Modelle mit A12 Bionic CPU und höher sowie Mac-Modelle mit Apple Silicon CPUs verfügbar sein. Ein Software-Update mit zusätzlichen Funktionen für die Barrierefreiheit wird ebenfalls noch in diesem Jahr erscheinen.

Diese 3 Hüllen halten Ihr iPhone 13 schlank, geschützt und sehen fantastisch aus

Eine dieser weiteren neuen Funktionen ist die Türerkennung. Sie hilft blinden oder sehbehinderten iPhone- oder iPad-Nutzern, Türen zu finden. Es wird sogar beschrieben, ob die Tür geschlossen ist und ob sie durch Drücken, Ziehen oder Drehen des Griffs geöffnet werden kann. Da die Türerkennung Lidar und maschinelles Lernen nutzt, wird sie nur auf iPhone Pro und iPad Pro Modellen verfügbar sein.

Apple erweitert außerdem die im letzten Jahr eingeführten Assistive Touch Gestenerkennungsfunktionen mit Quick Actions auf der Apple Watch. Ihre Apple Watch wird in der Lage sein, einen doppelten Druck zu erkennen, um einen Anruf zu beenden, Benachrichtigungen zu löschen, ein Foto zu machen, Medien anzuhalten oder abzuspielen oder ein Training zu starten. Apple kann jetzt auch Ihr iPhone benachrichtigen, wenn eine Türklingel oder ein Gerät ausgelöst wird.

Schreiben von Maggie Tillman. Bearbeiten von Britta O'Boyle.