Pocket-lint è supportato dai suoi lettori. Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Questa pagina è stata tradotta utilizzando l'intelligenza artificiale e l'apprendimento automatico prima di essere revisionata da un redattore umano nella vostra lingua madre.

(Pocket-lint) - Apple ha annunciato una serie di nuove funzioni di accessibilità, tra cui le Live Captions, che verranno introdotte nel corso dell'anno su iPhone, iPad, Mac e Apple Watch. Ecco tutto quello che c'è da sapere.

Cosa sono le Live Captions di Apple?

Con le Live Captions, se si desidera guardare un video con il volume disattivato, è possibile leggere in tempo reale le didascalie generate automaticamente nella parte inferiore dello schermo. Apple ha dichiarato che questa funzione può essere utilizzata su servizi di streaming, chiamate FaceTime e altre applicazioni di videoconferenza. Si tratta di una funzione utile per chiunque, e per la comunità degli audiolesi è una funzione di accessibilità che renderà più facile guardare i video su iPhone, iPad, Mac e Apple Watch. Una funzione simile è già disponibile sui telefoni Google Pixel e su alcuni telefoni Android.

Come l'approccio di Google, Apple ha dichiarato che le didascalie saranno generate sui dispositivi dell'utente, mantenendo le sue informazioni private. Ma l'azienda non ha ancora spiegato come attivare le Live Captions.

Dove si possono usare le Live Captions di Apple?

Le Live Captions di Apple saranno supportate nelle chiamate FaceTime, nelle app di videoconferenza (con attribuzione automatica per identificare l'oratore) e nei video in streaming. La funzione funzionerà anche durante le conversazioni di persona.

Quali lingue supporta Apple Live Captions?

Apple Live Captions trascrive qualsiasi contenuto audio in inglese su iPhone, iPad e Mac.

Quando saranno disponibili le Live Captions di Apple?

Apple ha dichiarato che annuncerà una beta di Live Captions nel corso del 2022. La beta sarà lanciata negli Stati Uniti e in Canada per iPhone 11 e successivi, per i modelli di iPad con CPU A12 Bionic e successivi e per i modelli di Mac con CPU Apple Silicon. Nel corso dell'anno arriverà anche un aggiornamento del software con ulteriori funzioni di accessibilità.

Una di queste nuove funzioni è il Door Detection. Questa funzione aiuterà gli utenti di iPhone o iPad non vedenti o ipovedenti a trovare le porte. Descrive anche se la porta è chiusa e se può essere aperta spingendo, tirando o girando la maniglia. Poiché utilizza il lidar e l'apprendimento automatico, Door Detection sarà disponibile solo sui modelli iPhone Pro e iPad Pro.

Paramount+, Steam Deck e la ricarica dei veicoli elettrici - Pocket-lint podcast ep. 159

Apple sta anche ampliando i controlli di riconoscimento dei gesti Assistive Touch aggiunti lo scorso anno, con le Azioni rapide su Apple Watch. L'Apple Watch sarà in grado di riconoscere un doppio pizzico per terminare una chiamata, chiudere le notifiche, scattare una foto, mettere in pausa o riprodurre contenuti multimediali o avviare un allenamento. Apple è anche in grado di notificare all'iPhone lo spegnimento di un campanello o di un elettrodomestico.

Scritto da Maggie Tillman. Modifica di Britta O'Boyle.