Esta página ha sido traducida usando inteligencia artificial y aprendizaje automático.

(Pocket-lint) - Show and Tell, es una función de Alexa diseñada para ayudar a las personas ciegas y deficientes visuales y acaba de lanzarse en el Reino Unido. Utiliza la cámara del Echo Show para ayudar a identificar artículos comestibles comunes en el hogar.

Puedes simplemente decirle a tu Echo Show "Alexa, ¿qué estoy sosteniendo?" o "Alexa, ¿qué tengo en la mano?" para comenzar. La idea general es que ayudará a identificar elementos que son difíciles de distinguir al tacto, como alimentos enlatados o en caja. La función es parte del Alexa Accessibility Hub en constante evolución.

Amazon desarrolló originalmente la función con Vista Center for the Blind and Visually Impaired en California. Para comenzar, sostenga el elemento a unos 30 cm de la cámara y dé la orden. Alexa le pedirá que le dé la vuelta al artículo para mostrar todos los lados del empaque.

Al comentar sobre la nueva función, Robin Spinks, gerente senior de innovación del Royal National Institute of Blind People (RNIB), dice: "La visión por computadora y la inteligencia artificial son revolucionarios en la tecnología que se utilizan cada vez más para ayudar a las personas ciegas y deficientes visuales. Identificar productos cotidianos. Show and Tell de Amazon utiliza estas funciones con gran efecto, ayudando a las personas ciegas y deficientes visuales a identificar rápidamente los artículos con facilidad.

"Por ejemplo, usar Show and Tell en mi cocina me ha permitido diferenciar fácil e independientemente entre los frascos, latas y paquetes en mis alacenas".

Show and Tell estaba disponible anteriormente en los EE. UU. Todas las versiones de Echo Show son compatibles.

Escrito por Dan Grabham.