Pocket-lint stöds av sina läsare. När du köper via länkar på vår webbplats kan vi tjäna en affiliate provision. Läs mer

Denna sida har översatts med AI och maskininlärning.

(Pocket-lint) - Show and Tell, är en Alexa-funktion som är utformad för att hjälpa blinda och synskadade människor och den har just lanserats i Storbritannien. Den använder Echo Shows kamera för att identifiera vanliga hushållsartiklar.

Du kan bara säga till din Echo Show "Alexa, vad håller jag på?" eller "Alexa, vad finns det i min hand?" att börja. Hela idén är att det hjälper till att identifiera föremål som är svåra att urskilja genom beröring, till exempel konserverad eller boxad mat. Funktionen är en del av den ständigt utvecklande Alexa Accessibility Hub .

Amazon utvecklade ursprungligen funktionen med Vista Center för blinda och synskadade i Kalifornien. För att komma igång håller du objektet cirka 30 cm från kameran och ger kommandot. Alexa kommer att uppmana dig att vända artikeln för att visa alla sidor på förpackningen.

Robin Spinks, senior innovationschef vid Royal National Institute of Blind People (RNIB), kommenterar den nya funktionen: "Datorsyn och artificiell intelligens är spelbytare inom teknik som i allt högre grad används för att hjälpa blinda och synskadade människor identifiera vardagliga produkter. Amazons Show and Tell använder dessa funktioner med stor effekt, vilket hjälper blinda och synskadade att snabbt identifiera objekt enkelt.

"Till exempel, med hjälp av Show and Tell i mitt kök har jag gjort det möjligt att enkelt och oberoende skilja mellan burkar, burkar och paket i mina skåp."

Show and Tell var tidigare tillgängligt i USA. Alla Echo Show-versioner stöds.

Skriva av Dan Grabham.