Diese Seite wurde mit KI und maschinellem Lernen übersetzt.

(Pocket-lint) - Show and Tell ist eine Alexa-Funktion, die blinden und sehbehinderten Menschen helfen soll. Sie wurde gerade in Großbritannien eingeführt. Es verwendet die Kamera der Echo Show, um gängige Haushaltslebensmittel zu identifizieren.

Sie können einfach zu Ihrer Echo-Show sagen: "Alexa, was halte ich?" oder "Alexa, was ist in meiner Hand?" anfangen. Die ganze Idee ist, dass es dabei hilft, Gegenstände zu identifizieren, die durch Berührung schwer zu unterscheiden sind, wie Konserven oder verpackte Lebensmittel. Die Funktion ist Teil des sich ständig weiterentwickelnden Alexa Accessibility Hub .

Amazon hat die Funktion ursprünglich mit dem Vista Center für Blinde und Sehbehinderte in Kalifornien entwickelt. Um loszulegen, halten Sie den Gegenstand etwa 30 cm von der Kamera entfernt und geben den Befehl ein. Alexa fordert Sie auf, den Artikel umzudrehen, um alle Seiten der Verpackung anzuzeigen.

Robin Spinks, Senior Innovation Manager am Royal National Institute of Blind People (RNIB), kommentiert die neue Funktion wie folgt: "Computer Vision und künstliche Intelligenz sind wegweisende Technologien, die zunehmend dazu dienen, blinden und sehbehinderten Menschen zu helfen Identifizieren Sie alltägliche Produkte. Amazon Show and Tell nutzt diese Funktionen mit großer Wirkung und hilft blinden und sehbehinderten Menschen, Gegenstände schnell und einfach zu identifizieren.

"Durch die Verwendung von Show and Tell in meiner Küche konnte ich beispielsweise einfach und unabhängig zwischen den Gläsern, Dosen und Päckchen in meinen Schränken unterscheiden."

Show and Tell war zuvor in den USA erhältlich. Alle Echo Show-Versionen werden unterstützt.

Schreiben von Dan Grabham.