Diese Seite wurde mit KI und maschinellem Lernen übersetzt.

(Pocket-lint) - Google kündigte Project Soli im Jahr 2015 während einer Sitzung auf seiner I / O-Entwicklerkonferenz an. Seitdem hat die ATAP-Abteilung (Advanced Technology and Projects) von Google die Technologie entwickelt, die in Wearables, Telefonen, Computern, Autos und IoT-Geräten verwendet werden kann.

Dies ist alles, was Sie über den Soli-Chip von Google wissen müssen, einschließlich dessen, was er ist, wie er funktioniert und was er in den neuen Pixel 4- und Pixel 4 XL-Handys tut.

Was ist Googles Soli-Chip?

Googles Soli ist ein speziell entwickelter Chip, mit dem Sie Ihre Bewegung im mikroskopischen Maßstab verfolgen können. Es verwendet Miniaturradar zur Echtzeit-Bewegungsverfolgung der menschlichen Hand. Es ist in der Lage, Bewegungen im Submillimeterbereich bei hohen Geschwindigkeiten mit großer Genauigkeit zu verfolgen.

Google ATAP

Der Soli-Chip misst nur 8 mm x 10 mm und integriert den Sensor und das Antennenarray in einem einzigen Gerät, sodass er auch in kleinsten Wearables verwendet werden kann . Es hat keine beweglichen Teile, verbraucht sehr wenig Energie, wird nicht von Lichtverhältnissen beeinflusst und arbeitet mit den meisten Materialien, was es zu einem ziemlich aufregenden Stück Technologie macht.

Zusammen mit dem Chip entwickelt Google ATAP eine Sprache für die Interaktion mit Geräten mithilfe von Gesten. Mit Soli-Chips ausgestattete Geräte können dann einen universellen Satz von Gesten verwenden. Google nennt diese Gesten des virtuellen Tools Dinge wie das Drücken einer unsichtbaren Taste zwischen Daumen und Zeigefinger oder das Drehen eines Zifferblatts durch Reiben von Daumen und Zeigefinger.

Die Idee ist, dass sich diese Gesten dank des Feedbacks von Fingern, die sich berühren, physisch und reaktionsschnell anfühlen, obwohl die Geste selbst virtuell ist.

Wie funktioniert der Soli-Chip von Google?

Bereit für etwas Wissenschaft? Lass es uns hoffen.

Der Google Soli-Chip verwendet Radar und sendet laut Google ATAP elektromagnetische Wellen mit Objekten im Strahl, die Informationen an die Antenne zurück reflektieren . Aus dem reflektierten Signal gesammelte Informationen - z. B. Zeitverzögerung oder Frequenzänderungen - geben dem Gerät Informationen über die Interaktion.

Soli spürt "subtile Änderungen des empfangenen Signals im Laufe der Zeit. Durch die Verarbeitung dieser ... kann Soli komplexe Fingerbewegungen und Handformen innerhalb seines Feldes unterscheiden."

Google ATAP

Gestensteuerungen werden dank verschiedener Interpretationsmöglichkeiten der Informationen interpretiert, darunter Radardaten, maschinelles Lernen, wahrscheinliche Gesten und vordefinierte Interaktionen.

Wie wird Soli die Art und Weise ändern, wie wir Geräte verwenden?

Soli hat das Potenzial, die Art und Weise zu ändern, wie wir alle Geräte verwenden - von Telefonen über Wearables bis hin zu allem dazwischen. Wearables sind wahrscheinlich der naheliegendste und natürlichste Ort, um die Technologie anzuwenden, da diese Gerätetypen normalerweise so kleine Displays haben (und es offensichtlich einen Bedarf an umfangreicheren, funktionaleren Eingabemöglichkeiten gibt).

Google ATAP

Die Apple Watch verfügt beispielsweise über die physische digitale Krone, die Benutzern zusätzliche Möglichkeiten zur Navigation in der WatchOS-Benutzeroberfläche bietet . Eine Smartwatch mit dem Soli-Chip benötigt jedoch keine digitale Krone, da Sie mit den Fingern winken können, um Dinge zu erledigen, z. B. das Herunterdrehen eines Lautstärkereglers nachahmen, um die Lautstärke zu verringern, oder das Drücken einer Taste zum Drehen nachahmen etwas an oder aus.

Es ist jedoch das Google Pixel 4-Smartphone , das als erstes Gerät den Soli-Chip enthält. Es ermöglicht Gestensteuerungen, z. B. Benutzer, die einfach mit den Händen winken, um Songs zu überspringen, Alarme zu deaktivieren und Anrufe zum Schweigen zu bringen. Diese Funktionen sollen sich im Laufe der Zeit erweitern. Google sagt, dass dies nur der Anfang dessen ist, was es bieten wird.

Was bietet Motion Sense für das neue Pixel 4?

Motion Sense soll Ihnen helfen, Ihr Telefon zu verwenden, ohne es berühren zu müssen. Während Google seit einigen Jahren Google Assistant für Sprachinteraktionen anbietet, bietet Ihnen Motion Sense mit dem Soli-Chip eine Reihe von Interaktionen, die Sie mit Ihrer Hand steuern können.

Google kategorisiert diese grundsätzlich als Präsenz, Reichweite und Gesten. Motion Sense kann beispielsweise erkennen, wann sich Ihre Hand dem Telefon nähert, um es aufzuwecken. Dies wird verwendet, um die Gesichtsentriegelungssensoren auszulösen. Dies bedeutet, dass Sie sie schneller entsperren können als Systeme, bei denen Sie beispielsweise das Telefon abheben müssen, damit es funktioniert.

Das gegebene Beispiel wischt oft durch Musik, aber es gibt auch das Abbrechen von Timern und Alarmen oder das Stummschalten des Klingeltons. Dies sind momentan kleine Dinge, die jedoch nützlich sein können, wenn Sie beispielsweise fahren oder wenn sich Ihr Telefon auf einem Nachttisch befindet. Wieder ist mehr für Soli in der Pipeline - aber diese Hardware hat zu einer größeren Stirn bei den Pixel-Geräten geführt. Die Frage ist, ob die Funktionalität den Wunsch nach einem verfeinerten Gerätedesign überwiegt.

Möchten Sie Soli in Aktion sehen?

Das folgende Video zeigt nicht nur, wie der Soli-Chip funktioniert, wenn er auf eine Vielzahl von Geräten und Szenarien angewendet wird, sondern es wird auch detaillierter erläutert, warum Google die Technologie zum ersten Mal entwickelt hat.

Ist Soli bereit für Entwickler?

Google ATAP sucht nach Entwicklern, die Soli-Anwendungen entwickeln, testen und erstellen können. Derzeit nutzt nur das Pixel 4 den Soli-Chip.

Entwickler können sich bei der Mailingliste anmelden, um die neuesten Updates zur Technologie zu erhalten.

Schreiben von Britta O'Boyle.