Diese Seite wurde mit KI und maschinellem Lernen übersetzt.

(Pocket-lint) - Google kündigte Project Soli im Jahr 2015 während einer Sitzung auf seiner I / O-Entwicklerkonferenz an. Seitdem hat die ATAP-Abteilung (Advanced Technology and Projects) von Google die Technologie entwickelt, die in Wearables, Telefonen, Computern, Autos und IoT-Geräten verwendet werden kann.

Dies ist alles, was Sie über den Soli-Chip von Google wissen müssen, einschließlich dessen, was er ist, wie er funktioniert und was er in den Handys Pixel 4 und Pixel 4 XL tut.

Was ist Googles Soli-Chip?

Googles Soli ist ein speziell entwickelter Chip, mit dem Sie Ihre Bewegung im mikroskopischen Maßstab verfolgen können. Es verwendet ein Miniaturradar zur Echtzeit-Bewegungsverfolgung der menschlichen Hand. Es ist in der Lage, Bewegungen im Submillimeterbereich bei hohen Geschwindigkeiten mit großer Genauigkeit zu verfolgen.

Google ATAP

Der Soli-Chip misst nur 8 mm x 10 mm und integriert den Sensor und das Antennenarray in einem einzigen Gerät, sodass er auch in kleinsten Wearables verwendet werden kann . Es hat keine beweglichen Teile, verbraucht sehr wenig Energie, wird nicht von Lichtverhältnissen beeinflusst und arbeitet mit den meisten Materialien, was es zu einem ziemlich aufregenden Stück Technologie macht.

Zusammen mit dem Chip entwickelt Google ATAP eine Sprache für die Interaktion mit Geräten mithilfe von Gesten. Mit Soli-Chips ausgestattete Geräte können dann einen universellen Satz von Gesten verwenden. Google ruft diese Gesten des virtuellen Tools auf und beinhaltet beispielsweise das Drücken einer unsichtbaren Taste zwischen Daumen und Zeigefinger oder das Drehen eines Zifferblatts durch Aneinanderreiben von Daumen und Zeigefinger.

Die Idee ist, dass sich diese Gesten dank der Rückmeldung von Fingern, die sich berühren, physisch und reaktionsschnell anfühlen, obwohl die Geste selbst virtuell ist.

Wie funktioniert der Soli-Chip von Google?

Bereit für etwas Wissenschaft? Lass es uns hoffen.

Der Google Soli-Chip verwendet Radar und sendet laut Google ATAP elektromagnetische Wellen mit Objekten innerhalb des Strahls, die Informationen zurück zur Antenne reflektieren . Aus dem reflektierten Signal gesammelte Informationen - z. B. Zeitverzögerung oder Frequenzänderungen - geben dem Gerät Informationen über die Interaktion.

Soli spürt "subtile Änderungen des empfangenen Signals im Laufe der Zeit. Durch die Verarbeitung dieser ... kann Soli komplexe Fingerbewegungen und Handformen innerhalb seines Feldes unterscheiden."

Google ATAP

Gestensteuerungen werden dank einer Reihe verschiedener Interpretationsmöglichkeiten der Informationen erkannt, darunter Radardaten, maschinelles Lernen, wahrscheinliche Gesten und vordefinierte Interaktionen.

Wie wird Soli die Art und Weise ändern, wie wir Geräte verwenden?

Soli hat das Potenzial, die Art und Weise zu ändern, wie wir alle Geräte verwenden - von Telefonen über Wearables bis hin zu allem dazwischen. Wearables sind wahrscheinlich der naheliegendste und natürlichste Ort, um die Technologie anzuwenden, da diese Gerätetypen normalerweise über so kleine Displays verfügen (und es offensichtlich einen Bedarf an umfangreicheren, funktionaleren Eingabemöglichkeiten gibt).

Google ATAP

Die Apple Watch verfügt beispielsweise über die physische Digital Crown, mit der Benutzer zusätzliche Möglichkeiten zur Navigation in der WatchOS-Benutzeroberfläche erhalten . Eine Smartwatch mit dem Soli-Chip benötigt jedoch keine digitale Krone, da Sie mit den Fingern winken können, um beispielsweise die Lautstärke zu verringern, indem Sie einen Lautstärkeregler herunterdrehen, um die Lautstärke zu verringern, oder eine Taste zum Drehen nachahmen etwas an oder aus.

Das Google Pixel 4-Smartphone war jedoch das erste Gerät, das den Soli-Chip enthielt. Es ermöglichte Gestensteuerungen, z. B. Benutzer, die einfach mit den Händen winkten, um Songs zu überspringen, Alarme auszuschalten und Telefonanrufe zum Schweigen zu bringen. Diese Funktionen sollen sich im Laufe der Zeit erweitern, wobei Google sagt, dass dies nur der Anfang dessen ist, was es bieten wird, obwohl Google die Technologie in Pixel 5 jetzt scheinbar fallen lässt, was möglicherweise nicht der Fall ist.

Was bietet Motion Sense auf dem Pixel 4?

Motion Sense soll Ihnen helfen, Ihr Telefon zu verwenden, ohne es berühren zu müssen. Während Google seit einigen Jahren Google Assistant für Sprachinteraktionen anbietet, bietet Motion Sense mit dem Soli-Chip eine Reihe von Interaktionen, die Sie mit Ihrer Hand steuern können.

Google kategorisiert diese grundsätzlich als Präsenz, Reichweite und Gesten. Motion Sense kann beispielsweise erkennen, wann sich Ihre Hand dem Telefon nähert, um es aufzuwecken. Dies wird verwendet, um die Gesichtsentriegelungssensoren auszulösen. Dies bedeutet, dass Sie sie schneller entsperren können als Systeme, bei denen Sie beispielsweise das Telefon abheben müssen, damit es funktioniert.

Das angegebene Beispiel wischt häufig durch die Musik, aber es werden auch Timer und Alarme abgebrochen oder der Klingelton stummgeschaltet. Dies sind momentan kleine Dinge, die jedoch nützlich sein können, wenn Sie beispielsweise fahren oder wenn sich Ihr Telefon auf einem Nachttisch befindet. Wieder ist mehr für Soli in der Pipeline - aber diese Hardware hat zu einer größeren Stirn bei den Pixel-Geräten geführt. Die Frage ist, ob die Funktionalität den Wunsch nach einem verfeinerten Gerätedesign überwiegt.

Möchten Sie Soli in Aktion sehen?

Das folgende Video zeigt nicht nur, wie der Soli-Chip funktioniert, wenn er auf eine Vielzahl von Geräten und Szenarien angewendet wird, sondern es wird auch detaillierter erläutert, warum Google die Technologie zum ersten Mal entwickelt hat.

Ist Soli bereit für Entwickler?

Google ATAP sucht nach Entwicklern, die Soli-Anwendungen entwickeln, testen und erstellen können. Derzeit nutzt nur das Pixel 4 den Soli-Chip.

Entwickler können sich bei der Mailingliste anmelden, um die neuesten Updates zur Technologie zu erhalten.

Schreiben von Britta O'Boyle. Bearbeiten von Chris Hall.