Pocket-lint stöds av sina läsare. När du köper via länkar på vår webbplats kan vi tjäna en affiliate provision. Läs mer

Denna sida har översatts med AI och maskininlärning.

(Pocket-lint) - Den inledande keynoten på Google I/O 2022 gav oss ett antal stora tillkännagivanden, men det var det avslutande tease som fick många att bli upphetsade - en prototyp av AR-glasögon för liveöversättning.

Tanken bakom glasögonen är att du kan bära dem och dra nytta av Googles översättning. Vi har alla upplevt Google Translate, men Google har ett uppdrag att göra den levande, omedelbar - och kunna driva samtal mellan människor.

I demonstrationen visades prototypen av glasögon som kan använda AR för att lägga till undertexter i ditt synfält, så att du kan läsa när någon talar till dig - så att du omedelbart vet vad de säger, oavsett vilket språk de talar.

"Ungefär som undertexter för hela världen", säger Max Spear, produktchef, i introduktionsvideon.

Exemplet var en mor och ett barn, där mamman talar mandarin och barnet engelska - och genast är språkbarriären borta, de kan kommunicera sömlöst.

Detta bygger på det arbete som Google har lagt ner på liveöversättning och transkription, så att skriven text kan komma från talat språk, i stället för att bara översätta skrivet språk.

De möjligheter som en sådan produkt erbjuder gynnar inte bara dem som talar olika språk, utan de kan också vara till hjälp för döva och hörselskadade, och även här används tekniken för att undanröja ett stort hinder.

Tidigare har människor hånat AR-glasögon. Mottagandet har varit ganska dåligt, med oro för integritet och frågor om behovet av en konstant ström av information - men med ett användningsområde som liveöversättning kan vi alla se de omedelbara fördelarna som en sådan enhet skulle medföra.

Som Google säger är det här bara en prototyp, men vi hoppas att detta är en uppsättning AR-glasögon som kommer ut i den verkliga världen.

Tryck på play i videon ovan för att se dem i aktion.

Skriva av Chris Hall.