Pixel-telefoner får Google Lens i løbet af de næste uger

Google Lens kan bruges til at hente info op al mellem himmel og jord ved at pege mobilen mod en ting - den er snart klar til de første telefoner.

Pixel-telefoner får Google Lens i løbet af de næste uger

Googles AI-assistent, Assistant, skal have et nyt redskab – Lens. Det kommer til Pixel og Pixel 2-telefonerne i løbet af de kommende uger som en del af en opdatering af Assistant. Lens hørte vi om tilbage i maj måned, hvor Google havde deres I/O udvikler konference.

Google Lens giver realtids info om ting og sager

Det er et computer vision-system, som du kan bruge til at pege på et hvilket som helst objekt og få information om det i realtime. Lens gør nemlig, at Assistant kan genkende genstande fra den virkelige verden.

I sidste måned havde Lens debut som en del af Google Photos i Pixel 2, og nu skal systemet altså komme som en del af Google Assistant. De første lande, Lens bliver rullet ud i, bliver USA, Storbritannien, Australien, Canada, Indien og Singapore.

Se også: Bedste tilbud på Google Pixel

Kun simple ting

Det er dog ikke alle ting i dine omgivelser, Lens vil kunne genkende fra starten. Til at begynde med vil der mest være tale om simple genstande. Blandt andet vil systemet kunne genkende tekst, hvilket gør det muligt at aflæse og gemme information fra visitkort, webadresser fra en plakat eller lignende.

Lidt mere avanceret vil det være muligt at ringe op til et nummer, der er skrevet et sted eller åbne Google Maps og finde rutebeskrivelse fra en adresse. Du kan også få Lens til at genkende kendte bygninger og den slags og finde information om stedet på nettet eller finde information om en film, bog eller andet i den stil ved at rette kameraet mod en plakat, forside og så videre.

Du kan også bruge Lens til at læse QR-koder, og efterhånden, som systemet lærer mere og mere, vil du også kunne bruge det til flere ting.

Se også: Nyheder om Google