Google Maps og Lens forbedres med nye AI-funktioner
Et par dage efter præsentationen af Bard, konkurrenten til ChatGPT, introducerer Google nogle nye AI-funktioner i Lens og til Maps.
Kunstig intelligens (AI) er mere end nogensinde før i centrum hos teknologigiganterne. Google er ingen undtagelse fra reglen og har netop i en pressemeddelelse præsenteret sine seneste tilføjelser til Google Lens og Google Maps.
Og det er ikke overraskende, at AI er fuldt ud involveret. Uanset om det er for at lette søgninger, give en medrivende visning eller give en augmented reality-oplevelse.
Se også: Hvad er kunstig intelligens?
Søgning på din skærm med Lens
Google Lens giver dig mulighed for at identificere objekter på et billede, og teknologien har allerede vist sig at være velegnet. Siden november 2022 er Lens endda tilgængelig direkte på Google Søg.
Ifølge Google bliver Lens nu brugt mere end 10 milliarder gange om måneden. Men giganten vil stadig have mere og forbereder sig på at indføre en ny mulighed. Android-smartphone-brugere vil snart kunne bruge Lens til at “søge på deres skærm”.
Det betyder i praksis, at det inden for få måneder vil være muligt at søge i de billeder og videoer, der vises på din skærm. På nettet og i applikationer, herunder e-mail. Hvis en af dine kontakter for eksempel sender dig et billede af ham eller hende på en rejse til en ukendt by, kan du interagere med det, du ser.
Vælg et vartegn, for eksempel en bygning, og så klarer Lens resten.
Se også: Teleselskabet med smart eSIM
Bedre multisearch
Samtidig glemmer Google ikke sin funktion Multisearch, som gør det muligt at tilføje tekst til billedet for at opnå større præcision i søgningerne. I dette tilfælde vil brugerne snart kunne tilføje ordene “nær mig” til et foto af for eksempel et møbel. Lens vil derefter give dig en liste over steder, der sælger de pågældende møbler.
Funktionen er allerede tilgængelig i USA og vil blive vist i Europa i de kommende måneder.
Se også: De mest populære telefoner
Flere praktiske oplysninger i Google Maps
Google Kort optimeres også med AI-forbedringer. Google bruger NeRF-teknologi og sammensmelter flere milliarder Street View-billeder med luftfotos for at skabe en bedre kortoplevelse. Det skaber en digital model af verden og lægger forskellige nyttige oplysninger ovenpå. Det gælder blandt andet vejret eller antallet af mennesker på et sted.
I øjeblikket fungerer dette i en håndfuld byer som London og New York. Andre vil slutte sig til dem i de kommende måneder, og men det er endnu uvist, hvornår det bliver danske byers tur til at få glæde af de nye funktioner.
Endelig er Google netop begyndt at udrulle sin Live View-funktion, som anvender augmented reality. Live View kombinerer ganske enkelt kunstig intelligens med augmented reality for at gøre det lettere at navigere i et ukendt miljø.
Brugeren skal blot holde sin telefon op for at finde rundt, og skærmen viser nyttige oplysninger om restauranter, taxaholdepladser eller en hæveautomat. Det er dog også en funktion, der begynder at rulle ud i det små. Den bliver dog indført i lidt over 1.000 lufthavne i de kommende måneder.
Se også: Nyheder om Googles tjenester