Apples Smart HDR smager meget af Google Pixel-kamera
Apple præsenterede et nyt kamerasystem i de nye iPhone XS og XS Max. Man kunne tro, at det hele handlede om hardware, men den største nyhed er faktisk på softwareområdet og handler om computerberegnet fotografering. Det er noget, som Google også har brugt til at konstruere det fantastiske kamera i Google Pixel 2.
Se også: Anmeldelse af iPhone X
Smart HDR giver lynhurtigt kamera
Den nye Smart HDR-funktion i de nye iPhones har to funktioner, der er meget Pixel-agtige. Den ene er, at der altid er fire billeder som buffer, når kameraet er åbent, hvilket betyder, at der ikke er nogen som helt forsinkelse i det splitsekund, man trykker på udløseren.
Den anden er en smart kombination og sammensmeltning af flere billeder i ét billede, der er eksponeret med forskellige værdier. Systemet tager det bedste fra hvert billede og sætter det sammen til det bedst mulige billede. Her tager Google en masse undereksponerede billeder og sætter dem sammen. Det er altså ikke fuldstændig det samme, men meget ens.
Se også: Priser på iPhone Xr
Kan også justere sløringsgraden efter billedet er taget
Apple har dog også en ny kamera-funktion, som Pixel ikke har, nemlig justering af dybden i billedet, efter at det er taget. Her kan man med en justeringsbar selv vælge bagefter, så man kan isolere motivet i forgrunden ved at sløre baggrunden, eller få alt i billedet i fokus.
Apple sagde ved lanceringen af iPhone XS og XS Max, at denne teknik var revolutionerende for kameramarkedet i det hele taget, men det var en mild overdrivelse for at sige det pænt. Samsung har haft sådan en funktion i deres kameraer siden Galaxy Note 8 sidste år og Huawei og Sony har det også i nogle af deres mobiler, så på den måde kan man sige, at Apple lige nu prøver at indhente konkurrenterne.
Se også: Nyheder om Apple