iPhone 11s Deep Fusion klar i public beta version
For et par uger siden kom iOS 13, og siden har Apple udsendt den ene opdatering efter den anden. Først var der en del fejl, der skulle ordnes, så det måtte de få gjort i en fart. Det betyder, at vi er nået til version 13.2 af iOS, og med den kom den længe ventede Deep Fusion-funktion til kameraet i iPhone 11-modellerne. Med den kan iPhone 11-brugere få utroligt skarpe og lækre billeder i omgivelser, der måske ikke byder på de bedste lysforhold.
iPhone 11 Deep Fusion klar for alle
Funktionen blev præsenteret samtidig med iPhone 11-telefonerne i sidste måned, hvor Phil Schiller talte varmt for den. Den benytter den Neural Engine, der er i A13 Bionic-processoren i iPhone 11-modellerne og er beslægtet med det, Phil Schiller kaldte ”computational photography mad science”.
Kort fortalt kan Deep Fusion næsten gøre det samme i omgivelser med halvgodt lys, som Night mode kan i dårlige lysforhold. Deep Fusion er dog ikke en indstilling, man kan slå til og fra, men i stedet en funktion, der kommer ind og hjælper til, når det er nødvendigt.
Se også: Find bedste kameramobil
Deep Fusion giver billeder et fint løft
Nu er den som sagt live, efter at iOS 13.2 er rullet ud, og de første eksempler på, hvad funktionen kan, er ved at dukke op. Det ser faktisk imponerende ud. En Tyler Stalman på Twitter har postet billeder på Twitter, der sammenligner en iPhone XR med Smart HDR og en iPhone 11 med Deep Fusion. Sammenligningen viser os ganske vist ikke, hvad iPhone 11 kunne uden Deep Fusion, men man kan se forskellen på billederne fra sidste års modeller til dette års modeller og overveje om det er nok til at ville købe en ny telefon.
Ifølge Apple selv benytter Deep Fusion avanceret machine learning til at bearbejde billederne pixel for pixel, optimere tekstur, detaljer og støj i alle dele af billedet. Ser man på eksempelbillederne, lader den beskrivelse til at passe ganske fint.
Se også: Nyheder om Deep Fusion