Lukk annonse

iPhone 11 og iPhone 11 Pro (Max) har vært i salg den andre uken, men de mangler fortsatt en av de mest interessante funksjonene - Deep Fusion. Ifølge de siste rapportene har Apple imidlertid funksjonen klar og vil snart tilby den i den kommende betaversjonen av iOS 13, mest sannsynlig i iOS 13.2.

Deep Fusion er navnet på det nye bildebehandlingssystemet for iPhone 11 (Pro) fotografering, som fullt ut utnytter egenskapene til A13 Bionic-prosessoren, nærmere bestemt Neural Engine. Ved hjelp av maskinlæring behandles det fangede bildet piksel for piksel, og optimerer dermed teksturer, detaljer og mulig støy i hver del av bildet. Funksjonen vil dermed komme godt med spesielt når du tar bilder inne i bygninger eller i middels belysning. Den aktiveres helt automatisk og brukeren vil ikke kunne deaktivere den – praktisk talt vet han ikke engang at Deep Fusion er aktiv i den gitte situasjonen.

Prosessen med å ta et bilde vil ikke være annerledes med Deep Fusion. Brukeren trykker bare på utløserknappen og venter en kort stund på at bildet skal lages (i likhet med Smart HDR). Selv om hele prosessen bare tar omtrent et sekund, klarer telefonen, eller rettere sagt prosessoren, å utføre en rekke komplekse operasjoner.

Hele prosessen er som følger:

  1. Før du i det hele tatt trykker på kameraets utløserknapp, tas tre bilder i bakgrunnen med kort eksponeringstid.
  2. Deretter, når utløserknappen trykkes ned, tas tre klassiske bilder til i bakgrunnen.
  3. Umiddelbart etter tar telefonen et nytt bilde med lang eksponering for å fange alle detaljene.
  4. En trio med klassiske bilder og et foto med lang eksponering er kombinert til ett bilde, som Apple omtaler som en «syntetisk lang».
  5. Deep Fusion velger enkeltbildet med kort eksponering av beste kvalitet (velger fra de tre som ble tatt før utløseren ble trykket ned).
  6. Deretter kombineres den valgte rammen med den opprettede "syntetiske lange" (to rammer slås dermed sammen).
  7. Sammenslåingen av de to bildene skjer ved hjelp av en fire-trinns prosess. Bildet lages piksel for piksel, detaljer fremheves og A13-brikken får instruksjoner om hvordan akkurat de to bildene skal kombineres.

Selv om prosessen er ganske kompleks og kan virke tidkrevende, tar det totalt sett bare litt lengre tid enn å ta et bilde med Smart HDR. Som et resultat, umiddelbart etter å ha trykket på utløserknappen, får brukeren først vist et klassisk bilde, men det erstattes kort tid etter med et detaljert Deep Fusion-bilde.

Eksempler på Apples Deep Fusion (og Smart HDR) bilder:

Det skal bemerkes at fordelene med Deep Fusion hovedsakelig vil bli brukt av teleobjektivet, men selv når du fotograferer med et klassisk vidobjektiv, vil nyheten komme godt med. Derimot vil det nye ultravide objektivet ikke støtte Deep Fusion i det hele tatt (i tillegg til at det ikke støtter nattfotografering) og vil bruke Smart HDR i stedet.

Den nye iPhone 11 vil dermed tilby tre ulike moduser som aktiveres under ulike forhold. Hvis scenen er for lys, vil telefonen bruke Smart HDR. Deep Fusion aktiveres når du fotograferer innendørs og under moderat dårlige lysforhold. Så snart du tar bilder om kvelden eller om natten i lite lys, aktiveres nattmodus.

iPhone 11 Pro bakkamera FB

kilde: Randen

.