Apple test Deep Fusion-camerafunctie in iPhone 11 en iPhone 11 Pro in iOS 13 ontwikkelaar beta

Apple heeft iOS 13 in een recordtempo bijgewerkt, deels om nieuwe functies toe te voegen, maar vooral om bugs te repareren.

Maar dat betekent niet dat extra functies nog niet aan de horizon liggen. Bijvoorbeeld de Deep Fusion-camerafunctie, die Apple eerder dit jaar aankondigde tijdens zijn evenement "alleen door innovatie" naast de iPhone 11 en iPhone 11 Pro. Apple heeft altijd gezegd dat de functie op een later tijdstip zou worden gelanceerd, met een volgende software-update voor iOS 13, en nu is de functie in bèta.

De rand heeft het rapport vandaag, waarin wordt uiteengezet hoe Apple werkt aan de aanstaande openbare lancering van Deep Fusion en hoe de functie de toch al indrukwekkende camera's in Apple's nieuwste vlaggenschip-smartphones nog beter zal maken.

U kunt het resultaat van een foto gemaakt met Deep Fusion zien in de afbeelding bovenaan dit artikel.

Deep Fusion is een belangrijke functie voor afbeeldingen met "middelmatig tot weinig licht". Het is ook een functie die volledig op de achtergrond draait en werkt aan het optimaliseren en verbeteren van afbeeldingen terwijl de iPhone 11/11 Pro-eigenaar onderweg foto's maakt.

Het rapport geeft een mooi overzicht van hoe het op de achtergrond zou moeten werken:

  1. Tegen de tijd dat u op de ontspanknop drukt, heeft de camera al drie frames met een hoge sluitertijd gepakt om beweging in de opname te bevriezen. Wanneer u op de ontspanknop drukt, worden er drie extra opnamen gemaakt en vervolgens één langere belichtingstijd om details vast te leggen.
  2. Die drie normale opnamen en opnamen met lange belichtingstijd worden samengevoegd tot wat Apple een "synthetische lange" noemt - dit is een groot verschil met Smart HDR.
  3. Deep Fusion kiest de afbeelding met de korte belichting met de meeste details en voegt deze samen met de synthetische lange belichting - in tegenstelling tot Smart HDR voegt Deep Fusion alleen deze twee frames samen, niet meer. Deze twee afbeeldingen worden ook anders voor ruis verwerkt dan Smart HDR, op een manier die beter is voor Deep Fusion.
  4. De afbeeldingen doorlopen vier detailverwerkingsstappen, pixel voor pixel, elk afgestemd op toenemende hoeveelheden detail - de lucht en de wanden bevinden zich in de laagste band, terwijl huid, haar, stoffen, enzovoort het hoogste niveau zijn. Dit genereert een reeks wegingen voor het samenvoegen van de twee afbeeldingen - details van de ene en toon, kleur en helderheid van de andere.
  5. De definitieve afbeelding wordt gegenereerd.

Volgens het rapport zal de telelens meestal Deep Fusion gebruiken, waarbij de Smart HDR-functie alleen een opname overneemt wanneer er zeer heldere scènes zijn. De standaard groothoeklens vertrouwt ondertussen vooral op de Smart HDR-functie voor heldere tot middelzware scènes, en Deep Fusion speelt in op scènes met middelmatig tot weinig licht. De ultrabrede lens zal nooit Deep Fusion of Night Mode gebruiken, omdat deze alleen de Smart HDR-functie ondersteunt, en geen van de andere functies.

De nachtmodus wordt altijd ingeschakeld en is de primaire functie in een scenario met weinig licht.

Zoals opgemerkt in het rapport, test Apple de functie momenteel uit in een bèta van iOS 13. Die bèta is momenteel echter niet beschikbaar voor ontwikkelaars, noch openbare bètatesters. Apple zal waarschijnlijk die eerste bèta, met Deep Fusion, ergens binnenkort zaaien, mogelijk zelfs later vandaag als iOS 13.2.

Kijk uit naar de komst van Deep Fusion?