Bloomberg meldde vanochtend dat Apple werkt aan een andere 3D-sensor aan de achterkant dan de TrueDepth-camera die de augmented reality-functies en dieptemapping zou verbeteren.
De TrueDepth-camera bouwt een driedimensionaal gaas van het gezicht van een gebruiker door er een patroon van 30.000 infraroodstippen op te projecteren. Gebruikmakend van een benadering met gestructureerd licht, meet het systeem vervolgens de vervorming van elke stip om een 3D-beeld te bouwen voor authenticatie.
Van de geplande naar achteren gerichte sensor voor 2019 iPhones wordt gezegd dat deze profiteert van een techniek die bekend staat als vluchttijd, die de tijd berekent die het duurt voordat een infraroodlichtstraal van omringende objecten terugkaatst om een driedimensionaal beeld van de omgeving.
"Van het bedrijf wordt verwacht dat het het TrueDepth-systeem behoudt, zodat toekomstige iPhones zowel voor als achter gerichte 3D-detectiemogelijkheden hebben", voegde het rapport toe.
Een achtersensor zou meer geavanceerde augmented reality-apps, nauwkeurige dieptemapping en betrouwbaardere tracking mogelijk maken. ARKit combineert momenteel onbewerkte camerafeed en bewegingsgegevens van sensoren aan boord om vlakke oppervlakken te detecteren en virtuele objecten te volgen die op de echte wereld zijn gelegd, maar het worstelt met verticale vlakken zoals muren of ramen.
Als een digitale tijger bijvoorbeeld achter een echte stoel loopt, wordt de stoel nog steeds achter het dier weergegeven, wat de illusie vernietigt. Een achterste 3D-sensor zou dat verhelpen.
"Terwijl de gestructureerde lichtbenadering vereist dat lasers zeer precies worden gepositioneerd, vertrouwt de time-of-flight-technologie in plaats daarvan op een geavanceerdere beeldsensor," schreven auteurs Alex Webb en Yuji Nakamura. "Dat kan time-of-flight-systemen gemakkelijker te assembleren in hoog volume."
Naar verluidt begonnen Apple gesprekken met een paar leveranciers die de nieuwe sensor zouden bouwen, waaronder Infineon, Sony, STMicroelectronics en Panasonic. Interessant is dat Google met Infineon heeft gewerkt aan dieptemapping als onderdeel van zijn Project Tango dat in 2014 werd onthuld.
Moeten toekomstige iPhones zowel voor als achter gerichte 3D-detectiemogelijkheden hebben?
Geluid uit in de reacties!