Een paar knutselontwikkelaars hebben de gezichtsgegevens van het TrueDepth-camerasysteem van de iPhone X gebruikt om 3D-modellen van hun gezicht te maken. Men was zelfs in staat om zijn gezicht 3D te printen, hoewel met twijfelachtige resultaten.
In een korte video kon kunstenaar Elisha Hung, met behulp van visuele effecten, de verzamelde gegevens van de TrueDepth-camera gebruiken om een 3D-zwevende kop te creëren die zijn bewegingen kon nabootsen. Hij gebruikte de camera van de iPhone X, gebruikte vervolgens ARKit en Xcode om die gegevens op te halen en later om te zetten in volledige 3D-weergave.
Hoewel dat er eigenlijk best goed uitziet, kost het de inspanning van een kunstenaar met visuele effecten om dat resultaat te bereiken. De werkelijke beelden verzameld door de camera van de iPhone zijn veel minder nauwkeurig.
Het verzamelt niet genoeg punten om een dergelijk realistisch model te maken, dus het vereist veel effect om de gegevens glad te strijken tot iets dat meer op een gezicht lijkt. Brad Dwyer, oprichter van gamebedrijf Hatchlings, liet zien hoe een echt frame eruit ziet zoals verzameld door de TrueDepth-camera.
Hier is nog een scan. Een beetje opgeruimd. Waarschijnlijk een betere weergave van wat het "ziet"
Ik merk op dat dit een frame is van de #TrueDepth-camera. Je kunt waarschijnlijk meerdere frames samplen om een betere dieptekaart te maken. pic.twitter.com/yweJ7hBJ1U
- Brad Dwyer (@braddwyer) 15 november 2017
In deze vorm is het een stuk blockier.
Toch hebben ze laten zien welke indrukwekkende prestaties kunnen worden bereikt met de nieuwste technologie die is ingebouwd in de telefoons van Apple. Omdat ontwikkelaars van deze API's kunnen profiteren, is het interessant om te zien wat ontwikkelaars hiermee in de toekomst doen.