Hoe Apple's gezichtsdetectie op het apparaat werkt

Apple heeft vandaag een nieuw bericht gepost op zijn Machine Learning Journal-blog dat in de zomer is gelanceerd.

Met de titel 'Een diep neuraal netwerk op het apparaat voor gezichtsdetectie', gaat de nieuwste blogpost tot het uiterste om details van resource-intensieve processen voor het herkennen van gezichten in uw foto's te detailleren door gebruik te maken van de kracht van de op maat gemaakte CPU's en GPU's van Apple..

Apple erkent dat zijn sterke toewijding aan gebruikersprivacy voorkomt dat het de kracht van de cloud gebruikt voor computervisieberekeningen. Bovendien wordt elke foto en video die naar iCloud-fotobibliotheek wordt verzonden, op uw apparaat gecodeerd voordat ze naar iCloud worden verzonden en kunnen alleen worden gedecodeerd door apparaten die zijn geregistreerd bij het iCloud-account.

Enkele uitdagingen waarmee ze te maken kregen om deep learning-algoritmen op iPhone te laten werken:

De diepgaande leermodellen moeten worden verzonden als onderdeel van het besturingssysteem en nemen waardevolle NAND-opslagruimte in beslag. Ze moeten ook in RAM worden geladen en vereisen aanzienlijke computertijd op de GPU en / of CPU. In tegenstelling tot cloudservices, waarvan de bronnen uitsluitend kunnen worden gebruikt voor een visieprobleem, moet de berekening op het apparaat plaatsvinden terwijl deze systeembronnen worden gedeeld met andere actieve toepassingen.

Het belangrijkste is dat de berekening efficiënt genoeg moet zijn om een ​​grote fotobibliotheek in een redelijk korte tijd te verwerken, maar zonder aanzienlijk stroomverbruik of thermische toename.

TIP: Leer uw iPhone of iPad de gezichten van mensen te herkennen

Om deze uitdagingen te overwinnen, gebruikt Apple BNNS en Metal om de kracht van zijn in-house ontworpen GPU's en CPU's die in iOS-apparaten zijn ingebouwd te ontgrendelen en volledig te benutten. Je kunt deze gezichtsdetectie op het apparaat daadwerkelijk voelen aan het werk na een upgrade naar een belangrijke nieuwe iOS-versie.

Dit vraagt ​​iOS meestal om uw hele fotobibliotheek opnieuw te scannen en het gezichtsherkenningsalgoritme op alle foto's helemaal opnieuw uit te voeren, wat ertoe kan leiden dat het apparaat oververhit raakt of langzaam wordt totdat Photos klaar is met het scannen van uw bibliotheek.

Apple begon diep leren te gebruiken voor gezichtsherkenning in iOS 10.

Met de release van het nieuwe Vision-framework in iOS 11 kunnen ontwikkelaars deze technologie en vele andere computer vision-algoritmen nu in hun apps gebruiken.

Apple merkt op dat het voor "belangrijke uitdagingen" stond bij het ontwikkelen van het Vision-framework om de privacy van gebruikers te behouden en het framework efficiënt op het apparaat te laten werken.