Lorsqu’Apple a dévoilé sa nouvelle gamme d’iPhones le 12 septembre dernier, les dirigeants se sont précipités sur le nouveau  » processeur neuronal  » de deuxième génération de l’appareil, une puce personnalisée destinée uniquement à l’IA.

Mais Apple ne se vantait pas à quel point la nouvelle puce allait améliorer l’assistant virtuel de Siri-Apple qui a obtenu huit secondes de la présentation de 2 heures – ou augmenter la durée de vie de la batterie, comme la société prétend souvent que son apprentissage machine est utilisé pour. La vraie application tueuse pour l’IA sur l’iPhone est la photographie.

L’entreprise basée à Cupertino a lentement fait la transition de ses caméras d’appareils qui prennent une photo à des appareils qui capturent des données pour que l’intelligence artificielle puisse les transformer en une image. C’est ce qu’on appelle la photographie computationnelle numérique, et ce n’est pas unique à Apple – les chercheurs ont pensé à l’appareil photo comme moyen de capturer des données pour l’IA depuis des années. Mais vous en entendrez probablement parler plus souvent (du moins si vous prenez l’habitude de regarder les événements Apple).

C’est ainsi que les téléphones Apple sont capables de manipuler la mise au point d’une image après sa prise, ou de changer l’éclairage en mode portrait. Comme l’a rapporté Quartz il y a deux ans, le traitement d’images comme celui-ci a été au centre des recherches de l’équipe d’IA d’Apple. L’entreprise a également acquis Regaind en 2017, une start-up dans le domaine de la vision par ordinateur, ce qui lui a permis de renforcer ses rangs dans le domaine de la recherche.

Le travail d’IA d’Apple comprend des tâches d’image comme la segmentation, un terme informatique utilisé pour identifier où se trouvent les objets dans une image. Lorsque l’IA d’Apple segmente une image comme un selfie, elle est capable de couper la personne de l’arrière-plan. C’est ainsi que le mode portrait fonctionne pour séparer le sujet de l’arrière-plan (bien qu’il ait eu quelques problèmes au début), ainsi que l’éclairage portrait et le nouvel effet de flou de fond d’Apple.

La segmentation est également la clé de la réalité augmentée, où la technique d’apprentissage machine doit différencier tous les objets d’une vidéo. Le fait de pouvoir distinguer la forme des surfaces planes et des murs permet d’obtenir une impression de profondeur qui est nécessaire pour que l’effet AR semble réaliste.

Apple dit également que l’apprentissage machine est à l’origine de la fonction Smart HDR, qui permet de transformer en une seule image des parties d’images multiples avec le plus de détails possible. Si vous essayiez de prendre une photo d’un ami par une journée ensoleillée, le téléphone prendrait rapidement un tas de photos à différentes expositions – une où il y a des détails sur le visage de votre ami, une où il y a des détails dans les nuages, et une où il y a un détail dans les feuilles des arbres, et ajouter les détails de chacun pour former une image composite. Encore une fois, ce n’est pas unique à Apple : les téléphones Pixel de Google disposent également d’une fonction HDR basée sur l’IA.

Bien sûr, il est difficile d’évaluer la nouveauté de chaque fonction alimentée par l’IA dans le téléphone. Les systèmes d’exploitation ont des tonnes de pièces en mouvement, et quelque chose d’aussi simple que de changer la façon dont une application utilise les composants disponibles dans le téléphone pourrait signifier une augmentation massive de la vitesse – mais la logique nous dit qu’une entreprise qui essaie de faire passer le mot qu’elle est aussi habile en IA que ses concurrents aurait donné une grosse démonstration Siri de plus que 8 secondes sur scène.

Qz.

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.