Votre téléphone n’a pas été conçu pour l’apocalypse

Une lecture intéressante et inattendue sur la façon dont les capteurs des caméras voient le monde en lumière et non en couleurs, et comment nous avons construit la technologie autour d’eux pour combler les lacunes en fonction de notre réalité perçue : « Les capteurs des caméras sont daltoniens – ils ne voient que la luminosité, et les ingénieurs ont dû les tromper pour qu’ils reproduisent les couleurs à l’aide d’algorithmes. »

On dirait Mars, ou le désert de Californie du Sud dans Blade Runner 2049, ou les déserts de Dune. Près de 100 incendies ont ravagé l’ouest des États-Unis au cours du mois dernier, dispersant des particules de cendres et de fumée dans l’air et forçant 500 000 personnes à évacuer leur maison rien que dans l’Oregon. Mercredi, les habitants de l’Ouest, déjà victimes d’une pandémie, d’un effondrement économique, d’incendies et d’une qualité de l’air dangereusement mauvaise, se sont réveillés dans un ciel sombre et bronzé qui a failli couper toute la lumière du jour. Au fil de la journée, la fumée s’est épaissie et s’est retirée, faisant paraître la ville rouge à certaines heures, ambrée à d’autres. Les masques pour se protéger du coronavirus ont désormais une double fonction.

Mais alors que les gens essayaient de saisir la scène, ainsi que la confusion et l’horreur qui l’accompagnaient, beaucoup ont remarqué un phénomène étrange : Certaines photographies et vidéos du ciel orange surréaliste semblaient le laver, comme pour effacer le danger. « Je ne les ai pas filtrés », a tweeté la journaliste Sarah Frier, en postant des photos qu’elle a prises du ciel matinal obsédant de San Francisco. « En fait, la couleur de l’iPhone a corrigé le ciel pour le rendre moins effrayant. Imaginez plus d’orange. » Les photos avaient vaguement une teinte de souci, mais pas trop différente d’un lever de soleil brumeux dans une ville sujette au brouillard. Dans certains cas, la scène semblait revenir à un gris neutre, comme si les smartphones qui ont pris les photos étaient engagés dans une conspiration pour faire taire ce dernier cataclysme.

La réalité est à la fois moins et plus déconcertante.

Les images non altérées sont dues à l’une des caractéristiques les plus fondamentales des appareils photo numériques, leur capacité à déduire la couleur d’une image en fonction des conditions d’éclairage dans lesquelles elle est prise.

Comme les personnes qui le regardent, le logiciel ne s’attendait pas à ce que le ciel soit baigné d’orange. Cela nous rappelle que même si les appareils photo sont devenus un moyen de documenter tous les aspects de notre vie, ils ne sont pas des fenêtres sur le monde, mais simplement des machines qui transforment les vues de ce monde en images.

Avant les appareils photo numériques, la pellicule fixait l’aspect d’une photographie. Mais lorsque la photographie numérique a été créée il y a plusieurs décennies, les couleurs ont dû être recréées à partir de zéro. Les capteurs des appareils photo sont daltoniens – ils ne voient que la luminosité, et les ingénieurs ont dû les tromper pour qu’ils reproduisent les couleurs à l’aide d’algorithmes. Un procédé appelé « balance des blancs » a remplacé le ton chimique et coloré du film. La plupart des appareils photo ajustent maintenant la balance des blancs de leur propre chef, en essayant de discerner quels objets d’une photo devraient être blancs en compensant un excès de couleurs chaudes ou froides. Mais la balance des blancs automatique n’est pas très fiable.

Mais pourquoi mes photos de coucher de soleil, ou de lever de soleil ne rendent-elles jamais la réalité ? Si vous avez essayé de photographier sur votre smartphone une scène avec plusieurs types de lumière, comme un coucher de soleil en ville, vous avez probablement vu l’image changer de tons, passant du rouge au bleu, au fur et à mesure que vous la cadrez ou la recadrez. L’appareil a du mal à déterminer quel sujet doit paraître blanc, et quelle exposition (la quantité de lumière à capturer) peut le mieux le représenter.

Sous le ciel rouge sang de San Francisco, la balance des blancs n’a pas de référence par rapport à laquelle elle pourrait être calibrée avec précision. Comme tout était teinté de rouge, le logiciel a supposé que toute la scène était généralement neutre. Les gens se sont sentis confus ou même trahis lorsque les caméras de leurs téléphones ont transformé le ciel de feu en images qui ont délavé l’orange, ou dans certains cas l’ont fait paraître surtout gris, comme un jour de ciel couvert.

Lorsque les gens ont commencé à comprendre ce qui se passait, ils ont téléchargé des applications leur permettant de régler eux-mêmes la balance des blancs. « Voici à quoi ressemble vraiment San Francisco », a tweeté Mme Frier, en plus de versions révisées de ses images virales précédentes. Mais ce n’est pas non plus ce qui se passe réellement. On ne peut jamais « désactiver » la correction des couleurs dans un appareil photo numérique, car son capteur ne voit pas les couleurs au départ. La couleur est toujours construite dans une image, elle n’est jamais simplement reproduite.

Il en va de même pour les appareils photo à pellicule : Les différents types de films et de procédés de développement ont leur propre rendu des couleurs. Le Kodak Portra recherchait des tons de peau équilibrés, le Fuji Velvia visait la vivacité, tandis que le film couleur ordinaire était équilibré pour le ton de la lumière extérieure (les photographes l’appellent la température ; la physique est à blâmer). Cela pouvait donner aux photos d’intérieur un aspect jaunâtre anormal, mais la plupart des gens ne s’en rendaient pas compte. Un cliché était un souvenir, et les couleurs semblaient assez vraies des jours ou des semaines plus tard, lorsque vous le teniez enfin dans vos mains.

Aujourd’hui, certaines caméras et applications permettent à l’utilisateur de choisir un préréglage de la balance des blancs, comme « lumière du jour ». Mais malgré son nom apparemment descriptif, ce réglage n’est en fait qu’un moyen pour l’appareil de choisir une température de couleur spécifique, et non un moyen infaillible de rendre les images de jour plus fidèles. D’autres ont des curseurs qui permettent à l’utilisateur de sélectionner la tonalité désirée, en composant une apparence qui correspond à un idéal souhaité. Ce n’est pas une méthode dupliquée, c’est ce que toutes les photographies ont toujours fait.

L’auteur Robin Sloan, qui vit à Oakland, en Californie, à pris des photos illustrant le phénomène. L’image de gauche, ci-dessous, provient de l’appareil photo iOS. Celle de droite a été prise avec l’application Halide, qui permet de modifier manuellement les paramètres d’exposition, y compris la balance des blancs.

« Je dirais que la réalité est à mi-chemin entre les deux », dit Sloan. Il a également partagé une autre image prise avec un appareil photo Sony réglé sur la balance des blancs « lumière du jour », ce qui a donné à la scène un aspect beaucoup plus étrange qu’en personne. Le contraste élevé de cette image, qui apparaît ci-dessous, fait croire à l’œil que l’orange est plus brillant.

Pour les Californiens qui contemplent leur ciel brûlant, une image ne pourra peut-être jamais capturer la sensation de vie incarnée sous ce ciel. La fumée se serait déplacée de concert avec la dynamique de l’air, par exemple, provoquant le déplacement des couleurs apparentes et la danse en personne. Ce phénomène pourrait être impossible à capturer entièrement dans une image fixe, ou même dans une vidéo. De même, l’étrange claustrophobie d’être entouré d’orange pure ne se traduirait pas sur un écran, tout comme une installation de James Turrell semble moins impressionnante photographiée qu’en personne. Les images qui se propagent sur les médias sociaux sont évocatrices. Mais sont-elles réelles ? Non, et oui.

Il peut être tentant de blâmer les appareils photo pour leurs échecs ou de les défendre. Mais les images et les vidéos n’ont jamais saisi le monde tel qu’il est réellement – elles créent simplement une nouvelle compréhension de ce monde à partir de la lumière qui est émise et réfléchie par les objets.

Les personnes qui pratiquent la photographie comme un métier pensent que leur travail est une collaboration avec des matériaux et des équipements. Ils « font » des images, ils ne les « capturent » pas, comme un artiste qui crée une peinture avec de la toile, des pigments et un médium, ou un chef cuisinier qui crée un repas avec des protéines, des légumes, des graisses et du sel. Mais l’équipement est devenu invisible pour le reste d’entre nous – une fenêtre qui vole une partie du monde et la met à l’intérieur de nos smartphones.

L’ironie est que les logiciels manipulent aujourd’hui plus que jamais les images. Les smartphones d’aujourd’hui traitent d’énormes volumes de données, en plus d’ajuster automatiquement la balance des blancs. Des fonctions telles que le mode « Portrait« , la gamme dynamique élevée (HDR) et la capacité de faible luminosité s’efforcent d’inventer de nouveaux styles d’images. Et puis il y a les filtres – dont le nom même a été emprunté aux instruments optiques utilisés pour corriger les couleurs des films. Ils montrent clairement que les images sont toujours manipulées. Et pourtant, d’une manière ou d’une autre, les filtres ont renforcé l’idée que les images sont porteuses de vérité. Un billet d’Instagram marqué #nofilter fait une réclamation implicite contre l’artifice : C’est ce à quoi ça ressemblait vraiment. Et pourtant, il n’existe pas d’image non filtrée, juste des images filtrées différemment.

Les gens sont devenus plus conscients des risques liés à l’acceptation d’un compte d’ordinateur à sa valeur nominale. Les systèmes de vision par ordinateur peuvent présenter des préjugés raciaux et sexistes, par exemple, des hypothèses qui peuvent produire de graves conséquences lorsqu’elles sont utilisées pour automatiser l’embauche ou le maintien de l’ordre. Les caméras des téléphones n’ont pas réussi à capturer des scènes au milieu des incendies parce que le logiciel de la caméra pouvait autrefois raisonnablement supposer, à un certain niveau, que les images prises à la lumière du jour devaient présenter des couleurs quelque peu similaires.

Personne ne s’attendait à ce que le ciel de midi soit orange, et même un équipement soi-disant sophistiqué peine à le comprendre. Peut-être que l’apocalypse actuelle en Occident va s’atténuer et que les caméras se sentiront à nouveau normales. Mais peut-être pas, et l’équipement que les gens utilisent pour rendre compte de leur monde devra être ajusté ou remplacé. Il semble que tout s’effondre, même le capteur et le logiciel qui fait fonctionner votre appareil photo.

Via The Atlantic

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.