D’un point de vue colorimétrique, il y a deux façons de faire les choses. En réalité, aucune de ces deux méthodes ne permet d’être certain d’être fidèle à l’original : les deux permettent simplement de vérifier si la mesure pratique est suffisamment proche de la théorie attendue pour être acceptable. Le matériel bouge dans le temps, ne serait-ce qu’à cause de son usage répété et de son vieillissement, lequel peut produire un résultat qui dérive ; c’est pour cela que l’on doit faire ces vérifications.
Ces deux méthodes utilisent globalement la même logique, mais pas les mêmes outils. On commence par définir ce qui sera une référence (souvent à partir d’un jeu de documents de test). Pour définir ce qu’est la référence, il faut se réunir autour d’une table, analyser un ou plusieurs jeux de test, dire « ça c’est la référence ! » et hop, c’est la référence standardisée. Ensuite, on compare régulièrement la production courante à ce jeu de test « référence » pour voir si elle a bougé ou non. C’est ce qu’on appelle un étalonnage.
La première façon de faire est scientifique : on utilise une mire normée (les valeurs RVB de chaque patch seront normées et connues à l’avance) au moment de la définition de la référence (il y a des dizaines de mires utilisables, je mets une CC24 pour l’exemple) puis on compare la mire reproduite en production à cette mire de « référence ».
Pour ce faire, on calcule une valeur que l’on appelle le Delta E (il y a plusieurs versions de ce calcul, 1976, 2000, etc. avec chacune de fines subtilités dans lesquelles nous ne rentrerons pas). Le Delta E représente l’erreur, entre les valeurs (de luminance et de chrominance) mesurées en pratique (par l’appareil photo) et les valeurs de la mire attendues théoriquement, considérées « parfaites » : c’est donc une valeur chiffrée. On considère qu’en dessous de 3, l’œil humain n’est pas capable de voir cette erreur, au dessus il le peut. Concrètement, ça veut dire que si votre Delta E est à 1 votre production n’a pas (ou peu) bougé et que tout roule, au dessus de 3 il faut vérifier, voire régler de nouveau le matériel. On peut toujours essayer de minimiser le Delta E en ré-étalonnant les capteurs, mais on ne pourra jamais l’annuler : c’est une des plaies de la physique, on traîne toujours des erreurs de mesure. C’est une valeur que vous avez peut-être déjà croisée dans les tests de téléphone mobiles où on mesure la fidélité colorimétrique de l’écran (s’il affiche des images avec un Delta E de 15, ce n’est plus un téléphone mais un sapin de Noël).
L’autre façon de mesurer cet écart est empirique : il s’agit de désigner quelqu’un côté client, qui vérifiera la production à l’œil (sans calcul ni rien), et dira si oui ou non elle est bonne. Cette méthode a 2 avantages : elle permet de justifier un poste et un salaire parfaitement inutiles (et dans la fonction publique on aime bien ça), et elle donne du pouvoir à une personne (celui d’arrêter la production quand, empiriquement et sans aucune donnée vérifiable, elle la juge mauvaise), et le pouvoir aussi, on le jalouse, on le craint, mais on l’aime bien. Prenez du recul et imaginez deux secondes que l’on fasse pareil dans l’aviation ou le génie-civil : « Moi je dis qu’il faut enlever un pylône à ce pont ! Allez hop, Denis, passe moi la dynamite ! ».
Si je vous raconte ça, c’est parce qu’en tant que Chef de projets, au fil des années et des projets, j’ai été confronté aux deux façons de faire. La première ne me pose aucun problème, la seconde « au doigt mouillé » a tendance à m’agacer, je préfère l’efficacité et la rigueur au respect forcé de l’empirisme et de l’approximation (même si cette rigueur n’est jamais parfaite et objective, car bien que basée sur des choix humains, elle a le mérite d’être une norme dont les résultats sont reproductibles). Ainsi, j’ai développé au fil du temps une vive appétence autour de l’œil humain et de son absence totale de fiabilité. Vous pensiez-voir la réalité telle qu’elle est et que votre appareil photo pouvait la capturer ?
Vous allez vite déchanter.
Ps : Cet article, plus conceptuel / culturel, porte aussi sur ce sujet.
Micro-histoire du système visuel
Nos petits yeux
Avant de s’intéresser à notre façon de percevoir la couleur, il faut rappeler un petit point : la couleur n’existe pas en tant que telle, c’est une propriété du rayonnement (elle dépend de la matière, mais surtout de sa température, et donc en fait du rayonnement émis ou réfléchi). Une plante verte n’est pas verte, on la perçoit comme telle, parce que la matière dont elle est composée absorbe tout le spectre lumineux et ne renvoie que du vert (à cause de la chlorophylle qu’elle contient). Tout notre système visuel consiste donc à capter et à analyser cette lumière qui est renvoyée par notre environnement. Notre système visuel est composé de deux éléments, en premier de nos yeux qui captent la lumière (que l’on pourrait assimiler au hardware d’un ordinateur) puis de notre cerveau qui analyse et interprète ce signal et nous en présente une image mentale (le software). Ce que l’on peut lire entre les lignes, c’est que ces deux éléments travaillent ensemble, mais ne donnent pas le même résultat, l’image qui est affichée au fond de nos rétines n’a rien à voir avec la présentation mentale que votre cerveau nous en fait. Avant de faire le tour de ces fantasques facéties, remontons aux origines de la vue.
Notre système visuel est le fruit de l’évolution, donc d’une sélection génétique opérée dans un milieu donné. Il n’est pas apparu comme par magie pour nous transmettre une vision parfaitement fidèle du monde qui nous entoure, mais seulement pour nous permettre de survivre, et ça fait une grosse différence.
Pour en trouver l’origine, il va falloir remonter loin, au débuts de la vie il y a 3,5 milliards d’années, à une époque si lointaine que même Michel Drucker n’était pas là. A cette époque, la vie est composée d’être unicellulaires, les bactéries. Autant vous dire que sur une planète-océan, où la vie se résume à ça, il n’y avait pas une ambiance qui tirait vers la franche déconnade. Certaines de ces bactéries, au fil des altérations génétiques, se sont vues dotées d’une protéine sensible à la lumière. Et ça, c’était un avantage évolutif : ça leur permettait de s’éloigner de la surface, où il y avait plus de rayons ultraviolets qui étaient nocifs pour l’ADN qu’elles contenaient (être à la surface conduisait vers une mort certaine). Grâce à cette protéine elles chauffaient, pouvaient se rendre compte qu’elles risquaient leur vie (précieuse mais sans intérêt) et redescendre en profondeur là où elles étaient en sécurité. Ces bactéries se sont davantage reproduites que celles n’en disposant pas, et au fil des millions d’années, ce qui était une protéine est devenu un œil (je la fais courte, si vous voulez plus d’informations, regardez cette vidéo).
Ce qui est important dans cette histoire c’est le lieu où est apparu cet embryon de faculté visuelle : l’eau. Ça n’est pas anodin car l’eau a pour particularité d’absorber certaines fréquences du spectre lumineux, d’abord les extrêmes (infrarouges et ultraviolets), puis tout le spectre au fur et à mesure que l’on redescend. Voyez ci-dessous, en abscisse le spectre lumineux, en ordonné l’absorption.
Le rouge est le plus impacté, c’est pour cela que l’image que l’on voit dans l’eau est souvent bleu-vert. Cela explique aussi pourquoi il y a des poisson très colorés, comme les poissons-clowns. On pourrait penser que c’est un désavantage d’être aussi visibles, mais non : dans l’eau, on voit mal leurs couleurs.
Ainsi, le proto-œil dont on parlait il y a quelques lignes ne voit pas le rouge. Tout simplement parce qu’il n’y en avait pas à voir là où il est apparu. Cela n’aurait servi à rien de voir le rouge, ce n’était pas un avantage évolutif. Ce n’est qu’ensuite que des capteurs, totalement dédiés au rouge, sont apparus, une fois que la vie est sortie des océans. Désormais, l’évolution a fait que nous, humains, sommes dotés de la capacité à voir le rouge, à le voir très bien. Notez juste que nous pouvons voir beaucoup plus de nuances de vert que de rouge, à cause de l’évolution sus-décrite qui nous a doté de 2 cônes sensibles à ces fréquences, contre 1 type de cône dédié au rouge, gardez ça dans un coin de votre tête, on y reviendra.
Notre vue est le fruit de notre évolution, il n’y a pas un modèle unique d’œil commun à tous les mammifères. Par exemple, les chats eux ne voient quasiment pas de rouge (je ne sais pas pourquoi d’ailleurs, sans doute parce qu’ils avaient la flemme d’aller au guichet d’accueil de la vie récupérer le matériel pour). Ils voient mal de très près, de très loin, mais ont une vue parfaite à 40 cm devant eux environ. Ils voient aussi plus d’images par seconde que nous (comme les tigres), et ont un influx nerveux qui est 50% plus rapide que le notre. Au final, cela fait d’eux des saloperies redoutables à courte portée, mais aussi inoffensifs qu’un pigeon dès qu’on s’éloigne de 3-4 mètres. Tout ça pour dire que leur vision du monde, de la « réalité » est très différente de la nôtre. Je serai d’ailleurs curieux de voir comment réagirait un chat qui découvrirait le rouge.
A l’inverse il arrive que certains humains ne disposent pas de 3 mais de 4 types de cônes sensibles à la lumière, c’est le tétrachromatisme. C’est un phénomène qui est encore mal compris et cerné, qui ne touche que les femmes (la mutation nécessaire pour être tétrachromate ne porte que sur le gène X, et les femmes sont les seules à en avoir 2). Cela permet aux personnes touchées de voir des centaines de nuances de couleur de plus que les être humains trichromates. Je vous invite à regarder cet article, où une artiste nous raconte comment elle vit cela.
Nous disposons donc d’un système visuel biaisé par notre évolution et ses impératifs, notre vue (résultant de notre besoin de survie et non de la nécessité de transmettre une image « juste » de la réalité) ne peut donc voir que ce qu’elle peut voir. Alors, c’est une tautologie, mais la seule raison pour laquelle on appelle le spectre visible ainsi, c’est parce qu’il résume notre capacité visuelle. Si l’œil était apparu plus tard dans l’évolution et que l’on avait pu voir des ultraviolets jusqu’au infrarouges, et bah, le spectre visible aurait été bien différent. Vous pouvez en avoir un petit aperçu avec cette vidéo qui promeut l’utilisation de la crème solaire, la caméra filmant les ultraviolets (à droite) nous montre comment ils sont bloqués par le produit :
Le cerveau
Les yeux ne composent au final que la porte d’entrée de votre système visuel, et quand on s’intéresse à la machine qui traite l’image, le cerveau, les choses se barrent en cacahuète, et très vite. Parce que si les yeux ne peuvent transmettre une image fidèle de la réalité, le cerveau lui n’en a strictement rien à carrer, ce n’est pas son souci. Petit florilège de ses manigances.
Vous l’avez sans doute remarqué (et a minima, vous ne pourrez plus l’ignorer), nous bougeons nos deux yeux en même temps, par saccades. Leur mouvement est synchrone (sauf quand on louche, mais ça n’est pas le sujet). Le petit problème, c’est que quand vous faites cela, votre vue devient floue, et voir flou c’est quand même une sacrée contrainte, que notre cerveau va tout faire pour cacher. Mettons nous à sa place deux minutes, tel un ingénieur face à un problème, il y a deux façons de régler ce problème :
- Couper la vision le temps du déplacement des yeux, comme c’est le cas dans certains casques de réalité virtuelle.
- Continuer d’afficher la dernière image enregistrée avant le mouvement.
Eh bien, votre cerveau choisit… aucune des deux, ça aurait été trop beau. Il va mettre votre système visuel en pause, puis, une fois la saccade passée, il va vous montrer ce que l’on voit au nouvel endroit où est fixée la vue, mais va vous passer à l’envers l’image comme si vous aviez vu sans interruption tout le temps du mouvement de vos yeux. La façon la plus simple d’observer ce phénomène est une montre qui dispose d’une trotteuse avançant par à-coups. Fixez n’importe quoi d’autre, puis ramenez vos yeux (et uniquement vos yeux) sur la trotteuse. La première seconde vous semblera plus longue que les autres, puis son avancée semble reprendre un rythme normal. Félicitations, votre système visuel vient de vous mentir sur la durée du temps pour couvrir les limitations de votre vue et éviter d’afficher des saccades floutées. Ce phénomène a été découvert il y a près d’un siècle et se nomme saccade oculaire ou encore chronostasis. Là, vous pourriez-vous dire « Hé, minute papillon, est-ce que le fait que ma vision s’arrête pendant 1/2 seconde ne devrait pas avoir des effets bizarres sur tout ce qui bouge ? On ne dirait pas que l’image saute pourtant !« . Et, c’est normal, la réponse est simple : votre cerveau ajuste le mouvement de ce que vous observez pour que vous voyiez la « bonne » chose. Si vous faites la même expérience avec une trotteuse fonctionnant en continu, vous ne percevrez pas l’effet. Menteur, mais malin et adaptatif, le cerveau.
La chronostasis, c’est à la limite simplement de la correction de bug. Là, on va passer aux gros patchs correctifs produits par des développeurs ivres un vendredi soir. Comme je le disais plus haut, vos yeux envoient comme un flux vidéo vers le cerveau et l’on pourrait penser que c’est directement ce que vous voyez, alors que ça n’est pas du tout le cas. L’exemple le plus probant est sans doute le point mort. La question est simple : Voyez-vous un trou en permanence ? Non ? Vous devriez. En fait, les yeux des vertébrés sont mal fichus : le nerf optique est branché sur la rétine. Ce qu’il fait qu’il y a un point mort, où il n’y a rien pour capter la lumière (ce qui est mieux fait chez la pieuvre, où le nerf optique est derrière la rétine). Il y a un trou de 6° environ, où aucun cône sensible à la lumière n’est présent.
Vous ne voyez pas de trou actuellement. Est-ce que si vous fermez un œil vous en voyez un (la question est légitime, il n’y a plus la vue du 2e œil pour combler le trou) ? Non ? Toujours pas ? C’est normal, encore une fois, votre cerveau vous ment et crée du contenu là où il y a un trou. En fait, vous ne pouvez littéralement pas voir ce que vous voyez. Et le cerveau dispose aussi de la capacité de « boucher » les trous qui pourraient apparaître dans votre rétine. Magique.
D’ailleurs, si ce genre de jeu vous amuse, vous pouvez essayer l’illusion d’optique ci-dessous (elle marche sur mon téléphone, mais pas avec mon écran de PC, je ne sais pas pourquoi). Fermez un œil et fixez la lettre appropriée (R pour le droit, L pour le gauche), placez votre œil à 3x la distance entre les deux lettres, et avancez et ajustez la distance jusqu’à temps que l’autre lettre disparaisse. Félicitations, vous venez de voir votre blind spot.
Passons à la couleur. Vous voyez le monde en couleur, et toute l’image est en couleur, on est d’accord ? Eh bien, la plupart des cônes captant la couleur sont dans la fovéa un petit point au milieu de l’œil.
Ainsi, à part ce point au centre de la vision, on voit très peu (voir pas du tout) de couleur. Si vous vous concentrez sur votre vision périphérique (sans bouger les yeux), vous voyez quand même de la couleur. Une fois n’est pas coutume, c’est votre cerveau qui vous ment, en utilisant les couleurs qu’il voit, pour combler le trou. Un peu comme le procédé de colorisation utilisé dans les vieux films.
Vous en voulez un dernier pour la route ? Allons-y, parlons de la perception spécifique à l’action. Si vous jetez des balles à une personne, et que vous lui demandez la taille des balles, elle va l’estimer à peu près correctement (sauf si elle est marseillaise). En revanche, si vous lui demandez de taper la balle avec une batte, puis que vous lui demandez d’en estimer la taille, leurs réponses seront mauvaises : ils vont donner des chiffres supérieurs à la réalité, et à la première expérience. En fait, ils ne mentent pas, ils voient vraiment les objets plus gros, le cerveau exagère la taille de la balle parce que l’on a besoin de la taper. D’ailleurs, plus que la taille des images, il peut aussi corriger son sens : comme pour les objectifs l’image qui est projetée sur notre rétine l’est à l’envers et il la remet dans notre esprit à l’endroit. Si vous mettez des lunettes avec des miroirs qui ré-inversent l’image, il peut encore une fois la remettre dans le bon sens au bout de quelques jours en faisant la correction.
Quand la culture s’en mêle
Nos yeux sont le résultat de notre évolution, et l’image qu’ils renvoient est traitée par un cerveau dont le but n’est clairement pas de nous renvoyer une image juste de la réalité, mais de nous permettre de survivre. Cependant, ça ne s’arrête pas là, notre perception de la réalité est aussi altérée par un autre élément : notre culture. Oui, selon la culture dont vous êtes issu, vous ne percevez pas le monde de la même façon.
Prenons le plus illustre des exemples à ce sujet : l’Iliade et l’Odyssée d’Homère. Dans ces œuvres, le bleu n’est jamais mentionné. Le ciel ou la mer ne sont jamais décris comme bleus. William Gladstoned l’a remarqué dès 1858. Pourtant, le livre, qui relate le retour d’Ulysse chez lui après la guerre de Troie, est riche en détails. Que ce soit sur les vêtements, les armes, les animaux et tout ce que croise le héros. Les couleurs ne sont pas absentes pour autant, il y a de nombreuses occurrences de « noir » (200 fois), de « blanc » (100 fois), puis le rouge (15 fois) et le jaune et le vert (une dizaine de fois chacune). Mais jamais le ciel ou même la mer ne sont décrits comme « bleus ». On pourrait mettre ça sur le compte d’une particularité de la culture grecque, ça n’est pas le cas. Lazarus Geiger (un philosophe intéressé par les travaux de Gladstoned) a étendu l’étude à d’autres civilisations : les sagas islandaises, le Coran, les civilisations chinoises ou encore une ancienne version en hébreu de la Bible. Même constat : aucune mention de la couleur bleue dans aucun des principaux textes. Les seuls à en faire mention sont les Égyptiens, qui, coïncidence ou non, sont aussi les seuls à avoir été capables de produire la couleur.
Pourtant, on imagine mal que le ciel ou la mer aient été d’une autre couleur à l’époque. Alors pourquoi la couleur de la mer n’apparaît-elle jamais en bleu mais plutôt comme « rouge », « verte » ou alors « rouge vin foncé » ? La réponse des chercheurs est simple : il n’existait pas de mots pour exprimer le bleu, et sans mot pour le désigner, le bleu semble « invisible ».
Et comme toute théorie, la façon la plus fun de la tester, est de le faire sur des enfants (JE PLAISANTE). Un linguiste, du nom de Guy Deutscher, a donc mené une expérience directement sur sa fille. Supposant que l’une des premières questions d’un enfant est « pourquoi le ciel est-t-il bleu ?« , il a pris le soin d’élever la sienne sans jamais lui expliquer de quelle couleur était le ciel. Un jour, lorsqu’il lui demande ce qu’elle en pense, la petite fille est incapable de répondre. Elle finira par dire « il n’a pas de couleur« . Puis elle penchera pour le blanc avant, finalement, d’estimer que le ciel est bleu.
Vous trouvez l’explication fumeuse ? Faisons une expérience. Lesquels de ces carrés ne sont pas du même vert que les autres ?
Ce sont tous les mêmes ? Vraiment ? Mauvaise pioche. Vous avez les valeurs RGB des carrés ci-dessous, c’est celui en haut à gauche et celui qui est vers le milieu à droite qui sont différents.
Et ce test est loin d’être impossible. Les membres de la tribut des Himbas en Namibie y arrivent très bien. Le chercheur en linguistique Jules Davidoff, a fait l’expérience avec eux. Leur particularité ? Ils ont de nombreux mots pour désigner le vert, et sont habitués à les différencier. A l’inverse, quand on leur présente le test ci-dessous qui est très facile pour nous, eux n’y arrivent pas.
C’est lié à leur langage, qui ne compte pas de mot différenciant le bleu du vert. Il se répartit comme suit :
Et ces différences culturelles ne sont pas rares en fait. On retrouve la même chose au Japon : avant l’arrivée des Européens, ils n’utilisent qu’un seul mot pour désigner les choses bleues et vertes. Donc soit la mer était verte, soit les arbres étaient bleus. Les mots qu’utilisent désormais les japonais pour désigner ces couleurs sont dérivées de l’anglais, ils disent gurin pour vert (de « green« ) et buru (de « blue« ) pour le bleu.
Tant qu’on y est, il y a un autre sujet qui me turlupine, plus proche de la psychologie que de la culture, mais c’est quand même lié. C’est une réflexion empirique, et il n’existe pas énormément de source permettant de trancher dans un sens où dans l’autre. La question est : est-ce que l’on perçoit tous les mêmes couleurs ? Je veux dire, même si nos yeux sont basés sur le même plan de fabrication, chaque cerveau est câblé différemment en fonction de notre apprentissage (voir cet article, très très long mais passionnant sur le cerveau), du coup je me demande : Est-ce que la couleur que je vois « bleue » et que j’appelle « bleue », c’est la même chose pour vous ? Peut-être que vous, ce que moi je vois comme bleu, vous le voyez dans la couleur que je nommerai « vert », mais vous l’appelez « bleu » aussi par convention. Le bleu, c’est une lumière avec une longueur d’onde comprise entre 446 et 500nm (rappelons que la lumière est aussi une onde), mais comment votre cerveau interprète ça, pour vous ? N’étant pas à votre place, je n’ai aucune façon de le vérifier. Le problème vient du fait qu’il n’existe aucune façon absolue de décrire une couleur, toutes les descriptions sont relatives. Le bleu, c’est la couleur du ciel, des jeans, ou du homard avant la cuisson. On peut même le définir de façon chiffrée, j’ai donné sa longueur d’onde, les valeur RVB du bleu sont 0, 0, 255 (ou 0000FF en Hexa). Si vous rentrez ces valeurs dans PhotoShop, nos écrans respectifs (sous conditions qu’ils soient bien calibrés) afficheraient la même image, les mêmes récepteurs dans nos yeux seraient stimulés, mais nous n’avons aucune façon de savoir si nous percevons, dans notre tête, la même chose. On l’appellera juste « pareil » par convention.
Si vous pouviez me décrire une couleur de façon absolue et non relative, on pourrait vérifier si nos perceptions des couleurs sont les mêmes, mais en attendant, le mystère plane. Après, d’un point de vue évolutif, on a pas mal de gênes en commun, et le plan de fabrication de l’être humain est semblable, je doute qu’il y ait de grosses différences, mais on ne saura sans doute jamais. Si vous voulez jouer un peu, je vous invite à décrire en commentaire, sans utiliser de comparaison, ni le mot « bleu » (et ses dérivés) ce que vous voyez ci-dessous. Faites le comme si vous écriviez à quelqu’un qui est aveugle de naissance et n’a jamais rien vu de sa vie.
Il est sûr que, sauf anomalies visuelles, nous appelons bleus les objets qui émettent ou réfléchissent une lumière dont la longueur d’onde se situe autour de 470 nanomètres. Quant à la sensation que nous en avons nul ne peut garantir qu’elle soit la même : les analogies de structure de nos rétines, de nos systèmes nerveux permettent de supposer qu’il en est bien ainsi mais nous n’en savons rien, à proprement parler. La sensation fait partie du domaine privé, du domaine de la pensée.
D. Laplane, neurologue
Le matériel photographique, éloge de l’imperfection
Tout ce que l’on utilise pour capter la couleur avec nos petits corps est biaisé, par l’évolution et notre culture. Il aurait été quand même bien étonnant que notre matériel photographique soit, lui, parfait. En réalité, il souffre des mêmes biais, que l’on va voir ensemble. Avant de démarrer, un point rapide sur un sujet qui m’amuse beaucoup : il n’existe aucun dispositif au monde capable de capter et restituer directement la couleur : Tout ce que l’on utilise (nos yeux, nos appareils photo, etc.) ne marche que par interpolation, les couleurs sont captées séparément puis rassemblées.
Dans nos yeux, nous avons des cônes spécifiques dédiés au bleu, au rouge et au vert et notre cerveau fait la synthèse. Idem, pour les capteur des appareils photo et leur processeur : on dispose d’un photodiode par couleur, ceux-ci sont répartis sur une grille, et le processeur de l’appareil fait la synthèse des valeurs qu’ils donnent pour obtenir une image colorée. Toute captation de la couleur, et sa restitution ensuite (dans notre tête, sur le papier et les écrans) n’est qu’un subtile jeu d’interpolation et de recombinaisons de longueur d’ondes différentes pour essayer d’afficher une image colorée… à une exception près.
Cette exception, c’est le procédé de Lippmann : c’est la seule méthode au monde qui capte toutes les couleurs avec une seule et unique surface, en utilisant du mercure. Le problème, c’est qu’elle est très complexe à mettre en place, pour enregistrer l’image, elle utilise un jeu de miroirs, qu’il faut réutiliser à la visualisation pour voir l’image correctement (la distance image-miroir doit être identique à celle de la prise de vue). Donc, même si elle donnait des résultats superbes, elle n’a jamais vraiment été exploitée.
Le premier défaut des systèmes de captations photographiques de la couleur est qu’ils tentent de reproduire la vision humaine. C’est un choix d’ingénieur, on aurait parfaitement pu choisir d’avoir le dispositif le plus neutre possible, puis d’adapter le traitement des images ensuite en fonction des besoins, des goûts, et de la vue de chacun (on aurait un spectre d’usage allant de la science et de la reproduction – patrimoniale par exemple – jusqu’aux travaux artistiques). Ensuite, chacun a son lot d’avantages et d’inconvénients.
Si vous êtes actuellement vivant, et que vous utilisez un appareil photographique pouvant capter la couleur, il y a de grandes chances qu’il utilise l’un des 4 systèmes suivants :
Un capteur CCD / CMOS, basé sur la matrice de Bayer. Il s’agit d’une grille, qui alterne sur une ligne les photodiodes bleues et vertes, et sur la ligne du dessous les photodiodes rouges et vertes. Ainsi, il y a 2 fois plus de vert que de rouge ou de bleu, ce qui donne une perception des couleurs proche de la vue humaine. On obtient les couleurs en interpolant des valeurs données par plusieurs photodiodes adjacentes lors d’une étape appelée dématriçage. Une photodiode est l’équivalent d’un pixel dans l’image finale, pour qu’elle dispose des valeurs pour chaque canal RVB, on regarde les valeurs que donnent les voisins (pour un photodiode vert, on va regarder ce que donne les photodiodes bleues et rouges d’à côté, et calculer la valeur de bleu et de rouge de la photodiode verte grâce à une soupe mathématique infâme).
Le capteur X-Trans de Fujifilm qui équipe les appareils de la marque. Malgré son nom de site pornographique underground, il fonctionne sur le même principe que la matrice de Bayer. La grille est simplement structurée de façon différente, ce qui change le calcul mathématique permettant de produire les images finales. C’est pour ça que les logiciels de traitement ont mis un peu de temps avant d’arriver à les traiter correctement.
Le capteur Fovéon, produit par Sigma. Il fait fi des contraintes liées aux capteurs matriciels (interpolations, moirage, vert sur-représenté) en utilisant 3 couches de photodiodes superposées, une pour chaque couleur. Le rendu colorimétrique est excellent, mais c’est une plaie à traiter comme fichiers. Jusqu’à récemment, seul le logiciel de la marque pouvait traiter ces fichiers, mais les boîtiers produisent désormais des fichiers RAW en .DNG qui est un standard (breveté par Adobe avec spécifications publiques et une licence ouverte et révocable) et peut être traité par des logiciels tiers. Ils sont excellents à basse sensibilité (100 ISO disons) mais ça devient vite compliqué dès que l’on monte dans les ISO, l’empilement de plusieurs couches de photodiodes augmentant drastiquement le bruit. Mais c’est une technologie intéressante, notamment pour la prise de vue studio et la reproduction.
De la bonne vieille pelloche. Le capteur Fovéon en reprend en fait le principe : la pellicule couleur est composée de plusieurs couches d’émulsions, chacune sensible à une longueur d’onde donnée et laissant passer les autres (pour que la couche suivante les capte). C’est pour cela, cet « empilement » de couches, que la pellicule couleur paraît plus rigide que la pellicule noir et blanc quand on la manipule. La pellicule noir et blanc étant elle sensible uniquement aux variations d’intensité lumineuse, sur tout le spectre visible (sauf cas particuliers hors sujet aujourd’hui).
Ps : Notez que l'autochrome fonctionne aussi un petit peu différemment.
On pourrait pousser l’analyse jusqu’à la reproduction des photographies (écran, tirages, projections & cie), mais cela serait aussi long que fastidieux. Vous avez compris l’idée, à l’instar de nos yeux, nos appareils ne sont pas bien efficaces quand il s’agit de capturer la réalité et d’en transmettre une image juste.
Conclusion
Si j’ai pris le temps de faire toutes ces digressions, qui peuvent parfois sembler éloignées de ce qui nous concerne en tant que photographes, c’est pour plusieurs raisons :
- Déjà, satisfaire mon goût d’ancien Chef de projets dans la numérisation patrimoniale pour ce sujet. La notion de fidélité colorimétrique à un quelconque original, dans l’absolu, n’a aucun sens. Parce que oui, c’est de là que vient cet article. Elle n’a pas de sens, parce que l’on ne peut définir scientifiquement ce qu’est la « réalité » (si c’est ce que l’on perçoit avec nos yeux, ça ne veut pas dire grand chose et cela a une universalité toute relative), et si c’est le monde « tel qu’il est dans l’absolu » eh bien, ni nos yeux, ni nos appareils ne peuvent l’enregistrer sans erreur. La seule chose que l’on peut faire (et nous disposons des bons outils pour) c’est de mesurer la constance qualitative d’un système de reproduction dans le temps. Il s’agit juste de ne pas le faire avec les yeux, à moins qu’il s’agisse de justifier un salaire.
- Bien évidemment, la photographie a un lien fort avec le réel. C’est indiscutable, c’est le seul art qui ne peut produire sans lui, on touche au fameux « ça a été » de Roland Barthes. Cependant, il faut différencier son lien sémantique avec le réel de son lien esthétique. D’un point de vue sémantique (le sens), oui, changer certaines choses dans une image peut casser le lien avec le réel (ce qui peut-être un choix). L’exemple typique serait celle d’enlever une personne d’une photographie. En revanche, d’un point de vue esthétique (celui des couleurs qui nous intéresse aujourd’hui), là, le lien avec le réel est très faible, et largement manipulable sans trahir quoique ce soit, pour toutes les raisons qu’on a évoquées. Dans ce contexte tous les arguments du type « modifier les couleurs c’est tricher, ça n’est pas la réalité« sont invalides. Ce qui nous amène au dernier point et le plus important :
- On s’en tamponne allègrement le coquillard du réalisme du rendu d’une image. C’est quelque chose qui m’a longtemps bloqué, c’est pour ça que mes premiers projets n’étaient pas en couleur (je pense à Rouen et Intercité). Il y avait sans cesse un écart entre ce que je voyais et ce que j’avais envie de faire, je me disais « si je le fais comme j’en ai envie, ça ne fera pas assez réel et ça va se voir », alors que ça n’a pas de sens, ça n’est pas une nécessité. J’ai fini par réaliser qu’en fait non, on peut faire ce que l’on veut, et qu’à la limite, le seul garde-fou valable est le bon goût. C’est en réalisant ça que j’ai décidé de me lancer dans le projet AdieuParis en utilisant la couleur. Donc si vous êtes bloqué pour la même raison, si vous avez peur que ce que vous avez envie de faire ne fasse « pas réel », passez outre et allez-y.
Ceci étant dit, si vous souhaitez vous plonger pour de bon dans la photographie couleur, ce billet vous attend : Tour du monde de la photographie couleur.
Ps : Tant qu'on en est aux digressions et à discuter de nos yeux, je vais vous transmettre l'astuce qui a révolutionné ma vie, et permet d'aller aux toilettes la nuit comme un vrai ninja : n'ouvrez qu'un seul œil à l’aller. Comme ça, un seul de vos yeux s'habituera à la lumière et l'autre restera habitué à la pénombre. Au retour, inversez et vous verrez clairement. Votre vie vient de changer, n'ayez plus peur de la tisane avant d'aller dormir.
Pendant l’écriture de cet article, j’ai écouté cette playlist :
Laisser un commentaire