Mots d'images

et son influence sur nos archétypes esthétiques

La technique façonne le média. En photo argentique, de nombreux artefacts provoqués par des caractéristiques ou des limitations techniques sont devenus des archétypes esthétiques (grain, flou, déformations optiques, etc). Avec les techniques numériques - en grande rupture par rapport aux argentiques - nos canons esthétiques seront immanquablement modifiés, poussés par des particularités techniques jamais encore appliquées. Parmi celles qui ont déjà un impact, il faut relever les techniques qui sont liées au contraste local.

Le contraste local est une notion utilisée depuis longtemps par les chercheurs en perception visuelle. Ses données sont analysées et prises en compte en tant que paramètres dans l’élaboration de différentes théories scientifiques ayant trait à la vision. [1]

Ici, cette notion nous permettra surtout de mieux comprendre certaines différences entre nos perceptions visuelles et ce que peut recueillir un capteur photographique, que celui-ci soit argentique ou numérique. Avant les traitements numériques, elle n’avait jamais trouvé de réelle application pour l’élaboration des images. Chez les photographes, ce n’est que fortuitement que son principe a été appelé en renfort pour expliciter le résultat de quelques bidouillages ! Mais, commençons par le début...

Tout le monde sait ce qu’est un contraste : dans le monde visuel, c’est le rapport entre des zones claires et des zones sombres. La juxtaposition de noir et de blanc provoque, par exemple un fort contraste, alors que celle de deux gris moyens offre plutôt un faible contraste. Notre oeil distingue bien évidemment ces contrastes, mais il a une manière particulière de les appréhender. Faut-il redire qu’à la différence d’un appareil photo, notre oeil (et le cerveau qui lui est lié) opère des interprétations de ce qu’il voit ? L’appareil photo, lui, capture des images, d’une manière qu’on peut qualifier de « mécaniquement objective », ne seraient ses défauts techniques inhérents, par ailleurs connus et prévisibles.

L’étendue des tons - du plus sombre au plus clair - visibles dans la nature est très large. Notre oeil peut capter cette gamme dans son intégralité, mais dans certaines conditions seulement : il ne peut la couvrir de façon détaillée en un seul regard. Par contre, en fixant des zones différentes, la pupille s’adapte à la luminosité de ces zones et laisse passer des informations spécifiques. Par exemple, éblouis par un ciel clair nous ne percevons pas les détails dans les ombres. Mais si nous dirigeons notre regard vers ces ombres nous pouvons en distinguer certains. Pour bien le constater, exagérons cet effet en tenant devant nous un carton noir percé d’un trou (voir simulation ci-dessous en passant la souris sur l’image). Le carton, en occultant la forte luminosité du ciel, permet à l’oeil (à l’iris) de s’adapter à la luminosité plus faible des ombres.

Le phénomène se produit également dans des conditions normales (sans utiliser ce carton noir), mais dans des proportions moindres, car la vision périphérique prend en compte la luminosité de tout notre champ de vision. Notre oeil, en déplaçant son regard, non content d’adapter constamment sa focale, s’adapte aussi à la luminosité de la zone qu’il fixe, nous permettant ainsi de discerner des détails (voir simulation dans l’image ci-dessous en passant la souris sur l’image). L’effet n’est évidemment pas ressenti comme sur cet exemple, car notre cerveau - merveille de la nature - retraite ces informations morcelées et nous fait croire à la continuité de ce que nous voyons. Mais si nous avions un cerveau moins perfectionné, nous pourrions bien le ressentir comme cela ;-)

La grande gamme dynamique disponible est donc constituée d’une infinité de tons intermédiaires que nous ne discernons pas immédiatement. Quand notre regard se déplace, notre oeil ne fait rien d’autre que de tenter d’isoler une zone du reste du champ de vision. En faisant cela, il sélectionne une partie seulement de la gamme des tons disponibles. Mais dans cette gamme réduite, qui occupe ainsi tout son champ d’analyse, et cela grâce à de nouvelles conditions de luminosité, des tons intermédiaires se révèlent. De nouvelles conditions de contrastes, différentes de celles qui affectent l’ensemble du champ de vision, sont ressenties par notre système de vision. On les appelle des « contrastes locaux », par opposition au contraste « global », que nous connaissons tous. L’ensemble de ces mesures ponctuelles nous permet ainsi d’appréhender, au fur et à mesure, toute l’étendue et tous les détails de la gamme dynamique.

Le graphique ci-dessus montre à sa manière le phénomène d’augmentation du nombre de tons intermédiaires - Attention : ce dessin n’a rien de scientifique, il tente juste de traduire un « ressenti ».
• 1 : gamme de 26 niveaux de gris (remarquez au passage combien votre écran a déjà du mal à les afficher tous !).
• 2 : augmentation du nombre de tons intermédiaires par rapport à une certaine partie de la gamme dynamique (dans les tons foncés et dans les tons clairs). On remarque que, dans la direction des tons moyens (vers le milieu de la gamme), il y a une « création exagérée » de nouvelles nuances.

En photo, les choses se présentent d’une manière fort différente. Un capteur numérique n’est pas capable d’enregistrer toute l’étendue de la gamme dynamique [2] !. Pire, nos dispositifs de visionnage sont très limités et ne permettent souvent pas de voir l’intégralité de la gamme enregistrée par le capteur. Un bon écran d’ordinateur n’est capable, en théorie, d’afficher que 256 niveaux de gris. (Les blancs de la nature sont infiniment plus blancs que ceux de vos écrans ! - même remarque pour les noirs.) Et cela se gâte sérieusement si nous voulons imprimer une image : pour l’offset, environ 90 niveaux de gris. Comme nous voulons tout de même voir les extrêmes (les noirs et les blancs) la gamme affichée entre ces deux pôles manque de nuances : beaucoup de valeurs intermédiaires sont tout bonnement absentes. Sans autre intervention, les images présentent alors souvent des noirs « bouchés » et des blancs « brûlés ». On peut certes corriger sommairement ces défauts à la prise de vue en privilégiant, par exemple, les tons foncés, mais c’est alors les tons clairs qui en pâtissent et vice versa. Dans nos logiciels, on peut aussi, dans certaines limites, reproduire les vieilles recettes du labo argentique en jouant de la « maquillette »... C’est à dire, en sur-exposant certaines zones et en sous-exposant d’autres. Mais ces effets sont limités.

La grande différence entre une reproduction photographique et la vision directe de la même scène est que, sur la photo, toutes les informations sont figées (vous vous en doutiez, mais à ce point de l’exercice il est important de le souligner !). Notre oeil a donc beau chercher, même en s’y arrêtant avec insistance, il ne trouvera rien de plus dans les différentes zones de l’image que ce que montre l’écran ou l’imprimé.

Nous savons que le capteur a enregistré plus de niveaux de gris que les 256 que nous pouvons afficher (au mieux). De nombreuses techniques numériques, de plus en plus sophistiquées, ont été développées pour faire « remonter » ces informations et les rendre visibles tout en tenant compte des piètres performances de nos dispositifs de visionnage. L’une des premières, très simple et très efficace, a été « découverte » -comme le relate Michael H. Reichmann (en 2003) sur son site Luminous Landscape - par Thomas Knoll (qui n’est autre que l’inventeur de Photoshop). Le plus étonnant est que la technique est basée sur l’utilisation détournée d’un filtre « classique » du logiciel !

Dans mon billet sur la netteté des images je montrais comment on leurrait notre regard en augmentant le contraste des pixels sur les contours des objets. Cela se fait (sur Photoshop) à l’aide du filtre Accentuation [3]. Ce filtre détecte les contours et leur ajoute du contraste sur une zone (un halo) qui peut s’étendre, de chaque côté du contour, de 1 à ... disons 3 pixels. (On peut évidemment y régler d’autres paramètres que je n’aborderai pas ici, c’est déjà assez pénible pour les technophobes ;-). Certains bidouilleurs (au rang desquels je n’oserais ranger Thomas Knoll - mais pour moi le terme n’est pas infamant) ont remarqué que ce petit halo, utile pour améliorer la netteté, pouvait être élargi jusqu’à des valeurs de 50 ou 100 pixels et produire des effets spectaculaires. [4] Quand l’augmentation du contraste est appliquée sur une si large étendue, le logiciel « remonte » des informations sur les tons intermédiaires qui n’étaient pas affichés avant. Ci-dessous : l’image entière à laquelle a été appliqué ce procédé (passer la souris...)

De fait, une photo traitée de cette manière, présente en continu et en permanence, tous les détails que l’oeil devrait « fabriquer » s’il était en condition de vision directe de la même scène. Ce n’est donc qu’une tentative d’« imitation de la réalité » de plus ! Une image, quoi ;-) L’effet obtenu, si la correction est appliquée modérément, nous fait ressentir l’image comme nettoyée, désembuée. Un peu comme nous pouvons le voir dans un ciel de traine, après que l’atmosphère ait été nettoyée par d’abondantes pluies. Notre cerveau, cherchant dans sa panoplie des possibles, trouve là probablement, un élément d’explication...

Précisons qu’il n’y a pas plus de niveaux de gris sur une image de ce type. On « se débrouille » avec ceux que l’on a, mais on les redispose d’une manière « plus profitable ». Et ça marche, car notre oeil est plus sensible à la valeur relative de la luminosité qu’à sa valeur absolue. Remarquons que sur les images, le contraste « local » n’est pas plus une vision idéalisée que le contraste « global ». Aucune de ces visions des contrastes ne correspond vraiment au monde tel qu’on peut le voir en direct. Tout au plus, peut-on affirmer que le contraste « local » tend à nous rapprocher un peu plus d’une bonne description de la « réalité » (et encore !).

Les images ci-dessous (oui, avec la souris...) permettent de comparer les différences entre le contraste « global » et le contraste « local »...

Comparaison original > contraste global

Comparaison original > contraste local

Comparaison contraste global > contraste local

Il est clair que pour obtenir une bonne image il conviendrait de jouer des 2 effets, mais ce n’est pas le but de cet exercice ;-)

Ces résultats ont (probablement) motivé la recherche d’autres possibilités logicielles permettant d’exploiter une plus grande dynamique des tons. Plusieurs nouvelles fonctionnalités allant dans ce sens ont ainsi vu le jour dans nos programmes d’imagerie en proposant des réglages à la fois plus ciblés, plus intuitifs et plus puissants. [5]

Sur cette image (oui la souris...) on observe bien ce fonctionnement de « révélation » de nouveaux contrastes locaux. Remarquez que les bords de l’ombre de l’arbre (p. ex. sur le chemin) ne changent pratiquement pas. Tout se passe à l’intérieur de la partie ombrée.

Voilà pour les prodiges de la technique. Si je vous impose ces laborieuses explications, ce n’est pas juste pour nous émerveiller des beautés de la nature et du génie humain ! Mais c’est que ces nouvelles possibilités vont avoir (et ont déjà) des influences sur l’apparence des images. À cet instant, il n’est pas possible de préjuger de l’étendue des modifications que vont engendrer ces technologies. Mais il me parait utile de pouvoir déjà noter le phénomène, l’identifier, le reconnaitre. Il faut souligner ici, que les modifications qu’opèrent ces technologies sur les images sont véritablement innovantes, en ce sens qu’elles n’avaient jamais pu être réalisées auparavant en argentique.

Nous avons tous, peu ou prou, une culture imagière basée sur la somme des images que nous avons vues. Par exemple, nous nous sommes tous habitués à ces clairs-obscurs - chers aux peintres de la renaissance - que la photo s’est en quelque sorte réappropriés, aidée en cela par des contraintes techniques intrinsèques. Ces noirs profonds dessinant de belles compositions graphiques et masquant les détails à notre regard - les transformant en autant de mystères - sont devenus des éléments constitutifs de nos canons esthétiques. Va-t-on, parce que la technique le permet, remplir ces ombres de détails ? Allons-nous compter toutes les feuilles des arbres ? Les ciels sereins de nos photos, vont-ils systématiquement présenter des visions d’orages apocalyptiques ? Bref, comment notre culture visuelle va-t-elle intégrer ces changements ?

Dans une vision optimiste, on peut penser que pour les domaines de l’expression personnelle (de l’art !) ces nouvelles perspectives apportent un plus riche potentiel de créativité. Mais en parallèle, il faut s’attendre aussi à tout autant d’excès mal venus (selon Audiard, il y en a « qui osent tout » ;-) Cela reste évidemment très subjectif, car, sous l’empire des archétypes esthétiques d’aujourd’hui, nous ne pouvons préjuger de ceux de demain.

Dans une perspective utilitariste, il faut reconnaitre qu’appliquées avec mesure, ces techniques peuvent apporter leur lot d’enrichissements visuels en révélant sur une image bien plus de détails qu’on pouvait en espérer avant. Les documentaristes apprécieront. Mais gare aux illusions : trop d’informations noient l’information ! La multiplication d’éléments anecdotiques peut agir comme un élément perturbateur de l’expressivité des images. La profusion de détails va-t-elle devenir un artefact constitutif de l’esthétique de nos photos ? Je vous laisse imaginer ce que ces techniques, appliquées sans discernement à des visages, peuvent y révéler de détails qu’on cherche d’ordinaire à cacher...

Dans l’image ci-dessous (la souris... pfhh), on peut se demander ce qu’apporte le débouchage des noirs... Les botanistes y verront peut-être des éléments dignes d’intérêt, mais je ne suis pas sûr que tout le monde y trouve son compte...

Ma vraie crainte est la généralisation de ces technologies dans des processus automatiques ignorés et ingérables par les utilisateurs (dans des appareils compacts, imprimantes, labos de tirages papier, etc). Après avoir vu débarquer des fonctions telles que la reconnaissance des visages ou la détection des sourires, il ne faut plus s’étonner de rien : la standardisation est en marche ! En vieux con pessimiste - ayant connu la vie ante-digitale - je constate que sur le fond, la standardisation (celle qui nivelle toujours par le bas !) intervient quasi automatiquement dans les réalisations résultant des activités « d’avant » dont s’empare l’informatique. C’est un de ses effets collatéraux majeurs qui est souvent masqué par la brillance des technologies et leur démocratisation. Mais peut-être que cette standardisation permettra justement à des auteurs intelligents, cultivés, habiles et créatifs d’en émerger... Que ces derniers utilisent alors, ou non, ces nouvelles technologies est une question secondaire.

Notes:

[1] Quelques éléments d’intérêt :
Contrast and visibility / Rapport CIE 95, 1992 / Roland Brémond : « La première étape de traitement de l’information visuelle a lieu avant les récepteurs photosensibles de la rétine : la lumière incidente traverse une couche de cellules, de taille importante par rapport à l’espacement entre les cônes de la rétine, et qui participent à l’extraction de détails fins. Ce processus reste mystérieux. »
Nous voilà bien avancés ;-)
Quelques traitements bas niveau basés sur une analyse du contraste local / A. Le Negrate, A. Beghadi, K. Boussaïd-Belkacem : « Ce traitement a pour effet de déplacer le niveau de gris du pixel d’une quantité proportionnelle à l’écart par rapport au niveau de gris moyen des contours. Notons qu’un pixel appartenant au contour n’est pas modifié. Il s’agit donc d’une transformation bidirectionnelle. Ceci a pour conséquence immédiate de renforcer le contraste tout en préservant la position des pixels des contours. »
On voit ici que bien avant que la pratique ne se répande chez les photographes, des chercheurs s’étaient penchés (1989) sur ce type de traitement...
Wikibooks : Photographie / 14 - Netteté des images photographiques / L’œil et la perception de la netteté : « La perception d’un fin détail dépend en fait au moins autant, sinon plus, du contraste local et de la netteté de ses bords que de ses dimensions. Placé à 1 m d’une surface blanche bien éclairée, l’œil « normal » y distinguera sûrement un point noir de 0,25 mm de diamètre mais pas une chiure de mouche jaune pâle de 1 mm de diamètre, pourtant beaucoup plus grande. »

[2] Pour un écran standard, la gamme dynamique a un rapport de 256:1 (en 8 bits, donc en noir/blanc). En couleurs, chaque canal étant codé sur 8 bits nous obtenons 256 x 256 x 256 = 16 millions de couleurs. Mais cela ne change rien au problème de fond : la luminosité n’a toujours que 256 niveaux. (Nous pouvons le constater si nous passons en mode Lab.) Certains APN, en format Raw, codent les informations jusqu’à 14 bits et peuvent théoriquement capter une gamme dynamique allant jusqu’à 16364:1. Mais la gamme dynamique des scènes réelles est encore beaucoup plus étendue : un paysage ensoleillé peut offrir un rapport de 100’000:1, voire plus

[3] Mal nommé en anglais : Unsharp Filter

[4] Il semblerait donc qu’une fois de plus, la sérendipité - qui aurait déjà valu à Daguerre une découverte importante dans la mise au point du daguerréotype - soit à l’origine de nouvelles percées techniques dans le monde de la photographie...

[5] La commande « Tons foncés/Tons clairs » de Photoshop (utilisée dans la plupart des exemples de cette page) va dans ce sens et exige déjà un certain doigté pour ne pas tomber dans l’excès, comme je l’ai fait pour bien le montrer. DxO Optics Pro, de son côté, propose des traitements pouvant avoir des effets pour le moins spectaculaires, avec le défaut - à mon avis - qu’ils font partie des réglages standards que peu de gens vont désactiver, ou du moins tempérer. D’autres techniques, par exemple la HDR (High Dynamic Range), sur laquelle nous reviendrons, peuvent produire des résultats proprement hallucinants, capables de bousculer gravement nos habitudes visuelles.
NB : Sur tous les exemples de ce billet, les procédés ont été appliqués sur l’image entière. Il est bien évident que, pour obtenir des résultats optimaux, on peut les appliquer (ou pas, ou de manière différenciée) sur des zones choisies. Certains logiciels (Nikon Capture) sont d’ailleurs axés sur cette particularité.

Béat Brüsch, le 24 juin 2008 à 01.35 h
Rubrique: Un peu de technique
Mots-clés: archétype , esthétique , numérique , technologie
8 commentaires
Les commentaires sont maintenant fermés.
    1

    Maintenant, on sait pourquoi tu avais éteint ton ordi ! Merci pour ces aperçus passionnants, qui éclairent et mettent en perspective avec une grande clarté un point décisif.

    Envoyé par Gunthert, le 24.06.2008 à 06.15 h
    En ligne ici
    2

    Une question : C’est le cerveau ou c’est l’œil qui fait ce "traitement" de l’image ? Parce qu’il me semble que la persistance rétinienne est le signe de ce "traitement", non ? Pour moi, la "persistance rétinienne" est le signe que notre capteur (l’œil) adapte le gain pour que les valeurs soit autour d’une valeur moyenne, et cela avec une constante de temps suffisamment longue (d’où la "persistance") pour avoir une image qui finit par être bien contrastée... Non ? Qu’est-ce que vous en pensez ?

    Envoyé par Bayonne, le 24.06.2008 à 10.44 h
    3

    Magnifique démonstration, merci ! Tes retraites studieuses aboutissent toujours à des billets captivants :)

    Envoyé par Séverine Pache, le 24.06.2008 à 11.11 h
    En ligne ici
    4

    @ Bayonne : je suis incapable de répondre à cette question, n’étant pas moi-même chercheur en ce domaine. Je pense que, comme pour de nombreux phénomènes régissant notre vision, il doit être très difficile de démêler ce qui revient à notre oeil de ce qui revient à notre cerveau. Si un chercheur passe par ici, il est invité à nous en dire plus... (il pourra en profiter pour contester certaines interprétations un peu hâtives que j’aurais pu faire dans ce billet ;-)

    Envoyé par Béat, le 24.06.2008 à 12.33 h
    En ligne ici
    5

    Moi non plus... pas chercheur (mais quand même un peu technicien)... mais j’ai le sentiment que la persistance rétinienne a quelque chose à voir avec tout ça. Et moi aussi, je serais curieux d’en savoir plus.

    Envoyé par Bayonne, le 25.06.2008 à 00.32 h
    6

    Merci d’exister !
    Mais non, tu n’es pas le seul vieux con à essayer de réfléchir !
    Pas de contenu profond, je découvre avec plaisir ton site à l’instant.

    Envoyé par aldebaran, le 25.06.2008 à 14.56 h
    7

    Ayant un peu étudié tout ça, je peux tenter de répondre à votre question.

    A Bayonne : la persistance rétinienne n’a rien à voir ici, car elle est dûe à la vitesse maxi de déplacement de l’oeil (qui se déplace avant chaque "focalisation"), la saccade oculaire, qui est de 300ms. D’où la capacité maxi de notre oeil, et les effets de cinéma ou autres. Je pense que ça n’a pas d’influence sur une image fixe.

    Le contraste est géré par des réseaux de neurones (très simples) qui amplifient les contrastes... locaux. L’adaptation à la luminosité est un processus chimique qui se déroule dans les cellules dédiées à ça, plutôt à la bordure de la rétine.

    La photographie est une situation différente, car le cerveau "apprend" à reconstituer la "réalité" à partir d’une image. Le contraste local est troublant car il modifie notre interprétation : cela va demander un temps d’apprentissage. D’où notre choc, alolrs que nous avions appris à "lire" les ombres des photos, et reconstituer la sensation de profondeur par exemple.

    D’une certaine manière, l’opération numérique amplifie le travail des réseaux neuronaux, d’où une image plus "claire".

    Sinon, moi aussi j’ai une question : on peut faire ça sous Gimp ??

    Envoyé par zets, le 26.06.2008 à 04.42 h
    8

    Merci à zets pour ces importantes précisions. C’est vrai qu’il y a quelque chose de « troublant » dans les images où le contraste local est appliqué avec une certaine vigueur.

    Malheureusement je n’ai encore jamais testé Gimp. Mais il me semble qu’au minimum, dans un programme dont on peut lire beaucoup de bien, un outil aussi basique qu’Accentuation devrait s’y trouver. Pour le reste...?

    Envoyé par Béat, le 26.06.2008 à 16.45 h
    En ligne ici