Mots d'images

Il y a 3 billets répondant au
mot clé «archétype»

Je reprends une illusion d’optique, bien connue, due à Edward H. Adelson, car elle met en lumière certains effets du contraste local. Cette illusion illustre parfaitement le fait que notre système visuel est bien plus sensible à la valeur relative de la luminosité qu’à sa valeur absolue, comme je l’expliquais dans mon précédent article sur le contraste local. Autrement dit - et c’est E.H. Adelson qui le relève - notre oeil serait un bien mauvais posemètre ! En effet, pour bien comprendre la nature des objets qui nous entourent, notre système visuel doit pouvoir interpréter subtilement les différences de luminosité, même si cela doit se faire au détriment d’une mesure correcte de la luminosité absolue.
Dans l’image ci-dessous, les 2 carrés A et B nous apparaissent chacun d’un gris bien différencié de l’autre...

En réalité, ils sont exactement du même gris !!
Tout le monde est surpris et reste sceptique à cet énoncé. Passez la souris sur l’image pour voir l’évidence : les 2 bandes verticales ajoutées sont du même gris que les 2 carrés et prouvent qu’ils sont bien de la même couleur. Mais comment cela se fait-ce ? E.H. Adelson nous fournit des explications (que j’adapte librement) :
Pour déterminer la nature des objets observés, notre système visuel ne peut se contenter de mesurer leur luminance. Dans notre exemple, une ombre portée modifie la valeur de gris réfléchie par certains carrés du damier. Le système visuel utilise plusieurs stratégies pour compenser cet effet :
• Une première approche est basée sur le contraste local (le revoilà). Chaque carré est comparé à ses voisins immédiats. Un carré entouré d’autres plus foncés est jugé « blanc », alors qu’un autre, entouré de carrés clairs est jugé « noir ». Et cela qu’il y ait une ombre portée ou pas.
• Le système visuel tend à ignorer les changements graduels de luminosité (celle de l’ombre portée), lui préférant les limites nettes (celle des carrés). Les ombres ayant souvent des bords flous, leur perception est de ce fait diminuée au profit du dessin précis des carrés. Ici, l’effet d’ombre portée est d’autant mieux perçu que l’objet qui le produit est visible dans l’image.
• Le damier est reconnu comme un ensemble géométrique où 2 tons différents alternent régulièrement. La couleur de chaque carré est prévisible et ne saurait donc « mentir ».

Cela doit nous rendre attentifs à la construction des images et à leur fonctionnement qui peut parfois nous échapper. Je ne parle évidemment pas, ici, de la portée conceptuelle ou métaphorique des images, mais de la perception primaire des « objets » qu’elles sont sensées représenter. Une représentation dénuée d’ambiguïtés dans la forme me semble un prérequis nécessaire pour qu’une image puisse délivrer son fond. (À moins que l’ambiguïté ne soit expressément recherchée ! Mais cela ne me semble pas toujours être le cas ;-)

Edward H. Adelson est Professor of Vision Science - Dept. of Brain and Cognitive Sciences - Massachusetts Institute of Technology (MIT). Il présente ici son illusion d’optique. Sur ce document (Lightness Perception and Lightness Illusions) il nous expose en détail et à l’aide de nombreuses illusions d’optique sa théorie de la perception de la luminance. Si vous avez aimé cela, vous trouverez d’autres illusions d’optique ici. Et si décidément l’été se fait pluvieux, en voici d’autres encore.

PS 1 : Les sceptiques qui n’en croient toujours pas leurs yeux - il en reste, je le sais ! - sont en général les mêmes qui ne croient pas que la lune a le même diamètre à son lever qu’au plus haut dans le ciel... (Tentative de) persuasion ici.

PS 2 : Dans ce billet, je vous ai parlé de 2 carrés et vous avez très bien compris que je désignais en réalité des parallélogrammes qu’on peut voir sur l’image... Autre exemple de l’interprétation que nous faisons de ce que nous voyons ;-)

Béat Brüsch, le 6 juillet 2008 à 16.30 h
Rubrique: Un peu de technique
Mots-clés: archétype , numérique , technologie
Commentaires: 0
et son influence sur nos archétypes esthétiques

La technique façonne le média. En photo argentique, de nombreux artefacts provoqués par des caractéristiques ou des limitations techniques sont devenus des archétypes esthétiques (grain, flou, déformations optiques, etc). Avec les techniques numériques - en grande rupture par rapport aux argentiques - nos canons esthétiques seront immanquablement modifiés, poussés par des particularités techniques jamais encore appliquées. Parmi celles qui ont déjà un impact, il faut relever les techniques qui sont liées au contraste local.

Le contraste local est une notion utilisée depuis longtemps par les chercheurs en perception visuelle. Ses données sont analysées et prises en compte en tant que paramètres dans l’élaboration de différentes théories scientifiques ayant trait à la vision. [1]

Ici, cette notion nous permettra surtout de mieux comprendre certaines différences entre nos perceptions visuelles et ce que peut recueillir un capteur photographique, que celui-ci soit argentique ou numérique. Avant les traitements numériques, elle n’avait jamais trouvé de réelle application pour l’élaboration des images. Chez les photographes, ce n’est que fortuitement que son principe a été appelé en renfort pour expliciter le résultat de quelques bidouillages ! Mais, commençons par le début...

Tout le monde sait ce qu’est un contraste : dans le monde visuel, c’est le rapport entre des zones claires et des zones sombres. La juxtaposition de noir et de blanc provoque, par exemple un fort contraste, alors que celle de deux gris moyens offre plutôt un faible contraste. Notre oeil distingue bien évidemment ces contrastes, mais il a une manière particulière de les appréhender. Faut-il redire qu’à la différence d’un appareil photo, notre oeil (et le cerveau qui lui est lié) opère des interprétations de ce qu’il voit ? L’appareil photo, lui, capture des images, d’une manière qu’on peut qualifier de « mécaniquement objective », ne seraient ses défauts techniques inhérents, par ailleurs connus et prévisibles.

L’étendue des tons - du plus sombre au plus clair - visibles dans la nature est très large. Notre oeil peut capter cette gamme dans son intégralité, mais dans certaines conditions seulement : il ne peut la couvrir de façon détaillée en un seul regard. Par contre, en fixant des zones différentes, la pupille s’adapte à la luminosité de ces zones et laisse passer des informations spécifiques. Par exemple, éblouis par un ciel clair nous ne percevons pas les détails dans les ombres. Mais si nous dirigeons notre regard vers ces ombres nous pouvons en distinguer certains. Pour bien le constater, exagérons cet effet en tenant devant nous un carton noir percé d’un trou (voir simulation ci-dessous en passant la souris sur l’image). Le carton, en occultant la forte luminosité du ciel, permet à l’oeil (à l’iris) de s’adapter à la luminosité plus faible des ombres.

Le phénomène se produit également dans des conditions normales (sans utiliser ce carton noir), mais dans des proportions moindres, car la vision périphérique prend en compte la luminosité de tout notre champ de vision. Notre oeil, en déplaçant son regard, non content d’adapter constamment sa focale, s’adapte aussi à la luminosité de la zone qu’il fixe, nous permettant ainsi de discerner des détails (voir simulation dans l’image ci-dessous en passant la souris sur l’image). L’effet n’est évidemment pas ressenti comme sur cet exemple, car notre cerveau - merveille de la nature - retraite ces informations morcelées et nous fait croire à la continuité de ce que nous voyons. Mais si nous avions un cerveau moins perfectionné, nous pourrions bien le ressentir comme cela ;-)

La grande gamme dynamique disponible est donc constituée d’une infinité de tons intermédiaires que nous ne discernons pas immédiatement. Quand notre regard se déplace, notre oeil ne fait rien d’autre que de tenter d’isoler une zone du reste du champ de vision. En faisant cela, il sélectionne une partie seulement de la gamme des tons disponibles. Mais dans cette gamme réduite, qui occupe ainsi tout son champ d’analyse, et cela grâce à de nouvelles conditions de luminosité, des tons intermédiaires se révèlent. De nouvelles conditions de contrastes, différentes de celles qui affectent l’ensemble du champ de vision, sont ressenties par notre système de vision. On les appelle des « contrastes locaux », par opposition au contraste « global », que nous connaissons tous. L’ensemble de ces mesures ponctuelles nous permet ainsi d’appréhender, au fur et à mesure, toute l’étendue et tous les détails de la gamme dynamique.

Le graphique ci-dessus montre à sa manière le phénomène d’augmentation du nombre de tons intermédiaires - Attention : ce dessin n’a rien de scientifique, il tente juste de traduire un « ressenti ».
• 1 : gamme de 26 niveaux de gris (remarquez au passage combien votre écran a déjà du mal à les afficher tous !).
• 2 : augmentation du nombre de tons intermédiaires par rapport à une certaine partie de la gamme dynamique (dans les tons foncés et dans les tons clairs). On remarque que, dans la direction des tons moyens (vers le milieu de la gamme), il y a une « création exagérée » de nouvelles nuances.

En photo, les choses se présentent d’une manière fort différente. Un capteur numérique n’est pas capable d’enregistrer toute l’étendue de la gamme dynamique [2] !. Pire, nos dispositifs de visionnage sont très limités et ne permettent souvent pas de voir l’intégralité de la gamme enregistrée par le capteur. Un bon écran d’ordinateur n’est capable, en théorie, d’afficher que 256 niveaux de gris. (Les blancs de la nature sont infiniment plus blancs que ceux de vos écrans ! - même remarque pour les noirs.) Et cela se gâte sérieusement si nous voulons imprimer une image : pour l’offset, environ 90 niveaux de gris. Comme nous voulons tout de même voir les extrêmes (les noirs et les blancs) la gamme affichée entre ces deux pôles manque de nuances : beaucoup de valeurs intermédiaires sont tout bonnement absentes. Sans autre intervention, les images présentent alors souvent des noirs « bouchés » et des blancs « brûlés ». On peut certes corriger sommairement ces défauts à la prise de vue en privilégiant, par exemple, les tons foncés, mais c’est alors les tons clairs qui en pâtissent et vice versa. Dans nos logiciels, on peut aussi, dans certaines limites, reproduire les vieilles recettes du labo argentique en jouant de la « maquillette »... C’est à dire, en sur-exposant certaines zones et en sous-exposant d’autres. Mais ces effets sont limités.

La grande différence entre une reproduction photographique et la vision directe de la même scène est que, sur la photo, toutes les informations sont figées (vous vous en doutiez, mais à ce point de l’exercice il est important de le souligner !). Notre oeil a donc beau chercher, même en s’y arrêtant avec insistance, il ne trouvera rien de plus dans les différentes zones de l’image que ce que montre l’écran ou l’imprimé.

Nous savons que le capteur a enregistré plus de niveaux de gris que les 256 que nous pouvons afficher (au mieux). De nombreuses techniques numériques, de plus en plus sophistiquées, ont été développées pour faire « remonter » ces informations et les rendre visibles tout en tenant compte des piètres performances de nos dispositifs de visionnage. L’une des premières, très simple et très efficace, a été « découverte » -comme le relate Michael H. Reichmann (en 2003) sur son site Luminous Landscape - par Thomas Knoll (qui n’est autre que l’inventeur de Photoshop). Le plus étonnant est que la technique est basée sur l’utilisation détournée d’un filtre « classique » du logiciel !

Dans mon billet sur la netteté des images je montrais comment on leurrait notre regard en augmentant le contraste des pixels sur les contours des objets. Cela se fait (sur Photoshop) à l’aide du filtre Accentuation [3]. Ce filtre détecte les contours et leur ajoute du contraste sur une zone (un halo) qui peut s’étendre, de chaque côté du contour, de 1 à ... disons 3 pixels. (On peut évidemment y régler d’autres paramètres que je n’aborderai pas ici, c’est déjà assez pénible pour les technophobes ;-). Certains bidouilleurs (au rang desquels je n’oserais ranger Thomas Knoll - mais pour moi le terme n’est pas infamant) ont remarqué que ce petit halo, utile pour améliorer la netteté, pouvait être élargi jusqu’à des valeurs de 50 ou 100 pixels et produire des effets spectaculaires. [4] Quand l’augmentation du contraste est appliquée sur une si large étendue, le logiciel « remonte » des informations sur les tons intermédiaires qui n’étaient pas affichés avant. Ci-dessous : l’image entière à laquelle a été appliqué ce procédé (passer la souris...)

De fait, une photo traitée de cette manière, présente en continu et en permanence, tous les détails que l’oeil devrait « fabriquer » s’il était en condition de vision directe de la même scène. Ce n’est donc qu’une tentative d’« imitation de la réalité » de plus ! Une image, quoi ;-) L’effet obtenu, si la correction est appliquée modérément, nous fait ressentir l’image comme nettoyée, désembuée. Un peu comme nous pouvons le voir dans un ciel de traine, après que l’atmosphère ait été nettoyée par d’abondantes pluies. Notre cerveau, cherchant dans sa panoplie des possibles, trouve là probablement, un élément d’explication...

Précisons qu’il n’y a pas plus de niveaux de gris sur une image de ce type. On « se débrouille » avec ceux que l’on a, mais on les redispose d’une manière « plus profitable ». Et ça marche, car notre oeil est plus sensible à la valeur relative de la luminosité qu’à sa valeur absolue. Remarquons que sur les images, le contraste « local » n’est pas plus une vision idéalisée que le contraste « global ». Aucune de ces visions des contrastes ne correspond vraiment au monde tel qu’on peut le voir en direct. Tout au plus, peut-on affirmer que le contraste « local » tend à nous rapprocher un peu plus d’une bonne description de la « réalité » (et encore !).

Les images ci-dessous (oui, avec la souris...) permettent de comparer les différences entre le contraste « global » et le contraste « local »...

Comparaison original > contraste global

Comparaison original > contraste local

Comparaison contraste global > contraste local

Il est clair que pour obtenir une bonne image il conviendrait de jouer des 2 effets, mais ce n’est pas le but de cet exercice ;-)

Ces résultats ont (probablement) motivé la recherche d’autres possibilités logicielles permettant d’exploiter une plus grande dynamique des tons. Plusieurs nouvelles fonctionnalités allant dans ce sens ont ainsi vu le jour dans nos programmes d’imagerie en proposant des réglages à la fois plus ciblés, plus intuitifs et plus puissants. [5]

Sur cette image (oui la souris...) on observe bien ce fonctionnement de « révélation » de nouveaux contrastes locaux. Remarquez que les bords de l’ombre de l’arbre (p. ex. sur le chemin) ne changent pratiquement pas. Tout se passe à l’intérieur de la partie ombrée.

Voilà pour les prodiges de la technique. Si je vous impose ces laborieuses explications, ce n’est pas juste pour nous émerveiller des beautés de la nature et du génie humain ! Mais c’est que ces nouvelles possibilités vont avoir (et ont déjà) des influences sur l’apparence des images. À cet instant, il n’est pas possible de préjuger de l’étendue des modifications que vont engendrer ces technologies. Mais il me parait utile de pouvoir déjà noter le phénomène, l’identifier, le reconnaitre. Il faut souligner ici, que les modifications qu’opèrent ces technologies sur les images sont véritablement innovantes, en ce sens qu’elles n’avaient jamais pu être réalisées auparavant en argentique.

Nous avons tous, peu ou prou, une culture imagière basée sur la somme des images que nous avons vues. Par exemple, nous nous sommes tous habitués à ces clairs-obscurs - chers aux peintres de la renaissance - que la photo s’est en quelque sorte réappropriés, aidée en cela par des contraintes techniques intrinsèques. Ces noirs profonds dessinant de belles compositions graphiques et masquant les détails à notre regard - les transformant en autant de mystères - sont devenus des éléments constitutifs de nos canons esthétiques. Va-t-on, parce que la technique le permet, remplir ces ombres de détails ? Allons-nous compter toutes les feuilles des arbres ? Les ciels sereins de nos photos, vont-ils systématiquement présenter des visions d’orages apocalyptiques ? Bref, comment notre culture visuelle va-t-elle intégrer ces changements ?

Dans une vision optimiste, on peut penser que pour les domaines de l’expression personnelle (de l’art !) ces nouvelles perspectives apportent un plus riche potentiel de créativité. Mais en parallèle, il faut s’attendre aussi à tout autant d’excès mal venus (selon Audiard, il y en a « qui osent tout » ;-) Cela reste évidemment très subjectif, car, sous l’empire des archétypes esthétiques d’aujourd’hui, nous ne pouvons préjuger de ceux de demain.

Dans une perspective utilitariste, il faut reconnaitre qu’appliquées avec mesure, ces techniques peuvent apporter leur lot d’enrichissements visuels en révélant sur une image bien plus de détails qu’on pouvait en espérer avant. Les documentaristes apprécieront. Mais gare aux illusions : trop d’informations noient l’information ! La multiplication d’éléments anecdotiques peut agir comme un élément perturbateur de l’expressivité des images. La profusion de détails va-t-elle devenir un artefact constitutif de l’esthétique de nos photos ? Je vous laisse imaginer ce que ces techniques, appliquées sans discernement à des visages, peuvent y révéler de détails qu’on cherche d’ordinaire à cacher...

Dans l’image ci-dessous (la souris... pfhh), on peut se demander ce qu’apporte le débouchage des noirs... Les botanistes y verront peut-être des éléments dignes d’intérêt, mais je ne suis pas sûr que tout le monde y trouve son compte...

Ma vraie crainte est la généralisation de ces technologies dans des processus automatiques ignorés et ingérables par les utilisateurs (dans des appareils compacts, imprimantes, labos de tirages papier, etc). Après avoir vu débarquer des fonctions telles que la reconnaissance des visages ou la détection des sourires, il ne faut plus s’étonner de rien : la standardisation est en marche ! En vieux con pessimiste - ayant connu la vie ante-digitale - je constate que sur le fond, la standardisation (celle qui nivelle toujours par le bas !) intervient quasi automatiquement dans les réalisations résultant des activités « d’avant » dont s’empare l’informatique. C’est un de ses effets collatéraux majeurs qui est souvent masqué par la brillance des technologies et leur démocratisation. Mais peut-être que cette standardisation permettra justement à des auteurs intelligents, cultivés, habiles et créatifs d’en émerger... Que ces derniers utilisent alors, ou non, ces nouvelles technologies est une question secondaire.

Notes:

[1] Quelques éléments d’intérêt :
Contrast and visibility / Rapport CIE 95, 1992 / Roland Brémond : « La première étape de traitement de l’information visuelle a lieu avant les récepteurs photosensibles de la rétine : la lumière incidente traverse une couche de cellules, de taille importante par rapport à l’espacement entre les cônes de la rétine, et qui participent à l’extraction de détails fins. Ce processus reste mystérieux. »
Nous voilà bien avancés ;-)
Quelques traitements bas niveau basés sur une analyse du contraste local / A. Le Negrate, A. Beghadi, K. Boussaïd-Belkacem : « Ce traitement a pour effet de déplacer le niveau de gris du pixel d’une quantité proportionnelle à l’écart par rapport au niveau de gris moyen des contours. Notons qu’un pixel appartenant au contour n’est pas modifié. Il s’agit donc d’une transformation bidirectionnelle. Ceci a pour conséquence immédiate de renforcer le contraste tout en préservant la position des pixels des contours. »
On voit ici que bien avant que la pratique ne se répande chez les photographes, des chercheurs s’étaient penchés (1989) sur ce type de traitement...
Wikibooks : Photographie / 14 - Netteté des images photographiques / L’œil et la perception de la netteté : « La perception d’un fin détail dépend en fait au moins autant, sinon plus, du contraste local et de la netteté de ses bords que de ses dimensions. Placé à 1 m d’une surface blanche bien éclairée, l’œil « normal » y distinguera sûrement un point noir de 0,25 mm de diamètre mais pas une chiure de mouche jaune pâle de 1 mm de diamètre, pourtant beaucoup plus grande. »

[2] Pour un écran standard, la gamme dynamique a un rapport de 256:1 (en 8 bits, donc en noir/blanc). En couleurs, chaque canal étant codé sur 8 bits nous obtenons 256 x 256 x 256 = 16 millions de couleurs. Mais cela ne change rien au problème de fond : la luminosité n’a toujours que 256 niveaux. (Nous pouvons le constater si nous passons en mode Lab.) Certains APN, en format Raw, codent les informations jusqu’à 14 bits et peuvent théoriquement capter une gamme dynamique allant jusqu’à 16364:1. Mais la gamme dynamique des scènes réelles est encore beaucoup plus étendue : un paysage ensoleillé peut offrir un rapport de 100’000:1, voire plus

[3] Mal nommé en anglais : Unsharp Filter

[4] Il semblerait donc qu’une fois de plus, la sérendipité - qui aurait déjà valu à Daguerre une découverte importante dans la mise au point du daguerréotype - soit à l’origine de nouvelles percées techniques dans le monde de la photographie...

[5] La commande « Tons foncés/Tons clairs » de Photoshop (utilisée dans la plupart des exemples de cette page) va dans ce sens et exige déjà un certain doigté pour ne pas tomber dans l’excès, comme je l’ai fait pour bien le montrer. DxO Optics Pro, de son côté, propose des traitements pouvant avoir des effets pour le moins spectaculaires, avec le défaut - à mon avis - qu’ils font partie des réglages standards que peu de gens vont désactiver, ou du moins tempérer. D’autres techniques, par exemple la HDR (High Dynamic Range), sur laquelle nous reviendrons, peuvent produire des résultats proprement hallucinants, capables de bousculer gravement nos habitudes visuelles.
NB : Sur tous les exemples de ce billet, les procédés ont été appliqués sur l’image entière. Il est bien évident que, pour obtenir des résultats optimaux, on peut les appliquer (ou pas, ou de manière différenciée) sur des zones choisies. Certains logiciels (Nikon Capture) sont d’ailleurs axés sur cette particularité.

Béat Brüsch, le 24 juin 2008 à 01.35 h
Rubrique: Un peu de technique
Mots-clés: archétype , esthétique , numérique , technologie
Commentaires: 8

Depuis quelque temps on assiste à l’émergence de logiciels permettant d’ajouter aux images numériques du grain argentique ou des couleurs typiques de certains films. C’est ainsi que l’on peut choisir de grainer ses photos à la manière du TriXPan ou du non moins célèbre HP4. On peut également donner à ses couleurs un aspect Velvia ou Kodachrome. Certaines fonctions autorisent même la simulation de traitements de labo particuliers. film 24x36 Sans aller jusqu’à évoquer toutes les possibilités d’utiliser ces commandes à mauvais escient (par défaut d’expérience argentique) je me demande quelle peut bien être l’utilité de tels procédés. Nostalgie d’un temps proche, mais révolu ? Sommes-nous incapables de nous passer des artefacts de la photo argentique ? Oui, j’ai dit artefact... car cela me permet de rappeler que bon nombre de caractéristiques visuelles de la photo argentique sont induites par la technologie. Les lois physico-chimiques étant ce qu’elles sont, leur mise en oeuvre pour la réalisation de films et d’émulsions a produit des effets collatéraux qui n’étaient sûrement pas voulus. Je ne peux imaginer que des « inventeurs » aient vraiment souhaité avoir du grain sur leurs photos. Cela s’est fait malgré eux, grâce aux procédés utilisés. Bien sûr, le génie humain a rapidement assimilé ces caractéristiques pour en exploiter les qualités poétiques. On a même développé toute une esthétique autour de ces particularités. Et les labos en ont remis une couche en proposant un grain plus beau que celui du concurrent. Et les photographes ont adoré cela, parfois en signant leur production d’un grain particulier, un peu comme une marque de fabrique. Le petit format et les émulsions rapides n’ont fait qu’accentuer le phénomène. On peut tenir le même raisonnement à propos d’autres contraintes techniques (de labo) qui ont orienté l’esthétique de la photographie, donnant par exemple des types particuliers de nuances colorées ou des échelles de gris spécifiques. Notre culture visuelle est fortement imprégnée de tous ces attributs de forme. Il n’est pas question ici de la renier, car elle nous fournit des repères indispensables. Mais en même temps, j’ai un peu peur que cela nous empêche de voir, d’imaginer et d’explorer d’autres modèles, bref, de développer une véritable vision débarrassée de ses oripeaux. Les technologies numériques nous ont libérés de bon nombre de contraintes techniques du passé. Servons-nous-en de façon créative et non pour produire du faux vieux ! Si vous tenez vraiment à l’argentique, le vrai, avec les odeurs aigrelettes du labo et tout ce qui va avec, c’est peut-être le bon moment de vous lancer, car les boutiques de photo regorgent de matériel d’occasion. Souvent du matériel légendaire, une véritable aubaine ! Sur le blog très documenté de Volker Gilbert, vous trouverez un article présentant toutes les nouveautés de ce secteur, qui semble assez productif. Tiens, je me demande quand on nous proposera (si ce n’est déjà fait ?) un plug-in offrant un choix de bordures de films pour faire encore plus vrai ?

Béat Brüsch, le 2 février 2007 à 10.55 h
Rubrique: Les nouvelles images
Mots-clés: archétype , argentique , esthétique
Commentaires: 2