Mots d'images


Béat Brüsch, le 14 janvier 2015 à 00.29 h
Rubrique: A propos d’images
Pas de mots-clés
Commentaires: 0

Béat Brüsch, le 7 janvier 2015 à 18.42 h
Rubrique: A propos d’images
Pas de mots-clés
Commentaires: 0
Les grands classiques

À l’occasion de l’exposition Philippe Halsman au Musée de l’Élysée, je « remonte » ce billet datant du 29 août 2009. L’exposition a lieu du 29 janvier au 11 mai 2014. Elle sera au Musée du jeu de Paume de Paris l’année prochaine, puis à Rotterdam, Madrid, Barcelone…

La plupart des liens d’origine sont cassés - ce qui en dit long sur la pérennité des sites internet ! - et je n’ai pu en remplacer que deux.


En 1948, au lendemain d’une guerre qui a vu l’émergence de l’ère atomique, Philippe Halsmann et Salvador Dali sont impressionnés par les « nouvelles » lois de la physique. Leur imaginaire est excité par les hypothèses les plus prodigieuses de la science. On parle d’antigravitation, d’antimatière... Ils essaient de visualiser ces folles perspectives : tout doit être en suspension, comme dans un atome ! Ils travaillent ensemble à l’élaboration de divers concepts avec des objets en lévitation. Dali, de son côté, poursuit la réalisation de Leda Atomica, une toile que l’on voit (non achevée) à la droite de la photo et dans laquelle presque tous les éléments sont aussi en lévitation. Ce n’est, bien sûr, pas la seule caractéristique de ce tableau, mais c’est celle qui nous intéresse ici. (Lien cassé. Voir ici pour un texte et là pour une image)

JPEG - 187.6 ko

Cliquer pour agrandir

Influencés par la célèbre photo de Harold Edgerton montrant, en instantané, des gouttes de lait en suspension (lien remplacé), ils pensent d’abord réaliser leur image en utilisant du lait. Mais ils choisissent de le faire avec de l’eau pour ne pas choquer les Européens qui sortent d’une dure époque de privations. (Chaque époque a ses tabous. Aujourd’hui, la provocation étant devenue un mode de promotion très recherché, on n’aurait sans doute pas hésité.) La séance de prises de vues a fait les beaux jours des collectionneurs d’anecdotes. La chaise de gauche est tenue en l’air par l’épouse de Halsman. On compte jusqu’à trois : les assistants lancent 3 chats et un seau d’eau. À quatre, Dali saute en l’air et Halsmann déclenche. Pendant que tout le monde récure le sol et console les chats, le photographe développe le film pour voir le résultat. Au bout de 6 heures et 28 essais, la photo est bonne ! Très vite elle parait sur une double page de Life et fait sensation.
En réalisant par la photo, un concept qui aurait tout aussi bien pu être peint (par un virtuose comme Dali !), c’est un peu le réalisme qui s’invite à la table du surréalisme ;-) Mais c’est justement cela qui fait la force de cette oeuvre. On joue avec notre perception de la matérialité en nous montrant des faits extraordinaires traités comme des situations avérées. Et je ne peux m’empêcher de me demander si aujourd’hui on aurait procédé de même pour réaliser cette image...? Quel photographe se donnerait tant de mal pour un résultat aussi aléatoire ? Alors qu’en assemblant différentes prises de vues, on obtiendrait un résultat tout aussi bon, avec de meilleures chances de succès. D’ailleurs, la première fois que j’ai vu cette photo (c’était bien avant Photoshop), je n’arrivais pas à croire qu’elle était le résultat d’une seule prise de vue, sans montage. J’entends d’ici, hurler les puristes, pensant que la photo est comme un jeu de tir à l’arc et qu’il suffit de déclencher au bon moment pour saisir « l’instant magique » et produire une bonne image.
Tout en ruminant mes considérations un peu malveillantes, j’ai été attiré par quelques détails troublants... Dali est devant un chevalet de peintre. Il y a une toile sur le chevalet (encadrée : drôle de façon de peindre !). Si on examine l’ombre située au-dessous, on voit bien celle de Dali qui se confond avec celle du pied du chevalet. Mais on voit aussi très clairement, à la place de la toile, un cadre vide, au travers duquel passe la lumière. On distingue même le montant central du chevalet, sur lequel vient normalement s’appuyer la toile en chantier. On devine aussi ce montant derrière le rideau d’eau. Alors... la toile a-t-elle été ajoutée après coup ? A la recherche des conditions de copyright de cette image sur le site de la Library of Congress, je suis tombé sur la photo originale... que je vous laisse découvrir pour jouer au jeu des 7 erreurs.

JPEG - 126.6 ko

Cliquer pour agrandir

Philippe Halsman est né en 1906 à Riga (Lettonie). Il fut d’abord ingénieur électricien. En 1931, il s’installe à Paris et devient photographe. Ses premières photos paraissent dans Vogue. Il devient un portraitiste à la renommée grandissante. Au moment de la guerre, il obtient un visa pour les États-Unis et s’installe à New York. Il réalisa 101 photos de couverture pour Life et bien d’autres encore pour Look, Paris-Match ou Stern. Ses portraits d’Einstein, de Groucho Marx, de John F. Kennedy, de Winston Churchill, de Marilyn Monroe et de bien d’autres célébrités sont dans toutes les mémoires. Après ses expériences avec Dali, il devint aussi un spécialiste de « jumpology », sport qui consistait à demander aux personnes photographiées de sauter en l’air. Selon lui, cela faisait « tomber le masque et révélait la personne » (trad. libre).
Pour rédiger ce billet, je me suis inspiré, en plus des liens accessibles directement depuis le texte, des sources suivantes :
- Philippe Halsman : Dali Atomicus - by : Brandon Luhring (Lien cassé)
- When He Said "Jump..." - Philippe Halsman defied gravitas (Lien cassé) - by Owen Edwards (à voir : un petit diaporama avec des photos de Jump)
- Dossier réalisé pour l’exposition rétrospective de Philippe Halsman par la National Portrait Gallery (plusieurs pages, dont une galerie de photos)

Béat Brüsch, le 29 janvier 2014 à 23.15 h
Rubrique: Les grands classiques
Mots-clés: photographe , retouche
Commentaires: 0

Une prise de position parue ce jour dans Le Courrier nous rappelle l’affaire de censure d’un livre de photo de Christian Lutz. Dans une conférence de presse tenue le 7 février, le Musée de l’Élysée nous révélait que le livre In Jesus’ Name (2012), que le photographe a réalisé en immersion dans la secte ICF (International Christian Fellowship) à Zürich, avait été provisoirement interdit par une décision de justice. Bien que le photographe ait été dûment accrédité par les dirigeants d’ICF, 21 personnes se sont plaintes d’une atteinte au droit à l’image.

Liens :
- Communiqué du Musée de l’Élysée du 7 février 2013 (.pdf)
- Article d’Arnaud Robert, Le Temps du 8 février 2013
- Prise de position de Pascale et Jean-Marc Bonnard Yersin, Directeurs du Musée suisse de l’appareil photographique à Vevey, dans Le Courrier du 28 février 2013
- Page de Christian Lutz à l’agence VU

Au-delà de la reconnaissance du droit, pour les photographes, de témoigner en images de toutes les joies et turpitudes du monde, nous osons espérer à minima que l’« effet Streisand » se déploie avec la vigueur qui sied à toute (tentative de) censure.

Béat Brüsch, le 28 février 2013 à 18.33 h
Rubrique: Droit des images
Mots-clés: censure , droit
Commentaires: 0

L’apparition des écrans Retina [1] sur les mobiles, les tablettes, puis maintenant sur certains ordinateurs portables d’Apple fait les délices des amateurs (fortunés) de technologies dernier cri. Ces écrans présentent une résolution correspondant au double de celle des écrans traditionnels. Les éléments visuels (textes, icônes, images) y sont affichés avec une grande finesse et un piqué remarquable, au point qu’on ne discerne pratiquement plus les pixels. Les typographies, mieux lissées, apportent aussi un meilleur confort de lecture.

Jusqu’à aujourd’hui, les écrans Retina n’étaient utilisés que sur des périphériques mobiles tels que smartphones et tablettes. Leur arrivée sur de « vrais » ordinateurs soulève quelques problèmes. Il faudra que l’industrie logicielle, et en particulier celle qui est consacrée au web, digère cette nouvelle norme. Car il ne faut pas se leurrer, il s’agit bien d’une nouvelle norme. Les normes industrielles ne sont pas toujours édictées par une assemblée de bons esprits éclairés qui se concertent longuement pour inventer les progrès censés faire le bonheur de l’humanité. Souvent, ces normes s’établissent de force par une saturation du marché. Apple a pris l’habitude de mettre en place des changements radicaux sur ses produits, dont plusieurs (mais pas tous !) finissent, après quelques cris d’orfraie, par devenir des standards suivis par tous les industriels bien obligés de s’adapter pour rester dans la course. On peut parier qu’à terme, tous les fabricants de dalles proposeront ce type d’écrans à des prix toujours plus accessibles. Et on peut parier, avec presque autant de certitude, que ces nouveaux écrans deviendront un jour majoritaires. Et l’industrie logicielle suivra.

C’est une chose que d’imposer des modifications logicielles sur des appareils aussi récents que les smartphones et les tablettes, c’est à dire dans un écosystème où il est facile pour une marque dominante d’imposer ses normes. Mais c’en est une autre, que de s’adresser à l’ensemble du parc informatique existant sur lequel on n’a que peu de prise. Pour le web, qui en 30 ans a réussi tant bien que mal, à se développer indépendamment du hardware, le coup sera dur. On peut parler d’un paradigme technique…

Précisons que nous ne parlons ici que des images pixelisées. Les images vectorielles, tout comme la typographie - vectorielle elle aussi - ne posent pas de problèmes de résolution et s’adaptent sans peine aux nouveaux écrans.

Petits rappels autour de la résolution des images.

Une image diffusée par un écran est composée de pixels. La taille des images se mesure en nombre de pixels. Sur internet, les images sont depuis les débuts affichées avec un ratio de 1. Par exemple, une image de 100 pixels de large occupera 100 pixels en largeur sur votre écran. Ça à l’air idiot, mais c’est une précision utile pour comprendre la suite. Les pixels n’ont pas de taille définie, ils contiennent juste des informations colorimétriques. C’est le nombre de pixels par pouce de l’écran - sa résolution - qui détermine la dimension de l’image sur cet écran. Ainsi, notre image de 100 pixels de large s’affichera plus petite sur un écran en haute définition que sur un écran « normal », car ses pixels y seront plus petits. La résolution est déterminée par le nombre de pixels par unité de surface (elle s’exprime en pixels par pouce (ppp) ou dpi en anglais).

Les écrans des ordinateurs portables ont, depuis longtemps, tendance à afficher une résolution de plus en plus élevée. La conséquence - que tout le monde a pu remarquer - est que les contenus sont affichés de plus en plus petits par rapport aux écrans « normaux ». Les écrans Retina affichant une résolution de près du double, on ne pouvait laisser ce principe se perpétuer. Pour afficher les éléments visuels dans une dimension acceptable, Apple décide donc d’appliquer un ratio de 2 à ces nouveaux écrans. Cela implique que pour remplacer une image qui jusqu’ici mesurait 100 pixels de large, il faut maintenant fournir une image de 200 pixels de large (et la hauteur change en proportion, hein). Le gain immédiat est une image avec une netteté et un piqué extraordinaires, encore jamais vus sur un écran. Une autre conséquence, tout aussi immédiate, est que le poids de cette image a quadruplé ! (100 x 100 = 1000 / 200 x 200 = 4000). On comprend que pour traiter des images aussi lourdes il faudra des puissances de calcul bien plus élevées que celles que nous connaissons. Pour le web, il faudra en plus, des bandes passantes très performantes pour ne pas ralentir le chargement des images.

Que se passera-t-il avec les « anciennes » images ?

Ces images seront dorénavant sous-échantillonnées par rapport à la nouvelle norme. Pour être vues sur un nouvel écran, elles seront artificiellement agrandies. Pour afficher 200 pixels là où il n’y a de l’information que pour 100 pixels, un logiciel ne peut rien faire de plus que d’« inventer » des pixels intermédiaires par moyenne des pixels environnants. Même le robot le plus malin ou l’algorithme le plus fou ne réussiront pas à remplacer l’information manquante ! Le résultat sera une image un peu floue. En fait, ces images ne seront pas subitement devenues mauvaises, mais leur confrontation avec les « nouvelles » images en haute résolution leur donnera un petit aspect vieillot. Les milliards d’images déjà publiées sur le Net seront-elles mises aux normes ? On peut prédire que non, l’écrasante majorité des « images d’avant » restera telle qu’elle, car pour leurs éditeurs cela représenterait un très gros travail, le jeu n’en vaudra pas la chandelle et aussi parce que les originaux permettant de les refaire ne seront pas toujours disponibles. Pire, ce patrimoine d’images, « dégradées », continuera d’alimenter encore longtemps tous les sites qui s’en servent pour leur illustration ou leur documentation.

JPEG - 46.9 ko
Simulation de la différence d’affichage entre une image en haute résolution et une « ancienne ».

Pour se rendre compte de la différence en conditions réelles, on « prendra » un portable Apple avec écran Retina et on ouvrira côte à côte 2 fenêtres de navigateur, en affichant d’un côté un site optimisé avec des images en haute résolution (par exemple celui d’Apple) et de l’autre côté, un site quelconque contenant des images (quelconques). Selon son acuité visuelle, on distinguera des différences de rendu plus ou moins marquées, mais bien réelles. D’aucuns trouveront que la différence est faible, mais une fois habitués aux « nouvelles images » ils seront peut-être les premiers à trouver un petit côté vieillot aux images d’aujourd’hui. Dans un ancien billet, je notais que les réalisateurs de documentaires TV utilisaient le noir/blanc pour caractériser un document ancien et je me demandais si on trouverait une convention aussi pratique pour présenter des images d’aujourd’hui… eh bien j’ai trouvé : on montrera des images légèrement floues ;-)

Comment les technologies du web répondront-elles ?

Les smartphones et les tablettes ont été les premiers à être munis d’écrans en haute définition. On aura remarqué par ailleurs que de nombreux sites ne sont toujours pas adaptés à ces petits écrans. Pour y voir quelque chose, il faut en général zoomer, puis dézoomer et scroller en tous sens pour retrouver les boutons de navigation. C’est avec ces appareils en point de mire que le W3C a finalisé récemment de nouveaux standards permettant d’afficher des contenus adaptés au petit format : les MediaQueries. Il s’agit d’un dispositif qui met en oeuvre des techniques dites de Responsive Web Design (en français : conception de sites web adaptatifs). Quelques exemples ici. La méthode, basée sur des feuilles de style (CSS), n’agit que sur le rendu visuel, les contenus proprement dits n’étant pas affectés. On peut ainsi, pour des périphériques de petite dimension, réarranger la disposition des textes et des moyens de navigation, présenter des typographies dans des dimensions lisibles, redimensionner les images, voire supprimer certains éléments non désirés. Pour les avoir expérimentées ces derniers mois, je peux dire que ces techniques fonctionnent de manière probante. [2] Certes, la création de nombreuses feuilles de style (une par plage de dimensions et une encore pour chaque résolution de périphérique !) ne se fait pas toute seule. Lors de la conception d’un tel site, il faut prendre en compte globalement ses diverses visualisations possibles.

Cependant, à peine débarquées et encore très peu mises en oeuvre, les MediaQueries montrent déjà des limites. L’émergence des écrans Retina sur de « vrais » ordinateurs les met cruellement en lumière. L’exemple le plus frappant est le suivant : avec les MediaQueries on peut cibler des images de fond (background-image) spécifiques à chaque écran visé. Très bien, mais ces images-là sont utilisées généralement à des fins décoratives. Pour les images vraiment importantes, celles du contenu, c’est structurellement impossible avec le seul recours aux MediaQueries. On peut certes en modifier la taille d’affichage, mais c’est quand même l’image originale en entier qui est envoyée.

Il commence à se faire jour que la cohabitation entre un web « traditionnel » et un web en haute définition sera de longue durée. On ne pourra pas imposer des images 4 fois plus lourdes à qui ne peut pas en tirer profit, surtout si c’est au prix d’une connexion performante et donc chère. L’idéal sera de munir les nouveaux sites d’images en haute résolution et de mettre au point des techniques de détection capables de discerner le type d’images à fournir pour un périphérique donné ayant une vitesse de connexion donnée. Les MediaQueries étant, par essence, incapables de faire cela, certains ont déjà mis au point des « hacks » allant dans ce sens et le W3C a créé une commission pour réfléchir à de nouvelles solutions. D’autres prévoient une nouvelle « guerre du web » [3] encore plus pénible que les précédentes. Quoi qu’il en soit, la réalisation de sites web lisibles par tous va devenir complexe et cela augmentera assurément les coûts de développement. À un moment donné, quand les écrans Retina seront bien présents, les développeurs ne voudront plus perdre leur temps à développer des variantes compatibles. On se retrouvera alors avec un web à 2 vitesses : l’un pour les happy few équipés du dernier cri de l’appareillage électronique et l’autre pour les « résistants » au progrès qui ne pourront plus visualiser correctement les nouveaux sites. Sans compter tous les vieux sites évoqués plus haut, qui continueront d’afficher leurs images pas très nettes.

Il ne s’agit pas ici de déplorer tout progrès technique, mais de relever qu’en la matière, la concertation nécessaire entre instances normatives et entreprises est impossible quand les progrès techniques sont avant tout des avantages commerciaux. Le Net ressemble aujourd’hui à une autoroute qui, à peine mise en service, devrait aussitôt subir de gros travaux d’entretien qui gênent le trafic. Et on me dit dans l’oreillette que, contrairement à ce que peut laisser croire la pub d’Apple, on n’a pas encore atteint le pouvoir de résolution de l’oeil humain, on devrait pouvoir faire mieux ! Les RetinaSuperMegaPlus sont probablement déjà dans les tuyaux…

Apple n’est pas qu’un formidable moteur d’innovations technologiques entrainant toute la branche de l’électronique communicante derrière elle. C’est aussi devenu un système fermé, un système propriétaire, à l’instar des Google, Facebook ou Windows (avec son nouveau WindowStore sur le modèle de l’AppleStore), cherchant à enfermer ses clients dans sa bulle en lui offrant un maximum de services (aussi payants pour les prestataires que pour les clients). À partir de leurs smartphones, leurs tablettes et bientôt depuis leurs ordinateurs (selon les évolutions prévisibles de Mac OS), l’internet est la seule porte permettant de s’échapper de la cage. Les apps fournissent presque tous les services qu’un cyberhominidé peut vouloir désirer. Ces apps sont complètement sous le contrôle d’Apple, qui décide de tout, depuis les contenus jusqu’à la manière de les afficher, en passant bien sûr par l’imposition de ses conditions économiques. Dès lors, il est pour le moins troublant de constater que les seuls éléments qui ne s’affichent pas aussi joliment que ceux d’Apple, en proposant des images un peu pourries, sont ceux qui viennent d’ailleurs, de ce monde imparfait que les ingénieurs de Cupertino n’ont pas (encore) régenté. Si cet effet n’est probablement pas recherché, gageons qu’il ne devrait pas trop déplaire à Apple !

Retina Display – The Future of Web Design. Internet Overview. On trouvera sur cette page une grande quantité de liens (anglophones) qui donnent un bon « état de l’art » sur les écrans Retina. Elle s’adresse plutôt aux webdesigners.

Notes:

[1] Le terme Retina est une marque commerciale utilisée par Apple, Android utilise les termes HDPI ( 240dpi) et XHDPI ( 320dpi).

[2] Compatibilité des MediaQueries : Androïd ne les gère que depuis la version 3 (janvier 2011). Pour Internet Explorer, il faut la version 9 pour avoir un début de compatibilité et la 10 pour une prise en charge complète. Chez Apple toutes les versions de iOs et les versions récentes de Safari sont compatibles. Firefox est compatible depuis la version 3.5 (décembre 2009).

[3] Dans ces guerres du web, on pense surtout à celles des navigateurs (Explorer et Netscape) qui, dans un esprit de compétition et d’innovation, ont vu se développer des versions munies de fonctions propriétaires qui se démarquaient non seulement du concurrent, mais surtout des standards du web. Certains sites ne fonctionnaient qu’avec un seul navigateur et n’étaient souvent pas rendus compatibles avec d’autres. Cette bagarre a causé de très gros soucis aux développeurs qui tenaient à être lus de tout le monde et coûté des millions en frais de développement supplémentaires. Pour en savoir plus, on lira cette page.

Béat Brüsch, le 12 décembre 2012 à 15.53 h
Rubrique: Les nouvelles images
Mots-clés: image digitale , logiciel , numérique , résolution , standard , technologie
Commentaires: 0
0 | 5 | 10 | 15 | 20 | 25 | 30 | 35 | 40 |...