Mots d'images

Il y a 3 billets répondant au
mot clé «logiciel»

L’apparition des écrans Retina [1] sur les mobiles, les tablettes, puis maintenant sur certains ordinateurs portables d’Apple fait les délices des amateurs (fortunés) de technologies dernier cri. Ces écrans présentent une résolution correspondant au double de celle des écrans traditionnels. Les éléments visuels (textes, icônes, images) y sont affichés avec une grande finesse et un piqué remarquable, au point qu’on ne discerne pratiquement plus les pixels. Les typographies, mieux lissées, apportent aussi un meilleur confort de lecture.

Jusqu’à aujourd’hui, les écrans Retina n’étaient utilisés que sur des périphériques mobiles tels que smartphones et tablettes. Leur arrivée sur de « vrais » ordinateurs soulève quelques problèmes. Il faudra que l’industrie logicielle, et en particulier celle qui est consacrée au web, digère cette nouvelle norme. Car il ne faut pas se leurrer, il s’agit bien d’une nouvelle norme. Les normes industrielles ne sont pas toujours édictées par une assemblée de bons esprits éclairés qui se concertent longuement pour inventer les progrès censés faire le bonheur de l’humanité. Souvent, ces normes s’établissent de force par une saturation du marché. Apple a pris l’habitude de mettre en place des changements radicaux sur ses produits, dont plusieurs (mais pas tous !) finissent, après quelques cris d’orfraie, par devenir des standards suivis par tous les industriels bien obligés de s’adapter pour rester dans la course. On peut parier qu’à terme, tous les fabricants de dalles proposeront ce type d’écrans à des prix toujours plus accessibles. Et on peut parier, avec presque autant de certitude, que ces nouveaux écrans deviendront un jour majoritaires. Et l’industrie logicielle suivra.

C’est une chose que d’imposer des modifications logicielles sur des appareils aussi récents que les smartphones et les tablettes, c’est à dire dans un écosystème où il est facile pour une marque dominante d’imposer ses normes. Mais c’en est une autre, que de s’adresser à l’ensemble du parc informatique existant sur lequel on n’a que peu de prise. Pour le web, qui en 30 ans a réussi tant bien que mal, à se développer indépendamment du hardware, le coup sera dur. On peut parler d’un paradigme technique…

Précisons que nous ne parlons ici que des images pixelisées. Les images vectorielles, tout comme la typographie - vectorielle elle aussi - ne posent pas de problèmes de résolution et s’adaptent sans peine aux nouveaux écrans.

Petits rappels autour de la résolution des images.

Une image diffusée par un écran est composée de pixels. La taille des images se mesure en nombre de pixels. Sur internet, les images sont depuis les débuts affichées avec un ratio de 1. Par exemple, une image de 100 pixels de large occupera 100 pixels en largeur sur votre écran. Ça à l’air idiot, mais c’est une précision utile pour comprendre la suite. Les pixels n’ont pas de taille définie, ils contiennent juste des informations colorimétriques. C’est le nombre de pixels par pouce de l’écran - sa résolution - qui détermine la dimension de l’image sur cet écran. Ainsi, notre image de 100 pixels de large s’affichera plus petite sur un écran en haute définition que sur un écran « normal », car ses pixels y seront plus petits. La résolution est déterminée par le nombre de pixels par unité de surface (elle s’exprime en pixels par pouce (ppp) ou dpi en anglais).

Les écrans des ordinateurs portables ont, depuis longtemps, tendance à afficher une résolution de plus en plus élevée. La conséquence - que tout le monde a pu remarquer - est que les contenus sont affichés de plus en plus petits par rapport aux écrans « normaux ». Les écrans Retina affichant une résolution de près du double, on ne pouvait laisser ce principe se perpétuer. Pour afficher les éléments visuels dans une dimension acceptable, Apple décide donc d’appliquer un ratio de 2 à ces nouveaux écrans. Cela implique que pour remplacer une image qui jusqu’ici mesurait 100 pixels de large, il faut maintenant fournir une image de 200 pixels de large (et la hauteur change en proportion, hein). Le gain immédiat est une image avec une netteté et un piqué extraordinaires, encore jamais vus sur un écran. Une autre conséquence, tout aussi immédiate, est que le poids de cette image a quadruplé ! (100 x 100 = 1000 / 200 x 200 = 4000). On comprend que pour traiter des images aussi lourdes il faudra des puissances de calcul bien plus élevées que celles que nous connaissons. Pour le web, il faudra en plus, des bandes passantes très performantes pour ne pas ralentir le chargement des images.

Que se passera-t-il avec les « anciennes » images ?

Ces images seront dorénavant sous-échantillonnées par rapport à la nouvelle norme. Pour être vues sur un nouvel écran, elles seront artificiellement agrandies. Pour afficher 200 pixels là où il n’y a de l’information que pour 100 pixels, un logiciel ne peut rien faire de plus que d’« inventer » des pixels intermédiaires par moyenne des pixels environnants. Même le robot le plus malin ou l’algorithme le plus fou ne réussiront pas à remplacer l’information manquante ! Le résultat sera une image un peu floue. En fait, ces images ne seront pas subitement devenues mauvaises, mais leur confrontation avec les « nouvelles » images en haute résolution leur donnera un petit aspect vieillot. Les milliards d’images déjà publiées sur le Net seront-elles mises aux normes ? On peut prédire que non, l’écrasante majorité des « images d’avant » restera telle qu’elle, car pour leurs éditeurs cela représenterait un très gros travail, le jeu n’en vaudra pas la chandelle et aussi parce que les originaux permettant de les refaire ne seront pas toujours disponibles. Pire, ce patrimoine d’images, « dégradées », continuera d’alimenter encore longtemps tous les sites qui s’en servent pour leur illustration ou leur documentation.

JPEG - 46.9 ko
Simulation de la différence d’affichage entre une image en haute résolution et une « ancienne ».

Pour se rendre compte de la différence en conditions réelles, on « prendra » un portable Apple avec écran Retina et on ouvrira côte à côte 2 fenêtres de navigateur, en affichant d’un côté un site optimisé avec des images en haute résolution (par exemple celui d’Apple) et de l’autre côté, un site quelconque contenant des images (quelconques). Selon son acuité visuelle, on distinguera des différences de rendu plus ou moins marquées, mais bien réelles. D’aucuns trouveront que la différence est faible, mais une fois habitués aux « nouvelles images » ils seront peut-être les premiers à trouver un petit côté vieillot aux images d’aujourd’hui. Dans un ancien billet, je notais que les réalisateurs de documentaires TV utilisaient le noir/blanc pour caractériser un document ancien et je me demandais si on trouverait une convention aussi pratique pour présenter des images d’aujourd’hui… eh bien j’ai trouvé : on montrera des images légèrement floues ;-)

Comment les technologies du web répondront-elles ?

Les smartphones et les tablettes ont été les premiers à être munis d’écrans en haute définition. On aura remarqué par ailleurs que de nombreux sites ne sont toujours pas adaptés à ces petits écrans. Pour y voir quelque chose, il faut en général zoomer, puis dézoomer et scroller en tous sens pour retrouver les boutons de navigation. C’est avec ces appareils en point de mire que le W3C a finalisé récemment de nouveaux standards permettant d’afficher des contenus adaptés au petit format : les MediaQueries. Il s’agit d’un dispositif qui met en oeuvre des techniques dites de Responsive Web Design (en français : conception de sites web adaptatifs). Quelques exemples ici. La méthode, basée sur des feuilles de style (CSS), n’agit que sur le rendu visuel, les contenus proprement dits n’étant pas affectés. On peut ainsi, pour des périphériques de petite dimension, réarranger la disposition des textes et des moyens de navigation, présenter des typographies dans des dimensions lisibles, redimensionner les images, voire supprimer certains éléments non désirés. Pour les avoir expérimentées ces derniers mois, je peux dire que ces techniques fonctionnent de manière probante. [2] Certes, la création de nombreuses feuilles de style (une par plage de dimensions et une encore pour chaque résolution de périphérique !) ne se fait pas toute seule. Lors de la conception d’un tel site, il faut prendre en compte globalement ses diverses visualisations possibles.

Cependant, à peine débarquées et encore très peu mises en oeuvre, les MediaQueries montrent déjà des limites. L’émergence des écrans Retina sur de « vrais » ordinateurs les met cruellement en lumière. L’exemple le plus frappant est le suivant : avec les MediaQueries on peut cibler des images de fond (background-image) spécifiques à chaque écran visé. Très bien, mais ces images-là sont utilisées généralement à des fins décoratives. Pour les images vraiment importantes, celles du contenu, c’est structurellement impossible avec le seul recours aux MediaQueries. On peut certes en modifier la taille d’affichage, mais c’est quand même l’image originale en entier qui est envoyée.

Il commence à se faire jour que la cohabitation entre un web « traditionnel » et un web en haute définition sera de longue durée. On ne pourra pas imposer des images 4 fois plus lourdes à qui ne peut pas en tirer profit, surtout si c’est au prix d’une connexion performante et donc chère. L’idéal sera de munir les nouveaux sites d’images en haute résolution et de mettre au point des techniques de détection capables de discerner le type d’images à fournir pour un périphérique donné ayant une vitesse de connexion donnée. Les MediaQueries étant, par essence, incapables de faire cela, certains ont déjà mis au point des « hacks » allant dans ce sens et le W3C a créé une commission pour réfléchir à de nouvelles solutions. D’autres prévoient une nouvelle « guerre du web » [3] encore plus pénible que les précédentes. Quoi qu’il en soit, la réalisation de sites web lisibles par tous va devenir complexe et cela augmentera assurément les coûts de développement. À un moment donné, quand les écrans Retina seront bien présents, les développeurs ne voudront plus perdre leur temps à développer des variantes compatibles. On se retrouvera alors avec un web à 2 vitesses : l’un pour les happy few équipés du dernier cri de l’appareillage électronique et l’autre pour les « résistants » au progrès qui ne pourront plus visualiser correctement les nouveaux sites. Sans compter tous les vieux sites évoqués plus haut, qui continueront d’afficher leurs images pas très nettes.

Il ne s’agit pas ici de déplorer tout progrès technique, mais de relever qu’en la matière, la concertation nécessaire entre instances normatives et entreprises est impossible quand les progrès techniques sont avant tout des avantages commerciaux. Le Net ressemble aujourd’hui à une autoroute qui, à peine mise en service, devrait aussitôt subir de gros travaux d’entretien qui gênent le trafic. Et on me dit dans l’oreillette que, contrairement à ce que peut laisser croire la pub d’Apple, on n’a pas encore atteint le pouvoir de résolution de l’oeil humain, on devrait pouvoir faire mieux ! Les RetinaSuperMegaPlus sont probablement déjà dans les tuyaux…

Apple n’est pas qu’un formidable moteur d’innovations technologiques entrainant toute la branche de l’électronique communicante derrière elle. C’est aussi devenu un système fermé, un système propriétaire, à l’instar des Google, Facebook ou Windows (avec son nouveau WindowStore sur le modèle de l’AppleStore), cherchant à enfermer ses clients dans sa bulle en lui offrant un maximum de services (aussi payants pour les prestataires que pour les clients). À partir de leurs smartphones, leurs tablettes et bientôt depuis leurs ordinateurs (selon les évolutions prévisibles de Mac OS), l’internet est la seule porte permettant de s’échapper de la cage. Les apps fournissent presque tous les services qu’un cyberhominidé peut vouloir désirer. Ces apps sont complètement sous le contrôle d’Apple, qui décide de tout, depuis les contenus jusqu’à la manière de les afficher, en passant bien sûr par l’imposition de ses conditions économiques. Dès lors, il est pour le moins troublant de constater que les seuls éléments qui ne s’affichent pas aussi joliment que ceux d’Apple, en proposant des images un peu pourries, sont ceux qui viennent d’ailleurs, de ce monde imparfait que les ingénieurs de Cupertino n’ont pas (encore) régenté. Si cet effet n’est probablement pas recherché, gageons qu’il ne devrait pas trop déplaire à Apple !

Retina Display – The Future of Web Design. Internet Overview. On trouvera sur cette page une grande quantité de liens (anglophones) qui donnent un bon « état de l’art » sur les écrans Retina. Elle s’adresse plutôt aux webdesigners.

Notes:

[1] Le terme Retina est une marque commerciale utilisée par Apple, Android utilise les termes HDPI ( 240dpi) et XHDPI ( 320dpi).

[2] Compatibilité des MediaQueries : Androïd ne les gère que depuis la version 3 (janvier 2011). Pour Internet Explorer, il faut la version 9 pour avoir un début de compatibilité et la 10 pour une prise en charge complète. Chez Apple toutes les versions de iOs et les versions récentes de Safari sont compatibles. Firefox est compatible depuis la version 3.5 (décembre 2009).

[3] Dans ces guerres du web, on pense surtout à celles des navigateurs (Explorer et Netscape) qui, dans un esprit de compétition et d’innovation, ont vu se développer des versions munies de fonctions propriétaires qui se démarquaient non seulement du concurrent, mais surtout des standards du web. Certains sites ne fonctionnaient qu’avec un seul navigateur et n’étaient souvent pas rendus compatibles avec d’autres. Cette bagarre a causé de très gros soucis aux développeurs qui tenaient à être lus de tout le monde et coûté des millions en frais de développement supplémentaires. Pour en savoir plus, on lira cette page.

Béat Brüsch, le 12 décembre 2012 à 15.53 h
Rubrique: Les nouvelles images
Mots-clés: image digitale , logiciel , numérique , résolution , standard , technologie
Commentaires: 0

Rien n’arrête le progrès ! Les avancées récentes des technologies de recherche d’images par l’image ont rencontré celles de la reconnaissance faciale pour donner le jour à des champs d’application nouveaux qui, en plus d’afficher des résultats, opèrent des modifications de fichiers automatisées. Les moteurs de recherche d’images par l’image ont déjà été évoqués ici avec TinEye, mais d’autres sociétés travaillent sur le sujet. La reconnaissance faciale est utilisée depuis quelques années sur des caméras numériques et les mêmes technologies sont appliquées aujourd’hui sur des services en ligne. Une des sociétés actives dans ce domaine est sur le point de lancer un procédé remarquable de floutage facial : AnonymYou. De plus en plus de personnes sont soucieuses de leur anonymat ou de la maitrise de leur image. AnonymYou leur propose de rendre méconnaissables toutes les occurrences de portraits demandées. Le service, qui est actuellement en phase de test, en version beta privée, vise à devenir le 1er système d’anonymisation en ligne.

Toute personne, célèbre ou anonyme, a un droit absolu à disposer de son image. Le droit à l’image est de plus en plus pris au sérieux par les tribunaux dans le monde et les infractions peuvent coûter cher. Comme tout téléspectateur peut le vérifier chaque soir, le floutage de sujets sensibles est devenu une opération des plus banales. Elle n’a cependant rien d’automatique, car elle est toujours le résultat d’une décision prise dans les rédactions après une prudente pesée d’intérêts où les commerciaux le disputent aux légistes. Une partie de ces floutages sera bientôt prise en charge par des logiciels. Dans un premier temps, ce sont les portraits accessibles sur le web qui seront floutés. Chacun pourra faire partie d’une sorte de liste rouge pour accéder à un floutage automatique de ses apparitions sur internet.

Le service en ligne sera gratuit pour tout internaute individuel, après inscription et soumission d’un minimum de 5 portraits différents de soi. Les auteurs du logiciel tablent, pour l’instant, sur une efficacité de 85%, avec 10% de faux positifs (ce qui peut poser quelques problèmes !). AnonymYou sera également disponible sous forme de plug-in pour Firefox. Pour les pipole, une recherche bimodale (texte + image) sera mise en oeuvre. Considérant que les célébrités disposent déjà sur la toile d’une importante base d’images taguées à leur nom, AnonymYou intégrera ces données dans un nouvel algorithme atteignant une efficacité approchant les 98% et 1% de faux positifs. Ce service-là sera payant (on ne nous dit pas s’il sera calculé au prorata des portraits floutés ou selon d’autres conventions !).

Le principe de fonctionnement d’AnonymYou est simple : après leur soumission, les portraits sont analysés et convertis en une empreinte digitale composite qui est comparée aux index des principaux moteurs de recherche. Les images trouvées sont ensuite floutées à la volée sur de puissants serveurs (dont l’emplacement est tenu secret), puis elles sont réinjectées dans les bases de données d’où elles proviennent. Cette procédure à un grand avantage : il n’est pas nécessaire que ses promoteurs se constituent leur propre index avant de pouvoir prétendre à un minimum d’efficacité. Par contre, il faut obtenir la « collaboration » des moteurs de recherche visés. Google ayant déjà donné son accord - moyennant une exploitation des résultats dont le principe n’a pas été divulgué - les autres moteurs de recherche ne devraient pas refuser longtemps d’intégrer ce service. FaceBook, qui comme Google dispose déjà de son propre système de reconnaissance faciale, hésite encore à se rallier. Pourtant, en proposant ce service alternatif, ils pourraient faire face à de nombreuses critiques concernant des problèmes de protection de la sphère privée...

J’ai été invité à tester l’efficacité du système durant une semaine. Elle est assez redoutable pour les pipole et cela peut se comprendre vu la relative facilité de leur identification. Les stars de cinéma, de la TV et du showbiz en général obtiennent des résultats proches de 100%. Reste à savoir si elles tiennent vraiment à voir leur image disparaitre... (Quand on voit les dédommagements coquets obtenus par certain-e-s pour des photos publiées sans autorisation, on peut les comprendre ;-) Il n’en va pas de même pour les politiques, qui à part quelques notables, toujours bronzés et soucieux de leur image, obtiennent des résultats bien en dessous (env 70%) de celles des vraies stars, celles qui font rêver les foules. En ce qui me concerne, moi heureux anonyme, les résultats ont été encore bien moins performants. Mais je ne suis pas un bon exemple, je suis peu visible et ne suis même pas sur Facebook !

Dans une prochaine étape, en cours d’évaluation, un module AnonymYou2 sera intégré à une puce équipant les caméras d’une chaîne de télévision publique au Canada. Les informations sur la puce seront mises à jour en continu, afin que rien de ce qui est interdit ne puisse échapper au filtre. Cela introduira certes une distorsion de la concurrence avec les chaines commerciales, mais gageons que le législateur veillera à corriger ces effets, en attendant que toutes les chaines soient équipées. L’ultime étape à venir sera l’intégration de cette puce dans les appareils de prises de vues numériques. Elle sera mise à jour à chaque fois que la carte mémoire sera connectée à un ordinateur. Mais là il faudra patienter un peu, car les pourparlers avec les principaux fabricants d’APN et de portables viennent à peine de commencer. Ils achoppent pour l’instant sur la définition de standards acceptables, qualité indispensable à l’efficacité du système. (D’après certaines sources, il semblerait que les ingénieurs de Redmond se soient déjà inspirés des spécifications d’AnonymYoupour créer leurs propres « standards » !)

On peut bien sûr se demander si ce service est approprié et s’il n’engendrera pas de dérives malveillantes. Mais le droit à l’image étant ce qu’il est, il sera de plus en plus difficile d’échapper à une course technologique qui - une fois n’est pas coutume - va dans le sens du droit. On peut néanmoins pressentir que la pilule sera difficile à faire passer chez les photographes. Qui voudra encore d’appareils photo munis d’une « liste rouge » embarquée ? Les amateurs courront le risque de voir se flouter les portraits d’amis soucieux de la protection de leur sphère privée. Les professionnels - qui n’en demandaient pas tant - verront s’envoler une partie de leurs revenus par la grâce de quelques pipole sur « liste rouge », réservant quelques fois leur image à une élite de photographes dociles et triés sur le volet. On verra aussi qui est véritablement prêt à disparaitre des écrans... gageons qu’il y aura bien des hésitations !


Addenda du 1er.04.2009:

Je tiens à rassurer les inquiets, les incrédules, les méfiants et autres dubitatifs, si ce billet a un petit goût de poisson... c’est qu’il a été rédigé un premier avril ;-)

Béat Brüsch, le 1er avril 2009 à 01.00 h
Rubrique: Les nouvelles images
Mots-clés: logiciel , technologie
Commentaires: 1

TinEye est le premier moteur de recherche qui utilise des technologies d’identification d’images pour rechercher des images sur le net. Cela signifie que les critères de recherche ne sont pas textuels (mots clés), mais constitués d’images (des ensembles de pixels). Concrètement, si vous lui soumettez une image, le logiciel vous ramènera toutes les occurrences de cette image qu’il connait, même si elles ont été modifiées ou recadrées. Il utilise pour cela un algorithme produisant une empreinte digitale de l’image recherchée qui est ensuite comparée à l’index. Lancé en mai 2008 par la société canadienne Idée Inc, ce service est passé maintenant en version beta publique. Depuis son lancement, il a continué à indexer le web pour agrandir sa base de données, seul moyen de gagner de l’efficacité. Le système est utilisable gratuitement par tout internaute, il suffit de s’inscrire ici. TinEye propose aussi l’installation d’un plug-in et/ou d’un bookmarklet, qui permet de procéder à une recherche d’image en un seul clic à partir de votre browser.

Mais quelle est donc l’utilité de ce service ?

La première est sans conteste la possibilité pour les auteurs (les photographes, graphistes, etc) ou les détenteurs de droits (banques d’images, archives, etc), de traquer les vols d’images sur internet. Plus subtilement, cela peut aussi aider à trouver les sources, l’origine d’une image, son histoire et sa manière d’être présente sur internet (mais l’internet, ce n’est qu’une partie du monde ;-) Pour le reste, faisons confiance au « génie humain » pour découvrir de nombreuses autres applications que celles prévues par le logiciel...

Quelle en est l’efficacité ?

Globalement - sur des images connues ! - l’effet est assez bluffant. L’efficacité des algorithmes utilisés et la vitesse de traitement sont surprenantes. TinEye est capable de retrouver des images même recadrées, redimensionnées, recolorées, retouchées, voire « photomontées ». Il est capable aussi - son algorithme semble très performant pour cela - de rechercher des graphismes bien définis, comme des logos commerciaux. Les pages Cool Searches et Widgets, d’où je tire l’exemple ci-dessus, présentent des exemples de recherche très éloquents... mais n’oubliez pas que ce sont des pages à caractère publicitaire pour lesquelles on a sélectionné les exemples « qui vont bien » !

Quelles en sont les limites ?

On entrevoit rapidement que l’efficacité du système est en relation directe avec l’étendue de sa base de données. TinEye annonce avoir engrangé plus d’un milliard de photos dans son index. C’est sûrement bien moins que Google. [1] Mais leurs robots continuent de parcourir le net pour indexer des images. Vous pouvez d’ailleurs leur demander d’aller visiter un site (le vôtre, par exemple). Je l’ai fait il y a 3 jours et depuis j’attends toujours le passage du robot ;-) Il est fort probable que les petits sites ou les sites à faible trafic ne soient pas visités en priorité...
En admettant qu’ils réussissent à construire un index suffisamment étendu pour être plus que représentatif il restera toujours des zones non explorées qui constituent autant de doutes pour l’auteur d’une recherche : les images en Flash ne sont pas prises en compte tout comme celles figurant sur des pages que les robots [2] ne sont pas autorisés à visiter. Les pirates ont donc toujours une longueur d’avance sur les gendarmes ;-)

Combien ça coûte ?

Le logiciel se présente actuellement en version beta publique pour laquelle on doit s’inscrire. Nous ne pouvons donc pas savoir si le service va devenir payant, car TinEye est peu disert sur la question. Seul un usage commercial à venir est évoqué. Il consistera en un service de veille sur un ensemble d’images avec envoi de notification au demandeur en cas de succès. Cette fonction devrait intéresser les petites et moyennes entreprises. (De grands comptes comme l’AFP ou Associated Press bénéficient déjà de solutions spécifiques fournies par d’autres logiciels de la même firme.) On peut espérer que cela permettra de laisser le libre accès aux petits usagers occasionnels.

TinEyes montre une nouvelle direction pour les moteurs de recherche d’images en élargissant le champ des possibles. Il peut sembler bizarre que Google ne soit pas sur ce coup là. Mais il est peut-être déjà sur le coup suivant... TinEyes est, somme toute, dans un créneau bien spécifique, car il n’identifie pas les objets, mais « seulement » les formes essentielles d’une image. C’est ce qui le rend très performant pour découvrir les multiples variantes d’une même image. Les grandes étapes à venir pour la recherche d’images seront probablement l’identification d’images d’objets, puis de personnes, le tout éventuellement en combinaison avec du texte... mais ce n’est pas pour tout de suite.

Notes:

[1] Il est très difficile de savoir combien d’images contient l’index de Google, la société ayant décidé en 2005 de ne plus communiquer sur la taille de sa base de données. En 2005, elle s’élevait à 2,187 milliards d’images. On peut postuler que ce chiffre à bien pû doubler depuis... Une recherche d’images avec juste « jpg » comme terme de recherche affiche aujourd’hui 1,44 milliard d’occurrences... (test sans valeur réelle, c’est juste pour voir). Pour comparaison, Flickr contient aujourd’hui 3 milliards d’images, mais le champion est Facebook avec 10 milliards.

[2] Si vous avez accès au code source de votre site, vous pouvez y placer des metatags spécifiques ou un lien vers un fichier robots.txt pour donner des instructions aux robots (crawlers) qui visitent votre site régulièrement et quelques fois à l’insu de votre plein gré. Vous pourrez y spécifier vos autorisations. Si vous n’avez pas la conscience tranquille, vous pourrez même autoriser tous les robots à visiter votre page, sauf celui de TinEye ! Il y a des robots malveillants qui ne tiennent aucun compte de ces instructions, mais TinEye déclare respecter ces instructions.


Addenda du 14.01.2009:

Je « remonte » un lien proposé par Patrick Pecatte en commentaires. Il renvoie à une excellente synthèse sur la recherche d’images par l’image qui m’avait échappé (et dont le titre est quasi identique au mien ;-)
Merci.

Béat Brüsch, le 14 janvier 2009 à 16.13 h
Rubrique: Les nouvelles images
Mots-clés: banque d’image , copyright , logiciel , retouche , technologie
Commentaires: 5