Ce n'est pas ça l'ânerie, il est évident et indéniable que le sous-échantillonnage détruit des données.
L'ânerie c'est de penser qu'il vaut mieux perdre du temps à faire ça manuellement dans Photoshop plutôt que de laisser Distiller ou l'export PDF faire ça automatiquement.
Oui, mais les automatismes ça ne fonctionne jamais à 100% : il y a toujours (comme je le disais précédemment) une circonstance où l'automatisme ne va pas fonctionner et donc où l'utilisateur devra être capable de le détecter, et devra ensuite savoir refaire le travail à la main...
(tu as déjà conduit une voiture avec une boîte de vitesse automatique ? c'est génial (pour les fainéants dans mon genre) : tu mets le sélecteur sur "D" et tu n'as plus rien à faire, ça se débrouille tout seul... mais le jour où tu vas en montagne, si tu ne sais pas te servir des positions imposées et que tu restes en "D", tu auras déjà beaucoup de mal pour monter le col, et tu risques fort de te tuer en le descendant...)
S'il n'y a pas de sous-échantillonnage et pas de changement de mode colorimétrique à effectuer les logiciels Adobe conservent les images JPEG telles quelles, sans recompression donc.
Acrobat Distiller a effectivement une option pour ne pas recompresser les images JPEG...
... mais :
- il n'y a pas cette option dans l'export de InDesign : alors que fait l'export de ID quand il est réglé pour compresser en JPEG et qu'il trouve des images JPEG qui n'ont pas été modifiées ? il les recompresse ou il les laisse telles-quelles ?
- est-ce que la préservation des images JPEG inclut aussi les images EPS codées en JPEG ?
(comme ce que fais la brèle dont je parlais dans un post précédent qui enregistre toutes ses images en JPEG qualité supérieure ou moyenne pour du Print avec InDesign...)- quand on importe des images JPEG brutes d'APN, sans se préoccuper de leur taille/résolution, en comptant sur le sous-échantillonnage automatique du Distiller ou de l'export, ces images seront donc sous-échantillonnées à la génération du PDF, et donc elles seront re-compressées en JPEG... et là ce que tu dis devient un peu contradictoire...
- et pour finir, moi je travaille en TIFF ou PSD... donc quand j'ai fini de traiter les images JPEG fournies par le client, je les enregistre toujours en TIFF (ou PSD)... et donc si je demande au Distiller compresser les images en JPEG dans le PDF, il ne saura pas que ces images TIFF ont déjà été JPEGuisées, et il les recompressera en JPEG pour la (au moins) 2e fois...
(au moins 2e fois, mais peut-être plus parceque quand je reçois les images d'un client, je ne sais jamais ce que ce client a pu bricoler sur ses images !!!)
********
Dans mon esprit échantillonnage est plutôt l'équivalent de la quantité (de pixels) et la compression de qualité... C'est à ce point là que dans mon esprit c'est un peu flou certainement. Donc un peu d'éclaircissement sur ce point serait vraiment bienvenu...
1- sans rentrer dans les détails, l'
échantillonnage en numérique est l'opération qui permet de transformer des données analogiques en des données numériques, comme par exemple pour transformer un signal audio analogique sortant d'un microphone en une suite de données numériques destinées à être traitées par informatique et enregistrées sur un CD : dans un CD, le son est enregistrée avec une fréquence d'échantillonnage de 44100 Hz, c'est à dire que chaque seconde le système de conversion prend 44100 échantillons du signal électrique sortant du micro...
... par analogie, pour une image, l'échantillonnage est la conversion en pixels informatiques d'une image capturée par un objectif et une surface photosensible (dans un scanner ou un APN).
Donc, ré-échantillonner un truc numérique en général, c'est modifier le nombre d'échantillons après coup en retravaillant sur le fichier informatique, et non pas en recréant ce fichier depuis l'original analogique... : bien-sûr, dans tous les cas, un ré-échantillonnage est une action qui se fait par des algorythmes qui
essayent de recréer quelquechose qui
devrait à peu près ressembler à l'original, pour faire comme si c'était vrai... mais dans la réalité, les algorythmes (aussi perfectionnés qu'ils soient) ne peuvent jamais refabriquer les données réelles et se contentent de faire de l'à peu près.
Pour une image, ré-échantillonner c'est modifier le nombre de pixels qui compose le fichier (
alors que pour faire du travail de qualité il aurait mieux valu rescanner l'image ou reprendre la photo (quand c'est possible !!!)) :
- sous-échantillonner = réduire le nombre de pixels
- sur-échantillonner = augmenter le nombre de pixels
Pour un sur-échantillonnage, il est bien évident que l'algorythme ne connaît pas le sujet original : quand tu as pris ta photo du carnaval de Rio à 15h37 le lundi en arrivant, l'algorythme de sur-échantillonnage n'était pas à côté de toi pour mémoriser ce que tu as photographié ! donc quand tu lui demandes de rajouter des pixels dans cette photo, il ne peut pas savoir où exactement rajouter les pixels que tu veux en plus... alors il bricole avec des interprétations et des approximations plus ou moins bonnes... : genre, quand il voit un pixel gris à 50% à côté d'un pixel gris à 51 %, il se dit que ça pourrait être pas mal si il ajoutait un pixel gris à 50,5 % entre les deux...
... tout ça pour dire que le sur-échantillonnage ne peut pas produire un résultat réaliste... grosso-modo, il ne peut qu'éviter la pixellisation de l'image en rajoutant du flou...
Le sous-échantillonnage paraît avoir beaucoup plus de facilité, parcequ'il ne fait que réduire le nombre de pixels : donc il a tous les pixels à sa disposition, et il a juste à en enlever... et c'est pour cette raison que ça paraît plus simple, car dans l'absolu il est beaucoup plus facile d'enlever des trucs dans quelquechose qui existe (en l'occurrence enlever des pixels dans une image) que d'ajouter des trucs qui n'existent pas et qu'il faut inventer : par exemple, il est beaucoup plus facile de faire le résumé d'un livre, que de lui inventer une suite ou un préambule !!!
... plus facile, oui, mais pas autant qu'il y paraît : il faut quand-même réfléchir pour ne pas enlever n'importe quoi... or un algorythme, ça ne réfléchis pas : ça enlève bêtement des pixels sans être capable de voir à quoi ils servent, ni si ils sont indispensables ou pas : par exemple, si tu photographies des oiseaux perchés sur un fil électrique avec un ciel un peu gris en fond, lors d'un fort sous-échantillonnage les fils électriques seront "fondus" dans le gris du ciel et les oiseaux auront l'air d'être perchés sur rien !!!
2- la compression d'une image ou d'un fichier vise simplement à réduire le poids de ce fichier.
Le procédé est toujours de chercher des répétitions d'octets, de coder chacune de ces répétitions, et de remplacer chaque répétition par le code correspondant...
Par exemple : je reprends mon post, et je vois que j'utilise beaucoup le mot "image", "échantillonne", "pixels par pouce"... alors je vais donner un code à chacun de ces mots :
- image = #1
- échantillonne = #2
- pixel par pouce = #3
et à chaque fois que j'aurais à les écrire, je remplacerai par le code : donc au lieu d'écrire :
"je sous-échantillonne mon image à 255 pixels par pouce"
je n'aurai qu'à écrire :
"je sous-#2 mon #1 à 255 #3"
Ça fait tout de suite une phrase moitié moins longue, et qui veux dire exactement la même chose après décodage.
Grosso-modo, pour compresser une image, il y a 3 systèmes principaux :
A- compression du fichier : ZIP, Stuff-it : ces algorythmes travaillent sur les octets contenus dans le fichier, à partir du Finder, et permettent de compresser n'importe quel fichier, que ce soit un fichier image, ou un logiciel, ou une police de caractères, ou un fichier natif InDesign...
... et bien-sûr, pour que le logiciel fonctionne encore après compression/décompression, ou que la polices de caractère ne soit pas corrompue, il faut impérativement que la compression respecte et préserve exactement tous les octets de ce fichier, donc les compressions de fichiers sont toujours des compressions non-destructives.
B- compression de l'image à l'intérieur de son fichier : ces compressions interviennent directement sur les pixels de l'image, dans Photoshop, avant l'enregistrement sur le disque-dur et sont intégrées dans le fichier image...
• compression non-destructive : LZW (principalement disponible dans le format TIFF), ZIP (TIFF et PDF) : tous les pixels sont intégralement conservés intacts, et donc l'image ne subit aucune modification ni dégradation après un processus de compression puis décompression
• compression destructive : JPEG (TIFF, PDF, EPS, et JPEG)... le JPEG divise la totalité de l'image en matrice de 8 x 8 pixels, et recherche et code les matrices identiques...
... mais dans une compression destructive, la recherche de l'identique est plus ou moins tolérante, et selon la qualité demandée des matrices plus ou moins différentes sont finalement considérées comme étant identiques !
- en qualité maximale, la tolérance est la plus faible, et l'algorythme recherche et code des matrices presque identiques avec un taux de compression qui varie (très grosso-modo) entre 3 et 6 fois selon le contenu de l'image
- plus la qualité demandée est faible, plus la tolérance d'identicité est grande et donc plus la compression est efficace mais plus l'image est dégradée.
Et cette dégradation est irrémédiable, définitive et irréversible...
Dans mon exemple des mots :
• avec une compression non destructive:
- échantillonn
e = #2,
- échantillonn
es = #4,
- échantillonn
er = #5,
- échantillonn
ée = #6,
- échantillonn
és = #7,
... et toutes les autres conjugaisons du verbes auraient leur code individuel...
• avec une compression destructive en qualité maximum,
- échantillonn
e = échantillonn
es = #2
- et échantillonn
er = échantillonn
ée = échantillonn
és = #3
dans ce cas, la compression préserve seulement la phonétique de la fin du verbe, ne faisant que la différence entre le son "e" et le son "é"
• avec une compression destructive en qualité minimum, toutes les conjugaisons du verbe ont le même code, et l'utilisateur se débrouille pour démêler l'infinitif du participe passé, le singulier du pluriel, le féminin du masculin, la 1re personne de la 2e et de la 3e !
Mais, bon avec un petit effort, et en étant pas trop exigeant, ça reste presque compréhensible !!!