Informatique et Photo
Informatique et Photo
Bits et Octets
➵ Un bit est la quantité minimale d'information transmise par un message, et constitue à ce titre l'unité de mesure de base de l'information en informatique ayant comme valeur 0 ou 1.
➵ 1 Octet = 8 bits.
Une valeur quelconque est toujours représentée par un Octet 'o, Mo, Go' (Byte ou Bit 'b' en anglais) ou un multiple. Si on utilise un paquet de 8 bits, chacun des 8 bits de l’octet pouvant prendre la valeur 0 ou 1, il y a en fait 256 combinaisons possibles (de 0 à 255).
Avec 1 octet je peux donc représenter toute valeur de 0 à 255. En fait, le nombre de valeurs que je peux représenter avec une série de n positions binaires est égal à 2n (2 puissance n), c’est-à-dire 2 multiplié n fois par lui-même. 28 = 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 256. Quand on dit que l’on travaille en mode "16-bit" (l’expression avec tiret étant anglaise, on ne met pas de s à bit), cela signifie que l’on représente les données sur 2 octets. Cela permet de représenter des valeurs de 0 à 216 , c’est-à-dire 65536 valeurs différentes.
Une valeur quelconque est toujours représentée par un Octet 'o, Mo, Go' (Byte ou Bit 'b' en anglais) ou un multiple. Si on utilise un paquet de 8 bits, chacun des 8 bits de l’octet pouvant prendre la valeur 0 ou 1, il y a en fait 256 combinaisons possibles (de 0 à 255).
Avec 1 octet je peux donc représenter toute valeur de 0 à 255. En fait, le nombre de valeurs que je peux représenter avec une série de n positions binaires est égal à 2n (2 puissance n), c’est-à-dire 2 multiplié n fois par lui-même. 28 = 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 256. Quand on dit que l’on travaille en mode "16-bit" (l’expression avec tiret étant anglaise, on ne met pas de s à bit), cela signifie que l’on représente les données sur 2 octets. Cela permet de représenter des valeurs de 0 à 216 , c’est-à-dire 65536 valeurs différentes.
Quand dans un logiciel de traitement d’images, on vous dit qu’une image est traitée en mode 8-bit, cela signifie que le logiciel affecte, pour chaque pixel, 1 octet à chaque canal couleur (rouge, vert et bleu). Chaque composante couleur peut donc prendre 256 valeurs différentes (de 0 à 255). On peut donc représenter en tout 256 x 256 x 256 = 16 777 216 couleurs. En mode 16-bit, on pourra représenter 65536 x 65536 x 65536, soit en théorie quelques milliards de possibilités, ce qui dépasse largement nos besoins. Dans ce cas, on utilise seulement une partie des 16-bit pour représenter chaque canal et le reste est utilisé pour représenter d’autres informations comme par exemple la transparence du pixel. le mode 16-bit par canal est le plus courant, il permet une plus grande précision des couleurs, tandis que le 32-bit est souvent utilisé pour des images High Dynamic Range (HDR) ou des traitements spécifiques comme les images Haute Résolution qui permet de déplacer légèrement le capteur entre plusieurs expositions pour capturer plus de détails, puis combinent ces images en une seule avec plus de Pixels oui pour le pixel binning qui combine plusieurs pixels adjacents (souvent 2x2, 3x3 ou 4x4) pour former un "superpixel". Cela permet d'augmenter la quantité de lumière capturée par chaque pixel virtuel.
Pixel vs Photosite
🔹 Pixel
➵ Un pixel (abréviation de picture element) est l’unité de base d’une image numérique. C’est un petit carré de couleur, et quand tu mets plein de pixels ensemble, tu obtiens une image.
• C’est ce que l'on voit à l’écran : une image en 1920 x 1080 contient 2 073 600 pixels.
• Chaque pixel contient des informations de couleur (le plus souvent exprimé en RVB : Rouge, Vert, Bleu).
🔹 Photosite
➵ Un photosite, c’est un capteur de lumière sur le capteur d’un appareil photo numérique.
• C’est ce que "voit" l’appareil, pas toi.
• Il capte la lumière qui arrive à un endroit précis du capteur.
• Chaque photosite ne capture qu’une quantité de lumière de 0 à 255, de noir à blanc en passant par toutes les nuances de gris. Pour qu'il puisse capter une couleur, il faut mettre une matrice de Bayer sur le capteur. Le photosite ne capte alors qu'une seule couleur (rouge, vert ou bleu) selon la couleur du filtre qui lui est superposé.
Pixels, Photosites et Couleurs.
🔸 Les photosites :
• Ce sont des composants physiques sur le capteur.
• Chacun capte la lumière d’une seule couleur (rouge, vert ou bleu) à cause à la matrice de Bayer.
• Il ne contient pas à lui seul toute l’information de couleur d’un pixel final.
🔸 Les pixels :
• Ce sont des éléments numériques dans l’image calculée par l’appareil.
• Chaque pixel affiche une couleur complète (combinant rouge, vert et bleu).
• Il est donc le résultat d’un traitement d’image qui combine plusieurs photosites.
👉 Donc :
• Ce que tu vois sur ton écran ce sont des pixels, chacun avec une couleur complète.
• Ce que le capteur capte ce sont des photosites, chacun avec une couleur partielle.
En résumé :
• Le pixel est une unité d’image. Le photosite est une unité de détection de lumière.
• Le pixel est "virtuel", le photosite est "physique".
Le carré "Pixel" que l'on voit à gauche représente un pixel final dans l’image, avec une couleur complète (faite de rouge, vert, bleu). Ce pixel est calculé à partir des données captées par les photosites correspondants à droite.
Voici ce qui se passe concrètement :
1. Chaque photosite à droite capte l’intensité de lumière pour une seule couleur (R, V ou B).
2. L’appareil utilise des algorithmes (appelés dématriçage ou demosaicing) pour :
○ Fusionner les infos des photosites voisins (souvent 2 verts, 1 rouge, 1 bleu).
○ Reconstituer une couleur complète pour chaque pixel de l’image.
3. Le pixel à gauche est donc le résultat calculé à partir des photosites à droite.
Un pixel est donc une synthèse numérique, basée sur plusieurs photosites physiques.
Détaillons pour y voir un peu plus clair.
Un pixel = un point de couleur mais pour qu’un ordinateur l’affiche, il faut traduire cette couleur en données numériques et ces données sont stockées en octets.
🔹 Un pixel = 3 couleurs RVB ou RGB en anglais . Chaque pixel est constitué de :
🔴 | Rouge - Red |
🟢 | Vert - Green |
🔵 | Bleu - Blue |
Haut de page
Et chaque couleur est codée numériquement.
🔹 Combien d’octets par couleur ? : pour 1 octet soit 8 bits on a donc 256 couleurs de O (noir) à 255 (blanc).
🔴 | 1 octet pour le Rouge | |
Pour 1 pixel, On a : | 🟢 | 1 octet pour le Vert |
🔵 | 1 octet pour le Bleu |
👉 Total pour 1 pixel = 3 octets = 24 bits = 16 777 216 couleurs possibles.
💡 Exemple concret :
Une image de 100 x 100 pixels = 10 000 pixels, comme chaque pixel = 3 octets (RVB)
alors la taille brute de l'image = 10 000 x 3 = 30 000 octets donc 30 000 x 256 = 7680000 couleurs.
alors la taille brute de l'image = 10 000 x 3 = 30 000 octets donc 30 000 x 256 = 7680000 couleurs.
Exceptions : Certaines images utilisent 4 octets/pixel : RVB + Alpha (transparence)
Rouge | Vert | Bleu | Couleur affichée |
255 | 0 | 0 | 🔴 Rouge pur |
0 | 255 | 0 | 🟢 Vert pur |
0 | 0 | 255 | 🔵 Bleu pur |
255 | 255 | 255 | |
0 | 0 | 0 | |
128 | 128 | 128 |
Haut de page
🔹 La Matrice de Bayer
➵ La grille ou matrice de Bayer, est un élément clé en photographie numérique. C'est une mosaïque de filtres colorés placée sur les photosites d'un capteur d'image. Elle permet de capturer les informations de couleur nécessaires pour créer une image en couleur.
Voici comment elle fonctionne :
- La matrice est composée de filtres 🟥, 🟩 et 🟦 (RGB), organisés selon un motif spécifique. En général, 50 % des filtres sont verts, 25 % sont rouges et 25 % sont bleus. Cette répartition reflète la sensibilité accrue de l'œil humain au vert.
- Chaque photosite du capteur est recouvert d'un filtre de couleur, ce qui signifie qu'il ne capture qu'une seule composante de couleur (rouge, vert ou bleu).
🔹 Lien entre Pixel et Photosite
• Sur un capteur d’appareil photo, il y a des millions de photosites.
• Le processeur de l’appareil combine les infos de plusieurs photosites pour créer un pixel de l’image finale.
• En général, 1 pixel ≈ 1 photosite, mais ce n’est pas toujours strictement vrai : certains traitements utilisent plusieurs photosites pour un seul pixel (super-résolution, binning, etc.).
🔹 Exemple concret :
• Un capteur de 24 mégapixels a environ 24 millions de photosites.
• L’image qu’il produit aura 24 millions de pixels.
• Mais ce que nous nous regardons, ce sont les pixels. Ce que le capteur utilise, ce sont les photosites.
Dans beaucoup de cas, 1 pixel ≈ 1 photosite, mais ce n’est pas exactement la même chose, et c’est là que la différence devient intéressante.
Les Espaces colorimétriques
➡️ Définition : Un espace colorimétrique est une représentation des couleurs perceptibles par l'œil humain ou reproductibles par un appareil chaque couleur étant associée à des coordonnées spécifiques dans cet espace.
• Les différents types d'espaces colorimétriques :
➵ sRGB : standard pour les écrans et le web, il couvre une gamme de couleurs limitée mais largement compatible.
➵ Adobe RGB : utilisé en photographie et impression, il offre une gamme plus large que le sRGB.
➵ ProPhoto RGB : encore plus étendu, il est idéal pour les professionnels travaillant avec des images de très haute qualité.
➵ CMJN : utilisé pour l'impression, il se concentre sur les encres cyan, magenta, jaune et noir.
➵ Le Gamut : n'est pas vraiment un espace colorimétrique mais une "portion" des couleurs définies par un espace colorimétrique ou un appareil. Chaque appareil a un gamut limité, ce qui signifie qu'il ne peut pas reproduire toutes les couleurs perceptibles.
• Différences entre appareils :
Par exemple, un écran d'ordinateur peut afficher des couleurs plus vives et saturées que celles qu'une imprimante peut reproduire. Cela s'explique par les différences entre les espaces colorimétriques utilisés (comme RVB pour les écrans et CMJN pour les imprimantes).
• Couleurs hors gamut :
Une couleur "hors gamut" est une couleur que l'appareil ne peut pas reproduire. Lors de la conversion entre espaces colorimétriques (par exemple, de RVB à CMJN), ces couleurs sont souvent remplacées par des approximations.
• Applications pratiques :
En photographie et en graphisme, il est essentiel de choisir un espace colorimétrique adapté (comme sRGB, Adobe RGB ou ProPhoto RGB) pour garantir une reproduction fidèle des couleurs.
Les espaces colorimétriques garantissent que les couleurs restent cohérentes entre différents appareils (appareil photo, écran, imprimante).
Haut de page
Explication de la photo ci-dessus
Chaque couleur est définie par des coordonnées propres à chaque espace colorimétrique utilisée que nous allons dévévelopper ci-après
Le Mode T S L
Le modèle colorimétrique TSL définit la couleur à l’aide des composantes teinte (T), saturation (S) et luminosité (L).
Lettre | Signification | Ce que ça contrôle | Schéma ci-dessus |
T | Teinte | La "famille" de couleur (jaune, rouge…) (0 à 360°) | 46° → jaune doré |
S | Saturation | L’intensité ou pureté de la couleur (0% = gris) | 55% → moyennement saturé |
L | Luminosité | Clair ou foncé (0% = noir, 100% = blanc) | 57% → plutôt clair |
Le Mode LAB
Le mode Lab est un espace colorimétrique perceptuel le plus proche de notre vision humaine est souvent utilisé pour faire des ajustements subtils, notamment sur la couleur sans altérer la luminosité. Ce modèle a été mis au point par la CIE en 1976. Dans les industries graphiques ont parle de CIE L*a*b* 50 (Commission Internationale de l'Eclairage), ce qui signifie que la lumière sous laquelle est défini cet espace est de 5000 K, c'est-à-dire proche de la lumière du jour qui est de 5500 K.
Dans cet espace une couleur se définit par 3 paramètres. L* donne la luminance, cet axe va de la valeur 0 qui est l'absence de lumière à la valeur 100 qui est la pleine lumière. La direction des a* va du vert (-a) au pourpre (+a). L’axe des b* va du bleu (-b) au jaune (+b). Chaque couleur a dans cet espace des coordonnées précises. La différence entre deux couleurs est appelé le "deltaE".
Il existe plusieurs formules et outils pour calculer un delta E, notamment des formules qui prennent en compte les supports textiles.
Dans cet espace la distance entre les couleurs correspond aux différences perçues par l'oeil humain. Autrement dit si deux couleurs nous semblent proches elles seront également proches dans l'espace CIE L*a*b*.
Dans cet espace une couleur se définit par 3 paramètres. L* donne la luminance, cet axe va de la valeur 0 qui est l'absence de lumière à la valeur 100 qui est la pleine lumière. La direction des a* va du vert (-a) au pourpre (+a). L’axe des b* va du bleu (-b) au jaune (+b). Chaque couleur a dans cet espace des coordonnées précises. La différence entre deux couleurs est appelé le "deltaE".
Il existe plusieurs formules et outils pour calculer un delta E, notamment des formules qui prennent en compte les supports textiles.
Dans cet espace la distance entre les couleurs correspond aux différences perçues par l'oeil humain. Autrement dit si deux couleurs nous semblent proches elles seront également proches dans l'espace CIE L*a*b*.
Formule pour calculer un delta E

L1, a1, b1 représente les coordonnées de la première couleur
L2, a2, b2 représente les coordonnées de la deuxième couleur
L1, a1, b1 représente les coordonnées de la première couleur
L2, a2, b2 représente les coordonnées de la deuxième couleur
Lettre | Signification | Ce que ça mesure | Schéma ci-dessus |
L | Luminosité | 0 = noir, 100 = blanc | 54 → une luminosité moyenne |
a | vert ←→ rouge | Valeurs négatives = vert / positives = rouge | 1 → presque neutre (ni très rouge ni très vert) |
b | bleu ←→ jaune | Valeurs négatives = bleu / positives = jaune | 36 → jaune doré |
Le Mode CMJN
Le mode colorimétrique CMJN fonctionne selon la synthèse soustractive. Chaque couleur primaire, cyan, magenta et jaune, absorbe la lumière. Donc plus vous utilisez ces couleurs, plus le résultat sera foncé. C'est pourquoi, en théorie, lorsque l'on mélange en quantités égales du cyan, du magenta et du jaune, on obtient du noir. En réalité, ces 3 couleurs sont rarement pures, et si on les mélange en quantités égales, on obtient plutôt un brun très foncé. C'est pourquoi, pour un résultat parfait en impression, on a ajouté le noir à ces 3 couleurs primaires. Il permet non seulement d'obtenir un noir profond, mais aussi de donner davantage de relief aux autres couleurs foncées.
Cela signifie que pour imprimer cette couleur, l’imprimante utilisera ces pourcentages d’encre.
Lettre | Signification | Schéma ci-dessus |
C | Cyan | 41% |
M | Magenta | 42% |
J | Jaune | 87% |
N | Noir | 14% |
Système | Utilité principale |
TSL | Pour ajuster la couleur visuellement |
Lab | Pour des retouches "perceptuelles" |
CMJN | Pour préparer une impression papier |
Le Dématriçage
Imaginons une partie du capteur photo tel que le schéma ci-dessous :
🟥 = photosite rouge 🟩 = photosite vert 🟦 = photosite bleu
➡️ Dans ce carré, il y a 9 photosites, chaque photosite ne capte qu’une seule couleur, à cause du filtre de la matrice de Bayer, donc l’appareil ne connaît qu’une composante couleur pour chaque point.
Par exemple :
• Un photosite rouge sait : "à cet endroit, il y avait tant de rouge".
• Mais il ne sait rien sur le bleu ou le vert à cet endroit.
🔹 La solution : l'interpolation
L’appareil dit en gros :
"OK, je ne connais que le rouge ici, mais autour de ce point, j’ai des photosites vert et bleu… Je vais deviner les valeurs manquantes."
Exemple :
Prenons un pixel dont le photosite central est rouge. Autour de lui, il y a des photosites bleus et verts.
L’algorithme via le processeur va dire :
• Le rouge = valeur directe du photosite 🟥
• Le bleu = moyenne des valeurs des deux 🟦
• Le vert = moyenne des 🟩 à gauche et à droite
Et voilà ! → un pixel rouge + vert + bleu = une vraie couleur complète
Haut de page
Résultat :
Grâce à ces interpolations :
• Chaque pixel de ton image a une couleur RVB complète. Même si, à la base, aucun photosite ne "voyait" les trois couleurs à la fois !
Résumé
En pratique :
• Chaque photosite capte une seule couleur (R, V ou B).
• Pour construire un pixel avec une couleur complète, il faut combiner les données de plusieurs photosites autour du point concerné.
Le plus souvent :
• Il faut au moins 1 rouge, 1 bleu et 2 verts (car il y a 2x plus de verts sur la matrice de Bayer).
• Donc, au minimum 4 photosites pour reconstituer 1 pixel complet (RVB).
Mais parfois, l’algorithme regarde encore plus de voisins pour mieux lisser, corriger ou améliorer les détails.
Donc selon les cas :
🔹 Pour 1 pixel le processeur peut utiliser 4 photosites ou 9, 16, 25… (plus de précision mais plus de calculs)
Ce processus est répété pour chaque photosite du capteur, c’est-à-dire des millions de fois pour chaque photo. C’est cette opération que l’on appelle dématriçage.
Elle est toujours effectuée quel que soit votre méthode d’enregistrement.
Elle est toujours effectuée quel que soit votre méthode d’enregistrement.
Ce que l'on voit | Ce que le capteur fait |
1 Pixel (RVB) | Chaque photosite n'a qu'une seule couleur |
Couleur complète | Combine plusieurs photosites |
Image nette et colorée | logiciel fait le traitement pour cela |
➡️ Plus l’image est complexe (ou précise) on a donc plus besoin de détails :
• Soit on utilise plus de photosites sur le capteur
• Soit l’appareil va utiliser plus de photosites autour d’un pixel pour estimer les bonnes couleurs (en analysant les variations, les contrastes, etc).
Deux cas possibles 👇
1. Pour une image très détaillée :
• L’appareil photo (ou smartphone) utilise plus de photosites au total.
• Par exemple, un capteur de 48 MP a 48 millions de photosites, donc plus d’infos captées → image plus riche.
2. Pour une meilleure qualité de couleur ou moins de bruit :
• L’appareil peut analyser plus de photosites autour d’un point pour "deviner" la bonne couleur.
• Ça améliore les zones floues, les ombres, les détails fins, etc.
• C’est souvent le cas dans les smartphones avec des algorithmes très puissants d’IA (comme le "pixel binning").
💡 En résumé :
Plus de photosites = plus de potentiel de détail et de précision.
Et parfois, même si un pixel final = 4 photosites, le traitement peut en utiliser 9, 16, ou plus pour mieux reconstruire l’image.
Haut de page
Le dématriçage est donc une opération qui consiste à recalculer de manière artificielle des informations qui n’ont pas été enregistrées par le capteur. Les informations manquantes sont interpolées à partir des infos enregistrées par les photosites voisins du photosite en cours de traitement.
Ce processus est un des points essentiels de la chaîne de production d’une photo numérique. C’est pourquoi il sera toujours préférable de lui accorder l’attention qu’il mérite en enregistrant en RAW et en gardant le plus de contrôle possible sur la manière dont cette opération est réalisée.
• Si vous photographiez en JPEG, le dématriçage est réalisé par l’appareil immédiatement après la prise de vue. C’est l’appareil qui décide de la manière dont le dématriçage va avoir lieu, en vous laissant très peu de possibilités d’intervention sur ce processus.
• Si vous photographiez en RAW, les données brutes enregistrées par le capteur sont stockées dans le fichier RAW. Un premier dématriçage rapide et sommaire est réalisé par l’appareil afin de produire une vignette JPEG qui permettra la visualisation immédiate de la photo sur l’écran de l’appareil. Mais le travail de dématriçage définitif sera réalisé par le logiciel que vous aurez choisi : Photoshop Camera Raw, DPP, Lightroom, LightZone, Capture One, etc. Dans tous les cas, ce logiciel vous donnera de très grandes possibilités d’intervention sur la manière dont le dématriçage va être effectué. C’est tout l’intérêt du RAW.
• Si vous photographiez en RAW, les données brutes enregistrées par le capteur sont stockées dans le fichier RAW. Un premier dématriçage rapide et sommaire est réalisé par l’appareil afin de produire une vignette JPEG qui permettra la visualisation immédiate de la photo sur l’écran de l’appareil. Mais le travail de dématriçage définitif sera réalisé par le logiciel que vous aurez choisi : Photoshop Camera Raw, DPP, Lightroom, LightZone, Capture One, etc. Dans tous les cas, ce logiciel vous donnera de très grandes possibilités d’intervention sur la manière dont le dématriçage va être effectué. C’est tout l’intérêt du RAW.
➵ Bits et capteurs.
Si vous consultez la documentation technique de votre APN, vous trouverez certainement une information sur la "profondeur en bits" utilisée par le capteur pour représenter chaque pixel : en général 12-bit ou 14-bit. Il y a très souvent des confusions à ce propos car au moment de la capture de l’image, le photosite qui capture un point de l’image sur le capteur ne peut pas encore être considéré comme un pixel.
La couleur d’un pixel est représentée par 3 valeurs (R, V et B) mais à la prise de vue, chaque point de l’image n’est représenté que par une seule valeur : sa luminance.
Le capteur ne sait pas capturer pour un point donné les 3 valeurs Rouge, Vert et Bleu qui représentent ce point. Il ne capture qu’une seule couleur.
Au moment de l’illumination, le capteur enregistre une donnée analogique (le courant généré par les photons arrivant sur le photosite) et transforme cette valeur analogique (une intensité de courant) en valeur binaire par le biais d’un convertisseur analogique/digital (ADC – Analog Digital Converter). La valeur binaire résultante est, selon le capteur, stockée sur 12-bit ou 14-bit (en général). Mais cette valeur ne représente qu’une seule couleur.
C’est le processus de dématriçage (qui a toujours lieu que vous utilisiez le format JPEG ou le format RAW, dans le premier cas ça se passe dans votre APN et dans le second dans votre logiciel) qui va au final affecter, par interpolation, un ensemble de 3 valeurs (rouge, vert et bleu) à chaque photosite. Selon le logiciel utilisé et les options que vous aurez choisies, ces composantes RVB seront chacune codées sur 8 bits ou sur 16 bits.
Si vous consultez la documentation technique de votre APN, vous trouverez certainement une information sur la "profondeur en bits" utilisée par le capteur pour représenter chaque pixel : en général 12-bit ou 14-bit. Il y a très souvent des confusions à ce propos car au moment de la capture de l’image, le photosite qui capture un point de l’image sur le capteur ne peut pas encore être considéré comme un pixel.
La couleur d’un pixel est représentée par 3 valeurs (R, V et B) mais à la prise de vue, chaque point de l’image n’est représenté que par une seule valeur : sa luminance.
Le capteur ne sait pas capturer pour un point donné les 3 valeurs Rouge, Vert et Bleu qui représentent ce point. Il ne capture qu’une seule couleur.
Au moment de l’illumination, le capteur enregistre une donnée analogique (le courant généré par les photons arrivant sur le photosite) et transforme cette valeur analogique (une intensité de courant) en valeur binaire par le biais d’un convertisseur analogique/digital (ADC – Analog Digital Converter). La valeur binaire résultante est, selon le capteur, stockée sur 12-bit ou 14-bit (en général). Mais cette valeur ne représente qu’une seule couleur.
C’est le processus de dématriçage (qui a toujours lieu que vous utilisiez le format JPEG ou le format RAW, dans le premier cas ça se passe dans votre APN et dans le second dans votre logiciel) qui va au final affecter, par interpolation, un ensemble de 3 valeurs (rouge, vert et bleu) à chaque photosite. Selon le logiciel utilisé et les options que vous aurez choisies, ces composantes RVB seront chacune codées sur 8 bits ou sur 16 bits.
➵ Bits et logiciels.
La profondeur en bit de chaque photosite du capteur (12 bits ou 14 bits) n’a donc a priori rien à voir avec le codage 8-bit ou 16-bit obtenu après dématriçage.
Si l’image finale est représentée en mode 16-bit par canal, il est bien évident que l’on se trouve en situation de surcapacité puisque le capteur fourni au mieux des informations sur 14-bit (dans le cas général).
Faut-il en déduire que travailler en mode 16-bit dans Photoshop ou dans votre logiciel favori ne sert à rien ? Sûrement pas.
Tout d’abord, passer en mode 8-bit signifie que vous renoncez à une partie des informations collectées par le capteur en arrondissant certaines valeurs (sauf si le capteur est limité à 8 bits). Mais de toute évidence, si le capteur travaille en 14-bit et le logiciel en mode 16-bit, on objectera qu’il y a 2 bits superflus. C’est exact. Mais pour les programmeurs, travailler sur des entités qui ne sont pas des multiples entiers d’octets est un véritable cauchemar. Non seulement cela leur compliquerait énormément la vie mais cela ralentirait fortement les calculs. Dans un ordinateur, on ne sait pas représenter et traiter efficacement des données codées sur un nombre de bits qui n’est pas un multiple de 8 (sauf à utiliser des processeurs spécialisés, ce qui est hors-sujet ici).
On profitera en général de l’espace supplémentaire pour stocker des données complémentaires qui s’avèreront souvent très utiles. Par ailleurs, le mode 16-bit permet de travailler sur des données dont l’étendue est plus large. Cela permet de faire des calculs plus précis qu’en mode 8-bit avec pour avantage de mieux combattre la génération d’artefacts, problème bien connu en photographie numérique (apparition de ruptures brutales dans les dégradés de couleur, de zone d’à- plat sans nuances, etc.).
La profondeur en bit de chaque photosite du capteur (12 bits ou 14 bits) n’a donc a priori rien à voir avec le codage 8-bit ou 16-bit obtenu après dématriçage.
Si l’image finale est représentée en mode 16-bit par canal, il est bien évident que l’on se trouve en situation de surcapacité puisque le capteur fourni au mieux des informations sur 14-bit (dans le cas général).
Faut-il en déduire que travailler en mode 16-bit dans Photoshop ou dans votre logiciel favori ne sert à rien ? Sûrement pas.
Tout d’abord, passer en mode 8-bit signifie que vous renoncez à une partie des informations collectées par le capteur en arrondissant certaines valeurs (sauf si le capteur est limité à 8 bits). Mais de toute évidence, si le capteur travaille en 14-bit et le logiciel en mode 16-bit, on objectera qu’il y a 2 bits superflus. C’est exact. Mais pour les programmeurs, travailler sur des entités qui ne sont pas des multiples entiers d’octets est un véritable cauchemar. Non seulement cela leur compliquerait énormément la vie mais cela ralentirait fortement les calculs. Dans un ordinateur, on ne sait pas représenter et traiter efficacement des données codées sur un nombre de bits qui n’est pas un multiple de 8 (sauf à utiliser des processeurs spécialisés, ce qui est hors-sujet ici).
On profitera en général de l’espace supplémentaire pour stocker des données complémentaires qui s’avèreront souvent très utiles. Par ailleurs, le mode 16-bit permet de travailler sur des données dont l’étendue est plus large. Cela permet de faire des calculs plus précis qu’en mode 8-bit avec pour avantage de mieux combattre la génération d’artefacts, problème bien connu en photographie numérique (apparition de ruptures brutales dans les dégradés de couleur, de zone d’à- plat sans nuances, etc.).
Glossaire
Bit | constitue la plus petite unité de stockage d'information informatique pouvant prendre deux valeurs distinctes, notées 0 et 1 (système binaire).. |
Octet | ou Byte en anglais est composé de 8 bits, soit 28 = 256 valeurs possibles. |
Pixel | c’est l’unité d’affichage d’une image. Il résulte d’un traitement des données issues des photosites. Un pixel contient une information de couleur complète (RVB).” |
Photosite | cellule photoélectrique qui transforme une intensité lumineuse en signal électrique. Chaque photosite ne capte qu’une seule couleur (R, V ou B), et l’image complète est reconstituée par un processus appelé dématriçage (ou demosaicing). |
RVB | codage informatique des couleurs basées sur la trichromie Rouge, Vert, Bleu ou Red, Green, Blue, RGB en anglais. Modèle de couleur dit additif, où les trois couleurs se combinent pour former toutes les couleurs visibles à l’écran. (ex. Rouge + Vert = Jaune). |
sRGB | espace de couleur par défaut proposé pour les dispositifs numériques, notamment les écrans d'ordinateurs, par Hewlett-Packard et Microsoft en 1996. |
AdobeRGB | espace de couleur Rouge Vert Bleu (RVB-RGB) créé par Adobe Systems en 1998. Il a été conçu pour les graphistes dont le travail sur écran se destine à l'impression. |
ProPhoto RGB | profil de couleur extrêmement avancé, conçu pour capturer et représenter une large gamme de couleurs visibles par l’œil humain. Contrairement aux espaces colorimétriques plus courants tels que sRGB et Adobe RGB, ProPhoto RGB permet d’obtenir des tons et des nuances qui seraient autrement perdus. Il est donc particulièrement adapté à la photographie professionnelle où la précision des couleurs est essentielle pour créer des images vivantes et attrayantes. Cependant, il n'est pas lu par la plupart des écrans informatiques. |
CMJN | procédé d'imprimerie en quadrichromie permettant de produire par synthèse soustractive une large gamme de teintes à partir de trois teintes dites élémentaires, un bleu (appelé "cyan"), un rouge ("magenta") et un jaune auxquelles on ajoute le noir. |
Gamut | ensemble des couleurs qu'un dispositif permet de reproduire. Il peut notamment s'agir d'un appareil photographique, d'un scanner informatique, d'un écran d'ordinateur, d'un rétroprojecteur, d'un vidéoprojecteur, d'un procédé d'imprimerie ou d'une imprimante. |
TSL | système de description des couleurs basés sur les trois composantes définies par l'approche de la psychologie des couleurs : Teinte, Saturation et valeur ou Luminosité, en anglais HSL pour Hue, Saturation, Lightness |
Lab | modèle colorimètrique adopté par la Comission Internationale de l'Eclairage. Il fait office de language colorimétrique commun qu'utilisera le système de gestion des couleurs pour faire communiquer entre eux tous les périphériques de la chaine. "L" signifie la clarté (ligthness en anglais), "a" (axe vert/magenta) et "b" (axe bleu/jaune) qui sont les axes chromatiques. |
Matrice de Bayer | ou filtre de Bayer ou mosaïque de Bayer, est un type de Color filter array, Réseau de filtres de couleur c'est-à-dire une matrice de filtres de couleur placée entre une lentille et un capteur photographique numérique afin de pouvoir enregistrer des photographies en couleur. Le nom vient de son inventeur, Bryce E. Bayer, de la société Eastman Kodak. |
Dématriçage | une des phases du traitement du signal brut issu du capteur d'un appareil photographique numérique. Il consiste à interpoler les données de chacun des photosites monochromes rouge, vert et bleu composant le capteur électronique pour obtenir une valeur trichrome RVB pour chaque pixel. |
Capteur | composant en silicium constitué de photosites juxtaposés en matrice, c’est-à-dire de petites cellules photo-électriques qui captent la lumière pour chaque pixe qui composera l’image. |
Logiciel | ensemble de séquences d’instructions interprétables par une machine et d’un jeu de données nécessaires à ces opérations. Le logiciel détermine donc les tâches qui peuvent être effectuées par la machine, ordonne son fonctionnement et lui procure ainsi son utilité fonctionnelle. Les séquences d’instructions appelées programmes ainsi que les données du logiciel sont ordinairement structurées en fichiers. La mise en œuvre des instructions du logiciel est appelée exécution et la machine chargée de cette mise en œuvre est appelée ordinateur ou calculateur. |
Haut de page
Un super site pour comprendre la photo numérique