Strobe, tens razão no que referiste, mas o que eu tentei passar é que são registados valores binários (0,1)~(on/off) ou seja, duas posições possíveis. o número final final de "combinações possíveis" irá depender do "bit depth" - explicando:
para obter os 256 "cinzentos" precisamos de 8bit, o equivalente a dizer 2x2x2x2x2x2x2x2=256;
para obter os ~16.7milhões de cores RGB precisamos dos 8bit por "canal" R, G e B ou seja, 256x256x256=16.777216~17.6milhões de cores -> teoricamente este é o limite das cores que o meu monitor conseguirá reproduzir (mas não chega lá na prática).
uma máquina com sensor de 14-bit, ou seja é capaz de registar por "canal" catorze diferentes posições (0,1/on,off) ou seja, 2x2x2x2x2x2x2x2x2x2x2x2x2x2=16384 para o R + 16384 para G e + 16384 para B, ou seja, no total, um sensor linear teria capacidade para codificar em RAW 16384x16384 x16384=4,398,046,511,104 combinações possíveis. se dividíssemos o espectro total de cores visíveis por igual número e a cada um lhe atribuíssemos uma combinação possível então poderíamos dizer que "seria capaz de definir 4,398,046,511,104 cores. o ficheiro RAW ignora a cor, regista apenas combinações de 0,1. a codificação da cor vai depender do software que vai analisar o ficheiro RAW
é por isto que quando se passa para uma determinado "espaço de cor" estamos a perder informação tanto maior quanto menor forem as cores definidas para esse determinado "espaço" (sRGB > adobeRGB > proPhoto). para mim estes espaços são equivalentes a escalas, ou seja, se pegarmos em 100 combinações binárias e definíssemos uma cor de 10 em 10 combinações, então teremos 10 cores para 100 combinações, ignorando as restantes. se definíssemos uma cor de 25 em 25, então teremos 4 cores para cada 100 combinações; etc. o "espaço", "gamut" ou "gama" de cores será tanto maior quanto menor o intervalo entre as combinações possíveis ou seja mais cores possíveis.
este raciocínio linear (para ajudar a entender) acho não é aplicado aos sensores comuns (os usados pela canon, nikon etc) uma vez que, como disseste, estes recorrem a interpolações - logo introduz mais confusão:
o que se aproxima ao descrito é o sensor usado pela sigma - Foveon, onde o raciocínio é linear.
foi isto que entendi, não sei que estarei a cometer alguma imprecisão. corrijam-se sff.
deixo aqui ainda mais duas referências interessantes sobre isto da impressão, cores, monitor, espaço de cor etc
1. no podcast n.53 do Photofocus,
link - entre 19:05-23:24, podemos ouvir Scott Kelby a responder à pergunta: Color Space sRGB or Adobe RGB? e fala sobre alguns dos conceitos acima descritos nomeadamente: "
If you are shooting in RAW your camera ignores the color space"...
2. a empresa de impressão profissional
theprintspace tem uns vídeos interessantes onde dá uma dicas sobre como obter melhores resultados nas impressões finais e esclarece muito bem esta questão das "gamas de cor" usadas na edição e das limitações das impressoras na reprodução dessas mesmas cores -
neste video.