discrepância de cores no monitor, alguém me pode explicar sff?

Vês a diferença? O resultado final são duas imagens em sRGB, mas o facto dele ter trabalhado em Prophoto, permitiu-lhe criar transições de cor usaves na de baixo, e lixar a fotografia toda na de cima. Se isto não é suficiente para convencer dos beneficios de um espaço de cor maior...
Já percebi o que estás a fazer, algures na manipulação os teus ajustes saem fora do sRGB e numa manipulação posterior voltas para ele. De facto, deve-se o usar o espaço de cor que englobe todos os nossos ajustes, sobretudo se "andarmos para trás". Não sabia era que era tão fácil sair do sRGB (se calhar até não é).

Agora o que não se deve fazer é usar ProPhoto 8 bits. Prophoto 8 bit tem o mesmo número de cores que sRGB 8 bit, mas têm maiores espaços entre si. Se pegares numa imagem sRGB e converteres para ProPhoto 8 bits, perdes as cores todas que estão nos espaços entre as cores ProPhoto.
 
ok, depois de me debruçar sobre mais uns quantos artigos (dei comigo a ler sobre a estrutura de um "single pixel"!), mantenho a minha primeira impressão sobre este assunto.

1) no sensor da máquina (DSLR) são registados valores binários (0,1) em 3 layers - RGB, através de cada pixel. o ficheiro RAW, que reúne a informação de todos os pixeis funcionantes do sensor, não contém cores, mas antes 3 layers de cinzentos com mais ou menos "variações" dependendo do "bit depth". portanto na origem não são captadas cores.

2) as cores, resultam (dependem) do processamento:

a) do softwares - que analisa os dados binários e lhe atribui um determinado valor (cor correspondente), sendo que há perda de informação, tanto maior quanto menor for a amplitude de cores que podem ser definidas (sRGB > adobeRGB > proPhoto, entre outros);

b) do "output device" (monitor ou impressora) - depende das limitações físicas que os mesmos apresentam (um monitor a "preto e branco" não irá mostrar qualquer cor mesmo que um ficheiro .jpg ou outro contenha essa informação, procedendo, dentro das suas capacidades, à extrapolação dos valores para diferentes "tons de cinzento"... o mesmo se passa com as impressoras - se uma impressora apenas for capaz de reproduzir 256 cores, não adiante ter um ficheiro com 16.7M de cores, ela, através de software, irá extrapolar os valores adequados que lhe permitam fazer a impressão dentro dos seus limites - as 256 cores;

c) dos nossos olhos e da capacidade que o nosso organismo tem para discriminar as diferentes cores - toda a gente sabe que as mulheres "vêem" mais cores que os homens (LOL) brincadeira à parte, por mais cores que uma foto impressa possa ter, um daltónico nunca será capaz de as apreciar...


ou seja, quando pretendo editar uma imagem tenho que ter noção das limitações do sistema de impressão, do monitor que tenho e do que ele é capaz de discriminar, e do(s) software(s) com o qual estou a trabalhar - hoje percebo que o principal erro que cometia anteriormente estava precisamente aqui: passar (inconscientemente) de sRGB para proPhoto dá asneira; ou levar um ficheiro em proPhoto para um sistema de impressão incapaz de o interpretar correctamente, porque assume o perfil sRGB por defeito, dará igualmente asneira; exportar uma imagem em proPhoto para a web dá asneira porque os browser's (penso que a excepção será o safari) não estão habilitados para interpretar correctamente o ficheiro assumindo que será sRGB; etc.
até posso passar a editar com o perfil proPhoto mas agora sei que
a) irei notar pouco ou nada de diferenças pelas limitações do meu monitor
b) terei sempre que exportar para sRGB por limitações da impressora que vou usar para obter a fotografia final. Sobre isto deixo aqui um video onde o Gary Fong ilustra este último aspecto em particular.

[video=youtube;Xn9u1ZFriFU]http://www.youtube.com/watch?v=Xn9u1ZFriFU[/video]
 
Algumas correções:

no sensor da máquina (DSLR) são registados valores binários (0,1)

Cada pixel do sensor capta um valor numérico de N-bits (geralmente 12 ou 14) e não apenas 1-bit.


o ficheiro RAW, que reúne a informação de todos os pixeis funcionantes do sensor, não contém cores, mas antes 3 layers de cinzentos com mais ou menos "variações" dependendo do "bit depth". portanto na origem não são captadas cores.

Na vasta maioria dos sensores (sensores com filtro de Bayer), cada pixel capta uma e uma só cor. 3 camadas por pixel só mesmo em algumas tecnologias exóticas (ex.: Foveon). O processamento RAW para RGB tem de converter sequências de quatro pixels R-G-B-G em RGB-RGB-RGB-RGB, interpolando a informação que falta.
 
Strobe, tens razão no que referiste, mas o que eu tentei passar é que são registados valores binários (0,1)~(on/off) ou seja, duas posições possíveis. o número final final de "combinações possíveis" irá depender do "bit depth" - explicando:
para obter os 256 "cinzentos" precisamos de 8bit, o equivalente a dizer 2x2x2x2x2x2x2x2=256;
para obter os ~16.7milhões de cores RGB precisamos dos 8bit por "canal" R, G e B ou seja, 256x256x256=16.777216~17.6milhões de cores -> teoricamente este é o limite das cores que o meu monitor conseguirá reproduzir (mas não chega lá na prática).
uma máquina com sensor de 14-bit, ou seja é capaz de registar por "canal" catorze diferentes posições (0,1/on,off) ou seja, 2x2x2x2x2x2x2x2x2x2x2x2x2x2=16384 para o R + 16384 para G e + 16384 para B, ou seja, no total, um sensor linear teria capacidade para codificar em RAW 16384x16384 x16384=4,398,046,511,104 combinações possíveis. se dividíssemos o espectro total de cores visíveis por igual número e a cada um lhe atribuíssemos uma combinação possível então poderíamos dizer que "seria capaz de definir 4,398,046,511,104 cores. o ficheiro RAW ignora a cor, regista apenas combinações de 0,1. a codificação da cor vai depender do software que vai analisar o ficheiro RAW
é por isto que quando se passa para uma determinado "espaço de cor" estamos a perder informação tanto maior quanto menor forem as cores definidas para esse determinado "espaço" (sRGB > adobeRGB > proPhoto). para mim estes espaços são equivalentes a escalas, ou seja, se pegarmos em 100 combinações binárias e definíssemos uma cor de 10 em 10 combinações, então teremos 10 cores para 100 combinações, ignorando as restantes. se definíssemos uma cor de 25 em 25, então teremos 4 cores para cada 100 combinações; etc. o "espaço", "gamut" ou "gama" de cores será tanto maior quanto menor o intervalo entre as combinações possíveis ou seja mais cores possíveis.
este raciocínio linear (para ajudar a entender) acho não é aplicado aos sensores comuns (os usados pela canon, nikon etc) uma vez que, como disseste, estes recorrem a interpolações - logo introduz mais confusão:

FOVEON_X3_COMPARISON_2_L.JPG



o que se aproxima ao descrito é o sensor usado pela sigma - Foveon, onde o raciocínio é linear.

FOVEON_X3_COMPARISON_1_L.JPG


foi isto que entendi, não sei que estarei a cometer alguma imprecisão. corrijam-se sff.

deixo aqui ainda mais duas referências interessantes sobre isto da impressão, cores, monitor, espaço de cor etc

1. no podcast n.53 do Photofocus, link - entre 19:05-23:24, podemos ouvir Scott Kelby a responder à pergunta: Color Space sRGB or Adobe RGB? e fala sobre alguns dos conceitos acima descritos nomeadamente: "If you are shooting in RAW your camera ignores the color space"...

2. a empresa de impressão profissional theprintspace tem uns vídeos interessantes onde dá uma dicas sobre como obter melhores resultados nas impressões finais e esclarece muito bem esta questão das "gamas de cor" usadas na edição e das limitações das impressoras na reprodução dessas mesmas cores - neste video.






 
Última edição pelo moderador:
foi isto que entendi, não sei que estarei a cometer alguma imprecisão. corrijam-se sff.
Estás. "Espaço de cor", "gama" e "gamut" são coisas diferentes que parece-me que estás a equacionar.

As cores são uma combinação de componentes, usualmente cores primárias como RGB. Só que estas primárias não são absolutas, são definidas (por exemplo por uma resposta no espectro), ou seja, há muitos verdes, vermelhos e azuis, não há só um de cada.

Isto pode ser imaginado como um triângulo num plano, com vértices nos componentes. Quando temos cor quantizada, como nos sistemas digitais, as cores possíveis são pontos dentro do triângulo. Grosseiramente, "gamut" "espaço de cor" é a área do triangulo, "espaço de cor" "gamut" são os pontos dentro do triângulo, e "gama" será o número de pontos.
http://en.wikipedia.org/wiki/Color_space

As primárias do [filtro do] sensor das máquinas não são o RGB do sRGB, são outro espaço com gamut diferente. As cores que a máquina captura podem incluir ou não as do sRGB.
 
Última edição:
Ya, cada Color Space tem a sua própria definição do que é R, G e B. Por curiosidade, o sRGB e o AdobeRGB são iguais menos no verde por exemplo.

Mas se com Gama te referes a Gama de Cores, isso não é nada mais que a tradução para português de Gamut.

Se te referes a gamma, isso não tem a ver com cor.

Por acaso era uma secção que curtia saber mais. Já li um livro que explicava um bocado em relação ao Lab vs. RGBB. Mas gamma é tipo uma escala que define a luminosidade e e rearranja as shadows midtones e highlights para melhor corresponderem à nossa visão (se alguém perceber mais disto me corrija se estiver enganado).

O sRGB por exemplo usa uma gamma de 2.2, o Prophoto 1.8. Isto se não me engano significa que o que o Prophoto considera cinzento 50% é mais claro do que o sRGB, para melhor se adaptar à nossa percepção de mudança de luz. Pelo que li, dizem que os nossos olhos conseguem interpretar mais facilmente a diferença em zonas mais claras do que em zonas mais escuras. O sRGB usa uma escala de 2.2 porque na altura era a curva dos CRT's e depois ficou. Tal como o windows também usa 2.2 (por isso é que se abrirem uma fotografia em prophoto no Windows ela vai estar bem mais escura porque o gamma é mal interpretado).
 
Vês a diferença? O resultado final são duas imagens em sRGB, mas o facto dele ter trabalhado em Prophoto, permitiu-lhe criar transições de cor usaves na de baixo, e lixar a fotografia toda na de cima. Se isto não é suficiente para convencer dos beneficios de um espaço de cor maior...

Concordo plenamente e só quem faz edições extensivas é que sabe disso. Edito sempre as minhas fotos em prophoto 16bits, quero editar as minhas fotos sempre com o máximo potencial delas. Essas transições notam-se especialmente do céu e é obrigatório! editar o céu em prophoto por causa dos gradientes suaves. Depois converte-se para Srgb e o photoshop faz o seu bom trabalho e fica tudo bom, agora editar em Srgb, nenhum fotografo que se preze faz isso ou anda a tirar fotos em jpeg.
 
sim, escrevi gama (tradução pt, talvez errada) para me referir a uma escala/conjunto de cores (ref), que tal como o "color space" (vou usar os termos em inglês para simplificar) representa um SUB-conjunto de cores contidas no universo da cores possíveis, obtidas a partir de um modelo matemático criado especificamente para "gerar cores" com base nos dados "brutos" (binários).

o "gamut" representa também um conjunto de cores: "In color reproduction, including computer graphics and photography, the gamut, or color gamut ( /ˈɡæmət/), is a certain complete subset of colors." (ref). no entanto, e apesar de muitas "referências" misturarem os termos, julgo que o termo "gamut" está mais relacionado com a capacidade que um determinado terminal (ex. monitor) tem para gerar um conjunto de cores dentro do "color space" (que por sua vez já era um sub-conjunto de cores). Julgo que é por esta razão que são criados os "ICC profiles" ou seja o "gamut" para um dado terminal - por outras palavras, o conjunto de cores que aquele terminal específico será capaz de reproduzir de acordo com as suas limitações físicas.

exemplo o meu monitor está limitado a 8bit, logo apenas poderá reproduzir uma máximo de ~16.7milhões cores, ou seja terá um "gamut" inferior a um monitor IPS com 12 bit que poderá reproduzir aproximadamente 67,9 biliões de cores (ref) e ainda assim não ser capaz de reproduzir a totalidade das cores definidas para um determinado "color space"! por isso os monitores profissionais têm quase sempre na descrição a % de cobertura de um determinado "color space" (pelo que vejo mais frequentemente o adobeRGB, mas não só). exemplos:

2chq39h.png

(ref)
 
Tenho o Dell 2209WA, é IPS, mas não faço a mínima ideia se abrange tantas cores. Editar fotos em TN é do pior que há, não dá mesmo, basta ficares num angulo mais baixo ou mais alto, a luminusidade da foto muda, nem sabes a quantas andas.
 
Fixe essa tabela. Eu uso o CG223W.
Quando chego a casa e edito as minhas fotografias no meu monitor choro sempre um bocadinho como ritual. Ahah.

LOL! como vivo na ignorância ainda não partilho desse sofrimento...

esqueci-me de escrever que também concordo contigo em editar em proPhoto. Antes não entendia o porquê, agora percebo as vantagens de editar em proPhoto e apenas converter para sRGB no final da edição (exportar para imprimir). Apesar do meu monitor não me ajudar a ver bem a plenitude dessas mesmas diferenças, sei que elas estão lá e no final irei obter uma melhor imagem impressa.

bem hajam!
 
o prophoto só serve para editar, tal como o raw só serve para editar, na edição tens de ter o máximo de informação para fazeres uma edição limpa sem artefactos pelo meio, isso é que puxa pela foto. Depois ao visualizar no monitor a foto final, em prophoto ou srgb é igual.
 
OK, editei o meu post visto que troquei "gamut" com "espaço de cor". Não sei é porque é que ninguém me corrigiu...

Carlos, não sei de onde vieram esses "dados binários", mas a coisa importante aqui são as primárias (RGB) e que posições têm no espaço de cor "absoluto". A imagem recolhida por um sensor [com filtro] RGB estará sempre no espaço de cor desse filtro, ou seja, o R, G e B terão as posições das do filtro. Estas posições formam um triangulo que pode ser maior que e englobar o sRGB e nesse caso um monitor sRGB não pode reproduzir as cores capturadas. Isto nada tem a ver com o número das cores, um sensor pode ter apenas 1 bit por canal e só fazer 3 cores e mesmo assim um monitor de 12 bit por canal, com milhares de milhões de cores, não conseguirá reproduzir a imagem porque tem as primárias em sitios diferentes.

Os fabricantes, como sempre, inventam maneiras de não dizer nada. O que nós precisamos de saber não é a percentagem do espaço de cor coberto, mas sim onde as primárias estão (ou seja, ver o triângulo e comparar com o triangulo do espaço de cor desejado). Os fabricantes não dizem isto porque garanti-lo seria muito mais caro.
 
A discussão está interessante. Mas é um tema muito complexo, que envolve grandes doses de física e matemática. Para a maioria, bastará saber que para maximizar a qualidade da imagem final devemos:

- Usar o melhor formato de aquisição possível (RAW, sem compressão ou com compressão lossless e com o máximo de bits suportado pela máquina)

- Usar o melhor formato de processamento possível em todo o workflow (usualmente ProPhoto, com o máximo de bits suportado pelo software)

- Usar o melhor formato para o dispositivo final onde se pretende ver o trabalho fotográfico (para ver na Web ou num computador qualquer o melhor é sRGB, para imprimir, provavelmente também será sRGB embora haja exeções pontuais)

Quem quiser retirar deste tópico apenas conselhos práticos, pode ficar por aqui no meu post.


Para quem quiser saber mais sobre o que está por baixo:

mas o que eu tentei passar é que são registados valores binários (0,1)~(on/off) ou seja, duas posições possíveis. o número final final de "combinações possíveis" irá depender do "bit depth"

Errado. São registados valores em formato binário porque a tecnologia usada (eletrónica) assim o exige. Isso nada tem a ver com o espaço de cor ou a arquitetura de um sensor.

Nos sensores atuais, cada "pixel" de um sensor converte uns quantos fotões nuns quantos eletrões e devolve o resultado na forma de um valor inteiro de 0 a MAX, onde MAX é sempre muito superior a 1 (4095 num sensor 12-bit). O "bit" é usado como base porque é o que melhor se alinha com a tecnologia usada e na prática pode acontecer que alguns dos valores não sejam significativos (ex.: Um foto-recetor pode na realidade só ter uma gama útil do 10 ao 3000, sendo que os valores fora dessa gama representam cores indistintas. Neste caso, será na mesma necessário usar 12-bits por causa dos alinhamentos e ter 14-bits será inútil)

Teoricamente seria possível fabricar sensores cuja saída fosse 0 ou 1 como dizes (1-bit), mas isso implicaria uma arquitetura de sensor completamente diferente e muito complexa (nomeadamente no filtro de cor e na eletrónica de suporte). Isto é, em vez dos típicos 16 milhões de foto-recetores idênticos com saída 14-bit necessitaríamos de sensores com mais de 200 milhões de fotorecetores de 1-bit e de 14 tipos diferentes para ter uma performance similar. Para já não falar da complexidade do filtro de cor necessário. Na prática esta opção é inviável no estado corrente da tecnologia. O SuperCCD da Fuji dá um pequeno passo nessa direção, implementando sensores com dois ou três tipos diferentes de fotorecetor, mas isso está muitíssimo longe da hipótese que colocas e tem os seus problemas próprios.


o ficheiro RAW ignora a cor

Parcialmente correto. Se olharmos apenas para um "pixel" isolado dentro do ficheiro RAW, é um facto que não podemos saber se aquele valor corresponde a vermelho, verde ou azul. No entanto, se soubermos qual é esse pixel (em que posição se encontra) e qual a marca/modelo da máquina em questão, saberemos exatamente a que cor corresponde esse pixel.


As primárias do [filtro do] sensor das máquinas não são o RGB do sRGB

O filtro de cor pode até nem ser RGB e os valores RGB serem calculados através de uma matriz de transformação. Por exemplo, uma técnica muito comum para aumentar a sensibilidade de um sensor é usar um filtro vermelho-esverdeado na vez do vermelho "puro". Com isso perdem-se algumas tonalidades de vermelho, mas ganha-se uma melhor relação sinal/ruido no geral. É parte do preço a pagar pelos ISOs estratosféricos.


O sRGB por exemplo usa uma gamma de 2.2, o Prophoto 1.8.

Isso é o que diz a especificação. No entanto, a implementação do ProPhoto no Lightroom usa gamma 1.0, que é o gamma nativo do RAW. Assim poupam no processamento. Como gamma e espaço de cor são coisas separadas, não há problema nenhum com isto.
 
Última edição:
Um foto-recetor pode na realidade só ter uma gama útil do 10 ao 3000, sendo que os valores fora dessa gama representam cores indistintas. Neste caso, será na mesma necessário usar 12-bits por causa dos alinhamentos e ter 14-bits será inútil

Não percebi esta parte...

Então o conversor A/D ser 12 ou 14 bit não se traduz simplesmente pela precisão que converte o sinal ( que será o valor total, desde o zero até à saturação ) ?

Ou seja, 12 bit tens o valor subdividido em 4096 "degraus" e 14 bit tens esse mesmo valor subdividido em 16.384 "degraus", sendo que 14 bit alinham perfeitamente com 12 bit, tendo ainda 4 valores intermédios (4 x resolução) :confused:
 
Isso é o que diz a especificação. No entanto, a implementação do ProPhoto no Lightroom usa gamma 1.0, que é o gamma nativo do RAW. Assim poupam no processamento. Como gamma e espaço de cor são coisas separadas, não há problema nenhum com isto.

Sim, mas apenas internamente. (E acho que o preview do develop mode até é em AdobeRGB e não em ProPhoto). Se exportares a imagem ela vai ter o gamma normal que o Prophoto usa.
 
Não percebi esta parte...

Então o conversor A/D ser 12 ou 14 bit não se traduz simplesmente pela precisão que converte o sinal ( que será o valor total, desde o zero até à saturação ) ?

Ou seja, 12 bit tens o valor subdividido em 4096 "degraus" e 14 bit tens esse mesmo valor subdividido em 16.384 "degraus", sendo que 14 bit alinham perfeitamente com 12 bit, tendo ainda 4 valores intermédios (4 x resolução) :confused:
Teoricamente sim, mas na prática a resolução (real) depende mais do resto do circuito do que do ADC. Os fabricantes gostam muito de falar nos bits do ADC, porque é fácil acrescentar-lhe bits. Mais importante que o número de bits é até o modo de conversão. Por exemplo, em audio usam-se conversores sigma-delta com 24bit. Mas não vais ver coisas destas em osciloscópios, por exemplo, porque um conversor ΔΣ só tem os 24 bits à frequência zero, a partir daí a resolução real baixa.
 
Back
Topo