esmiuçando um pouco mais o assunto, como caracterizam "qualidade de imagem"?
Tenho por principio consumir o conteúdo como é pretendido que seja consumido, e não como a TV (ou phones, etc....) o interpretam. Costuma-se caracterizar "boa qualidade de imagem" com contraste, saturação, sharpness, interpolação de frames, ajuste automático de brilho, e todas as coisas "pós-conteúdo" que as TVs processam, o que para mim não interessa, chega a contar como aspectos negativos.
Os piores casos, e que realmente caracterizario como "má qualidade" seria o esbatimento de imagem (arrasto/dificuldade em processar movimentos rápidos), não ter luminozidade suficiente para a maioria das situações do dia-a-dia... e não consigo pensar em mais nada.
Coloco a questão desta maneira porque quero perceber se o que consideram "sub-par" me deve preocupar ou não.
Outras questões que também vejo a rondar no que toca a TVs é a frequência... A maioria do conteúdo é produzido/emitido a 24, 30, 50 e 60 frames por segundo (e outros intermédios menos frequentes). Até que ponto é relevante a frequencia subir acima dos 60Hz? Mesmo para jogos, e se não forem em consolas, cujo cap são os 60, o olho humano tem muita dificuldade em detectar variações daí para cima... Há algo que me está a escapar?