Вопрос навеян неприлично большим разбегом контрастности у различного рода производителей мониторов.. даже у одного производителя от 700/1 до 5000/1 . Вопрос-кто знает как вообще происходит процесс измерения контрастности и как это должно быть на самом деле(в случае различия фактического способа с правильным)
Ну трепаться совершенно необязательно.
Вообщем общие положения такие:
1. Контрастность меряется специальным прибором, как это сказать попроще - вообщем диапазон от самого "белого" белого, до самого "черного" черного.
2. Контрасность следовательно зависит от изменения яркости монитора - если мы при замере белого добавим яркости, а при замере черного убавим, то соответсвенно контрастность такого монитора будет неизмеримо выше (в цифрах)
3. Почти все мониторы с контрастом более 1500 используют данную фичу и называется это "динамическая контрастность". Т.е. монитор меняет яркость в зависимости от общей освещенности сцены, которую он в данный момент времени показывает. Фактически монитор с реальной контрастностью 700:1 покажет динамику 3000:1 (т.е. вообщем то цифры то дутые).
4. Определить реальную контрастность можно только измеряя ее на одной, неравномерно засвеченой сцене без изменения настроек изображения. Настоящей высокой контрастностью обладают только мониторы на PVA/MVA матрицах. Это связано со строением самой матрицы монитора. Типичный диапазон от 1000 до 2000.
5. У матриц TN+Film и IPS/S-IPS высокого значения контрастности быть не может по определению (ну технология расположения управляющих электродов такая, иначе они бы назывались по другому )