-1

Из того, что я знаю, все изображения, которые вы можете создать с помощью RGB, являются 24-битными (8 бит на канал).

В наши дни появляются новые 10-битные мониторы. В чем их преимущество перед 8-битными, если все (или почти все) источники являются 24-битными, а не 30-битными.

Даже в Photoshop есть поддержка 10 бит ... но вы все равно можете описать один канал с 0-255 (8 бит), а не 0-1023 (10 бит)

1 ответ1

1

С одной стороны, есть формат файла. Если вы используете JPG, это 8 бит, не беспокойтесь. Вы также можете убедиться, что ваша видеокарта поддерживает 10 бит на цвет.Большинство видео также 8 бит / цвет. Поэтому, если у вас нет всех форматов файлов (tiff16, CR2 и т.д.), А также программного и аппаратного обеспечения, не беспокойтесь.

Во-вторых, это проблема вашего глаза. Теоретически, ваши глаза видят около 10 000 000 цветов (источники немного отличаются по этому вопросу). Теоретический предел будет около 24 бит / цвет. Но для этого нужно иметь хорошо обученный глаз. Многие люди не замечают, обнуляешь ли ты младший бит на изображении. Кроме того, мониторы не отображают полный диапазон значений цвета, которые может видеть глаз. Черный редко бывает черным. Это означает, что есть только подмножество из 10 миллионов цветов, которые вы видите, которые отображаются на мониторе.

Правда, со временем люди привыкают к лучшему качеству. Например: HiFi-норма 70-х, безусловно, не соответствует современным стандартам; мы привыкли лучше звучать. Поэтому вполне может быть, что в будущем мои замечания о том, что большинство людей не видят разницы, будут смеяться.

Но пока это в основном для профессионалов, полупрофессионалов, очень продвинутых любителей и снобов.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .