Я пытаюсь понять, что вызывает разрыв экрана. Предположим, что монитор может мгновенно обновлять каждый из своих пикселей. Тогда я думаю, что обновления будут работать так:

  1. Монитор решает начать обновление
  2. Он смотрит на любой кадр, который GPU в данный момент отправляет.
  3. Атомно обновляет все пиксели мгновенно.

При такой процедуре кажется совершенно невозможным разорвать экран, полностью игнорируя частоту обновления и FPS. Только одно изображение рисуется в данный момент.

Теперь я знаю, что это не то, как ЭЛТ-мониторы работают со своим сканирующим пистолетом (или как там это называется). Но у меня сложилось впечатление, что новые технологии мониторов не работают так. Действительно ли они обновляют пиксели постепенно, а не сразу?

2 ответа2

1

Шаги 2 и 3 предполагают, что все данные кадра передаются на монитор непосредственным и атомарным способом, а не так. "Тупой" монитор никогда не "видит" (или не буферизирует) полный кадр видео. Мониторы по-прежнему работают по тем же принципам, когда мы использовали сканирующие электронные лучи для рисования изображений. Телевизоры Snazzier могут буферизовать изображения и выполнять межкадровую обработку, но монитор компьютера, вероятно, этого не сделает.

То, что видит монитор, - это просто поток данных с вашей видеокарты. На монитор отправляются всевозможные предварительные данные, чтобы сообщить ему, в каком формате будет находиться этот поток данных, поэтому он получает подробную информацию о времени, количестве горизонтальных линий, количестве вертикальных линий и цветовом формате, но на самом деле это просто длинная строка данных цвета пикселей.

Ваши шаги 2 и 3 фактически выполняются на видеокарте, а шаг 3 будет "отображаться" только в том случае, если вы включите вертикальную синхронизацию.

В любой точке видеокадра графический процессор может принять решение об изменении своего видеобуфера на новое изображение и продолжить отправку данных из этой точки в буфер. Если вертикальная синхронизация не включена, то она будет продолжать посылать новые данные буфера на монитор с той же точки, в которой они остановились в старом буфере. Это ваша точка слезы.

Если у вас включена вертикальная синхронизация, то графический процессор будет ждать отправки полного кадра, прежде чем переключит буфер, и в этом случае вы не увидите "разрыв".

0

Разрыв экрана - это визуальный артефакт на видеоэкране, где устройство отображения отображает информацию из нескольких кадров за один экран. Артефакт возникает, когда подача видео на устройство не синхронизирована с частотой обновления дисплея.

Источник: Википедия.

Все мониторы, LCD и CRT, обновляются на часах в известное и предсказуемое время. Различные технологии позволяют графической карте знать этот тактовый цикл, так что графический процессор может отправлять данные в наилучшее время, чтобы монитор мог их получить и отображать количество пикселей следующего экрана.

Обычно это называется частотой обновления, или на некоторых телевизорах вы увидите объявленное число Гц (то есть циклов в секунду). Наиболее распространенным в наши дни является, вероятно, 60 Гц, что означает 60 циклов в секунду. Хотя 120 Гц становится все более распространенным.

Различные технологии синхронизации, упомянутые выше, обычно используются с целью предотвращения разрыва экрана. У них обычно есть пределы относительно того, сколько они могут решить, хотя.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .