Существует эксперимент, который требует частоту обновления 100 Гц, поэтому мы купили монитор с поддержкой 144 Гц и создали собственное разрешение, работающее на частоте 100 Гц.

Экспериментатор почувствовал, что что-то не так с частотой обновления, и, используя кнопки монитора и экранное меню, увидел, что он на самом деле сообщает частоту 60 Гц.

Тем не менее, Windows и панель управления Nvidia говорят, что это 100 Гц. Есть много особенностей, лучше подходящих для другого вопроса, но здесь я хочу спросить, как я могу определить фактическую частоту обновления?

К сожалению, этот эксперимент застрял на Windows XP. Видеокарта GeForce 9400. Кабель Mini-DP к двухканальному DVI. Это потому, что он работает в BootCamp на старом Mac Mini (начало 2009 года)... хотя я надеюсь, что проблема не связана с этой странной настройкой HW.

2 ответа2

1

Частота обновления, сообщаемая самим монитором, должна быть точной. Также, если вы используете разъем VGA, вы можете использовать осциллограф для проверки линии vsync, чтобы увидеть, действительно ли видеокарта синхронизируется с частотой 100 Гц. Также вывод 8 на разъеме DVI также передает аналоговый сигнал Vsync. Посмотрите на это также: https://www.opengl.org/discussion_boards/showthread.php/172075-Get-VSYNC-from-DVI-on-NVIDIA-card

0

В итоге я скачал MPC-HC и изменил рендерер на VMR9 или любой рендерер DXVA в разделе « Воспроизведение» > « Параметры».

Тогда я мог бы воспроизвести видео и использовать Ctrl+J, чтобы увидеть частоту обновления:MPC-HC DXVA Stats

В конечном итоге увидел, что система практически не взаимодействовала при использовании графического процессора, и я предполагаю, что что-то не так со старой ситуацией с аппаратным обеспечением / загрузочным лагерем / устаревшей ОС.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .