Существует эксперимент, который требует частоту обновления 100 Гц, поэтому мы купили монитор с поддержкой 144 Гц и создали собственное разрешение, работающее на частоте 100 Гц.
Экспериментатор почувствовал, что что-то не так с частотой обновления, и, используя кнопки монитора и экранное меню, увидел, что он на самом деле сообщает частоту 60 Гц.
Тем не менее, Windows и панель управления Nvidia говорят, что это 100 Гц. Есть много особенностей, лучше подходящих для другого вопроса, но здесь я хочу спросить, как я могу определить фактическую частоту обновления?
К сожалению, этот эксперимент застрял на Windows XP. Видеокарта GeForce 9400. Кабель Mini-DP к двухканальному DVI. Это потому, что он работает в BootCamp на старом Mac Mini (начало 2009 года)... хотя я надеюсь, что проблема не связана с этой странной настройкой HW.