Если у меня есть видео 1080p, воспроизводимое VLC-плеером, и графическая карта, которая обеспечивает самое высокое разрешение 1360x768 на мониторе с собственным разрешением 1366x768 (подключенным через VGA), как все эти компоненты работают вместе для получения окончательного разрешения?

Все они разные: 1920x1080 (видео), 1360x768 (графическая карта) и 1366x768 (монитор).

2 ответа2

2
  1. Максимальное разрешение дисплея определяется количеством отдельных пикселей на дисплее.
  2. Видеокарта может выводить на монитор любой произвольный размер (в пределах своей вычислительной мощности и того, использует ли она VGA, DVI и т.д.).
  3. VLC расширяет сжатый видеофайл на отдельные кадры, которые для видео 1080p имеют размер 1920x1080 пикселей.

Ваша видеокарта распознает дисплей и, обнаружив, что максимальное разрешение дисплея (1366x768) ниже, чем собственное разрешение видеокарты, начинает выводить на дисплей разрешение 1366x768. VLC декодирует отдельные кадры и представляет их на видеокарту для отображения. Поскольку рамки больше (1080p), чем максимальный размер дисплея, они уменьшаются до 1366x768. Будет ли видео уменьшено с помощью VLC с использованием ЦП или графической карты в графическом процессоре, зависит от того, воспроизводится ли видео с использованием программного или аппаратного декодирования. Это все предполагает полноэкранный режим. Если в окне воспроизводится VLC, то видео масштабируется до размера окна видео; это единственное большое различие ... механика самого процесса масштабирования не меняется, только целевой размер вывода.

0

Сам VLC будет интерполировать видео по размеру окна или в полноэкранном режиме до разрешения компьютера, как правило, независимо от того, какой это размер, даже намного больший или несколько пикселей отличается.

Графическая карта будет выводить разрешение компьютеров на аналоговый VGA-выход.

Для аналогового монитора:
Затем аналоговый вход VGA будет отображаться наилучшим образом, аналоговые горизонтальные потоки могут быть легко интерполированы и хорошо смешаны, аналоговые мониторы часто имеют области, которые не были визуализированы (пересканированы), поэтому возможно, что дополнительные 6 пикселей не изменятся его pix = pix представление.

К цифровому монитору:
В цифровом ЖК-мониторе с входом VGA, аналоговый сигнал уже должен быть преобразован в цифровой перед отображением, он также может использовать метод интерполяции, даже если это пиксель за пикселем, он все еще выполняется в виде потока, эта разница в 6 пикселей будет иметь конец горизонтальной линии в черном цвете 6 пикселей снова, или интерполируется с остальной частью потока. Любые негативные эффекты от этой небольшой разницы либо не будут видны, либо будут настолько минимально влиять на результат, что не будет проблемой.

В этом сценарии аналог будет как с наибольшим смешиванием, так и с наилучшей интерполяцией (как с хорошим, так и с плохим). Более низкое разрешение для компьютера и аналог (также, если необходимо преобразование в цифровое) будут самыми большими отрицательными значениями. Незначительные проблемы здесь с пикселями будут наименьшим недостатком.

Если не считать замены всего :-) Я бы подумал, что у вас все равно будет очень хорошая картинка, которая будет хорошо выглядеть, и эти различия, которые вы видите в цифрах, обычно вырабатываются с использованием наилучшего метода и не должны отвлекать или заставлять вас плохо вижу
Если вы видите действительно плохую картинку, это может быть:
а) настройки в VLC для способа вставки видео и типа рендеринга.
б) настройки программного обеспечения для отображения как ОС, так и программного обеспечения графического процессора
в) если существуют какие-либо помехи, которые не имеют отношения к изображению, сам кабель VGA.
г) Настройки в самом мониторе

У вас есть какие-то реальные проблемы с настройкой?

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .