17

У меня есть монитор Dell U2312HM, подключенный к ноутбуку Dell Latitude E7440. Когда я подключаю их через laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor (монитор не имеет разъема HDMI), изображение становится намного более резким, чем с laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor . Разницу трудно зафиксировать с помощью камеры, но моя попытка ее описана ниже. Я пытался играть с настройками яркости, контрастности и резкости, но я не могу получить то же качество изображения. Разрешение 1920х1080, я использую Ubuntu 14.04.

VGA:

VGA

HDMI:

HDMI

Почему качество отличается? Это присуще этим стандартам или я должен подозревать неисправный кабель VGA или адаптер mDP-VGA?

7 ответов7

44

VGA - единственный аналоговый сигнал из вышеупомянутых, так что это уже объяснение различий. Использование адаптера может еще больше ухудшить вашу ситуацию.

некоторое дальнейшее чтение: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/

13

Предполагая, что яркость, сужение и резкость в обоих случаях одинаковы, может быть две другие причины, по которым текст более четкий с DVI/HDMI:

Первое уже было заявлено, VGA является аналоговым, поэтому нужно будет пройти через аналого-цифровое преобразование внутри монитора, это теоретически ухудшит качество изображения.

Во-вторых, при условии, что вы используете Windows, есть метод ClearType (разработанный Microsoft), который улучшает внешний вид текста путем манипулирования субпикселями ЖК-монитора. VGA был разработан с учетом ЭЛТ-мониторов, и понятие субпикселя не совпадает. Из-за необходимости использования ClearType ЖК-экрана и того факта, что стандарт VGA не указывает хосту, характеристики дисплея ClearType будут отключены при подключении VGA.

Источник: Я помню, что слышал о ClearType от одного из его создателей на подкасте для This().Разработчики().Life() IIRC, но http://en.wikipedia.org/wiki/ClearType также поддерживает мою теорию. Также HDMI обратно совместим с DVI, а DVI поддерживает электронную идентификацию дисплея (EDID)

8

Другие делают некоторые хорошие моменты, но главная причина - очевидное несоответствие часов и фаз. VGA является аналоговым и подвержен помехам и несоответствию аналоговой отправляющей и принимающей сторон. Обычно можно использовать такой шаблон:

http://www.lagom.nl/lcd-test/clock_phase.php

И отрегулируйте часы и фазу монитора, чтобы получить наилучшее совпадение и четкую картинку. Однако, поскольку он является аналоговым, эти настройки могут со временем сдвигаться, и, таким образом, в идеале вам следует просто использовать цифровой сигнал.

5

Есть несколько ответов, указывающих, что цифровой сигнал по сравнению с аналоговым является правильным. Но это не отвечает почему? Несколько упомянутых слоев перевода, это тоже верно, массовое аналого-цифровое преобразование может привести к потере точности, но вам придется измерить это, поскольку трудно увидеть разницу невооруженным глазом. Дешевая конверсия и все ставки выключены.

Так почему же цифровой лучше аналогового?

Аналоговый сигнал RGB (например, VGA) использует амплитуду сигнала (от пика до 0,7 В в случае VGA). Это, как и все сигналы, имеет шум, который, если он будет достаточно большим, приведет к неправильному переводу уровней.

Отражения в кабеле (несоответствия импеданса) на самом деле являются самым большим падением аналогового видеосигнала. Это вносит дополнительный шум и усугубляется при использовании более длинных (или более дешевых) кабелей, чем выше разрешение видео, тем больше увеличивается отношение сигнал / шум. Интересно, что вы не сможете увидеть никакой разницы в сигнале 800x600, если кабель VGA не слишком длинный.

Как цифровой сигнал избежать этих ловушек? Ну для одного уровень больше не актуален. Кроме того, DVI-D/HDMI использует дифференциальный сигнал, а также исправление ошибок, чтобы гарантировать, что они и нули точно передаются правильно. К цифровому сигналу добавлено дополнительное кондиционирование, которое нецелесообразно добавлять к аналоговому видеосигналу.

Извините за мыльницу, ребята, но это факты.

3

Другая проблема заключается в том, что многие VGA-кабели являются ненужными. Если толщина VGA-кабеля составляет менее 1/4 ", вы , вероятно, заметите поблескивание на более крупных мониторах (чем выше рез, тем больше вероятность поблескивания). Я даже заметил, что на некоторых 19-дюймовых ЭЛТ-мониторах поблескивает подключенный кабель VGA. Мои VGA-кабели имеют толщину около 1/3 ", и это действительно помогает с резкостью (более толстые провода, больше экранирование)

2

HDMI и DVI очень похожи. Оба являются цифровыми; Основные отличия в том, что HDMI поддерживает аудио и HDCP. При переключении между HDMI и DVI происходит небольшое фактическое преобразование, но вместо этого соединяются соответствующие контакты на разъемах. Порт отображения является цифровым протоколом, но VGA является аналоговым, и преобразователь, вероятно, вносит небольшие недостатки и снижение резкости в сигнал. Монитор, вероятно, преобразует сигнал обратно в цифровой, что приводит к другому преобразованию, которое отрицательно влияет на качество.

В целом, компьютер-> HDMI-> DVI-> монитор имеет меньше фактических преобразований, чем компьютер-> DisplayPort-> VGA-> монитор, и никогда не преобразует сигнал в аналоговый, обеспечивая более четкое изображение.

1

HDMI и DVI на самом деле одно и то же (по крайней мере, в вашем контексте). Разъемы DVI на самом деле представляют собой просто разъемы HDMI с другой разводкой (ряды контактов), плюс разъемы VGA с другой разводкой (контакты расположены вокруг крестообразной формы). Если вы посмотрите на конвертер HDMI-DVI, вы, вероятно, заметите, что крестообразная часть отсутствует.

Таким образом, вы сравниваете изображение HDMI с изображением VGA, и, как указал @Josh, оно включает фактическое преобразование.

На самом деле есть разница между HDMI и DVI, но это не относится к вам. HDMI может нести дополнительные сигналы, включая сигнал шифрования для защиты контента, звук, Ethernet и т.д.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .