Есть несколько ответов, указывающих, что цифровой сигнал по сравнению с аналоговым является правильным. Но это не отвечает почему? Несколько упомянутых слоев перевода, это тоже верно, массовое аналого-цифровое преобразование может привести к потере точности, но вам придется измерить это, поскольку трудно увидеть разницу невооруженным глазом. Дешевая конверсия и все ставки выключены.
Так почему же цифровой лучше аналогового?
Аналоговый сигнал RGB (например, VGA) использует амплитуду сигнала (от пика до 0,7 В в случае VGA). Это, как и все сигналы, имеет шум, который, если он будет достаточно большим, приведет к неправильному переводу уровней.
Отражения в кабеле (несоответствия импеданса) на самом деле являются самым большим падением аналогового видеосигнала. Это вносит дополнительный шум и усугубляется при использовании более длинных (или более дешевых) кабелей, чем выше разрешение видео, тем больше увеличивается отношение сигнал / шум. Интересно, что вы не сможете увидеть никакой разницы в сигнале 800x600, если кабель VGA не слишком длинный.
Как цифровой сигнал избежать этих ловушек? Ну для одного уровень больше не актуален. Кроме того, DVI-D/HDMI использует дифференциальный сигнал, а также исправление ошибок, чтобы гарантировать, что они и нули точно передаются правильно. К цифровому сигналу добавлено дополнительное кондиционирование, которое нецелесообразно добавлять к аналоговому видеосигналу.
Извините за мыльницу, ребята, но это факты.