1

Сегодня, глядя на технические пояснения о MPEG4, я увидел, что он может реализовать рендеринг VRML для 3D-видео. Это заставляет меня задуматься о "программных" требованиях для создания или просмотра 3D-видео. Я имею в виду, при условии, что у меня есть все "аппаратные" требования (3D-монитор, VGA, 3D-камера и т.д.), Что мне нужно, чтобы сделать и посмотреть 3D-видео, глядя на "программную" сторону? Должен ли я сделать это на MPEG4 вместо MPEG1 или MPEG2 из-за поддержки VRML? Могу ли я нужен специальный 3D-кодек, чтобы открывать и смотреть 3D-видео? До сегодняшнего дня я считал, что 3D-видео - это обычное / обычное видео, состоящее из двух "перекрывающихся слоев".

PS: Я впервые исследую технические пояснения / ссылки на стандарты MPEG и 3D-видео, любая помощь или базовые объяснения помогут.

1 ответ1

3

Существует 3D-рендеринг для 2D-просмотра и 2Eye 3D, где каждый глаз получает своеобразную картинку.

VRML - это 3D Cad чертежи, которые обычно отображаются в 2D.

Каждый существующий видеокодек способен на 2Eye 3D. каждая часть программы для работы с изображениями или видео способна создавать редактирование, отображающее, по крайней мере, своего рода 2Eye 3D. Потому что есть много разных способов отправки разной информации каждому глазу.

Итак, сначала мы должны разделить 2 вещи "3D отображается в 2D" http://en.wikipedia.org/wiki/3D_computer_graphics
Из "2Eye 3D" или стереоскопического http://en.wikipedia.org/wiki/3D_television.

Затем мы должны определить "тип" стереоскопического 3D, который требуется или желаем, или требуется, даже у лучших методов возникают большие проблемы с отправкой 2 отдельных изображений в каждый глаз.

анаглифических:
Самый простой и худший 3D - это анаглифический http://en.wikipedia.org/wiki/Anaglyph_image
Анаглифическое 3D, чтобы определить 2 разных изображения, для двух разных изображений выполняется любая цветовая фильтрация, затем эти 2 изображения объединяются, перед глазами устанавливаются цветные фильтры. Фильтры перед глазами пытаются отделить объединенные изображения, отфильтровывая цвет для глаз.

С видео или изображениями нет ничего особенного в программном оборудовании, или даже в аналоговых, цифровых или даже стандартных фотографиях для отображения, рендеринга или даже кодирования или перекодирования, изменения размера или отображения анаглифа. Для его просмотра не требуется никакого специального оборудования, не требуется никакого специального программного обеспечения. Только правильные цветные фильтры на глаза

В каждом видеопакете и фото-программе, существовавшей еще 10 с лишним лет назад, была возможность вручную объединить 2 изображения для просмотра с помощью этого метода путем объединения данных неподвижного изображения или движущегося изображения. Любая огромная трехмерная специальность в программном обеспечении, позволяющая делать анаглиф, просто делает это намного проще.

Бок о бок и сверху внизу
2 разных изображения в одном, предназначенные для показа двум разным глазам. Аппаратные средства использовались, чтобы послать определенную половину движущегося изображения другим глазам. Любой из методов просмотра 2Eye 3D может затем просматривать 3D с помощью специального оборудования. http://www.best-3dtvs.com/what-is-side-by-side-3d/

Единственное, что особенного в любом программном обеспечении, которое будет создавать, работать или изменять этот тип, - это просто создать 2 зоны, 2 разных изображения для каждого глаза и поддерживать их как отдельные зоны.

Я снова пытаюсь указать, что ничего особенного не было в формате изображения, типе изображения, типе видео или кодеке. 1/2 общего разрешения (половина изображения) отправляется каждому глазу, поэтому частота кадров 2x не требуется.
Большинство программного обеспечения высокого класса, как видео, так и изображения, могут создавать и работать с двумя изображениями, объединенными таким образом. любое программное обеспечение, которое было 3D-специальностью, сделало это намного проще.

Для разделения и отображения каждого глаза использовалось специальное оборудование с помощью 2Eye Viewers http://en.wikipedia.org/wiki/Head-mounting_display или многих других специальных методов разделения глаз, используемых сегодня.
Например, ЖК-световой клапан, закрывающий глаза http://en.wikipedia.org/wiki/Alternate-frame_sequencing.

Чересстрочная или чередующаяся
Аналоговые видеосигналы NTSC и цифровые телевизионные сигналы для NTSC (Северная Америка и Япония) используют Interlace. Чересстрочная развертка имеет 2 разных изображения с чередованием каждой второй строки. http://en.wikipedia.org/wiki/Interlaced_video

Некоторые методы отображения 2Eye 3D использовали это чередование 2 полей изображений и методы блокировки глаз или средства просмотра глаз (HMD) снова, аппаратное средство отображало бы 2 отдельных поля по одному, оно также могло бы отображаться на быстром люминофоре чересстрочной ЭЛТ с использованием глазного блокирования, но стойкость люминофора ЭЛТ сделала так, что разделение не было так хорошо.

Опять же, нет ничего особенного в видео с чересстрочной разверткой, на телевидении NTSC сигнал чересстрочной развертки уже более 50 лет. Они использовали чересстрочную отдельную картинку для отображения движения с воспринимаемой скоростью 60 кадров в секунду. Большинство кодеков имеют дизайн, который сохраняет правильное чередование. Как вы можете понять, изменение размера не так просто.

Есть что-то особенное в создании неподвижных изображений, фотографий и чередующихся цифровых фотографий. Любая программа Photo, которая может легко создать чередующуюся картинку, будет особенной.

Программное обеспечение, которое разделяет видео на две отдельные картинки и собирает его, существует уже более 10 лет. Любые высококачественные видео программы и видео утилиты могут анализировать, редактировать и легко работать с чересстрочным сигналом. С помощью бесплатного программного обеспечения и 2-х камер все вышеперечисленные методы могут быть созданы на вашем компьютере с трудом.

Пока что у нас нет особых трудностей с кодеками или частотой кадров, половина изображения отображается на каждом глазу, что снижает эффективное общее разрешение, скорость передачи данных одинакова. Большая часть программного обеспечения была способна работать с ним, поскольку чересстрочная развертка программного обеспечения для видео уже была необходима.

Следующим шагом является его перелистывание, изображения в полном разрешении с высокой частотой кадров. http://www.andrewwoods3d.com/3D-PC/

Альтернативные рамки
Для визуализированного 3D для игр и 3D-типа CAD, воспроизводимого в стереоскопе с помощью графического процессора, они могут визуализировать "смещенную рамку" той же 3D-сцены на компьютере и переворачивать новую сцену для каждого глаза. Могут быть использованы альтернативные методы блокировки глаз (или другое более изощренное оборудование). Обычно требуется включить V-синхронизацию, которая является точкой переключения, поэтому любые замедления от рендеринга V-sync будут добавлены к замедлениям при создании 2 кадров, по одному для каждого глаза.

Этот метод работает хорошо для визуализации с помощью графического процессора, и хорошо для данных, поступающих на мониторы с несжатыми полными данными.
Но давайте попробуем этот трюк с обычными кодеками сжатия видео. Любой другой кадр в видео идет на другой глаз. Небольшое смещение изображения означает изменение большинства пикселей. Поскольку сжатие анимации в кодеке основано на предыдущих кадрах, даже векторное сжатие (этот блок пикселей перемещается сюда) будет очень трудным. Можно использовать совершенно другой метод сжатия, где альтернативные кадры были построены на альтернативных кадрах. Обычные методы сжатия, когда каждый второй кадр переходит назад и вперед между смещениями, вообще не будут хорошо сжиматься.

При расположении этих кадров рядом или сверху вниз действительно не чередуются 2 совершенно разных кадра, вместо этого просто используется кадр с двойным разрешением (полные изображения для каждого глаза). Сжатие анимации из двух картинок, сложенных вместе, аналогично тому, как это происходит с одним изображением, только с большим количеством данных. http://www.best-3dtvs.com/what-is-full-hd-3d-fhd3d/

Так что то, что хорошо работает для живого рендеринга на машине через графический процессор, не будет хорошо работать для простых кодеков сжатия видео.
Не сжатое видео не будет иметь этой проблемы, потому что следующий кадр не построен на предыдущем кадре. Пример несжатого 1920x1080x50+ кадров в секунду требует такой скорости передачи данных, что средний жесткий диск не сможет поддерживать скорость (Мой рейд едва справляется с 1 полностью несжатым при 30 кадрах в секунду).

С каждым другим полноразмерным кадром видео анимации, изменяющимся с eye 2 eye, все становится ОЧЕНЬ сложнее, и ни один стандартный видео материал не может с легкостью справиться с этим.

Таким образом, до тех пор, пока что-то не изменится, на любой отдельной трехмерной компьютерной платформе могут использоваться 2 метода, один из которых лучше всего подходит для рендеринга на GPU (переворачивание кадров), а другой - для видео (оба изображения в 1 кадре).

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .