Я осмотрелся и нашел много хороших статей о том, как использовать ffmpeg для сегментации живого видео для потоковой передачи HLS. Однако мне нужно иметь возможность использовать кодировщик из удаленного местоположения (которое получает живое видео), а затем каким-то образом отправлять эти сегментированные файлы и файлы m3u8/ts на веб-сервер в другом месте в режиме реального времени.

Итак: REMOTE COMPUTER(camera-> ffmpeg-> segmenter) -> WEBSERVER(получает файлы -> пользователи подключаются для "живого" потока)

Мой вопрос: кто-нибудь видел что-то подобное? Или в ffmpeg/ffserver есть настройка, которая позволяет мне это делать?

1 ответ1

1

ffmpeg не имеет функции для передачи сегментированных файлов. В зависимости от вашей операционной системы вам потребуется создать отдельный процесс (сценарий оболочки, пакетный файл и т.д.), Который перенесет созданные в ffmpeg файлы сегментов (а также список воспроизведения m3u8) в их конечный пункт назначения на вашем веб-сервере. В качестве альтернативы, если возможно запустить ffmpeg на веб-сервере, вы можете отправить поток с помощью ffmpeg с помощью rtmp из источника видео в ffmpeg на веб-сервере, где ffmpeg может записывать сегменты и список воспроизведения непосредственно в файловую систему веб-сервера.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .