Я осмотрелся и нашел много хороших статей о том, как использовать ffmpeg для сегментации живого видео для потоковой передачи HLS. Однако мне нужно иметь возможность использовать кодировщик из удаленного местоположения (которое получает живое видео), а затем каким-то образом отправлять эти сегментированные файлы и файлы m3u8/ts на веб-сервер в другом месте в режиме реального времени.
Итак: REMOTE COMPUTER(camera-> ffmpeg-> segmenter) -> WEBSERVER(получает файлы -> пользователи подключаются для "живого" потока)
Мой вопрос: кто-нибудь видел что-то подобное? Или в ffmpeg/ffserver есть настройка, которая позволяет мне это делать?