SuperZen,
в общем нужен websocket - зачем ? Чтобы чанки слать на фронт, а там как в статье, MediaSource'ами воспроизводить ?
А как же формат raw h264 ? Его сначала надо перекодировать. FFMPEG нужен в любом случае. Я пробовал немного другой пример, когда чанки отдавал декодеру (плееру h264) на фронте, и это работает, но процесс декодирования в браузере слишком ресурсоёмкий, к тому же, что если у меня на устройстве, скажем 10 камер будет ?
Во всех статьях с примера используется в качестве INPUT'a для ffmpeg файл на диске или стрим с вебки - это не мой случай.
Модуль что вы привели -
https://github.com/fluent-ffmpeg/node-fluent-ffmpeg, я и так использую, и он отлично работает...с файлами что есть на диске)
Задача - отправлять данные на rtmp, по мере их поступления (обработки) где данные это что-то вроде Buffer.concat([dataChunk_1, dataChunk_ 2]).