Tag: rtmp

将videoinputstream转换为RTMP

我想从我的android手机streamvideo录制到networking媒体服务器。 第一个问题是,当将MediaRecorder输出设置为套接字时,该stream缺less一些mdat大小的标题。 这可以通过在本地预处理该stream并添加缺less的数据stream来修复,以便生成有效的输出stream。 问题是如何从那里开始。 我怎样才能把这个stream输出为一个RTMPstream?

将实时相机video从iOS(iPhone / iPad)stream式传输到远程PC /服务器

我一直在寻找一段时间在stackoverflow和networking周围解决我的videostream问题。 我需要以一种方式将从摄像机捕获的实时video(不需要高质量)从iOS设备传输到远程PC,即,iOS设备将向服务器/ PC发送videostream,而不是相反。 在一些Googlesearch和文档浏览之后出现的是,主要的标准/协议可以被使用: 苹果的HTTP实时stream媒体(HLS) Adobe的RTMP 同样,我的要求是iPhone / iPad将stream式传输video。 从苹果网站上的内容来看,我明白HLS是从编码angular度来看服务器端使用的,而解码视angular是iOS端。 从RTMP开始,大多数允许iOSstream媒体的库都有商业许可证和封闭代码,或者要求您通过他们的P2P基础设施(例如angl.tv或tokbox.com/opentok/quick-start )。 从HLS开始,iOS侧似乎没有编码库。 所以我的问题是: 你知道任何SDK /图书馆最好是开放和免费的,我可以整合到从我的应用程序中stream捕获的video? 如果不是的话,你认为开发一个定制的图书馆将是一个危险的丛林跨越的努力? 我的猜测是通过AVFoundation并捕捉相机帧,逐帧压缩,并通过HTTP发送。 这听起来疯狂的性能和带宽明智吗? 请注意,在这种情况下,我需要使用HLS或RTMP编码器。 亲爱的朋友,我非常感谢你。 迈赫迪

NodeJS和RED 5媒体服务器通过RTMP

这更多的是一个概念性的问题,而不是直接的“如何做到这一点”。 一般来说,可以通过HTML5和nodeJS / binaryJS实现类似Flash的解决scheme来stream式传输audio(独立于从哪里获取stream数据,例如webRTC或其他)。 如果是这样,你会怎么做呢? 在这里find的和从2010年开始只有一个关于stackoverflow的查询。自那时起,NodeJS和HTML5已经成长和成熟了。 人们通常做的事情是:当使用多媒体stream(即video或audio)到服务器时,在getUserMedia()完全到达之前,在当前时间点肯定没有什么比Flash 更快的 – 这实际上可能需要一段时间直到99浏览器用户的百分比将可以使用它。 将数据stream式传输到服务器的一般做法是使用客户端Flash或Flex应用程序,然后连接到像RED5 , FMS或Wowza这样的RTMP协议驱动的媒体服务器。 例如,通过RTMP发送麦克风input的客户端应用程序可能看起来像(简化版) import flash.net.NetStream; private var myMic:Microphone; private var nc:NetConnection; private var ns:NetStream nc = new NetConnection(); ns = new NetStream(nc); nc.connect(rtmp://localhost/serverApp); myMic = Microphone.getMicrophone(); ns.attachAudio(myMic); 与服务器应用程序一起,可以很容易地将数据传输到服务器。 我想要做的是:在nodeJS上运行应用服务器(可能实现socketIO和binaryJS ),以捕获传入的RTMPstream。 就像是 //require var rtmp = require('node-rtmp'), var fs = require('fs'); //rtmp server address var […]