Tag: ffmpeg

图像序列到videostream?

像许多人似乎已经(这里有这个主题有几个线程),我正在寻找方法来创buildvideo序列的图像。 我想用C#实现我的function! 这是我不想做的事情: /*Pseudo code*/ void CreateVideo(List<Image> imageSequence, long durationOfEachImageMs, string outputVideoFileName, string outputFormat) { // Info: imageSequence.Count will be > 30 000 images // Info: durationOfEachImageMs will be < 300 ms if (outputFormat = "mpeg") { } else if (outputFormat = "avi") { } else { } //Save video file do disk } 我知道有一个名为Splicer […]

Android上使用FFMPEG

有人知道如何在Android上使用FFMPEG将YUV420帧转换为H.264吗? 我用NDK移植了FFMPEG在Android上的工作,我只是不知道如何使用它。 源代码表示赞赏。

ffmpeg能显示进度条吗?

我使用ffmpeg将.avi文件转换为.flv文件。 由于转换文件需要很长时间,我想显示一个进度条。 有人可以请指导我如何去相同的。 我知道,ffmpeg莫名其妙地必须在文本文件中输出进度,我必须使用ajax调用来读取它。 但是,我如何得到ffmpeg输出到文本文件的进度? 非常感谢你。

使用FFMPEG库和iPhone SDK进行video编码

我需要编码由iphone相机拍摄的几个图片到MP4video文件,我知道FFMPEG可以做到这一点(应用TimeLapser和ReelMoments已经这样做)。 我打算在我的应用程序iMotion(在appstore中可用)中使用它。 我用这个链接成功安装并编译了iphone SDK的ffmpeg: http : //lists.mplayerhq.hu/pipermail/ffmpeg-devel/2009-October/076618.html 但是现在我被卡在了我的XCode项目中。 接下来我应该如何使用FFMPEG库进行video编码? 关于外部库使用的苹果文档是非常轻,我只是可以find任何教程在networking上解释如何做到这一点。 如果有人能帮助我,我会非常感激 谢谢 Aurelien Potier

实时HTTPstream媒体到HTML5video客户端的最佳途径

我很困惑,试图理解使用node.js实时输出ffmpeg到HTML5客户端的最佳方式,因为在这里有很多variables,我在这个领域没有太多的经验,花了很多时间尝试不同的组合。 我的用例是: 1)IPvideo摄像机RTSP H.264stream由FFMPEG接收,并在节点中使用以下FFMPEG设置重新混合成mp4容器,输出到STDOUT。 这只在初始客户端连接上运行,所以部分内容请求不会再尝试产生FFMPEG。 liveFFMPEG = child_process.spawn("ffmpeg", [ "-i", "rtsp://admin:12345@192.168.1.234:554" , "-vcodec", "copy", "-f", "mp4", "-reset_timestamps", "1", "-movflags", "frag_keyframe+empty_moov", "-" // output to stdout ], {detached: false}); 2)我使用节点http服务器来捕获STDOUT,并在客户端请求时将数据stream发送回客户端。 当客户端第一次连接时,我产生了上面的FFMPEG命令行,然后pipe道STDOUTstream到HTTP响应。 liveFFMPEG.stdout.pipe(resp); 我也用stream事件来写FFMPEG数据到HTTP响应,但没有什么区别 xliveFFMPEG.stdout.on("data",function(data) { resp.write(data); } 我使用下面的HTTP标头(在预先录制的文件中使用和使用) var total = 999999999 // fake a large file var partialstart = 0 var partialend = total – […]

用于C#/ .NET的固体FFmpeg包装器

我一直在网上search一段时间为C#/。NET一个坚实的FFmpeg包装。 但是我还没有想出一些有用的东西。 我发现了以下三个项目,但是所有这些项目都在早期的alpha阶段就已经死了。 FFmpeg.NET ffmpeg的锐 FFLIB.NET 所以我的问题是,如果有人知道一个更成熟的包装项目? 我不是在寻找一个完整的代码转换引擎和更多的工作。 只是一个简单的包装,所以我不必进行命令行调用,然后parsing控制台输出,但可以进行方法调用,并使用eventlisteners进度。 请随时提及任何活跃的项目,即使它们在初期阶段仍然存在。

在bashpipe道中的ffmpeg

我有一个rmvb文件path列表,并希望将此文件转换为mp4文件。 所以我希望使用bashpipe道来处理它。 代码是 Convert() { ffmpeg -i "$1" -vcodec mpeg4 -sameq -acodec aac -strict experimental "$1.mp4" } Convert_loop(){ while read line; do Convert $line done } cat list.txt | Convert_loop 但是,它只处理第一个文件和pipe道退出。 那么,ffmpeg会影响bashpipe道吗?

如何获得video的持续时间,维度和大小在PHP?

我想知道如何获得在PHP中上传的video文件的持续时间,尺寸和大小。 该文件可以是任何video格式。

OpenCV与networking摄像机

我在Windows下使用openCV 1.1pre1。 我有一台networking摄像机,我需要从openCV抓取帧。 该摄像机可以通过HTTP在RTSP或mjpeg上传输标准mpeg4stream。 我看过很多关于在openCV中使用ffmpeg的主题,但是我不能使它工作。 我怎样才能从openCV的IP摄像头抓帧? 谢谢 安德里亚

Android的ffmpeg(使用教程:“ffmpeg和Android.mk”)

我正在尝试为android编译ffmpeg。 我已经find了这个主题的几个职位,但非这些似乎工作。 如果试图构buildffmpeg,就像发布在[1]上一样。 有没有人成功地使用这些教程编译ffmpeg? 我不知道如何实现步骤4到5。 STEP4:configuration… 第5步:cd到你的NDK根目录,inputmake TARGET_ARCH = arm APP = ffmpeg-org 在我看来,构build像这样的应用程序在第5步中的教程中进行了解释,需要以前的一些步骤。 不幸的是我没有在文件夹中的应用程序。 我正在使用当前的android ndk release 3,并从[3]和[4]中检出了实际的ffmpeg版本。 我很感谢每一个build议。 [1] http://slworkthings.wordpress.com/ [2] http://gitorious.org/~olvaffe/ffmpeg/ffmpeg-android [3] http://ffmpeg.org/download.html