Tag: video

如何使用ffmpeg将新的audio(不混音)添加到video中?

我使用了如下命令: ffmpeg -i video.avi -i audio.mp3 -vcodec codec -acodec codec output_video.avi -newaudio 在最新版本中添加新的音轨到video(不混合)。 但我更新了ffmpeg到最新版本( ffmpeg版本git-2012-06-16-809d71d ),现在在这个版本中参数-newaudio不起作用。 请告诉我如何使用ffmpeg将新audio添加到我的video(不混合)。

什么是FFmpeg支持的所有编解码器?

我需要FFmpeg支持的编解码器列表。 我在哪里可以find它?

使用MPMoviePlayerController而不是UIWebView播放YouTubevideo

您好,我试图使用MPMoviePlayerControllerstream一些youTubevideo,但我有一些问题。 我使用的代码非常简单,我可以通过将URL传递给initWithContentURL来播放.m4vvideo。 当我启动电影播放器​​时,播放器出现,但是在大约20秒后才会消失。 当我在模拟器中尝试,我得到一个警告视图,说服务器configuration不正确。 我需要通过url传递一个参数来从Google获取特定types的video订阅源吗? NSURL *videoURL = [NSURL URLWithString:@"http://www.youtube.com/v/HGd9qAfpZio&hl=en_US&fs=1&"]; MPMoviePlayerController *moviePlayer; moviePlayer = [[MPMoviePlayerController alloc] initWithContentURL:videoURL]; [moviePlayer play]; 我也尝试了以下url的http://www.youtube.com/watch?v=HGd9qAfpZio 我也看到了&format = 1的参数,并试图将这两个string添加到结尾,但没有运气。 提前感谢任何帮助!

WebRTC – 可扩展的实况stream广播/多播

[! ]问题仍然是开放的 问题: WebRTC为我们提供点对点video/audio连接。 这是完美的P2P呼叫,环聊。 但是广播(一对多,例如1比10000)呢? 假设我们有一个广播员“B”和两个与会者“A1”,“A2”。 当然,这似乎是可以解决的:我们只需要将B与A1连接,然后将B与A2连接。 所以B将video/audiostream直接发送到A1,将另一个stream发送到A2。 B发送stream两次。 现在让我们想象一下有10000个与会者:A1,A2,…,A10000。 这意味着B必须发送10000个stream。 每个stream〜40KB / s,这意味着B需要400MB / s的传出网速来维持这个广播。 不能接受的。 原始问题(已过时) 是否有可能以某种方式解决这个问题,所以B只发送一个stream在一些服务器上,与会者只是从这个服务器拉这个stream? 是的,这意味着在这个服务器上的传出速度必须很高,但我可以维护它。 或者,也许这意味着破坏WebRTC的想法? [! ]最新的问题 解决CPU /带宽 – 是否有无服务器解决scheme(又名组播或类似的东西)? 解决CPU – 是否有可能只编码一次stream并发送给同行? 解决CPU /带宽 – 多播是绝对有可能的,但它实际上在实际工作(延迟,networking不稳定)? 笔记 对于最终用户而言,由于糟糕的用户体验,Flash无法满足我的需求。 解 26.05.2015 – 目前还没有针对WebRTC的可扩展广播的解决scheme,根本不使用媒体服务器。 在市场上有服务器端解决scheme以及混合(p2p +服务器端,取决于不同的条件)。 有一些有前途的技术,虽然像https://github.com/muaz-khan/WebRTC-Scalable-Broadcast但他们需要回答这些可能的问题:延迟,整体networking连接稳定性,可扩展性公式(他们不是无限的 – 可扩展的)。

通过WiFi实时streamvideo从一个Android手机到另一个

我已经search了互联网天如何实现从Android手机到另一个Android手机通过WiFi连接的videostreamfunction,但我似乎无法find任何有用的东西。 我看了Android开发人员的示例代码,stackoverflow,谷歌,安卓博客,但没有。 我所能find的只是某种电话到桌面或桌面到电话的stream媒体解决scheme,但在我的实施过程中没有任何东西可以借鉴。 我需要使用arduino ADK来控制一个机器人,所以我使用了两个手机,一个将安装在机器人上,另一个将接收来自机器人的videostream。 我提到这一点是因为我试图在广播时间和观看时间之间实现最小的延迟。 我正在写2个应用程序,一个主应用程序来控制机器人(从手持电话),这将控制从应用程序和接收stream,第二个从应用程序将运行在机器人手机上,控制电机/执行器/stream到主应用程序。 我不能使用第三方应用程序。 我需要将videostream代码整合到我的2个应用程序中。 有什么select来实现这一目标? 也是很难做,因为我从来没有videostreaming工作,艰难,我在Java和Android的发展很好。 我应该如何编码/解码stream,如何启动连接,我需要使用UDP而不是TCP / IP? 我真的不知道从哪里开始,没有任何示例代码。 我很确定这可以实现。 我找不到有用的东西让我开始正确的方向。 我偶然发现了spydroid,但它在桌面上使用VLC,所以对我来说并不合适。

我可以避免在iPhone或Android上使用HTML5的原生全屏video播放器吗?

我已经构build了一个Web应用程序,它使用HTML5标记和JavaScript代码来渲染与正在运行的video同步的其他内容。 它适用于桌面浏览器:Firefox,Chrome和Safari。 在iPhone或DroidX上,原生video播放器会popup并接pipe屏幕,从而模糊了我想要与video同时显示的其他dynamic内容。 有没有办法解决? 如果有必要的话,我会弄清楚如何为这两个平台编写原生应用程序,但是如果我能坚持使用HTML5 / JavaScript,这将节省大量的工作。

ffmpeg输出的含义(tbc,tbn,tbr)

我正在使用ffmpeg来告诉我video信息。 特别: ffmpeg -i video.ext 我得到的输出: Stream #0.0[0x1e0]: Video: mpeg2video, yuv420p, 704×576 [PAR 12:11 DAR 4:3], 9578 kb/s, 25 tbr, 90k tbn, 50 tbc 有谁知道tbr,tbn和tbc究竟是什么? 我已经看到了networking上的猜测,但没有确定性? 提前致谢。

如何训练一个人造neural network使用视觉input来玩“暗黑破坏神2”?

我目前正在试图让人工neural network玩一个电子游戏,我希望能从这个美妙的社区获得一些帮助。 我决定使用“暗黑破坏神2”(Diablo 2)。因此,玩家可以实时从等轴测视angular观看,并且玩家可以控制相机所在的一个angular色。 为了使事情具体化,任务是让你的angular色x的经验值不降低到0,通过杀死怪物获得经验值。 这是一个游戏的例子: 现在,因为我希望networking完全基于从屏幕像素获得的信息进行操作,为了有效地播放它,它必须学习非常丰富的表示,因为这可能需要它知道(至less隐含)如何把游戏世界分成对象和如何与之交互。 而所有这些信息都必须被教给networking……不知何故。 我不能为了我的生活想到如何训练这个东西。 我唯一的想法是有一个单独的程序从屏幕上直观地提取游戏中天生好/坏的东西(例如健康,黄金,经验),然后在强化学习过程中使用该属性。 我认为这是答案的一部分 ,但我认为这还不够。 从原始视觉input到目标导向行为的抽象层次太多,以至于这种有限的反馈,在我的有生之年就要训练一个networking。 所以,我的问题:你还有什么其他的方式可以用来培养一个networking来完成这个任务的至less一部分? 最好不要制造数千个标记的例子… 只是稍微指出一点:我正在寻找一些其他的强化学习来源和/或任何无监督的方法来提取有用的信息在这个设置。 或者是一个监督algorithm,如果你可以想办法从游戏世界中获取标签数据而不需要手动标记它。 UPDATE(04/27/12): 奇怪的是,我仍然在努力,似乎正在取得进展。 让neural network控制器工作的最大秘诀就是使用适合于这个任务的最先进的neural network架构。 因此,我一直在使用深度信念networking组成的条件限制玻尔兹曼机器 ,我已经在一个无监督的方式(在我玩游戏的video)训练之前微调与时间差异向后传播 (即强化学习与标准前馈人工neural network)。 仍然在寻找更有价值的input,特别是在实时动作select的问题上,以及如何为ANN处理编码彩色图像:-) UPDATE(15年10月21日): 只记得我今天回答了这个问题,我想我应该提一下,这不再是一个疯狂的想法。 自从我上次更新以来,DeepMind发布了他们关于让neural network从视觉input中玩atari游戏的自然论文 。 事实上,阻止我使用他们的体系结构玩“暗黑破坏神2”的一个有限子集的唯一原因是缺乏对底层游戏引擎的访问。 渲染到屏幕然后redirect到networking太慢,无法在合理的时间内进行训练。 因此,我们很可能不会在近期看到这种机器人玩“暗黑破坏神2”,但只是因为它会播放开源或API访问渲染目标的东西。 (地震也许?)

HTML 5 <video>标签与Flashvideo。 优缺点都有什么?

似乎新的<video>标签现在是所有的炒作,尤其是在Firefox现在支持它的情况下。 这个消息在各地的博客上都出现了,大家似乎都很兴奋。 但是关于? 就像我search的那样,我找不到比那些好的旧的Flashvideo更好的东西。 事实上,我只看到它的问题: 在所有浏览器开始支持它之前还有一段时间,在大多数人升级之前还有更多时间。 Flash已经可用,每个人都有它; 您可以将Flash与任何想要控制播放的奇特UI相结合。 我收集的标签也将是可控的(通过JavaScript可能),但它将能够全屏? 我只能看到<video>标签的两个优点: 这是更“语义” – 这可能不重要,包括我在内的很多人, 它不依赖于单一的商业第三方实体(Adobe) – 我也不认为这是一个令人信服的理由,因为免费的播放器和video转换器已经可用了,而且Adobe并没有以任何方式阻碍整个过程(这甚至不符合他们的利益)。 那么…有什么大不了的? 添加: 好的,所以还有一个Pro …也许。 支持移动设备。 很难说。 一些想法在我的脑海中围绕着这个问题展开: 有多less移动设备实际上能够以适当的速度解码video,Flash或其他? 直到主stream移动设备获得<video>支持多久? 即使通过更新可以得到,有多less人真的这样做? 有多less人在手机上的网页上观看video? 至于语义部分 – 我知道search引擎现在可以更好地检测video,但是…他们会怎么处理呢? 好的,所以他们知道页面上有一个video。 和? 他们不能索引video! 我想在这里有更多的论点。 添加: 只是想到另一个缺点。 这开辟了一个全新的跨浏览器不兼容的领域。 HTML和CSS在这方面已经很杂乱了。 闪光至less在每个地方都是一样的。 但至less有一家主要的浏览器供应商决定使用<video>标签(任何人都可以说“Internet Explorer”)就足够了,我们有一个很好的探索新领域。 添加: Pro刚刚进来,更多的竞争=更多的创新。 确实如此。 给予Adobe更多的竞争可能会迫使他们改进目前缺乏的Flash领域。 Linux似乎是一个弱点,被许多人引用。

TDD / BDD截屏/video资源

我最近完成了“敏捷的秋天”video截图,我正在寻找更多类似范围的材料。 基本上,我正在寻找能够呈现TDD / BDDstream程的截屏video,同时开发一些“真实生活”的应用程序(或其中的一部分) – 所以请不要介意20分钟。 我很惊讶没有find这样的事情。 如果您知道任何符合要求的资源,请列出它们。