Tag: video

HTML5video//完全隐藏控件

如何完全隐藏HTML5video控件? <video width="300" height="200" controls="false" autoplay="autoplay"> <source src="video/supercoolvideo.mp4" type="video/mp4" /> </video> 假没有工作 – 这是怎么做的? 干杯。

embeddedYouTubevideo与自定义速度(例如3)

我有一个embedded的YouTubevideo在一个页面,并有一个滑块,我可以设置播放器的速度。 我使用的是player.setPlaybackRate(value); 问题是,我想从0.5到3的范围,但播放器的API只限于预定义的值[0.25, 0.5, 1, 1.25, 1.5, 2] 。 在YouTube中,我可以通过document.getElementsByTagName("video")[0].playbackRate = 3轻松调整速度,但是在iframe中我没有这样的访问权限。

从video中提取特定帧的最快方法(PHP / ffmpeg /任何东西)

我有一个网页,(除其他外)需要从用户上传的video中提取特定的帧。 用户在播放器中寻找.mp4的特定部分,然后点击一个button,然后ajax调用被发送到一个php脚本,该脚本采用.mp4,以及video的确切时间,并使用它提取一个“缩略图”框架。 我目前的解决scheme是使用php exec命令: exec("ffmpeg -i $videoPath -ss $timeOffset -vframes 1 $jpgOutputPath"); …它工作得很好,除了它像糖蜜一样慢。 我的猜测是,ffmpeg对于这个工作来说有点太过分了,而且我可以通过利用底层库或者其他东西来做得更好……但是我不知道该怎么做。 理想情况下,我不想安装任何需要真正的“安装过程”的东西…即,将可执行文件放到我的web应用程序的文件夹中是好的,但我宁愿不必实际运行安装程序。 此外,解决scheme应该能够在Mac,Linux和Windows上运行(尽pipeLinux是最重要的)。 我能做些什么来加快这个过程? 谢谢。

使用ffmpeg提取帧的最快方法是什么?

嗨,我需要从video使用ffmpeg提取帧。有没有比这更快的方式做到这一点: ffmpeg -i file.mpg -r 1/1 $filename%03d.jpg ?

ffmpeg将mov文件转换为用于HTML5video标签IE9的mp4

我在这里和谷歌无处不在 – 没有有效的命令适用于IE9。 一些如何IE9是缺less的东西。 所有我尝试在其他地方工作:铬,Safari,移动设备等…我想要一个命令,将其转换,我可以在每个设备中使用它假设支持HTML5video标签MP4。 我使用这个命令: ffmpeg -i movie.mov -vcodec copy -acodec copy out.mp4 ffmpeg -i movie.mov -vcodec libx264 -vprofile high -preset slow -b:v 500k -maxrate 500k -bufsize 1000k -vf scale=-1:480 -threads 0 -acodec libvo_aacenc -b:a 128k -pix_fmt yuv420p outa.mp4 ffmpeg -i movie.mov -b:V 1500k -vcodec libx264 -preset fast -g 30 adel.mp4 ffmpeg -i movie.mov […]

我如何将MP4电影embedded到我的HTML?

我在我的网站上有一个TinyMce编辑器的博客部分。 当我发布博客时,我想embedded一个video,它只是吐出了代码。 我在输出脚本中添加了<embed>标签。 这是我用于video的代码: <object width="425" height="350"> <param name="movie" value="http://www.youtube.com/v/CgW_5Vthsds"></param> <param name="wmode" value="transparent"></param> <embed src="http://www.youtube.com/v/" type="application/x-shockwave-flash" wmode="transparent" width="425" height="350"></embed> </object> 我错过了什么?

如何在特定的时间提取ffmpeg的video截图?

有很多教程和内容展示了如何使用ffmpeg从video中提取多个屏幕截图。 你设置-r,你甚至可以开始一定的金额。 但是我只想要1张截图,例如01:23:45英寸,或者1张截图,86%英寸。 这是所有可能的ffmpegthumbnailer但它是另一个依赖我不想依靠。 我希望能够用ffmpeg来做到这一点。

Youtube的HTML5video播放器如何控制缓冲?

我正在观看YouTubevideo,并决定调查其video播放器的某些部分。 我注意到,与大多数HTML5video不同,Youtube的video播放器不会执行正常的video源,而是使用bloburl作为源。 以前我testing过HTML5video,我发现服务器从一开始就开始stream式传输整个video,并在后台缓冲整个video的其余部分。 这意味着如果你的video是300兆,所有300兆将被下载。 如果你寻求中间的话,它将开始从寻找位置一路下载到最后。 Youtube不能这样工作(至less在铬)。 相反,它设法控制缓冲,所以它只在暂停时缓冲一定量。 它也似乎只缓冲相关的部分,所以如果你跳过它将确保不缓冲不可能被观看的部分。 在我试图研究这是如何工作的,我注意到videosrc标签有一个blob:http%3A//www.youtube.com/ee625eee-2802-49b2-a13f-eb374d551d54的值blob:http%3A//www.youtube.com/ee625eee-2802-49b2-a13f-eb374d551d54 ,它指向我的blob ,然后导致我键入数组 。 使用这两种资源,我可以将mp4video加载到blob中,并将其显示在HTML5video标签中。 但是,我现在所坚持的是YouTube如何处理这些作品。 看着networkingstream量,它似乎发送请求到http://r6—sn-p5q7ynee.c.youtube.com/videoplayback它返回二进制video数据回1.1M块。 同样值得注意的是,由于HTML5video请求的大部分正常请求似乎在stream式传输过程中收到了206个响应代码,而YouTube的播放video呼叫又回到了200。 我试图尝试只加载一个字节范围(通过设置Range http头),不幸的是失败(我假设,因为没有与video来的video的元数据)。 在这一点上,我坚持搞清楚Youtube是如何完成这个的。 我想出了几个想法,尽pipe我没有完全卖出这些想法: 1)Youtube发送每个/videoplayback调用自我包含的video和audio块。 这似乎是上传方面的一个相当沉重的负担,似乎将它们拼接在一起,使它看起来像是一个无聊的video很难。 此外,video标签似乎认为这是一个完整的video,从调用$('video').duration和$('video').currentTime ,这使我相信video标签认为这是一个单一的video文件。 最后,vidoe src标签永远不会改变,这让我相信它是用一个单一的blob工作,而不是交换blob。 2)Youtube构build一个空的blob预先大小到完整的videoarrays,并下载它的块更新blob。 然后确保用户没有太接近最后下载的部分(以防止用户进入blob的未下载部分)。 我看到这个问题,我没有看到任何方式dynamic更新blob通过JavaScript(虽然也许我只是麻烦search它) 3)Youtube下载元数据,然后通过附加下载的video片段开始构buildblob。 我用这种方法看到的问题是我不明白它将如何处理后缓冲领域的寻求。 也许我只是在我面前丢失了一个明显的答案,任何人有什么想法? 编辑:我只是想到了第四个选项。 另一个想法是,他们可能会使用文件API将二进制块写入文件并使用该文件进行stream式处理。 文件API似乎有能力寻求特定的位置,因此可以让你填写一个空字节的video,并填写他们收到。 这绝对适用于videosearch。

HTML 5 <video>标签和networking摄像头集成的状态如何?

即使它看起来有些危险,开放video标准是一个好主意。 我看到一些关于运动跟踪的演示 – 只是概念validation,但是很有意思。 现在,我想说,如果能访问用户的networking摄像机,像这样的概念真的是一个收益…只要想象一下,用你的手在半空中浏览Flickr。 我已经Google了一下,但我找不到有关这个问题的任何详细的讨论。 这在有些地方被提到,但是这并没有让我走得很远。 有人知道是否计划支持这个计划吗? 如果是的话,什么时候预测什么时候? 😉 当然,我想他们不得不想出一个相当不错的安全模型。

在.net中使用FFmpeg?

所以我知道它是一个相当大的挑战,但我想用c#编写一个基本的电影播放器​​/转换器使用FFmpeg库。 不过,我需要克服的第一个障碍是将FFmpeg库封装在c#中。 我已经下载了ffmpeg,但无法在Windows上编译,所以我为我下载了一个预编译版本。 好,真棒。 然后我开始寻找C#包装器。 我环顾四周,发现了一些包装,如SharpFFmpeg( http://sourceforge.net/projects/sharpffmpeg/ )和ffmpeg-sharp( http://code.google.com/p/ffmpeg-sharp/ )。 首先,我想用ffmpeg-sharp作为LGPL,SharpFFmpeg是GPL。 但是,它有很多编译错误。 原来它是为单声道编译器编写的,我尝试用单声道编译它,但不知道如何。 然后,我开始自己手动修复编译器错误,但遇到了一些可怕的错误,并认为我最好不要这些。 所以我放弃了ffmpeg-sharp。 然后,我看着SharpFFmpeg,它看起来像我想要的,所有的functionP /为我调用。 但是它的GPL? AVCodec.cs和AVFormat.cs文件看起来像avcodec.c和avformat.c的端口,我认为我可以移植自己? 那么不必担心授权。 但是在我开始编码之前,我想先弄清楚。 我是不是该: 编写我自己的C ++库,与ffmpeg进行交互,然后让我的C#程序和C ++库交谈,以便播放/转换video等。 要么 端口avcodec.h和avformat.h(是我所需要的?)通过使用一大堆的DllImports c#完全写在C#? 首先考虑到我对C ++并不擅长,因为我很less使用它,但是我知道足够了解。 我认为#1的原因可能是更好的select是,大多数FFmpeg教程是在C + +中,我也有更多的控制内存pipe理,如果我要在C#中做。 你怎么看? 你也会碰巧有任何有用的链接(也许是一个教程)使用FFmpeg?