Tag: audio

iPhone耳机插孔 – 读入数据?

我有一个连接到电池供电的显示器的小设备。 当我转动设备上的轮子时,显示器将显示诸如何时开始转动车轮以及车轮转动的速度等信息。 我相信该设备正在通过3.5毫米audio插孔发送某种磁脉冲或其他东西。 而不是将设备连接到它的原始显示器,我想连接到我的iPhone和读取相同的数据。 电源线末端有一个3.5毫米的audio插孔,通常像耳机一样适合iPhone使用。 我已经研究过像HiJack这样的项目,但是我不确定如何使用我收到的数据(或者当我收到数据的时候实际来自哪里),或者我甚至可以在这种情况下使用它。 我可以通过iPhone的audio插孔从外部设备读取(到iPhone的)数据吗? 如果是的话,你build议我看看什么框架/库? 我已经看过苹果公司的AurioTouch ,但它看起来相当复杂,并不是非常简单。

第一次播放声音时,AVAudioPlayer启动缓慢

我试图通过iPhone上的AVAudioPlayer播放(非常短 – less于2秒)的audio文件来消除启动延迟。 首先,代码: NSString *audioFile = [NSString stringWithFormat:@"%@/%@.caf", [[NSBundle mainBundle] resourcePath], @"audiofile"]; NSData *audioData = [NSData dataWithContentsOfMappedFile:audioFile]; NSError *err; AVAudioPlayer *audioPlayer = [(AVAudioPlayer*)[AVAudioPlayer alloc] initWithData:audioData error:&err]; audioPlayer.delegate = self; [audioPlayer play]; 一旦完成,我还实现了audioPlayerDidFinishPlaying方法来释放AVAudioPlayer。 我第一次播放audio时,延迟是可以触摸的 – 至less2秒。 然而,之后,声音立即播放。 我怀疑罪魁祸首是最初从闪存中读取很长一段时间的[NSData dataWithContentsOfMappedFile],但后来读取的速度很快。 不过,我不确定如何testing。 是这样吗? 如果是的话,我应该只是预先caching的NSData对象,积极清理它们在低内存条件?

FFMPEG多路复用video和audio(从另一个video) – 映射问题

我想将audio从一个video放到另一个没有audio的video(在一个命令中): ffmpeg.exe -i video1_noAudio.mov -i video2_wAudio.mov -vcodec copy -acodec copy video1_audioFromVideo2.mov 我想“-map”是正确的方法,但我很困惑。 你能build议如何解决它?

如何获得在iOS的audio文件的持续时间?

NSDictionary* fileAttributes = [[NSFileManager defaultManager] attributesOfItemAtPath:filename error:nil] 从文件属性键,你可以得到的date,大小等,但你怎么得到的持续时间?

Android> 4.0:想法如何logging/捕获内部audio(例如STREAM_MUSIC)?

几个月前,我用Android ICS(4.0)开发了一个android内核模块,它拦截了“pcmC0D0p”模块来获取所有的系统audio。 我的目标是通过AirPlay将所有audio(或至less播放的音乐)stream式传输到远程扬声器。 内核模块工作,但有几个问题(内核版本,根特权等),所以我停止了这个工作。 现在,我们有Android 4.1和4.2,我有了新的希望! 谁有一个想法如何捕捉在Android的audio? 我有以下想法: 通过蓝牙连接到相同的手机,设置路由到BT,并抓住“另一端”的audio:这不应该工作 拦截与之前做的内核模块的audio:硬核,得到它的工作,但不适用 杰克audio连接套件 :可悲的Android使用“tinyALSA”,而不是“ALSA”。 TinyALSA不支持像JACK这样的filter(但是这带来了内核模块的想法) 使用PulseAudio作为AudioFlinger的替代品,但这也不适用 编辑(忘记他们): 我从tinyALSA (Android上的ALSA)编译了“tinymix”(ALSA混音器的婴儿版本),并尝试将audio输出路由到麦克风input,但没有成功( 对我来说是不可理解的 )。 这也需要生根:不适用 我testing了OpenSL ES ,但是我不是C-crack,它以“我可以录制麦克风,但是没有更多”结束(也许我错了?) 我刚刚findROUTE_TYPE_LIVE_AUDIO : 支持实时audio路由的设备将允许媒体audiostream路由到支持的目的地。 这可以包括设备本身的内置扬声器或audio插孔,A2DP设备等等。 启动后,此路由对应用程序是透明的。 媒体stream上播放的所有audio将被路由到选定的目的地。 也许这有助于任何方面? 我正在用尽想法,但想“破解这个坚果”,也许有人可以帮助我? 编辑: 我在C和内核编码方面真的很新颖(但是我成功地创build了一个交叉编译的audio拦截模块),但是不能以任何方式监听PCM数据从用户空间(JAVA ,C层?)到内核空间(tinyALSA,内核模块),而不是黑客和生根?

将audio路由到Android上的蓝牙耳机(非A2DP)

我有一个非A2DP单耳耳机BT耳机(Plantronics 510),并希望与我的Android HTC Magic一起使用,以收听低质量的audio,如播客/有声读物。 经过大量的search,我发现只有电话audio可以路由到非A2DP蓝牙耳机。 (我想知道如果你已经find了一个现成的解决scheme,将各种audio路由到非A2DP BT耳机) 所以我想通过编程方式,我可以将audio传输到携带电话audio的stream。 这样我就会骗过手机将我的mp3audio传送到我的BT耳机。 我写了以下简单的代码。 import android.content.*; import android.app.Activity; import android.os.Bundle; import android.media.*; import java.io.*; import android.util.Log; public class BTAudioActivity extends Activity { private static final String TAG = "BTAudioActivity"; private MediaPlayer mPlayer = null; private AudioManager amanager = null; @Override public void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.main); amanager = […]

Visual Studio IDE:我希望它编译后发出声音,以便我可以重新开始工作

将是一件好事 – 我必须写一个脚本或不能我只是调整生成脚本来完成一些任务?

吉他和弦识别algorithm?

什么是一个好的数字信号处理algorithm,吉他和弦是好的? 由于快速傅里叶变换我认为只有在吉他弹奏的单个音符上是准确的,而不是同时弹奏的音符(即和弦)。 谢谢!

如何以编程方式使用iOS语音合成器? (文字转语音)

iOS设备已经embedded了用于辅助function的VoiceOverfunction的语音合成器。 有没有一种方法可以使用这些合成器以编程方式生成基于文本的声音? 我的问题是:我正在做一个简单的应用程序,让孩子们学习颜色,而不是logging我想要支持的每种语言的颜色名称,并将它们存储为audio文件,我宁愿在运行时生成声音一些文字转语音function。 谢谢 [编辑:这个问题被问到iOS7之前,所以你应该真的考虑投票的答案,忽略旧的,除非你是一个软件考古学家]

Python音乐库?

我正在用Python写一个鼓点机器。 我search了一些,发现音乐和基本audio的python页面以及生成audio文件的StackOverflow问题,但是我正在寻找的是一个体面的音乐创作库 。 有没有人在这里试图做这样的事情? 如果是这样,你的解决scheme是什么? 什么,我发现的,或者我没有find的东西,将是一个体面的audio处理库? 最起码,我希望能够在Python中做类似于Audacity的范围,但是如果有人知道一个库可以做更多的事情……我全是耳朵。