Tag: wav

保存Android股票语音识别引擎的audioinput

我正在试图保存在一个文件的audio数据收听android的语音识别服务。 其实我实现RecognitionListener这里解释: 在Android上的语音到文本 将数据保存到缓冲区,如下所示: 捕获发送到Google语音识别服务器的audio 并将缓冲区写入一个Wav文件,如在这里。 Android将Http Streaming的原始字节logging到WAVE文件中 我的问题是如何得到适当的audio设置保存在wav文件的标题。 其实我在播放wav文件时只听到奇怪的噪音,用这个参数, short nChannels=2;// audio channels int sRate=44100; // Sample rate short bSamples = 16;// byteSample 或者与此无关: short nChannels=1;// audio channels int sRate=8000; // Sample rate short bSamples = 16;// byteSample 令人困惑的是,从logcat中查看语音识别任务的参数,我首先设置PLAYBACK采样率为44100HZ : 12-20 14:41:34.007: DEBUG/AudioHardwareALSA(2364): Set PLAYBACK PCM format to S16_LE (Signed 16 bit Little Endian) […]

在Python中读取* .wav文件

我需要分析用.wav文件写的声音。 为此,我需要将此文件转换为一组数字(例如数组)。 我想我需要使用波包。 但是,我不知道它是如何工作的。 例如,我做了以下几点: import wave w = wave.open('/usr/share/sounds/ekiga/voicemail.wav', 'r') for i in range(w.getnframes()): frame = w.readframes(i) print frame 作为这个代码的结果,我期望看到作为时间函数的声压。 相反,我看到很多奇怪的,神秘的符号(不是hex数字)。 有人可以请求帮助我吗?

将音符写入wav文件

我感兴趣的是如何将音符(例如A,B,C#等)或和弦(同时多个音符)写入一个wav文件。 据我所知,每个音符都有一个与之相关的特定频率(对于完美的音高),例如A4(中间C以上的A)为440Hz(完成列表2/3)。 如果我的理解是正确的,那么这个音调就是在频域中,那么就需要应用逆快速傅里叶变换来产生时域等价的? 我想知道的是: 和弦如何工作? 他们是球场的平均水平吗? 当wav文件的内容是波形时,播放每个音符的时间长度是多less? 如何将多个音符逆FFT'd的结果转换为一个字节数组,这些字节组成了wav文件中的数据? 与此相关的任何其他相关信息。 谢谢你提供的所有帮助。 如果给出代码示例,我正在使用C#和我目前用来创buildwav文件的代码如下所示: int channels = 1; int bitsPerSample = 8; //WaveFile is custom class to create a wav file. WaveFile file = new WaveFile(channels, bitsPerSample, 11025); int seconds = 60; int samples = 11025 * seconds; //Create x seconds of audio // Sound Data Size = […]

在Python中检测并loggingaudio

我需要捕获audio剪辑作为WAV文件,然后我可以传递到另一个Python的处理。 问题是,我需要确定什么时候有audio存在,然后logging下来,当它静音时停止,然后将该文件传递给处理模块。 我认为应该可以用波模块来检测何时有纯粹的静音,并且一旦检测到静音以外的东西就开始录音,然后当线路再次静音时停止录音。 只是不能让我的头,周围的任何人都可以让我开始一个基本的例子。

Java – 阅读,操作和编写WAV文件

在Java程序中,读取audio文件( WAV文件)到数组数组( float[] , short[] ,…),以及从数组数组中写入WAV文件的最佳方法是什么?

如何在Android设备上将WAV编码为mp3

我已经简化了我的问题,并提供了一个赏金:有什么select压缩原始PCMaudio数据到Android设备上的MP3。 我原来的post:我在我的Android手机上创build了一个合成器,我一直在生成PCM数据发送给扬声器。 现在我想知道如果我可以将这个PCM数据编码为一个MP3保存到SD卡。 MediaRecorder对象可以将来自麦克风的audio编码为各种格式,但不允许以编程方式生成的audio数据进行编码。 所以我的问题是,是否有一个标准的Android API编码audio? 如果不是,那么纯粹的基于Java或NDK的解决scheme在那里? 你能推荐他们吗? 如果没有这个,我只需要将我生成的audio保存为一个WAV文件,我可以轻松完成。

如何用java播放.wav文件

我正在尝试使用Java播放* .wav文件。 我希望它做到以下几点: 当按下一个button时,发出短促的哔声。 我GOOGLE了,但大部分代码不起作用。 有人可以给我一个简单的代码段来播放.wav文件吗?

在Java中播放.mp3和.wav?

如何在我的Java应用程序中播放.mp3和.wav文件? 我正在使用Swing。 我试过在网上找这样的例子: public void playSound() { try { AudioInputStream audioInputStream = AudioSystem.getAudioInputStream(new File("D:/MusicPlayer/fml.mp3").getAbsoluteFile()); Clip clip = AudioSystem.getClip(); clip.open(audioInputStream); clip.start(); } catch(Exception ex) { System.out.println("Error with playing sound."); ex.printStackTrace(); } } 但是,这只会播放.wav文件。 同样的: http://www.javaworld.com/javaworld/javatips/jw-javatip24.html 我希望能够用相同的方法播放.mp3文件和.wav文件。