当前位置:首页 » 安卓系统 » android音频采集

android音频采集

发布时间: 2025-01-01 12:56:01

⑴ Android WebRTC 音频采集扬声器声音

webrtc 默认情况下,采集的视频和音频,大部分采集的是麦克风和摄像头的内容,

但有的时候,需要采集屏幕的内容和扬声器的声音,并将其发送出去。

关于屏幕的采集不做陈述,github上的例子很多,本文主要讲隐颂解如何采集扬声器的声音。

对于Android系统来说,漏裂如果你要进行录制扬声器的声音,是需要系统权限的。
所以,如果你没有系统权限的话,(也就是system用户),那本文是无法实现的。

具体实现步骤:

1.

在 AndroidManifest.xml 中

android:sharedUserId="android.uid.system" //用户权限

<uses-permission android:name="android.permission.CAPTURE_AUDIO_OUTPUT" />

2.

在创建peerconnection的时候,需灶搜郑要添加setAudioDeviceMole(admbuilder.createAudioDeviceDole());

admbuilder 默认情况下使用麦克风的声音,所以我们把麦克风的声音修改掉:

admbuilder.setAudioSource( MediaRecorder.AudioSource.REMOTE_SUBMIX);

这里的扬声器就是MediaRecorder.AudioSource.REMOTE_SUBMIX。

⑵ 如何采集一帧音频

本文重点关注如何在Android平台上采集一帧音频数据。阅读本文之前,建议先读一下我的上一篇文章《Android音频开发(1):基础知识》,因为音频开发过程中,经常要涉及到这些基础知识,掌握了这些重要的概念后,开发过程中的很多参数和流程就会更加容易理解。
Android SDK 提供了两套音频采集的API,分别是:MediaRecorder 和 AudioRecord,前者是一个更加上层一点的API,它可以直接把手机麦克风录入的音频数据进行编码压缩(如AMR、MP3等)并存成文件,而后者则更接近底层,能够更加自由灵活地控制,可以得到原始的一帧帧PCM音频数据。

如果想简单地做一个录音机,录制成音频文件,则推荐使用 MediaRecorder,而如果需要对音频做进一步的算法处理、或者采用第三方的编码库进行压缩、以及网络传输等应用,则建议使用 AudioRecord,其实 MediaRecorder 底层也是调用了 AudioRecord 与 Android Framework 层的 AudioFlinger 进行交互的。

音频的开发,更广泛地应用不仅仅局限于本地录音,因此,我们需要重点掌握如何利用更加底层的 AudioRecord API 来采集音频数据(注意,使用它采集到的音频数据是原始的PCM格式,想压缩为mp3,aac等格式的话,还需要专门调用编码器进行编码)。

1. AudioRecord 的工作流程

首先,我们了解一下 AudioRecord 的工作流程:

(1) 配置参数,初始化内部的音频缓冲区

(2) 开始采集
(3) 需要一个线程,不断地从 AudioRecord 的缓冲区将音频数据逗读地出来,注意,这个过程一定要及时,否则就会出现逗overrun地的错误,该错误在音频开发中比较常见,意味着应用层没有及时地逗取走地音频数据,导致内部的音频缓冲区溢出。
(4) 停止采集,释放资源
2. AudioRecord 的参数配置

上面是 AudioRecord 的构造函数,我们可以发现,它主要是靠构造函数来配置采集参数的,下面我们来一一解释这些参数的含义(建议对照着我的上一篇文章来理解):

(1) audioSource

该参数指的是音频采集的输入源,可选的值以常量的形式定义在 MediaRecorder.AudioSource 类中,常用的值包括:DEFAULT(默认),VOICE_RECOGNITION(用于语音识别,等同于DEFAULT),MIC(由手机麦克风输入),VOICE_COMMUNICATION(用于VoIP应用)等等。

(2) sampleRateInHz

采样率,注意,目前44100Hz是唯一可以保证兼容所有Android手机的采样率。

(3) channelConfig

通道数的配置,可选的值以常量的形式定义在 AudioFormat 类中,常用的是 CHANNEL_IN_MONO(单通道),CHANNEL_IN_STEREO(双通道)

(4) audioFormat

这个参数是用来配置逗数据位宽地的,可选的值也是以常量的形式定义在 AudioFormat 类中,常用的是 ENCODING_PCM_16BIT(16bit),ENCODING_PCM_8BIT(8bit),注意,前者是可以保证兼容所有Android手机的。

(5) bufferSizeInBytes

这个是最难理解又最重要的一个参数,它配置的是 AudioRecord 内部的音频缓冲区的大小,该缓冲区的值不能低于一帧逗音频帧地(Frame)的大小,而前一篇文章介绍过,一帧音频帧的大小计算如下:

int size = 采样率 x 位宽 x 采样时间 x 通道数
采样时间一般取 2.5ms~120ms 之间,由厂商或者具体的应用决定,我们其实可以推断,每一帧的采样时间取得越短,产生的延时就应该会越小,当然,碎片化的数据也就会越多。

在Android开发中,AudioRecord 类提供了一个帮助你确定这个 bufferSizeInBytes 的函数,原型如下:

int getMinBufferSize(int sampleRateInHz, int channelConfig, int audioFormat);
不同的厂商的底层实现是不一样的,但无外乎就是根据上面的计算公式得到一帧的大小,音频缓冲区的大小则必须是一帧大小的2~N倍,有兴趣的朋友可以继续深入源码探究探究。

实际开发中,强烈建议由该函数计算出需要传入的 bufferSizeInBytes,而不是自己手动计算。

3. 音频的采集线程

当创建好了 AudioRecord 对象之后,就可以开始进行音频数据的采集了,通过下面两个函数控制采集的开始/停止:

AudioRecord.startRecording();
AudioRecord.stop();
一旦开始采集,必须通过线程循环尽快取走音频,否则系统会出现 overrun,调用的读取数据的接口是:

AudioRecord.read(byte[] audioData, int offsetInBytes, int sizeInBytes);

⑶ Android音视频【十三】OpenSL ES介绍&基于OpenSL ES实现音频采集

Android音视频开发中,通常使用AudioRecord进行音频采集,但OpenSL ES提供了C/C++性能优势,避免了Java层的复杂性和性能消耗。本文着重介绍如何在JNI层通过OpenSL ES进行音频采集。OpenSL ES,作为无授权、跨平台的音频加速API,旨在提升嵌入式设备应用的音频处理性能。它支持C语言接口,运行于native层,允许直接处理PCM数据,降低数据传输和通信成本。


与Android的关系是,Android实现的OpenSL ES基于OpenSL 1.0.1,扩展了一些功能。在使用时需注意Android特有的API限制。OpenSL ES支持16000Hz采样率的单通道PCM数据采集和播放,且兼容多种配置,但不支持所有平台。相较于Java API,OpenSL ES能提供更灵活的控制和深度优化,但对设备版本有要求,不支持MIDI和加密内容播放。


在实际开发中,首先在AndroidManifest.xml中添加录音权限,然后在项目中链接OpenSLES库。OpenSL ES的开发基于Objects和Interfaces概念,通过创建和管理对象来实现音频功能。创建SLEngineItf对象后,设置输入输出配置,创建录音器并开始录音,通过SLRecordItf接口控制录音状态。采集到的音频数据通过回调函数处理,并在完成后释放资源。


一个简单的示例展示了如何在JNI层使用OpenSL ES进行录音,并提供了测试方法。通过学习OpenSL ES,开发者可以构建高效、低延迟的音频应用。相关学习资源可进一步深化理解。更多详情可参考Android中文官网,以及GitHub项目。

热点内容
mysql查看sql 发布:2025-01-04 09:01:30 浏览:447
大众的账号密码哪里看 发布:2025-01-04 08:57:22 浏览:373
黎明做访问 发布:2025-01-04 08:53:11 浏览:971
逍客哪个配置高 发布:2025-01-04 08:35:53 浏览:698
xp如何看wifi密码 发布:2025-01-04 08:34:27 浏览:659
python包装 发布:2025-01-04 08:32:25 浏览:75
java判断数据库是否存在 发布:2025-01-04 07:58:55 浏览:365
php高级培训 发布:2025-01-04 07:48:58 浏览:907
ubuntu源码包 发布:2025-01-04 07:40:54 浏览:286
java实现注册 发布:2025-01-04 07:39:48 浏览:865