OHAudio是系统在API version 10中引入的一套C API,此API在设计上实现归一,同时支持普通音频通路和低时延通路。仅支持PCM格式,适用于依赖Native层实现音频输出功能的场景。
使用入门
开发者要使用OHAudio提供的播放或者录制能力,需要添加对应的头文件。
在 CMake 脚本中链接动态库
target_link_libraries(sample PUBLIC libohaudio.so)
添加头文件
开发者通过引入<[native_audiostreambuilder.h]>和<[native_audiorenderer.h]>头文件,使用音频播放相关API。
#include <ohaudio/native_audiorenderer.h>
#include <ohaudio/native_audiostreambuilder.h>
音频流构造器
OHAudio提供OH_AudioStreamBuilder接口,遵循构造器设计模式,用于构建音频流。开发者需要根据业务场景,指定对应的[OH_AudioStream_Type] 。
OH_AudioStream_Type包含两种类型:
- AUDIOSTREAM_TYPE_RENDERER
- AUDIOSTREAM_TYPE_CAPTURER
使用[OH_AudioStreamBuilder_Create]创建构造器示例:
OH_AudioStreamBuilder* builder;
OH_AudioStreamBuilder_Create(&builder, streamType);
在音频业务结束之后,开发者应该执行[OH_AudioStreamBuilder_Destroy]接口来销毁构造器。
OH_AudioStreamBuilder_Destroy(builder);
开发步骤及注意事项
详细的API说明请参考[OHAudio API参考]
开发者可以通过以下几个步骤来实现一个简单的播放功能。
-
创建构造器
OH_AudioStreamBuilder* builder;
OH_AudioStreamBuilder_Create(&builder, AUDIOSTREAM_TYPE_RENDERER); -
配置音频流参数
创建音频播放构造器后,可以设置音频流所需要的参数,可以参考下面的案例。
// 设置音频采样率
OH_AudioStreamBuilder_SetSamplingRate(builder, 48000);
// 设置音频声道
OH_AudioStreamBuilder_SetChannelCount(builder, 2);
// 设置音频采样格式
OH_AudioStreamBuilder_SetSampleFormat(builder, AUDIOSTREAM_SAMPLE_S16LE);
// 设置音频流的编码类型
OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_RAW);
// 设置输出音频流的工作场景
OH_AudioStreamBuilder_SetRendererInfo(builder, AUDIOSTREAM_USAGE_MUSIC);
注意,播放的音频数据要通过回调接口写入,开发者要实现回调接口,使用OH_AudioStreamBuilder_SetRendererCallback设置回调函数。回调函数的声明请查看[OH_AudioRenderer_Callbacks]) 。
-
设置音频回调函数
多音频并发处理可参考[多音频播放的并发策略],仅接口语言差异。
// 自定义写入数据函数
int32_t MyOnWriteData(
OH_AudioRenderer* renderer,
void* userData,
void* buffer,
int32_t length)
{
// 将待播放的数据,按length长度写入buffer
return 0;
}
// 自定义音频流事件函数
int32_t MyOnStreamEvent(
OH_AudioRenderer* renderer,
void* userData,
OH_AudioStream_Event event)
{
// 根据event表示的音频流事件信息,更新播放器状态和界面
return 0;
}
// 自定义音频中断事件函数
int32_t MyOnInterruptEvent(
OH_AudioRenderer* renderer,
void* userData,
OH_AudioInterrupt_ForceType type,
OH_AudioInterrupt_Hint hint)
{
// 根据type和hint表示的音频中断信息,更新播放器状态和界面
return 0;
}
// 自定义异常回调函数
int32_t MyOnError(
OH_AudioRenderer* renderer,
void* userData,
OH_AudioStream_Result error)
{
// 根据error表示的音频异常信息,做出相应的处理
return 0;
}OH_AudioRenderer_Callbacks callbacks;
// 配置回调函数
callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData;
callbacks.OH_AudioRenderer_OnStreamEvent = MyOnStreamEvent;
callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent;
callbacks.OH_AudioRenderer_OnError = MyOnError;//设置输出音频流的回调
OH_AudioStreamBuilder_SetRendererCallback(builder, callbacks, nullptr);
为了避免不可预期的行为,在设置音频回调函数时,请确保[OH_AudioRenderer_Callbacks]的每一个回调都被自定义的回调方法 或空指针初始化。
// 自定义写入数据函数
int32_t MyOnWriteData(
OH_AudioRenderer* renderer,
void* userData,
void* buffer,
int32_t length)
{
// 将待播放的数据,按length长度写入buffer
return 0;
}
// 自定义音频中断事件函数
int32_t MyOnInterruptEvent(
OH_AudioRenderer* renderer,
void* userData,
OH_AudioInterrupt_ForceType type,
OH_AudioInterrupt_Hint hint)
{
// 根据type和hint表示的音频中断信息,更新播放器状态和界面
return 0;
}
OH_AudioRenderer_Callbacks callbacks;
// 配置回调函数,如果需要监听,则赋值
callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData;
callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent;
// (必选)如果不需要监听,使用空指针初始化
callbacks.OH_AudioRenderer_OnStreamEvent = nullptr;
callbacks.OH_AudioRenderer_OnError = nullptr;
-
构造播放音频流
OH_AudioRenderer* audioRenderer;
OH_AudioStreamBuilder_GenerateRenderer(builder, &audioRenderer); -
使用音频流
音频流包含下面接口,用来实现对音频流的控制。
接口 说明 OH_AudioStream_Result OH_AudioRenderer_Start(OH_AudioRenderer* renderer) 开始播放 OH_AudioStream_Result OH_AudioRenderer_Pause(OH_AudioRenderer* renderer) 暂停播放 OH_AudioStream_Result OH_AudioRenderer_Stop(OH_AudioRenderer* renderer) 停止播放 OH_AudioStream_Result OH_AudioRenderer_Flush(OH_AudioRenderer* renderer) 释放缓存数据 OH_AudioStream_Result OH_AudioRenderer_Release(OH_AudioRenderer* renderer) 释放播放实例 -
释放构造器
构造器不再使用时,需要释放相关资源。
OH_AudioStreamBuilder_Destroy(builder);
设置低时延模式
当设备支持低时延通路时,开发者可以使用低时延模式创建播放器,获得更高质量的音频体验。
开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetLatencyMode()]设置低时延模式。
开发示例
OH_AudioStreamBuilder_SetLatencyMode(builder, AUDIOSTREAM_LATENCY_MODE_FAST);
设置音频声道布局
播放音频文件时,可以通过设置音频的声道布局信息,指定渲染或播放时的扬声器摆位,使得渲染和播放效果更佳,获得更高质量的音频体验。
开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetChannelLayout()]设置声道布局信息。
当声道布局与声道数不匹配时,创建音频流会失败。建议在设置声道布局时,确认下发的声道布局信息是正确的。
如果不知道准确的声道布局信息,或者开发者需要使用默认声道布局,可以不调用设置声道布局接口,或者下发CH_LAYOUT_UNKNOWN,以使用基于声道数的默认声道布局。
对于HOA格式的音频,想要获得正确的渲染和播放效果,必须指定声道布局信息。
开发示例
OH_AudioStreamBuilder_SetChannelLayout(builder, CH_LAYOUT_STEREO);
播放AudioVivid格式音源
播放AudioVivid格式音频文件时,需要使用与普通播放不同的数据写入回调函数,该回调可以同时写入PCM数据与元数据。
开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback()]设置PCM数据与元数据同时写入的回调函数,同时调用[OH_AudioStreamBuilder_SetEncodingType()]设置编码类型为AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID。
在播放AudioVivid时,帧长是固定的,不可通过[OH_AudioStreamBuilder_SetFrameSizeInCallback()]设置回调帧长。同时,在设置播放声道数和声道布局时,需要将写入音源的声床数和对象数相加后进行设置。
开发示例
// 自定义同时写入PCM数据和元数据函数
int32_t MyOnWriteDataWithMetadata(
OH_AudioRenderer* renderer,
void* userData,
void* audioData,
int32_t audioDataSize,
void* metadata,
int32_t metadataSize)
{
// 将待播放的PCM数据和元数据,分别按audioDataSize和metadataSize写入buffer
return 0;
}
// 设置编码类型
OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID);
// 配置回调函数
OH_AudioRenderer_WriteDataWithMetadataCallback metadataCallback = MyOnWriteDataWithMetadata;
// 设置同时写入PCM数据和元数据的回调
OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback(builder, metadataCallback, nullptr);
最后呢
很多开发朋友不知道需要学习那些鸿蒙技术?鸿蒙开发岗位需要掌握那些核心技术点?为此鸿蒙的开发学习必须要系统性的进行。
而网上有关鸿蒙的开发资料非常的少,假如你想学好鸿蒙的应用开发与系统底层开发。你可以参考这份资料,少走很多弯路,节省没必要的麻烦。由两位前阿里高级研发工程师联合打造的《鸿蒙NEXT星河版OpenHarmony开发文档 》里面内容包含了(ArkTS、ArkUI开发组件、Stage模型、多端部署、分布式应用开发、音频、视频、WebGL、OpenHarmony多媒体技术、Napi组件、OpenHarmony内核、Harmony南向开发、鸿蒙项目实战等等)鸿蒙(Harmony NEXT)技术知识点
如果你是一名Android、Java、前端等等开发人员,想要转入鸿蒙方向发展。可以直接领取这份资料辅助你的学习。下面是鸿蒙开发的学习路线图。
针对鸿蒙成长路线打造的鸿蒙学习文档。话不多说,我们直接看详细鸿蒙(OpenHarmony )手册(共计1236页)与鸿蒙(OpenHarmony )开发入门视频,帮助大家在技术的道路上更进一步。
- 《鸿蒙 (OpenHarmony)开发学习视频》
- 《鸿蒙生态应用开发V2.0白皮书》
- 《鸿蒙 (OpenHarmony)开发基础到实战手册》
- OpenHarmony北向、南向开发环境搭建
- 《鸿蒙开发基础》
- 《鸿蒙开发进阶》
- 《鸿蒙开发实战》
总结
鸿蒙---作为国家主力推送的国产操作系统。部分的高校已经取消了安卓课程,从而开设鸿蒙课程;企业纷纷跟进启动了鸿蒙研发。
并且鸿蒙是完全具备无与伦比的机遇和潜力的;预计到年底将有 5,000 款的应用完成原生鸿蒙开发,未来将会支持 50 万款的应用。那么这么多的应用需要开发,也就意味着需要有更多的鸿蒙人才。鸿蒙开发工程师也将会迎来爆发式的增长,学习鸿蒙势在必行! 自↓↓↓拿