C#调用微软库的实现语音识别

早期, 我们用SpeechRecognitionEngine如下来进行语音识别,但是复杂的词条加上环境噪声,其实成功率是不高的。

cs 复制代码
            SpeechRecognitionEngine recognizer = new SpeechRecognitionEngine(new System.Globalization.CultureInfo("zh-CN"));//初始化中文引擎
            Choices conmmonds = new Choices();
            conmmonds.Add(new string[] { "启动", "停止", "充电" });//添加词条
            GrammarBuilder gBuilder = new GrammarBuilder();
            gBuilder.Append(conmmonds);
            Grammar grammar = new DictationGrammar(); //new Grammar(gBuilder);
            grammar.Name = "default dictation";
            grammar.Enabled = true;
            recognizer.LoadGrammar(grammar);

            recognizer.SpeechRecognized += new EventHandler<SpeechRecognizedEventArgs>(Deal_SpeechRecongized);
            recognizer.SetInputToDefaultAudioDevice();//设置默认输入设备

            recognizer.InitialSilenceTimeout = TimeSpan.FromSeconds(3);
            recognizer.BabbleTimeout = TimeSpan.FromSeconds(2);
            recognizer.EndSilenceTimeout = TimeSpan.FromSeconds(1);
            recognizer.EndSilenceTimeoutAmbiguous = TimeSpan.FromSeconds(1.5);

            recognizer.RecognizeAsync(RecognizeMode.Multiple);//开始监控设备输入准备识别

            Speak(conmmonds + "测试语音");

另外一种方式,Microsoft的Speech SDK来实现语音的实时解读,然后根据接收到的文本内容进行处理,实现与用户的语音交互。

开发语音识别的需要使用注册Azure账号或测试api-key:

1. 准备工作

  • 安装SDK或库 :根据所选服务,下载并安装对应的C# SDK或NuGet包。比如,如果您选择Microsoft的Azure Cognitive Services中的语音服务,您就需要安装Microsoft.CognitiveServices.Speech NuGet包。

2. 实现语音识别

使用C#代码初始化语音识别客户端,监听麦克风输入,转换为文本。

cs 复制代码
1using Microsoft.CognitiveServices.Speech;
2using Microsoft.CognitiveServices.Speech.Audio;
3
4// 初始化SpeechConfig,使用您的API Key和区域
5var config = SpeechConfig.FromSubscription("your-api-key", "your-region");
6config.SpeechRecognitionLanguage = "zh-CN"; // 设置语言
7
8// 设置音频配置,使用默认麦克风
9using var audioConfig = AudioConfig.FromDefaultMicrophoneInput();
10using var recognizer = new SpeechRecognizer(config, audioConfig);
11
12Console.WriteLine("请说话...");
13
14// 开始连续语音识别
15var result = await recognizer.RecognizeOnceAsync();
16
17if (result.Reason == ResultReason.RecognizedSpeech)
18{
19    Console.WriteLine($"识别到的文本: {result.Text}");
20    // 在这里处理识别到的文本,比如调用另一个函数进行反馈处理
21}
22else if (result.Reason == ResultReason.NoMatch)
23{
24    Console.WriteLine("没有识别到有效语音输入。");
25}
26else if (result.Reason == ResultReason.Canceled)
27{
28    var cancellation = CancellationDetails.FromResult(result);
29    Console.WriteLine($"识别被取消: {cancellation.Reason}");
30}

3. 实现语音反馈

处理完识别到的文本后,可以使用相同的Speech SDK将处理结果转换为语音反馈给用户。

复制代码
1// 使用Text-to-Speech转换文本为语音
2var speechSynthesizer = new SpeechSynthesizer(config, null);
3
4var ssml = $"<speak version='1.0' xml:lang='zh-CN'><voice name='zh-CN-XiaoyiNeural'><prosody rate='medium'>{result.Text}</prosody></voice></speak>";
5var resultSynthesis = await speechSynthesizer.SynthesizeSsmlToWaveFileAsync(ssml, "output.wav");
6
7if (resultSynthesis.Reason == ResultReason.SynthesizingAudioCompleted)
8{
9    Console.WriteLine("语音合成完成。");
10    // 可以进一步处理,比如播放输出的音频文件
11}
12else if (resultSynthesis.Reason == ResultReason.Canceled)
13{
14    var cancellation = CancellationDetails.FromResult(resultSynthesis);
15    Console.WriteLine($"语音合成被取消: {cancellation.Reason}");
16}
相关推荐
斐夷所非40 分钟前
人工智能 AI. 机器学习 ML. 深度学习 DL. 神经网络 NN 的区别与联系
人工智能
Funny_AI_LAB2 小时前
OpenAI DevDay 2025:ChatGPT 进化为平台,开启 AI 应用新纪元
人工智能·ai·语言模型·chatgpt
深瞳智检2 小时前
YOLO算法原理详解系列 第002期-YOLOv2 算法原理详解
人工智能·算法·yolo·目标检测·计算机视觉·目标跟踪
深眸财经3 小时前
机器人再冲港交所,优艾智合能否破行业困局?
人工智能·机器人
小宁爱Python3 小时前
从零搭建 RAG 智能问答系统1:基于 LlamaIndex 与 Chainlit实现最简单的聊天助手
人工智能·后端·python
新知图书4 小时前
Encoder-Decoder架构的模型简介
人工智能·架构·ai agent·智能体·大模型应用开发·大模型应用
大模型真好玩4 小时前
低代码Agent开发框架使用指南(一)—主流开发框架对比介绍
人工智能·低代码·agent
tzc_fly4 小时前
AI作为操作系统已经不能阻挡了,尽管它还没来
人工智能·chatgpt
2301_790994995 小时前
仿神秘海域/美末环境交互的程序化动画学习
学习·microsoft·交互
PKNLP5 小时前
深度学习之神经网络1(Neural Network)
人工智能·深度学习·神经网络