趋近智
在单独了解了各个组成部分之后,我们现在可以组建完整的自动语音识别流程。理解这些部分如何共同运作是了解机器如何将语音转换为文字的根本。每个阶段都有其独特的职责,一个阶段的输出会成为下一个阶段的输入,最终形成转录文本。
整个过程是一个复杂的概率估计与查找序列。其核心在于,系统试图回答一个问题:“给定此音频,最有可能的词语序列是什么?”
让我们再次回顾整个工作流程,从声波进入系统的那一刻起,直到句子出现。
下图说明了语音识别系统的标准架构。我们将在后续部分逐一分解每个步骤。
数据在标准自动语音识别流程中的流动,从初始音频到最终文本输出。
该过程始于原始音频信号,它是声波的数字表示。正如我们在第2章所见,这种原始数据不适合机器学习模型。它包含过多信息,其中大部分与区分语音无关。
自动语音识别的完整流程将各个组件整合在一起。一个主要组件是特征提取,它将音频转换为紧凑且信息丰富的表示。音频被分割成短而重叠的帧(通常长25毫秒)。对于每个帧,系统计算一组特征,其中梅尔频率倒谱系数(MFCCs)是最常见的选择。结果是一个特征向量序列,其中每个向量都是音频小片段频率内容的数值概括。
特征向量序列被输入到声学模型(AM)。声学模型的任务(我们在第3章中已讲到)是确定在给定特定语言单位(如音素)的情况下,这些音频特征出现的可能性。
对于每个音频帧,AM计算该语言中所有可能音素的概率。例如,对于一个10毫秒的音频片段,它可能会给出:
输出是一个概率流,它代表着所说声音的基本构成。
同时,**语言模型(LM)**提供了一个完全不同的信息来源。正如第4章所讨论的,语言模型对音频一无所知。它唯一的目的是计算给定词语序列的概率。它在大量文本上训练,并学习哪些词语可能出现在其他词语之后。
例如,N-gram语言模型会给"recognize speech"这个短语赋予比发音相似但无意义的"wreck a nice beach"更高的概率。它提供了解决歧义所需的语言背景。
所有部分在此汇合。解码器是驱动最终转录查找的引擎。它接收三个输入:
解码器的任务是找到最能解释输入音频特征(O)的单个词语序列(W)。它通过找到最大化声学模型和语言模型分数乘积的序列来完成此操作,这在语音识别的基本方程中有所体现:
W^=WargmaxP(O∣W)×P(W)由于可能的词语序列数量非常多,解码器使用维特比算法等高效搜索算法来剪除不太可能的路径,并在不评估每一种可能性的情况下找到最优结果。
查找完成后,解码器输出单个最有可能的词语序列。这是用户看到的最终转录文本。该序列是竞争的胜利者,是声学模型和语言模型综合得分最高的假设。从声波到句子,该流程已成功将语音转换为文字。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造