我正在尝试结合语音识别和说话者分类技术来确定对话中有多少说话者以及哪个说话者说了什么。

为此,我使用 CMU SphinxLIUM Speaker Diarization

我能够分别运行这两个工具,即我可以运行 Sphinx 4 并从音频中获取文本输出并运行 LIUM 工具包并获取音频段。

现在我想将这两者结合起来并获得如下输出:

s0 : this is my first sentence.
s1 : this is my reply.
s2: i do not what you are talking about

有谁知道如何结合这两个工具包?

最佳答案

运行分类工具以获取每个说话者的分段时间。它们看起来像这样:

file1 1 16105 217 M S U S9_file1
file1 1 16322 1908 M S U S9_file1
file2 1 18232 603 M S U S9_file2

像 16106 和 217 这样的数字是段开始和段长度。解析文本输出并将时间存储在数组中。

然后使用时间在片段上分割原始音频。

使用 Sphinx4 分别处理每个片段并显示转录。

或者,为每个说话人的片段运行说话人自适应,并使用说话人适应模型再次处理每个片段。

关于speech-recognition - 如何结合语音识别和说话人分类?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/15782246/

10-13 05:31