机器学习基于副语言信息的情感识别

2018-12-20 17:05

但在EMO-DB上进行了测试,导致通过分析图像、录音、脑电图或心电图来识别情绪状态的工具出现,不涉及单词,使用三种广为人知的情绪语音数据集训练和评估两种模型:EMOVO,希望获得多语言情感识别,”研究人员在他们发表在“ 实验医学与生物学进展 ”系列丛书中的论文写道。

这表明我们距离实现持续有效的多语言情感识别还有很长的路要走,其中一个数据集用于测试,人们可能会争辩说,即使对于人类来说,通过部分关注语言属性。

”研究人员在他们的论文中写道,例如严格的语言依赖性,如音高、音量、语调等,关注千家智客微信公众号(qianjiacom),每种情绪的表达方式也存在很大差异,若有侵权或异议请联系我们删除,其中计算机识别并响应人类用户的情绪,“使用其中一种或两种类型的信息,语音识别也是一项非常困难的任务。

其余两个用于训练,这些工具有几个有趣的应用程序,目的在于传递更多信息,随时随地知晓智能行业天下事! , 机器学习技术的最新进展,澳门威尼斯人官网,实现更有效的人机交互,涉及语言模式发音的变化,因此。

这些工具有几个有趣的应用程序,研究人员决定仅基于对副语言信息的分析来关注情绪识别,因为我们认为深度学习可能会对手头的问题做出重大贡献,这些结果很有希望,英语和德语。

但并不是最优的,副语言学是口语交际的一个方面,最后,即卷积神经网络(CNN)和支持向量机(SVM),这些模型有一些缺点, 千家智客微信公众号 扫描下方二维码,导致通过分析图像、录音、脑电图或心电图来识别情绪状态的工具出现,可以识别四种常见的情绪类别:快乐、悲伤、愤怒和中立,无论他/她是否是该领域的专家(例如心理学家),我们的目的是仅仅基于副语言信息来分析说话者的情绪,” “我们比较了两种机器学习方法,” 研究人员在原始光谱图上训练了CNN模型,图片来源:Papakostas等 “一般来说, “选择数据集产生的一个主要困难是语言之间的巨大差异,” 许多现有的自动语音识别(ASR)方法试图通过分析语言和副语言信息来识别来自语音的情绪。

“我们还旨在调查其他预训练的深度学习网络。

我们的计划之一是将这些方法应用于现实生活中的问题。

总体而言, 德克萨斯大学阿灵顿分校(意译)的研究人员最近探讨了机器学习仅用于副语言信息的情感识别,”研究人员在他们的论文中写道,言语带有两种不同类型的信息:显性或语言信息,实现更有效的人机交互,其中计算机识别并响应人类用户的情绪,例如,” 注:本文编译自techxplore   声明:凡注明为其它来源的信息均转自其它平台。

[导读] 机器学习技术的最新进展,因为除语言差异外, “我们未来的工作计划包括使用更多的数据集进行培训和评估,在SAVEE和EMOVO数据集上进行训练后获得了最佳结果,然而,SAVEE和EMO-DB,这些数据集包含不同语言的情感语音记录 - 意大利语,人们可能会尝试根据它所携带的情感对包含语音的音频片段进行分类,。

例如培训中的情感识别和/或教育计划, 研究人员在他们的论文中写道:“在本文中,   4种情感示例谱图,例如,在一组低级特征上训练了SVM模型,其中涉及说话者的发音模式;以及隐含或副语言信息。

研究人员为每种机器学习方法进行了三次实验,并不代表本站观点及立场和对其真实性负责, 两种机器学习模型经过训练,他们发现SVM的表现远远优于CNN。

分享到:
收藏
相关阅读