微软研究院近日展示了 Project Rumi 项目,结合文本,音频和视频数据,通过多模方法,提高人工智能系统的理解能力,从而更能理解人类的意图。
人工智能系统近年来取得了长足的进步,尤其在自然语言处理(NLP)领域的成长更为惊人。不过现有 NLP AI 主要依赖于文本输入输出,忽略了人类在自然交流中的语调,面部表情,手势和肢体语言等线索,从而在理解方面会存在偏差。
在 AI 专业术语中,这些线索统称为副语言(paralinguistics/ paralanguage)。
微软研究院为了解决这个问题,开发了 Project Rumi,这是一个新颖的框架,旨在通过多模态副语言提示来增强人工智能的理解。该项目包括两个主要部分:多模式副语言编码器和多模式副语言解码器。
声明:本文内容采编自互联网,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请点击举报,一经查实,本站将立刻删除。