神刀安全网

解决上下文相关性,哦啦语音想让人机交互不再“前言不搭后语”

轰轰烈烈的世纪人机大战结束后,一夜间似乎所有人都在谈论人工智能。真正智能的 AI 自然免不了人机交互,而语音在人机交互上的潜力普遍被人们看好。

语音交互一般包括语音识别、语义理解和语音合成。其中,语音识别是把人的声音正确识别并记录成文字,但这时的计算机并不能真的 “读懂” 你在说什么,语义理解则是试图让计算机 “理解” 句子意思的关键一步。想要实现流畅的人机交互的 “ 哦啦语音 ”,正是专注于语义理解的一家公司。

“哦啦语音” 2013年 初成立,是威盛电子内部孵化的创业项目。成立至今,“哦啦语音” 已经拥有在中文自然语言理解、语音识别、语音控制和语音交互系统等方面的 20 多项自主专利,主要包括:

  • 口音识别和多语言模型
  • 在语音对话系统中让 TTS 更自然
  • 全文检索的结构化知识库
  • 知识辅助的自然语言理解
  • 领域识别和多语言模型应用
  • 增强的固定词语法的 NLP
  • 基于拼音的语言模型
  • 云端通讯录查询的用户隐私保护
  • 上下文相关的语义理解

目前,市面上主打语义理解功能的产品还有科大讯飞旗下的讯飞语点、百度度秘及近期炒的比较火的微软小冰等。创始人张国峰表示,“哦啦语音” 的技术优势主要体现在其基于语义理解所作出的对话控制上。

“现在许多做语义理解的产品事实上没有达到人机交互的目的,技术上虽然能对用户的话作出反应,但上下文缺少关联性。” 张国峰告诉 36 氪,“举个例子,用户如果提出 ‘明天去北京,帮我订票’ 后再补充 ‘要火车票’ 的话,机器很难把两句话的信息串联起来作出回答,我们要解决的就是这个问题。”

为使人机对话更通畅,“哦啦语音” 会记录下对话中用户所提过的需求,包括人、事、时间、地点等关键词,再根据当前语句信息通过人工智能对沟通逻辑做出判断,结合上下文使机器做出的反应更符合用户的语言表达和心理预期。

而 “哦啦语音” 开发的多项专利也是为了提高这种对话的通畅性。拿全文检索的结构化知识库来说,“哦啦语音” 以爬虫 + 人工审核的方式搭建了一个底层数知识数据库,让机器能够判别那些从表层语法上无法识别的表达意图。同样举个通俗点的例子,如果用户提问 “刘德华的青花瓷怎么样?” 这时候机器会首先判断主语和宾语间存在的关系,并将两个关键词放在数据库中检索,如果两者没有关联就会回复:“刘德华没有唱过青花瓷。” 据悉,现 “哦啦语音” 的知识库中已包含了六十多个领域的知识,可基本覆盖日常对话所涉及的知识范围。

解决上下文相关性,哦啦语音想让人机交互不再“前言不搭后语”

关于技术的应用场景,“哦啦语音” 前期的方向是智能手机应用,与小冰、讯飞语点等智能助手产品类似。但实际操作过程中,张国峰发现 “这种功能用户的使用场景还是太少了,几乎以调侃为主,技术价值没有得到最大发挥。” 现在,他们认为智能家居未来会是存在语音交互强需求的领域之一,其位于上海的智能家居 Demoroom 计划将在今年8月 前开幕。

商业模式上,“哦啦语音” 主要依靠提供智能语音交互技术方案变现。目前达成合作的包括环迅智能车载后视镜、奇狐智能眼镜,中兴语音助手,以及天翼导航、中国电信号码百事通的语义交互 API 服务等项目。同时,“哦啦语音” 还是Siri语音技术提供商 Nuance 大陆唯一的中文语义技术合作伙伴。

团队方面,创始人张国峰上海交大毕业,在技术算法方面拥有 15年 从业经历。目前团队整体 40 余人,技术人员占大多数。该团队正在寻求 A 轮融资。

36 氪和氪空间团队已进驻上海,每月将定期举办线下沙龙或私密饭局。我们正在招募一名全职 / 实习作者,如果你对创业服务有自己的想法、充满好奇心,请砸简历至congjia@36kr.com,一大波的魔都创业者等你面基!

原创文章,作者:二水水,如若转载,请注明出处:http://36kr.com/p/5044728.html

“看完这篇还不够?如果你也在创业,并且希望自己的项目被报道,请戳这里告诉我们!”

转载本站任何文章请注明:转载至神刀安全网,谢谢神刀安全网 » 解决上下文相关性,哦啦语音想让人机交互不再“前言不搭后语”

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
分享按钮