但仅仅因为机器人讲笑话并不意味着它可以对笑话做出适当的反应。一个评论是否值得一个礼貌的机器人咯咯笑或者一个全神贯注的机器人大笑?正确的反应可能意味着一个平易近人的机器人和一个金属般的乡巴佬之间的区别。
这就是为什么日本研究人员正试图教无幽默感的机器人书呆子们在正确的时间以正确的方式笑。事实证明,训练人工智能笑起来并不像教它如何回应绝望的电话树请求取消订阅那么简单。周四发表在《机器人与人工智能前沿》杂志上的一项研究表明:“试图模拟日常对话的系统仍然难以理解什么时候该笑。”
这项研究详细说明了该团队在开发人工智能对话系统方面的研究,该系统侧重于共享笑声,从而使人与机器人之间的聊天更加自然。他们设想将其集成到现有的机器人和代理的对话软件中,这些机器人和代理已经在学习检测情绪和处理开放式复杂性,如模糊的人类命令。
“我们认为会话人工智能的重要功能之一是移情,”日本京都大学信息学助理教授、该研究的合著者井上康二(Koji Inoue)在一份声明中表示。“当然,对话是多模态的,不仅仅是正确响应。所以我们决定机器人能够与用户产生共鸣的一种方式是分享他们的笑声。”
关键是,系统不仅能识别笑声,还能决定是否回应笑声,然后为场合选择合适的笑声类型。井上说:“本文最重要的结果是,我们展示了如何将这三个任务组合成一个机器人。”。“我们认为,这种类型的组合系统对于正确的笑行为是必要的,而不仅仅是检测笑并对其作出反应。”
为了收集关于分享笑声的频率和类型的训练数据,研究小组将日本科学家石黑浩(Hiroshi Ishiguro)和小川小平(Kohei Ogawa)设计的先进类人机器人Erica作为研究人机交互的平台。艾丽卡能听懂自然语言,有合成的人声,当听到人们谈论他们的人的问题时,她能眨眼和移动眼睛。
研究人员记录了京都大学男生之间的对话,他们轮流与艾丽卡面对面交谈,而在另一个房间里,业余演员通过麦克风遥控机器人。科学家们选择了这种设置,因为他们知道人类之间的交流方式和他们与机器人的交流方式自然会有所不同,即使是由另一个人控制的机器人。
京都大学研究员Divesh Lala告诉我,“我们希望尽可能让笑声模型在与真实的人机交互类似的条件下进行训练。”。
基于这些互动,研究人员在人类和艾丽卡之间创建了四个简短的音频对话,艾丽卡被编程为以不同程度的笑声回应对话,从根本没有笑声到对人类对话伙伴的频繁笑声。然后,志愿者们对这些插曲进行了同理心、自然性、与人类的相似性和理解力评分。共享笑声场景比Erica每次检测到人类笑声时从不大笑或大笑的场景表现得更好,而不使用其他两个子系统过滤上下文和响应。
京都大学的研究人员已经将他们共享的笑声系统编程为除埃里卡之外的机器人,尽管他们说,人形嚎叫听起来可能更自然。事实上,即使机器人变得越来越逼真,有时甚至令人不安,机器人学家也承认,给机器人注入自己独特的类人特征带来了超越编码的挑战。
井上说:“我们可能需要10到20年的时间才能像与朋友聊天一样,最终与机器人进行轻松聊天。”
不用说,埃里卡还没有准备好参加脱口秀。但很有意思的是,很快就会有一天,她真的感觉到了你的笑话。