日本对机器人的喜爱已不是秘密。但是,在该国令人赞叹的机器人中,这种感觉是共同的吗?如今,机器人专家距离向机器人提供更多与之交流的面部表情更近了一步。
尽管取得了进步,但要在机器人脸上捕捉人性化的表达仍然是一项艰巨的挑战。尽管已经解决了它们的系统属性,但尚未详细检查android的面部表情。这是由于诸如自然的人类面部运动的范围广且不对称,机器人皮肤中使用的材料的限制以及驱动机器人运动的复杂工程和数学等因素造成的。
大阪大学的三位研究人员现已找到一种方法,该方法可以识别并定量评估其机器人机器人儿童头部上的面部运动。第一代模型名为Affetto,在2011年的出版物中有所报道。研究人员现已开发出一种系统,可以使第二代Affetto更具表现力。他们的发现为机器人表达更大范围的情感并最终与人类进行更深层次的互动提供了一条途径。
研究人员在《机器人与人工智能前沿》杂志上发表了他们的发现。
研究合著者Minoru Asada解释说:“表面变形是控制Android人脸的关键问题。” “他们柔软的面部皮肤运动会造成不稳定,这是我们要解决的一个重大硬件问题。我们寻求一种更好的方法来对其进行测量和控制。”
研究人员研究了Affetto上116个不同的面部点,以测量其三维运动。面部点由所谓的变形单元支撑。每个单元包括一组产生独特的面部扭曲的机制,例如降低或提升嘴唇或眼睑的一部分。然后,将这些测量结果进行数学模型处理以量化其表面运动模式。
尽管研究人员在平衡施加力和调整合成皮肤方面遇到了挑战,但他们仍能够使用其系统来调整变形单位,以精确控制Affetto的面部表面运动。
研究的第一作者石原久史说:“ Android机器人的面孔一直是一个黑匣子问题:它们已经被实施,但只能用模糊和笼统的术语来判断。” “我们的精确发现将使我们能够有效地控制机器人的面部动作,以引入更多细微的表情,例如微笑和皱眉。”