本篇文章1550字,读完约4分钟

最近,《自然》杂志发表了一篇利用人工智能研究性格和脸部特征关系的论文。 研究小组招募了12000多名志愿者,利用人工智能技术通过31000多张自拍学习了128种面部特征,同时将志愿者的人格特征分为责任感、神经质、外向性、亲和性、开放性5类。 结果表明,ai在基于静止面部图像预测性格方面的准确率达58%,其中对责任感的准确率高于其他4个体格特征。 ai识别性格,这样模糊的操作会让人联想到以前在网络上很流行的ai面相,但事实表明利用ai面相是假的,坑钱是真的。

那么这次《自然》杂志发表的研究成果和ai面相有那些不同呢? 我们真的能从脸部特征中窥见人心吗?

通过映射函数来明确脸和性格的关系

ai相面不可信,多是数据吻合的牵强附会的结果。 中国科学院自动化研究所研究员孙哲南接受科技日报记者采访时说。

此前有报道称,ai相面吸金夹克及其分工确定的商业链条。 北京理工大学教授翁冬也在接受媒体采访时表示,人脸识别是身份识别的主流方向,但为了观看没有科学依据,娱乐性质越来越多。 这样的程序开发门槛不高,在网购平台上只要花几百~几千元就可以开发外包服务。

孙哲南先生说,与ai相面不同,在论文中的研究中采集了大量样本,利用计算机深度神经网络模型学习了脸部特征与性格的相关映射函数。 论文称,研究的首批样本参与者达到25202人,照片总数达77346张,经过数据筛选过程,最终保存的数据集包括12447份比较有效的问卷和31367张照片。 这些参加者的年龄在18至60岁之间,其中女性占59.4%,男性占40.6%。 在此基础上,研究小组利用神经网络判断脸部的128种特征,如嘴宽、唇、眼高,确保了实验覆盖的数据量水平和多样性。 获得数据后,研究人员将数据分成两组,一组用于训练ai,另一组用于测试神经互联网的正确性。 实验中的2种数据,用于训练的数据集占90%,用于验证的数据集占10%。

“AI不仅能认脸,还能“读心””

在ai系统的设计中,开发了一种区分不同脸部并记忆脸部图像特征的计算机视觉神经互联网( nncv )。 此外,研究小组还培训了人格诊断神经互联网( nnpd ),nnpd从nncv析出的新闻中预测输出5种人格特征,全程分别比较男性和女性的面部识别。

进行情感计算首先要建立与心理活动的关联

从以上的研究可以看出,现在脸部识别有从读脸到读心的迅速发展趋势,所以从照片和视频等中识别脸部表情,脸部识别技术需要它们的迅速发展吗?

孙哲南认为,人工智能的读心功现在通过情感计算来实现。

1997年,mit媒体实验室提出了情感计算的概念,目的是通过赋予计算机识别、理解和表达人的情感的能力,使计算机具有更高的智能。 在情感计算的研究中,情感识别是最基础最重要的拷贝之一。 情感识别从脸部表情、声音、拷贝、生理信号等模态数据中识别人类的各种情感是很重要的。

目前,情感计算已经有了一些研究成果和进展,但技术还不成熟。 通过表情来分解心理活动是感情识别中不可缺少的方法,但是表情识别比脸部识别更难。 因为心理活动的表现因人而异,并不容易统一建模全世界所有人的喜怒哀乐和面部数据之间的量化关系。 首先,给脸部画像赋予感情类别和强度是不容易的事件,在一千名观众眼中有一千名哈姆雷特。 另外,情绪判断有主观性和地域文化风俗习性等因素。 孙哲南表示,从身份识别到表情识别,人脸识别技术需要更先进的计算模型来建立人脸图像、视频和心理活动的关系。 但是,现在机器人有智商非情商,达成高度和谐的人类共存依然很重要。

此外,孙哲南还强调,一旦脸部自动评价性格的技术达到成熟阶段,该技术将应用于公司招聘、职业规划、人机交互、广告营销等行业。 但是,这种基于面相的性格识别,会带着成见判断人物的性格,带来性格歧视和偏见等伦理问题。 (记者马爱平)

标题:“AI不仅能认脸,还能“读心””

地址:http://www.e6x2f.com/xwzx/4198.html