36kr-科技 2024年07月24日
无表情人脸预测政治信仰,AI准确率惊人,斯坦福研究登国际顶刊
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项来自斯坦福大学的研究表明,人工智能可以从毫无表情的面部中识别出一个人的政治倾向,准确率惊人。研究人员通过控制拍摄环境和条件,收集了参与者的标准化面部图像,并使用面部识别算法分析这些图像,结果发现算法能够以0.22的相关系数预测政治倾向,这种关联独立于年龄、性别和种族等其他人口统计因素。研究人员还发现,人类评分者也能从这些图像中预测政治倾向,相关系数为0.21,与算法的性能相当。该研究表明,稳定的面部特征可能与政治倾向有关,这引发了人们对隐私问题的担忧。

🤔 研究人员招募了591名参与者,并仔细控制了拍摄每个参与者面部照片的环境和条件,以确保所有图像的一致性。参与者穿着黑色T恤、去除妆容、头发整齐,在光线充足的房间里对着中性背景拍摄面部照片。

🤖 研究人员使用面部识别算法处理这些照片,具体使用的是ResNet-50-256D架构中的VGGFace2。该算法从图像中提取了数值向量——称为面部描述符,这些描述符以计算机可以分析的形式编码面部特征,并被用于通过一个将这些描述符映射到政治倾向量表上的模型来预测参与者的政治倾向。

📈 结果发现,面部识别算法可以以0.22的相关系数预测政治倾向。这种相关性虽然不高,但具有统计学意义,表明某些稳定的面部特征可能与政治倾向有关。这种关联独立于年龄、性别和种族等其他人口统计因素。

👨‍⚖️ 研究人员还进行了一项实验,让1026名人类评分者评估照片中个人的政治倾向。结果发现,人类评分者能够预测政治倾向,相关系数为0.21,与算法的性能相当。

⚠️ 该研究表明,面部识别技术可以识别出与政治倾向相关的稳定面部特征,这引发了人们对隐私问题的担忧。特别是在没有获得个人同意的情况下,进行面部识别,可能会被用于监控和操控个人行为。

📊 此外,研究人员还对来自三个国家(美国、英国和加拿大)立法机构上下两院的3,401张政治家的个人资料图像进行了分析,结果表明,面部识别模型确实能够从政治家的图像中预测政治倾向,中位数准确度的相关系数为0.13。

🤔 研究结果表明,AI能够从毫无表情的面部中识别出一个人的政治倾向,这引发了人们对隐私和伦理问题的关注。在未来,我们需要更加谨慎地使用面部识别技术,并制定相关的法律法规,以保护个人隐私和安全。

🤔 该研究还表明,面部特征可能与政治倾向之间存在某种联系,这为我们理解人类行为提供了新的视角。但同时也需要提醒我们,不能将面部特征作为判断个人政治倾向的唯一依据,因为政治倾向是一个复杂的社会现象,受到多种因素的影响。

🤔 此外,该研究还揭示了AI技术的强大能力,以及其在社会中的应用潜力。但同时也需要我们警惕AI技术的滥用,并制定相应的规范和监管措施,确保AI技术能够为人类社会带来福祉。

🤔 值得注意的是,该研究的研究结果还引发了人们对AI技术的伦理问题的思考。例如,如果AI能够识别出个人的政治倾向,那么这是否会对个人的社会地位、就业机会等方面产生负面影响?我们如何确保AI技术不会被用于歧视和操控?这些问题都需要我们认真思考和探讨。

AI面部识别,已经完全融于所有人的日常生活中。不过,来自斯坦福的一项研究中发现,AI竟可以从毫无表情的面部中,识别出一个人的政治倾向,而且准确率惊人。

现在,科学家们已经证明,AI能够以惊人的准确度从面部,预测一个人的政治取向。

不仅如此,即便是一个毫不「露怯」的面孔,也能精准识别。

这么说来,人类以后所有的小心思,得收敛收敛了,如果写在脸上瞬间被AI看透。

这项来自斯坦福团队的研究,已刊登在《美国心理学家》期刊上。

论文地址:https://awspntest.apa.org/fulltext/2024-65164-001.pdf

正如你所想的那样,这一发现愈加引发了严重的隐私问题,特别是在没有获得个人同意的情况下,进行面部识别。

论文作者Michal Kosinski对此表示,在铁幕(iron curtain)后成长的经历让我深刻意识到监视的风险,以及精英们出于经济或意识形态原因,选择忽视不方便的事实。

无表情面孔,AI也能看懂

提及面部识别,每个人或许再熟悉不过了。

AI通过分析基于面部特征的模式来识别和验证个人。

背后技术的核心是,算法在图像/视频中检测人脸,然后测量人脸的各个方面——比如眼睛之间的距离、颌线的形状、颧骨的轮廓。

这些测量值被转换成数学公式,或面部特征签名(facial signature)。

签名可以与已知面孔的数据库进行比对,进而找到匹配的人。

或用于各种应用,包括安全系统、手机解锁、在社交媒体平台上给朋友照片打标签等。

在斯坦福的研究中,作者专注于审查新技术,并揭露其隐私风险。

过去的研究中,他们曾展示了Meta(Facebook)出售或交换数据,如何暴露了用户的政治观点、性取向、性格特征和其他私密特征。

以及,被广泛使用的面部识别技术,可以从社交媒体的个人资料图片中,检测政治观点和性取向。

不过,作者指出以往的研究中,还没有控制可能影响其结论准确性的变量。

比如面部表情、头部方向、是否化妆或佩戴首饰。

因此,在新研究中,作者们旨在单独分析面部特征在预测政治倾向方面的影响,从而更清晰地展示面部识别技术的能力和风险。

人类与AI预测系数,不相上下

为了实现这一目标,他们从一所主要的私立大学招募了591名参与者,并仔细控制了拍摄每个参与者面部照片的环境和条件。

参与者统一穿着黑色T恤,使用面部湿巾去除任何妆容,并将头发整齐地扎起来。

他们以固定姿势就座,在光线充足的房间里对着中性背景拍摄面部照片,以确保所有图像的一致性。

拍摄完照片后,研究人员使用面部识别算法对其进行处理,具体使用的是ResNet-50-256D架构中的VGGFace2。

这个算法从图像中提取了数值向量——称为面部描述符。

这些描述符以计算机可以分析的形式编码面部特征,并被用于通过一个将这些描述符映射到政治倾向量表上的模型来预测参与者的政治倾向。

结果发现,面部识别算法可以以0.22的相关系数预测政治倾向。

这种相关性虽然不高,但具有统计学意义,表明某些稳定的面部特征可能与政治倾向有关。这种关联独立于年龄、性别和种族等其他人口统计因素。

接下来,Kosinski和同事们进行了第二项研究。

他们用1026名人类评分者取代了算法,以评估人们是否也能从中性的面部图像中预测政治倾向。

研究者向他们展示了第一项研究中收集的标准化面部图像。每个评分者都被要求评估照片中个人的政治倾向。

评分者完成了5000多项评估,并对结果进行了分析,以确定他们对政治取向的感知评分与参与者报告的实际取向之间的相关性。

与该算法一样,人类评分者能够预测政治倾向,相关系数为0.21,与算法的性能相当。

Kosinski表示,「令我惊讶的是,算法和人类都能从精心标准化的没有表情的面孔图像中预测政治取向。这表明稳定的面部特征和政治取向之间存在联系」。

在第三项研究中,研究人员让模型去识别政客的图像,将面部识别的预测能力的检验扩展到不同的情境。

样本包括来自三个国家(美国、英国和加拿大)立法机构上下两院的3,401张政治家的个人资料图像。

结果表明,面部识别模型确实能够从政治家的图像中预测政治倾向,中位数准确度的相关系数为0.13。

这种准确度虽然不高,但仍然具有统计学意义,表明在受控实验室图像中。预测政治倾向的一些稳定面部特征也可以在更多样化的真实生活图像中被识别出来。

多领域研究

其实,早在2021年的一项Nature研究中,曾指出面部识别技术可以在72%的时间内,正确预测一个人的政治取向。

论文地址:https://www.nature.com/articles/s41598-020-79310-1

实验发现,AI技术优于偶然性(50%)、人类判断(55%)或个性问卷(66%)。

另一篇2023年研究中,同样采用深度学习算法从面部识别预测一个人政治倾向,预测准确率高达61%。

不过,在网友看来,每一个声称能够从面部表情读取人们情绪或其他特征(如政治倾向)的AI系统都是一场骗局。

这里没有任何科学依据,因此也就不存在可以用来训练AI预测这些特质「优质数据」。

此前,WSJ的一篇报道中,也对这样的AI发起了质疑——用刻板的面部表情来训练算法必然会产生误导。

对此,你是怎么看的呢?

参考资料

https://www.reddit.com/r/singularity/comments/1dycnzq/ai_can_predict_political_beliefs_from/

本文来自微信公众号“新智元”,作者:桃子,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI面部识别 政治倾向 隐私问题 伦理问题 斯坦福大学
相关文章