IT之家 2024年12月08日
谷歌称其 PaliGemma 2 人工智能模型可识别情绪,引发专家担忧
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌发布了新的人工智能模型系列PaliGemma 2,该模型具备图像分析能力,可以生成图像描述并回答有关照片中人物的问题。PaliGemma 2不仅能识别物体,还能生成详细且与上下文相关的图片说明,涵盖动作、情感以及整体场景的叙述。然而,PaliGemma 2的情感识别功能引发了专家的担忧,因为情感识别技术的基础存在争议,且该技术可能存在可靠性和偏见问题。尽管谷歌表示PaliGemma 2在进行“广泛测试”后,评估了其在人群偏见方面的表现,结果显示其“毒性和粗俗内容的水平低于行业基准”,但该公司并未公开测试所依据的完整基准。

🤖PaliGemma 2是谷歌最新发布的AI模型系列,具备图像分析能力,能够生成图像描述并回答关于照片中人物的问题,甚至可以识别情感。

😟情感识别技术的基础存在争议,心理学家Paul Ekman的六种基本情绪理论受到质疑,后续研究表明不同文化背景下人们表达情感存在显著差异。

😕情感识别系统的可靠性和偏见问题令人担忧,面部分析模型可能对某些表情产生偏好,且对黑人面孔的负面情绪判断可能比白人面孔更多。

🔬谷歌声称PaliGemma 2经过广泛测试,在人群偏见方面表现良好,但并未公开测试所依据的完整基准,其使用的FairFace数据集也被批评存在偏见。

⚖️欧盟的《人工智能法案》禁止学校和雇主部署情感识别系统,但允许执法机构使用,专家担忧该技术可能被用于歧视边缘化群体。

IT之家 12 月 8 日消息,谷歌表示,其新的人工智能模型系列有一个奇特的功能:能够“识别”情绪。

谷歌周四发布了其最新 AI 模型系列 PaliGemma 2,该模型具备图像分析能力,可以生成图像描述并回答有关照片中人物的问题。谷歌在其博客中介绍,PaliGemma 2 不仅能识别物体,还能生成详细且与上下文相关的图片说明,涵盖动作、情感以及整体场景的叙述。

PaliGemma 2 的情感识别功能并非开箱即用,需要进行专门的微调,但专家们仍然对此表示担忧。

多年来,许多科技公司一直在尝试开发能够识别情感的 AI,尽管一些公司声称已经取得突破,但这一技术的基础仍然存在争议。大多数情感识别系统都基于心理学家 Paul Ekman 的理论,即人类有六种基本情绪:愤怒、惊讶、厌恶、喜悦、恐惧和悲伤。然而后续的研究表明,来自不同文化背景的人们在表达情感时存在显著差异,这使得情感识别的普遍性受到质疑。

伦敦国王学院专门研究人工智能的研究员 Mike Cook 表示,情感识别在一般情况下是不可行的,因为人类的情感体验非常复杂。虽然人们可以通过观察他人来推断他们的情绪,但不能做到全面且完美地解决情绪检测问题。

情感识别系统的另一个问题是其可靠性和偏见。一些研究表明,面部分析模型可能会对某些表情(如微笑)产生偏好,而最近的研究则表明,情感分析模型对黑人面孔的负面情绪判断比白人面孔更多。

谷歌表示,PaliGemma 2 在进行“广泛测试”后,评估了其在人群偏见方面的表现,结果显示其“毒性和粗俗内容的水平低于行业基准”。但该公司并未公开测试所依据的完整基准,也没有明确表示所进行的测试类型。谷歌披露的唯一基准是 FairFace—— 一个包含数万张人像的面部数据集。谷歌声称,PaliGemma 2 在该数据集上的表现良好,但一些研究者批评 FairFace 存在偏见,认为该数据集仅代表少数几种族群。

AI Now 研究所首席 AI 科学家 Heidy Khlaaf 表示,解读情绪是一件相当主观的事情,它超越了使用视觉辅助工具的范围,深深地嵌入在个人和文化背景中。

据IT之家了解,欧盟的《人工智能法案》禁止学校和雇主部署情感识别系统,但允许执法机构使用。

Khlaaf 表示,如果这种所谓的情感识别是建立在伪科学假设的基础上的,那么这种能力可能会被用来进一步歧视边缘化群体,例如在执法、人力资源、边境治理等领域。

谷歌发言人表示,公司对 PaliGemma 2 的“表征危害”测试充满信心,并进行了广泛的伦理和安全评估。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 情感识别 PaliGemma 2 谷歌 AI伦理
相关文章