36氪 - 科技频道 07月04日 16:15
苹果给FaceTime加入了裸露检测,这是苹果在隐私和道德之间的选择
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

苹果公司在iOS 16开发者预览版中推出了FaceTime的裸露检测功能,旨在保护青少年免受不当内容侵害。然而,该功能扩大至所有年龄段用户,引发了关于隐私侵犯的争议。文章探讨了苹果在保护用户隐私和履行社会责任之间的困境,以及这种“自动干预”的界限问题。文章指出,苹果需要在公共道德和个人隐私之间做出艰难权衡,这可能在未来很长时间内困扰着苹果。

🛡️ 苹果在iOS 16开发者预览版中引入了FaceTime裸露检测功能,旨在识别视频通话中的不当裸露内容,并对青少年用户提供保护。

⚠️ 该功能最初设计仅针对儿童账户,但在开发者版本中扩大到所有年龄段用户,引发了用户对隐私侵犯的担忧。

🤔 争议的核心在于,人们担心这种功能可能被滥用,过度干预个人生活,甚至可能误判正常行为。

⚖️ 苹果在隐私保护方面一直备受重视,但此前也因CSAM扫描计划等问题引发争议,面临“道德”与“隐私”的冲突。

🤔 文章最终探讨了苹果在保护青少年免受不当内容侵害的社会责任,以及“自动干预”的边界问题,强调了在公共道德和个人隐私之间做出权衡的重要性。

你肯定也看过苹果和岳云鹏合作的广告,其中最核心的主张就是: 

力保隐私安全,这很 iPhone。 

苹果是这么说的,确实也是这么做的。只是,当「隐私」和「道德」 被放在天平的两端时,即便是苹果,也会面临进退维谷的难题。 

苹果和岳云鹏合作广告海报. 图片来自:Apple 

据 9to5mac 报道,苹果在 iOS 26 的开发者预览版中,推出了 FaceTime 的裸露检测功能,意在检测视频通话中的不当裸露内容。 

据悉,苹果将通过设备端侧的 AI 算法来实时识别通话中的裸露内容,当系统识别出可能的裸露画面时,它会立即暂停视频通话并显示警告。 

苹果表示,该功能的设计初衷,是为了在儿童账户上应用,给青少年提供一个更加安全的数字社交环境。 

FaceTime 冻结界面. 图片来自:9to5Mac 

该功能源自于苹果在几年前推行的 CSAM(儿童性虐待材料)扫描计划。但不知道出于什么考虑,这项功能在 iOS 26 开发者版本中被扩大到覆盖所有年龄的用户。也就是说,成人用户也被「保护」起来了。 

尽管苹果强调所有识别工作都在设备本地处理,数据不会上传至云端,但年龄覆盖扩大的情况还是在社交媒体上引发广泛争议。一位名为 krazygreekguy 的用户在 9to5mac 上评论道: 

我理解背后的想法,但他们无权对成年人实施这种控制。没有任何组织有权侵犯人们的隐私。 

苹果宣传图. 图片来自:Apple 

换言之,人们担心这种年龄覆盖的扩大是一种苹果独有权力的扩张,以至于到了过度干预私人生活的境地,甚至可能扩大到和色情意图完全无关的场景。 

试想一下,你正在和家里的小孩视频通话,只是因为光着膀子或者调整衣物,就可能会被系统误判为不当裸露,而导致视频被拦截: 

难道我的 iPhone 认为我是个变态? 

FaceTime. 图片来自:Apple 

事实上,FaceTime 已经问世 14 年,作为苹果生态的「元老级」功能,这也不是它首次引起争议。2019 年,FaceTime 就曾因为技术漏洞,让用户在未接通的情况下听到对方通话的声音。虽然苹果迅速修复了漏洞,这也让很多人对苹果的隐私宣传话术之下的真实保护能力,产生了疑虑。 

苹果宣传图. 图片来自:Apple 

作为公司的核心价值观,苹果对用户隐私保护方面一直很重视。 

长期关注苹果的人,可能会对 2015 年苹果硬刚 FBI 的事件记忆犹新——当年,在加州圣贝纳迪诺枪击案后,FBI 为了获取恐怖活动信息,要求解锁涉案凶手使用的 iPhone,但遭到苹果拒绝。当时,苹果 CEO 蒂姆·库克表示:后门一旦开了,就关不上了,将会危及所有用户的安全与隐私。 

FaceTime 界面. 图片来自:Apple 

但即便如此,苹果也曾因隐私问题引发不小一些争议。比如前面提到的 CSAM 扫描计划,在推出时同样备受批评。 

从 2021 年的 iOS 15 开始,苹果通过本地设备上的 NeuralHash 技术,将用户上传到 iCloud 的照片与美国权威机构维护的 CSAM 数据库进行哈希值比对,当超过预设阈值的情况发生,苹果就会解密相关数据并进行人工审核,确认后将禁用账户,并向美国国家失踪和受虐儿童中心(NCMEC)举报。 

苹果声称这一功能的用意是发现和揪出儿童性犯罪者,在技术上最大限度保护用户隐私,避免误判和滥用。 

但各路隐私保护组织和安全专家质疑苹果是否会背离其一贯的隐私保护承诺,毕竟 CSAM 扫描究其根本还是识别了用户上传的隐私信息。面对压力,苹果宣布推迟该功能的发布,转而推出其他儿童保护措施,如信息通信安全和 Siri 搜索干预功能。 

对于苹果来说,「道德」与「隐私」也会出现不可兼得的情况。 

回到刚开始说的 FaceTime 裸露检测:从苹果的初衷来看,这是一个为了更好保护青少年而推出的安全特性,它有助于防止青少年在视频通话中接触到不适当的裸露内容——类似的手机视频通话性骚扰和欺诈案例,全球范围内不胜枚举。坐拥十几亿用户,苹果确实也该承担这样的社会责任。 

但另一方面,这种 「自动干预」 的边界在哪里,仍然是一个重要的问题。 

当公共道德和个人隐私被摆在天平的两端时,如何权衡利弊,并做出「正确」的决策。这或许会在未来很长一段时间里,都困扰着苹果。 

本文来自微信公众号 “爱范儿”(ID:ifanr),作者:周芊彤、肖钦鹏 ,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

苹果 FaceTime 隐私保护 裸露检测 iOS 16
相关文章