苹果公司更新了其网站自述,详细说明了如何使用 Apple Maps 的 Look Around 功能收集的图像。从 2025 年 3 月起,这些图像和数据将被用于训练支持苹果产品和服务的模型,特别是与图像识别、创建和增强相关的模型。苹果通过配备摄像头、传感器等的车辆和背包收集图像和 3D 数据,以改进 Apple Maps。作为隐私承诺的一部分,苹果会对捕获的图像中的面部和车牌进行模糊处理,并仅将这些模糊处理后的图像用于模型训练。此外,用户可以请求模糊处理房屋。这项更新与 Apple Intelligence 的 AI 图像生成模型相关的功能有关,例如 Image Playground 和照片应用中的清理工具。
📸苹果更新了其网站自述,披露了其如何收集和使用 Apple Maps 的 Look Around 功能的图像,该功能类似于Google地图的街景。
🚗苹果将使用 Look Around 调查期间收集的图像和数据来“训练支持苹果产品和服务的模型,包括与图像识别、创建和增强相关的模型”,时间节点从2025年3月开始。
🗺️苹果使用配备摄像头、传感器和其他设备的车辆和背包收集图像和 3D 数据,以增强和改进 Apple Maps。
👤苹果会模糊处理“Look Around”功能中发布的任何捕获图像的面部和车牌,并且仅将这些细节模糊的图像用于训练模型,用户可以请求模糊处理房屋。
🖼️这项更新与 Apple Intelligence 的 AI 图像生成模型支持的功能有关,包括 Image Playground、Apple 照片应用中的清理工具以及可改善照片应用搜索功能的高级图像识别。
本月早些时候,苹果更新了其网站自述,披露了其如何收集和使用 Apple Maps 的 Look Around 功能的图像,该功能类似于Google地图的街景。
介绍中新增加的一段文字显示,从 2025 年 3 月开始,苹果将使用 Look Around 调查期间收集的图像和数据来“训练支持苹果产品和服务的模型,包括与图像识别、创建和增强相关的模型”。
苹果使用配备摄像头、传感器和其他设备(包括 iPhone 和 iPad)的车辆和背包(用于行人专用区域)收集图像和 3D 数据,以增强和改进 Apple Maps。
该公司表示,作为其隐私承诺的一部分,其在“Look Around”功能中发布的任何捕获图像都会对面部和车牌进行模糊处理。苹果还表示,它只会将这些细节模糊的图像用于训练模型。它确实接受那些希望将房屋也模糊处理的请求,但默认情况下不会这样做。

Apple Intelligence 有几个由 AI 图像生成模型支持的功能。其中包括Image Playground、Apple 照片应用中的清理工具(可删除图像的部分内容)以及可改善照片应用搜索功能的高级图像识别。