Cnbeta 03月10日
苹果AirPods要长“眼睛”了 通过人工智能技术感知周围环境
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

据最新爆料,苹果正在开发一款整合相机镜头的AirPods耳机,无需实体眼镜形态,通过AI感知环境并提供信息。此功能或与iPhone 16的“视觉智慧”类似,可拍摄植物、动物并识别信息,或同步传单活动至日历。结合ChatGPT等服务,还可实现语言翻译或内容解释。分析师郭明錤认为其可与Vision Pro头显搭配,增强音源效果,营造逼真VR体验。新一代AirPods Pro 3将聚焦健康、降噪和音质,而相机镜头版预计2027年推出。

📸AirPods整合相机镜头:苹果正在研发一款创新AirPods耳机,将相机镜头融入其中,摆脱了传统实体眼镜的束缚,利用AI技术感知周围环境,为用户提供智能化的信息服务。

🧠“视觉智慧”功能:该AirPods的功能可能与iPhone 16推出的“视觉智慧”类似,例如,用户可以通过AirPods的镜头拍摄植物或动物,AI能够即时提供学名和相关信息,极大地拓展了AirPods的应用场景。

🎧与Vision Pro协同:知名分析师郭明錤指出,这款带有镜头的AirPods有望与苹果的Vision Pro头显协同工作。在观看视频时,用户只需转动头部,AirPods就能增强特定方向的音源效果,从而营造更加沉浸式的虚拟现实体验。

📅信息快速同步:AirPods还能便捷地将传单上的活动信息快速同步到用户的日历中,无需手动输入,大大提高了信息录入的效率。

🗣️语言翻译与内容解释:AirPods可以与ChatGPT或Google等服务相结合,为用户提供实时的语言翻译或内容解释,打破语言障碍,让用户能够更轻松地获取和理解各种信息。

据最新爆料,苹果正在开发一款整合相机镜头的AirPods耳机,这种设计理念与苹果的智慧眼镜项目类似,但没有实体眼镜的形态。这款新型号将通过人工智能技术感知周围环境,并向用户提供相关信息。

9to5mac认为,整合相机镜头的AirPods功能可能与iPhone 16推出的“视觉智慧”类似。

例如,用户可以通过AirPods的镜头拍摄植物或动物,由AI提供学名和相关信息;或者将传单上的活动信息快速同步到日历中。

此外,AirPods还可以与ChatGPT或Google等服务结合,提供语言翻译或内容解释。

知名分析师郭明錤则指出,这款带有镜头的AirPods可能与苹果的Vision Pro头显搭配使用。

例如,用户在观看视频时,只需转动头部,AirPods就能增强特定方向的音源效果,从而营造更逼真的虚拟现实体验。

苹果将在今年发布新一代AirPods Pro 3,但这款耳机将主要聚焦于健康应用、降噪和音质升级,而搭载相机镜头的版本预计要到2027年才会正式推出。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AirPods 相机镜头 人工智能 Vision Pro 视觉智慧
相关文章