苹果最新系统中发现的AI助手隐藏指令揭示了苹果对AI安全的重视,这些指令限制了AI助手的工作范围和行为方式,以确保其不会产生错误或有害的信息。这些指令涵盖了文本生成、邮件助手、照片生成等功能,并明确指示AI避免产生幻觉、捏造事实、涉猎敏感话题等。虽然用户无法修改这些指令,但它们为我们提供了了解苹果AI内部运作机制的机会,也反映了苹果在AI安全性和伦理方面的考量。
🍎 **严格限制AI行为范围**:苹果AI助手被预先设定了指令,这些指令就像是一本“使用说明书”,严格规定着AI助手的工作范围和行为方式,以确保AI能够按照预期的方式工作,避免产生错误或有害的信息。这些指令涵盖了文本生成、邮件助手、照片生成等功能,并明确指示AI避免产生幻觉、捏造事实、涉猎敏感话题等。
例如,在文本生成指令中,AI被指示“不要产生幻觉”或“捏造事实信息”,并限制答案字数。在照片生成指令中,AI被指示避免创建宗教、政治、有害、暴力、色情、肮脏或任何消极、悲伤或挑衅的故事。
这些指令体现了苹果对AI安全性和伦理的重视,旨在防止AI助手生成不准确、有害或冒犯性的内容。
🤖 **以安全为先,避免风险**:苹果AI助手被设计为“谨慎”的助手,它被禁止进行一些可能造成风险或负面影响的行为。例如,AI被禁止回答任何问题,并被指示避免“负面”主题。
这些限制旨在确保AI助手不会被用于传播虚假信息、进行恶意攻击或引发伦理问题。苹果希望通过这些限制,将AI助手打造成一个安全可靠的工具,为用户提供帮助和服务,而不是造成伤害或风险。
🔎 **透过指令,窥探AI内部运作**:这些隐藏指令为我们提供了了解苹果AI内部运作机制的机会。我们可以从这些指令中了解到,苹果是如何训练和控制AI助手的,以及他们对AI安全性和伦理的考量。
这些指令也反映了当前AI技术发展面临的挑战,即如何平衡AI的潜力和风险。苹果通过设置这些指令,试图在AI安全性和用户体验之间找到平衡点。
📝 **未来展望:AI安全与伦理的持续探索**:苹果对AI助手的谨慎态度,反映了人工智能发展中安全和伦理问题的重要性。随着AI技术的不断进步,人们对AI的应用也越来越广泛,如何确保AI安全、可靠、负责任地发展,将成为未来需要持续探索和解决的重要议题。
苹果对AI助手的谨慎管理,为其他AI开发企业提供了借鉴,也提醒我们,在追求AI技术进步的同时,更要重视AI的安全性和伦理问题,以确保AI技术能够造福人类,而不是带来风险和伤害。
苹果的AI助手,到底有多智能?
近日,有用户在苹果最新的系统中发现了AI功能背后的隐藏指令:这些指令就像是一本“使用说明书”,严格规定着AI助手的工作范围和行为方式。
后台显示,苹果AI助手的指令被预先设定,以确保AI能够按照预期的方式工作,避免产生错误或有害的信息。其中一些指令提示词写着“不要产生幻觉”并避免“负面”主题。
AI文本功能:不要“产生幻觉”或“捏造事实信息”
macOS 15.1 beta的一位subreddit成员发帖称,他们发现了包含这些后端提示的文件。此前,类似的提示在Microsoft Bing和DALL-E等AI工具中也有所发现。
这些说明在默认情况下以提示的形式显示在用户与聊天机器人的任何对话之前。虽然用户无法修改这些文件,但它们提供了一个早期了解苹果AI内部运作的机会。

比如,在这一段指令中,一个“有用的邮件助手”AI机器人被指示如何根据电子邮件内容提出一系列问题。这可能是苹果智能回复功能的一部分,可以为用户建议如何回复。

这一段为苹果的“重写”功能,用户可以通过突出显示文本并右键单击(或在iOS中长按)来访问。它的指令包括“请将答案限制在50字以内。同时避免“产生幻觉”或“捏造事实信息”。
还有一些指令总结了电子邮件内容,甚至明确指示AI“不要回答任何问题”。

在照片生成的提示中,AI被指示如何根据照片构建故事,并强调不要创建宗教、政治、有害、暴力、色情、肮脏或任何消极、悲伤或挑衅的故事。可能正因为如此,当用户请求生成“悲伤图像”时,功能被拒绝:

如何找到该模型?
找到这些说明的用户还发布了如何在macOS Sequoia 15.1开发者测试版中找到这些文件的详细步骤:

这些文件包含在macOS最敏感部分的文件夹中,因此,在操作时应该谨慎行事。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。