IT之家 2024年08月27日
Anthropic 公开 Claude AI 模型的系统提示词
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Anthropic公司公开了Claude AI模型的系统提示词,介绍了系统提示词的作用及业内常规做法,Anthropic致力于成为更道德、透明的人工智能供应商,已在相关应用程序及网络上公布其最新模型的系统提示,并计划定期公布此类信息。

🎯系统提示词能让AI模型更好地理解人类指令,包含用户提示词和系统提示词两层核心内容。用户提示词由用户输入,AI模型据此生成答案;系统提示词由系统生成,用于设定对话背景、提供指导或规定规则。

💡业内常规做法是利用系统提示词防止模型出现不良行为,并引导模型回复的总体语气和情绪,但厂商通常会因竞争等原因对其保密。

🌟Anthropic将自己塑造为更道德、透明的人工智能供应商,已在Claude iOS和Android应用程序及网络上公布其最新模型的系统提示词,并计划在更新和微调过程中定期公布。

IT之家 8 月 27 日消息,科技媒体 Techcrunch 昨日(8 月 26 日)报道,Anthropic 公司公开了 Claude AI 模型的“系统提示词”(system prompts)。

系统提示词(System prompt)

为了让 AI 模型更好地理解人类指令,提示词(Prompt)工程实际上包含 2 层核心内容,用户提示词(User prompt)和系统提示词(System prompt):

IT之家注:通常情况下,系统提示词会让模型了解自己的基本素质,以及应该做什么、不应该做什么。

业内常规做法

从 OpenAI 到 Anthropic,每一家生成式人工智能厂商都会使用系统提示来防止(或至少试图防止)模型出现不良行为,并引导模型回复的总体语气和情绪。

例如,系统提示词可能会告诉模型,它应该礼貌但绝不能道歉,或者坦诚地承认它不可能知道所有事情。

但厂商可能是出于竞争等方面原因,以及避免不良用户在了解这些信息后绕过安全防护,通常保密这些系统提示词。

Anthropic 选择公开系统提示词

不过,Anthropic 一直在努力将自己描绘成一家更道德、更透明的人工智能供应商,它已在 Claude iOS 和 Android 应用程序以及网络上公布了其最新模型(Claude 3.5 Opus、Sonnet 和 Haiku)的系统提示。

Anthropic 开发者关系负责人亚历克斯・艾伯特(Alex Albert)在 X 上发表的一篇文章中说,Anthropic 计划在更新和微调系统提示的过程中,定期公布此类信息。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Anthropic Claude AI 系统提示词 人工智能透明度
相关文章