科大讯飞宣布开放讯飞星火 API 的长上下文版本 Spark Pro-128K 大模型,该模型具备更强大的文本理解和生成能力,可以一次性理解和生成更多信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务。Spark Pro-128K 能够克服传统模型的上下文承载能力限制,解决长对话中信息遗忘的问题,并通过内容溯源功能提升回答的可信度。
🚀 **长上下文能力突破:** Spark Pro-128K 突破传统模型的上下文承载能力限制,可以一次性理解和生成更多信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务。
- 传统的文本处理模型通常被认为是短期记忆,一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。
- 长文本模型可以克服这一限制,具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,从而提升模型解决问题的边界。
🔍 **内容溯源提升可信度:** 针对长文档知识问答的幻觉问题,Spark Pro-128K 首发内容溯源功能,用户可以查看模型回答的来源,确保答案的可信度。
- 当用户向星火提问时,它回答完后会告诉你为什么这么回答,是参考了哪一段内容,这样用户可以更放心地使用该模型。
- 内容溯源功能对于用户理解模型的推理过程和提高答案的可信度至关重要。
💰 **价格亲民,免费试用:** Spark Pro-128K 面向开发者开放 API 调用,价格为 0.21~0.30 元 / 万 tokens,个人用户可免费领取 200 万 tokens 的服务量。
- 讯飞星火 API 的开放,为开发者提供了更加灵活和便捷的应用场景,可以将长上下文能力集成到各种应用中。
- 免费试用政策,降低了开发者使用 Spark Pro-128K 的门槛,有利于促进其在不同领域的应用和推广。
IT之家 7 月 18 日消息,科大讯飞今日宣布,讯飞星火 API 正式开放长上下文版本 —— Spark Pro-128K 大模型,价格最低 0.21 元 / 万 tokens。
据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。
区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务,能提升模型解决问题的边界。
6 月 27 日,讯飞星火 V4.0 发布,长文本能力全新升级,并针对长文档知识问答的幻觉问题,业界首发内容溯源功能。当用户向星火提问,它回答完,会告诉你为什么这么回答,是参考了哪一段内容,这样当用户没有时间看全文的时候又担心回答可信度时,只要去核实它的溯源就行了。

现在,支持最长上下文的星火大模型 Spark Pro -128k 面向开发者开放 API 调用,价格为 0.21~ 0.30 元 / 万 tokens,个人用户可免费领取 200 万 tokens 的服务量。IT之家附价格表如下:

