Cnbeta 02月19日
Perplexity发布开源DeepSeek R1 1776推理模型的无中国审查版本
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Perplexity针对DeepSeek R1模型审查与中国相关话题的问题,推出了开源版本R1 1776。该版本经过后期训练,旨在提供公正、准确和真实的信息。Perplexity通过聘请专家确定审查主题,开发多语言审查分类器,并挖掘用户提示,最终构建了一个包含4万多条多语言提示的数据集用于训练。R1 1776模型已在HuggingFace上线,并通过Perplexity的Sonar API提供访问。虽然R1 1776与原版R1在基准测试中存在细微差异,但整体性能基本保持一致。

🛡️ DeepSeek R1模型因审查与中国相关话题而受到批评,影响了其在某些用例中的实用性。

💡 Perplexity推出了开源R1 1776版本,旨在解决审查问题,提供公正、准确和真实的信息。该模型已在HuggingFace上线。

👨‍💻 Perplexity通过聘请人类专家确定约300个被中国政府审查的主题,并开发了多语言审查分类器。

📚 Perplexity构建了一个包含4万多条多语言提示的数据集,用于R1 1776的后期训练,确保只包含用户明确允许训练的查询,并过滤掉包含个人身份信息(PII)的查询。

上个月,DeepSeek 的推理模型 R1 在人工智能领域引起了轩然大波,然而,它却因主动审查与中国有关的话题而受到批评。 虽然这对于海外用户而言似乎是一个相当小众的话题,但审查可能会影响其他与中国有关的查询,这使得它对各类用例的帮助大打折扣。

为了解决这个问题,Perplexity 开发了一个新的开源 R1 版本,称为 R1 1776,该版本已经过"后期训练,以提供公正、准确和真实的信息"。 该模型现在可以在 HuggingFace 存储库 https://huggingface.co/perplexity-ai/r1-1776中找到,也可以通过 Perplexity 的 Sonar API https://sonar.perplexity.ai/访问。

Perplexity 的后期培训主要侧重于解决与中国有关的审查问题。 它在下文中概述了所采取的方法:

我们聘请人类专家确定了约 300 个已知被中国政府审查的主题。利用这些话题,我们开发了一个多语言审查分类器。

然后,我们挖掘出了一系列不同的用户提示,这些提示能以较高的置信度触发分类器。 我们确保只包含用户明确允许训练的查询,并过滤掉包含个人身份信息(PII)的查询。

通过这一程序,我们编制了一个包含 40k 多语言提示的数据集。有趣的是,R1 1776 和 R1 在基准测试中似乎有些差异,但不是太大。 您可以从下图中看到差异:

如果您想获得 R1 1776,可以从 HuggingFace 下载。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Perplexity R1 1776 开源模型 信息审查 HuggingFace
相关文章