特大号 04月09日 17:54
用API调用DeepSeek,到底安全不安全?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了通过API调用DeepSeek等大模型服务时可能面临的安全风险,强调了数据传输、服务商隐私政策、安全能力以及本地RAG知识库等方面存在的隐患。文章建议用户关注数据加密、服务商信誉、隐私政策,并提供了本地化部署、专属模型部署和数据脱敏等解决方案,以降低数据泄露风险。

🛡️ 数据传输风险:在使用API或网页版等方式调用大模型服务时,数据在传输过程中存在被拦截或窃听的风险,尤其是在非HTTPS加密的情况下。选择正规服务商、确保数据加密传输至关重要。

📜 服务商隐私政策与存储策略:服务商可能会保存用户提交的数据用于日志、合规审计或服务优化。用户应仔细阅读服务协议和隐私政策,了解数据是否会被存储、存储方式和时长,以及是否会被用于模型训练。

🚨 服务商安全能力:即使服务商承诺不使用用户数据,其自身安全能力不足(如服务器被攻击)也可能导致数据泄露。选择具备良好声誉、技术实力和安全认证的服务商,可以降低这种风险。

📚 本地RAG知识库的数据泄露:在使用RAG技术时,虽然完整的知识库不会被上传,但与用户问题相关的知识片段会被上传和存储。因此,知识库中应避免存储敏感信息,以防止数据泄露。

原创 小黑羊 2025-03-17 11:04 北京

最近,总有吃瓜群众问:通过API的方式,来调用市面上各种DeepSeek服务,到底安全不安全,会不会造成隐私或者数据泄露?

先说结论:不安全!

无论是通过API还是通过网页版,或者各种APP客户端,都存在一定的安全风险。




具体存在哪些风险呢?


首先明确一点,当通过API或者WEB/APP使用大模型服务的时候,你的Prompt信息(输入的文本、问题、指令,提交的图片或者文档等等),都会被传送到公网和云端服务器。

那么以下环节,就可能存在风险↓

1、数据传输风险

当你通过网络将数据发送到云端API时(网页版也一样),如果这个链接不是HTTPS加密的,那么,你就要小心了,数据可能会被拦截或窃听。

当然,绝大多数正规服务提供商都会默认使用加密传输,但是,也不排除某些草台班子搞出“超纲”的操作。(尤其要注意某些山寨的或者廉价的服务商)

2、 服务提供商的隐私政策与存储策略

用户提交到服务器端的数据,在大模型完成推理任务后,这些数据默认会被“短暂保存,主要用于日志、合规审计、服务优化等目的(这是作为服务商必须的,也是合理正当的)。

但不排除数据会被长期保存,并被用于训练,这需要看不同服务商的隐私政策。

所以,大家在使用注册使用服务的时候,一定要仔细看用户协议和隐私政策,确认数据是否会被存储、如何存储、存储多久,以及数据是否会被使用。

比如DeepSeek官方API的用户协议,是这样写的↓

这是另外一家第三方API提供商的协议,明确说明不会访问和使用。

当然因为这是一家纯纯的第三方,并没有自家的模型,所以不拿数据去训练也是理所应答的。↓


我们再看ChatGPT的协议,就很霸道了。

明确说了会将数据用于训练,不过他们也给了一个可选的通道,允许用户禁止自己的数据用于训练。

当然,对于商业用户,OpenAI默认不会把他们的数据拿去训练。

不管协议怎么约定,数据在别人手里,总还是让人觉得不妥帖的。

与本地部署的模型相比,云端API意味着你无法完全控制数据的处理环境,你必须依赖服务提供商的承诺和能力来保护数据。

3. 大模型服务商自身的安全能力

即使API服务商“一心向善”,恪守不碰数据的原则。

但如果他们安全能力不足(比如服务器被黑客攻击),你的数据仍然会面临泄露风险。

选择有良好声誉、技术实力雄厚、具备强大安全认证(如ISO 27001)的提供商可以降低这种风险。

4. 本地RAG知识库的数据泄露  

还有一种典型的应用场景,那就是在调用API的同时,本地部署了知识库做RAG。

有小伙伴问:本地的知识库会被传输到云端吗?

我们先来看一下完整的数据交互流程,由于增加了RAG,整个流程多了两步。

通过这个流程可见,本地知识库在使用过程中,并不会被完整上传到云端。

但是与用户问题最相关知识片段,会被上传、存储。

所以,使用RAG,不仅当前提交的内容有泄露风险,本地知识库也会泄露,知识库中要避免存储敏感信息(隐私数据、商业机密)。



总的来说,调用云端大模型API服务确实有一定的数据泄露风险,如果有严苛的合规要求和数据安全需求,建议选择以下方案↓

1、完全本地化部署:一体机、本地化集群、专属云等,牺牲灵活性和成本来换安全。

2、云上专属模型部署:选择可靠的、有数据安全背书的AI Infra服务商,部署专属模型。

3、如必须调用API,则增加数据脱敏措施,避免提交敏感数据,或者在知识库中存放敏感数据。

当然,本地化部署并不一定就比云上安全,这取决于本地的安全防护能力、运维水平和安全意识。

就好比,把钱放在家里未必比放在银行保险柜安全


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

API调用 数据安全 隐私保护 大模型
相关文章