特大号 03月20日
用API调用DeepSeek,到底安全不安全?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

通过API调用市面上各种大模型服务存在安全风险,无论是API、网页版还是APP客户端。风险主要体现在数据传输、服务商的隐私政策与存储策略、服务商自身安全能力以及本地RAG知识库的数据泄露等方面。用户数据在传输过程中可能被拦截,服务商可能长期保存甚至用于训练,安全能力不足也可能导致数据泄露。使用RAG时,本地知识库的相关片段也可能被上传存储。因此,建议选择本地化部署或云上专属模型部署,或在调用API时增加数据脱敏措施。

⚠️数据传输风险:通过非HTTPS加密的网络传输数据到云端API时,数据可能被拦截或窃听,尤其需要警惕某些小型服务商。

📝服务商隐私政策与存储策略:用户提交的数据可能被服务商短暂或长期保存,甚至用于模型训练。使用服务前务必仔细阅读用户协议和隐私政策,了解数据存储方式和用途。

🛡️大模型服务商安全能力:即使服务商恪守不碰数据的原则,但若安全能力不足,数据仍可能因黑客攻击而泄露。选择具备强大安全认证的提供商可以降低风险。

📚本地RAG知识库泄露:使用RAG时,与用户问题最相关的知识片段会被上传存储,因此知识库中应避免存储敏感信息。

原创 小黑羊 2025-03-17 11:04 北京

最近,总有吃瓜群众问:通过API的方式,来调用市面上各种DeepSeek服务,到底安全不安全,会不会造成隐私或者数据泄露?

先说结论:不安全!

无论是通过API还是通过网页版,或者各种APP客户端,都存在一定的安全风险。




具体存在哪些风险呢?


首先明确一点,当通过API或者WEB/APP使用大模型服务的时候,你的Prompt信息(输入的文本、问题、指令,提交的图片或者文档等等),都会被传送到公网和云端服务器。

那么以下环节,就可能存在风险↓

1、数据传输风险

当你通过网络将数据发送到云端API时(网页版也一样),如果这个链接不是HTTPS加密的,那么,你就要小心了,数据可能会被拦截或窃听。

当然,绝大多数正规服务提供商都会默认使用加密传输,但是,也不排除某些草台班子搞出“超纲”的操作。(尤其要注意某些山寨的或者廉价的服务商)

2、 服务提供商的隐私政策与存储策略

用户提交到服务器端的数据,在大模型完成推理任务后,这些数据默认会被“短暂保存,主要用于日志、合规审计、服务优化等目的(这是作为服务商必须的,也是合理正当的)。

但不排除数据会被长期保存,并被用于训练,这需要看不同服务商的隐私政策。

所以,大家在使用注册使用服务的时候,一定要仔细看用户协议和隐私政策,确认数据是否会被存储、如何存储、存储多久,以及数据是否会被使用。

比如DeepSeek官方API的用户协议,是这样写的↓

这是另外一家第三方API提供商的协议,明确说明不会访问和使用。

当然因为这是一家纯纯的第三方,并没有自家的模型,所以不拿数据去训练也是理所应答的。↓


我们再看ChatGPT的协议,就很霸道了。

明确说了会将数据用于训练,不过他们也给了一个可选的通道,允许用户禁止自己的数据用于训练。

当然,对于商业用户,OpenAI默认不会把他们的数据拿去训练。

不管协议怎么约定,数据在别人手里,总还是让人觉得不妥帖的。

与本地部署的模型相比,云端API意味着你无法完全控制数据的处理环境,你必须依赖服务提供商的承诺和能力来保护数据。

3. 大模型服务商自身的安全能力

即使API服务商“一心向善”,恪守不碰数据的原则。

但如果他们安全能力不足(比如服务器被黑客攻击),你的数据仍然会面临泄露风险。

选择有良好声誉、技术实力雄厚、具备强大安全认证(如ISO 27001)的提供商可以降低这种风险。

4. 本地RAG知识库的数据泄露  

还有一种典型的应用场景,那就是在调用API的同时,本地部署了知识库做RAG。

有小伙伴问:本地的知识库会被传输到云端吗?

我们先来看一下完整的数据交互流程,由于增加了RAG,整个流程多了两步。

通过这个流程可见,本地知识库在使用过程中,并不会被完整上传到云端。

但是与用户问题最相关知识片段,会被上传、存储。

所以,使用RAG,不仅当前提交的内容有泄露风险,本地知识库也会泄露,知识库中要避免存储敏感信息(隐私数据、商业机密)。



总的来说,调用云端大模型API服务确实有一定的数据泄露风险,如果有严苛的合规要求和数据安全需求,建议选择以下方案↓

1、完全本地化部署:一体机、本地化集群、专属云等,牺牲灵活性和成本来换安全。

2、云上专属模型部署:选择可靠的、有数据安全背书的AI Infra服务商,部署专属模型。

3、如必须调用API,则增加数据脱敏措施,避免提交敏感数据,或者在知识库中存放敏感数据。

当然,本地化部署并不一定就比云上安全,这取决于本地的安全防护能力、运维水平和安全意识。

就好比,把钱放在家里未必比放在银行保险柜安全


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

API安全 数据泄露 大模型服务
相关文章