文章指出,人工智能模型在商业应用中可能出现“降智”现象,即模型性能下降,导致用户体验受损,这被认为违反了商业合同精神。为解决此问题,文章提出了一种基于密码学的解决方案:通过数字签名来确保AI模型的稳定性和可验证性。核心思想是,对于相同的输入,模型应始终产生相同的输出。通过要求用户和模型供应商相互签名消息,并对回复内容进行哈希签名,可以形成不可抵赖的证据链。用户可以随时验证模型是否发生变更,而供应商若想暗中修改模型将面临巨大技术和成本压力,从而有效防止AI“降智”行为。
💡 核心问题:AI模型可能出现“降智”现象,即性能下降,这违反了商业合同精神,损害用户利益。文章认为“高帅智勾引,然后降智杀猪”是对这一现象的形象比喻,表达了对这种行为的强烈不满。
🔑 解决方案:提出利用密码学中的数字签名技术来保障AI模型的稳定性和可验证性。核心要求是模型对于相同的输入(input)必须始终返回相同的输出(output)。
✅ 实现方法:1.用户拥有私钥,对发送给大模型的消息进行签名;2.模型供应商对每个回复消息进行签名,签名内容需包含消费者的消息签名和回复内容的哈希签名;3.消费者可以记录并验证这些签名对,形成不可抵赖的证据。
🛡️ 防伪机制:通过验证消息签名对,用户可以随时检查模型是否发生变更。若模型输出不一致,签名将失效,证明模型已被修改。供应商若想隐藏模型变更,需要缓存所有已知消息,成本极高,难以实现。
⚖️ 法律效力:数字签名具有法律效力,能证明信息的来源和完整性。每条消息的签名记录,为消费者提供了随时验证模型状态的依据,有效约束了供应商的行为。
AI 降智让人深恶痛绝!它违反商业合同的精神!让人不齿!先是高帅智勾引,然后降智杀猪!太可耻!
从技术上考虑,有没有办法防止?密码学总是能带来惊喜,而且不需要多么高深。
为了保证模型不变,只要让它满足一点:同样的输入 input ,应该总是返回相同的输出 output !
我们仅需要检验这一点就可以,而且每个人都可以检验!!
方法如下:
1.每人一个私钥,对发给大模型的消息签名!
2.让大模型的供应商,对每个回复的消息签名!要求包括消费者的消息签名,以及回复内容的哈希签名!
3.每个消费者都可以记录下自己发送的消息签名、回复消息的签名。
4.上述的 1 对签名,就是铁板证据!!因为相同的消息必须有相同的回复,违反了这点就意味着模型有所变化。
论证如下:
1.数字签名,代表了信息是本人发出。无法抵赖!
2.每条消息都带有签名,意味着每个消费者可以使用任何一条过往消息,随时验证模型是否有变更。且只需随机选取极少数的消息即可。
3.而供应商想要偷换模型而不被发现,就要缓存所有的已知消息。代价巨大。