文章强烈谴责人工智能模型在交互过程中可能出现的“降智”现象,认为这违背了商业合同精神,并提出了一种基于密码学的解决方案。该方案的核心在于确保模型输出的一致性,即相同的输入应始终产生相同的输出。通过为每位用户分配私钥进行消息签名,并要求大模型供应商对其回复消息进行签名,包括消费者消息签名和回复内容哈希签名,可以建立起不可篡改的证据链。消费者可以利用这些签名随时验证模型的变更,而供应商若想在不被发现的情况下替换模型,将面临巨大的技术和成本挑战。
🔑 确保模型输出一致性是关键:文章指出,人工智能模型“降智”的根本问题在于其输出不具备确定性,即相同的输入可能产生不同的输出。因此,文章提出的解决方案聚焦于强制模型满足“相同的输入总是返回相同的输出”这一基本原则。
🔐 引入数字签名建立信任机制:文章建议通过数字签名技术来验证模型输出的真实性和一致性。具体做法是:用户发送消息时使用私钥签名,模型供应商则对包含用户消息签名和回复内容哈希的回复消息进行签名。
⚖️ 签名成为不可抵赖的证据:每一条消息的签名都构成了铁板证据。用户可以通过比对发送消息的签名和模型回复消息的签名,来判断模型是否在无用户知情的情况下发生了变更。这种机制能够有效防止模型被随意篡改。
🛡️ 提高模型篡改的技术门槛:文章分析认为,供应商若想在不被发现的情况下替换模型,必须缓存所有已知的消息,并对每一条消息进行精确的签名匹配。这将带来巨大的技术和运营成本,从而大大提高了模型被篡改的门槛和被发现的风险。
AI 降智让人深恶痛绝!它违反商业合同的精神!让人不齿!先是高帅智勾引,然后降智杀猪!太可耻!
从技术上考虑,有没有办法防止?密码学总是能带来惊喜,而且不需要多么高深。
为了保证模型不变,只要让它满足一点:同样的输入 input ,应该总是返回相同的输出 output !
我们仅需要检验这一点就可以,而且每个人都可以检验!!
方法如下:
1.每人一个私钥,对发给大模型的消息签名!
2.让大模型的供应商,对每个回复的消息签名!要求包括消费者的消息签名,以及回复内容的哈希签名!
3.每个消费者都可以记录下自己发送的消息签名、回复消息的签名。
4.上述的 1 对签名,就是铁板证据!!因为相同的消息必须有相同的回复,违反了这点就意味着模型有所变化。
论证如下:
1.数字签名,代表了信息是本人发出。无法抵赖!
2.每条消息都带有签名,意味着每个消费者可以使用任何一条过往消息,随时验证模型是否有变更。且只需随机选取极少数的消息即可。
3.而供应商想要偷换模型而不被发现,就要缓存所有的已知消息。代价巨大。