虎嗅 01月08日
为什么现在的“人工智能”仍然那么“愚蠢”?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了当前人工智能在某些方面显得“愚蠢”的原因,并指出这些“愚蠢”之处恰恰是未来AI快速进化的关键。文章从多个角度分析了人类如何定义“聪明”,并将其与AI的学习方式进行对比。文章认为,AI需要更高效的学习机制、更强的感知能力以及更灵活的权限管理,才能真正实现智能化。同时,强调了AI的进化如同汽车取代马车,最终将对人类社会产生深远影响。核心观点是,AI的“愚蠢”并非不可逾越的障碍,而是其未来发展的潜力所在。

🚀 学习速度:人类的聪明之处在于能快速学习新知识,并根据新旧知识的差异选择性学习或忽略。AI模型需要优化训练方式,减少不必要的重复训练,提高学习效率,类似人类大脑的“新知识差异化学习”机制。

👁️ 感知能力:人类的“聪明”还体现在能“察言观色”,即通过表情、动作等非语言信息进行评估。AI应增加传感器,学习和分析这些非语言数据,提升情商和理解能力。

🔥 权限管理:当前AI的局限性在于权限不足,无法处理超出预设规则的任务。未来AI需要被赋予更灵活的权限,才能更好地服务于人类,但同时也要考虑如何防止权限被滥用,例如,客服系统需要AI智能授权以解决超出网站权限的问题,如同人类在特定情况下会“破坏规则”以追求更佳结果,而不是一味遵守规则。

🧠 行为模式:AI的“性格”和行为模式取决于训练数据。通过喂给AI特定领域专家的工作流数据,可以训练出类似专业人士的行为方式,如同火烈鸟的颜色来自于其摄入的食物。因此,AI的训练数据至关重要,决定了其最终的“性格”。

先说下, 现在我们笑话“人工智能”为什么这么蠢的所有这些点, 只要能找出来, 也就是未来其快速进化的地方。

身为马车, 我们真不要笑话早期汽车的“愚蠢”……所有当年批评汽车愚蠢的地方, 都是汽车如何一点点改进的地方。

它改进后的结果是什么?是现在的马儿都只能安心吃草了……

是的, 根本连拉货的资格都没有。从种群的角度看, 现在地球上马的种群蓬勃还是200年前马的种群蓬勃?AGI最终将导致根本不需要那么大“人的种群”……

下面都只是我的个人视角。既然只是个人视角, 肯定有局限的地方, 大家随意进行有理有据, 基于事实的讨论/批评。

个人经历:大概做了10年的统计/机器学习工作,10年的一线机票工作,理解我们人的行为模式,N年的经济/金融工作……

非常Mixed, 但基本明白了每波人是怎么思考问题的。

下面开始,首先要强调的是,以下这些不分前后/轻重顺序, 就是一个个列下来的。

1. 一般在生活中, 我们什么时候会觉得一个人“聪明”?懂得多是不是聪明?不是的……只是个字典而已。

那什么是?

从智商的角度而言, 是“学得快”=学习的一阶导数高。

从技术人员的角度看,就是能够对新知识做出“尽可能快的立即的更新”。

这事说起来容易, 实际上很难。因为一旦有新数据/新知识进来, 训练大模型的整个数据集就变了, 统计模型就需要重新全部训练一遍。

不过我们人脑是不是这么工作的呢?显然不是,我们基本是:

“新知识”如果和我们已有的东西差不多, 我们人脑就把它忽略;如果和我们已有的东西差别很大,再吭哧吭哧地学习。

翻译成机器语言就是:

新知识进来,我们其实是先做Inference,看下Model Estimate的结果和新的这个是否差别很大。

如果不是,说明不是“根本性新知识”,Skip 模型新训练;

如果是,说明是“新知识”,可能就得Re-Training了。

这是加快学习速度的一个方法,还有其他的。

从情商的角度而言,“聪明”是会“察言观色”,翻译成技术语言,就是会采集对象发出的多种信息,比如表情,比如动作,进而进行评估。

举个前两天和老朋友聊天时的例子,对方谈到一个事情时发了一个捂脸哭笑的表情,我看到后突然发现,这不和我们处理和自己女儿时一样嘛……这个动作=无可奈何。

翻译成技术语言可不可以?当然:增加Sensor对对方的非语言数据进行学习……当然,技术上的数据量多了很多,但不代表不能学,假以时日而已。

2. “聪明”与否都是个相对的概念,从人类社会行为/人性的角度而言,大家对相对比自己强的人都会有种天生的崇拜。

如果一个小跟屁虫始终跟随着你,你反倒会觉得它笨笨的;

如果一个东西始终比你快半拍,lead你,你反倒会觉得它很聪明。

这些当然不一定指所有方面, 可以单指某一个专业领域。

于是, 我找那些实际专业领域的专家整理出专业的Lead用户的工作流喂给AI大模型来训练,拿它天生训练出来的就是lead用户的行为方式。

这像什么呢?火烈鸟的红色不是生来就有的,刚出生的小火烈鸟灰扑扑的,后来吃多了含有大量叶红素的蟹、虾后,逐渐就变红了……

Same here,你喂给大模型什么“性格”的数据,大模型就会有什么“性格”。

3. “权限”:比如Chatbot很多时候让你觉得笨,是它没被给予一定权限,否则很容易被Abuse……

比如customer services, 尤其是在机票customer services行业,目前有个“无解”的问题:真正找客服的时候基本都是要客服做些“超出网站权限”的事。

但各大公司普遍不想开放给chatbot这些“超出规则的权限”, 因为真的会被abused滥用……

结果就是,到chatbot customer service这里,最起码我所知道的这些agents用起来,100% 都要直接接活人,才可以over the limit/rule,有时候还需要supervisor approve才可以。

所以他们是否会被“智能地授予权限”?当然。

还有个类似的开车上的例子:Tesla FSD, 在超大卡车的时候仍然是居中往前开, 但就会给司机很强的“压迫感”。

我们人不是,哪怕是故意破坏规则,我们也会通过一侧压线的方式来尽量远离大卡车……这种故意“破坏规则来追求更加安全”的事AI未来是否会做?那么一开始是否要为它设置那些“不可破坏”的规则?还是要严格遵守交通规则?

除了这些,肯定还有很多,大家补充。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 AI进化 学习机制 权限管理 行为模式
相关文章