动点科技 2024年12月24日
Google 前 CEO 施密特:一旦 AI 开始自我改进,我们应“认真考虑”暂停它
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了当前AGI(通用人工智能)发展引发的争议。OpenAI CEO认为AGI可能比预期更早实现,而前Google CEO施密特则警告AI自我改进的风险,并提出必要时应考虑关闭系统。马斯克也指出AI存在变坏的可能性。尽管存在风险,施密特也对AI的积极潜力表示乐观,认为其能为每个人提供强大的智能助手,如同拥有博学者般的顾问。文章强调了AGI发展带来的机遇和挑战,以及人类在其中需要承担的责任和考虑。

🔥AGI发展速度超预期:OpenAI CEO认为AGI可能在现有硬件支持下更快实现,引发对AGI未来发展的高度关注。

⚠️AI自我改进的潜在风险:前Google CEO施密特警告,当AI能够自我改进时,人类应考虑暂停其发展,甚至必要时关闭系统,以应对潜在的失控风险。

🤔AI的双重性:马斯克指出AI虽然“最有可能是伟大的”,但也存在10%到20%的概率走向负面,强调了AI发展过程中不可忽视的风险。

💡AI的积极潜力:施密特对AI的积极潜力持乐观态度,认为AI将为每个人提供强大的智能助手,如同拥有博学者般的顾问,提升人类的生产力和创造力。

当前 AGI(通用人工智能)热度一直有增无减。OpenAI CEO 阿尔特曼认为,AGI 将会在现有硬件的支持下比预期更早实现;而前 Google CEO 埃里克·施密特则表示,一旦 AI 开始自我改进,“我们应考虑暂停其进一步发展”。

在本月 17 日接受美国电视网 ABC 新闻采访时,施密特表示:“最终你可能会告诉计算机,‘学会一切,做到一切。’当系统能够自我改进时,我们必须认真考虑是否要拔掉它的电源。这将是极其艰难的,如何保持平衡将非常具有挑战性。”

施密特预测,AI 将从特定任务助手逐渐发展为能够独立决策的复杂系统。当 AI 发展到这种程度时,人类就应介入并考虑关闭系统,施密特指出。人类还需要确保 AI 无法反制关闭系统的努力。“从理论上讲,我们最好有个人能‘掌控电源’,就像比喻中所说的那样。”

马斯克曾在 10 月表示,AI“最有可能是伟大的”,但也有 10% 到 20% 的几率可能走向坏的一面。他强调,AI“变坏”的可能性并非零。

尽管如此,施密特也对 AI 的积极潜力持乐观态度。他表示:“重要的是,这种强大的智能意味着每个人都将拥有一个像博学者一样的助手,随时都在口袋里。除了笔记和写作助手,每个人还会有像爱因斯坦和达芬奇这样的智慧人物为自己提供建议。这将适用于全球每一个人。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AGI 通用人工智能 AI风险 AI潜力 技术伦理
相关文章