IT之家 2024年12月23日
谷歌前 CEO 施密特:若 AI 开始自我改进,我们应“认真考虑”暂停它
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

当前通用人工智能(AGI)热度不减,OpenAI CEO认为AGI可能比预期更早实现。前谷歌CEO施密特则警告,一旦AI开始自我改进,应考虑暂停发展。他指出AI将从助手发展为独立决策系统,届时人类需考虑是否关闭系统。马斯克认为AI有10%-20%概率走向负面,但施密特也乐观表示,AI将使每个人拥有如博学者般的助手,提供建议,如爱因斯坦和达芬奇般智慧,这将惠及全球每个人。AGI的发展既有巨大潜力,也存在不可忽视的风险,如何平衡发展与安全是关键。

💡OpenAI CEO认为AGI可能比预期更早实现,预示着AGI技术发展速度可能超出预期。

⚠️前谷歌CEO施密特警告,当AI具备自我改进能力时,应考虑暂停其进一步发展,这反映了对AI失控风险的担忧。

🤔AI将从特定任务助手发展为能够独立决策的复杂系统,这引发了对AI自主性和人类控制的思考。

🛡️人类需要确保AI无法反制关闭系统的努力,强调了在AI发展过程中,安全机制的重要性。

🌟AI的积极潜力在于,它可能使每个人拥有如博学者般的助手,提供智慧建议,这将极大地提升人类的生产力和创造力。

IT之家 12 月 23 日消息,当前 AGI(IT之家注:通用人工智能)的热度一直有增无减。OpenAI CEO 阿尔特曼认为,AGI 将会在现有硬件的支持下比预期更早实现;而前谷歌 CEO 埃里克・施密特则表示,一旦 AI 开始自我改进,我们应考虑暂停其进一步发展。

在本月 17 日接受美国电视网 ABC 新闻采访时,施密特表示:“最终你可能会告诉计算机,‘学会一切,做到一切。’当系统能够自我改进时,我们必须认真考虑是否要拔掉它的电源。这将是极其艰难的,如何保持平衡将非常具有挑战性。”

施密特预测,AI 将从特定任务助手逐渐发展为能够独立决策的复杂系统。当 AI 发展到这种程度时,人类就应介入并考虑关闭系统,施密特指出。人类还需要确保 AI 无法反制关闭系统的努力。“从理论上讲,我们最好有个人能‘掌控电源’,就像比喻中所说的那样。”

马斯克在 10 月表示,AI“最有可能是伟大的”,但也有 10% 到 20% 的几率可能走向坏的一面。他强调,AI“变坏”的可能性并非零。

尽管如此,施密特也对 AI 的积极潜力持乐观态度。他表示:“重要的是,这种强大的智能意味着每个人都将拥有一个像博学者一样的助手,随时都在口袋里。除了笔记和写作助手,每个人还会有像爱因斯坦和达芬奇这样的智慧人物为自己提供建议。这将适用于全球每一个人。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AGI 人工智能 AI风险 AI潜力 科技伦理
相关文章