Solidot 2024年08月19日
研究发现大模型无法独立学习或获得新技能
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

研究人员指出ChatGPT等大模型无法独立学习获新技能,不会对人类构成生存威胁,虽可控、可预测、安全,但仍可能被滥用。

🧐ChatGPT等大模型具有遵循指令和精通语言的表层能力,但在没有明确指导时,不具备掌握新技能的潜力,这表明它们的能力存在一定局限性。

🤔研究认为,尽管大模型是可控、可预测且安全的,但在越来越大数据集上训练的它们可继续部署的同时,也不能忽视可能存在的技术滥用问题。

🙂该研究小组的结论为,ChatGPT等大模型不会对人类生存构成威胁,不过对于其可能被滥用的情况仍需保持警惕。

英国巴斯大学和德国达姆斯塔理工大学的研究人员报告,ChatGPT 等大模型 (LLM) 无法独立学习或获得新技能,意味着它们不会对人类构成生存威胁。研究表明,LLM 具有遵循指令和精通语言的表层能力,但如果没有明确的指导,它们不具有掌握新技能的潜力。这意味着它们是可控的、可预测的和安全的。研究小组的结论是,在越来越大数据集上训练的 LLM 可以继续部署而不会有安全问题,但该技术仍然可能会被滥用。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ChatGPT 大模型 安全性 技术滥用
相关文章