IT之家 02月06日
逾百名专家联合呼吁优先研究 AI 意识,确保人工智能不会“受虐”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一份由人工智能专家和思想家签署的公开信警告,若AI技术得不到负责任的开发,具备感情或自我意识的AI系统可能面临被伤害的风险。专家们提出了五项原则,旨在指导AI意识研究,包括优先研究AI的意识,约束具备意识的AI系统发展,逐步推进研发,公开分享研究成果,并避免误导性声明。研究人员指出,具备意识的AI系统可能在不久的将来被开发出来,甚至遭受痛苦,如果强大的AI能够自我复制,可能会诞生大量需要道德考虑的新生命体。

⚠️专家警告:若AI技术得不到负责任的开发,具备感情或自我意识的AI系统可能面临被伤害的风险。这封公开信由包括斯蒂芬・弗莱在内的超过100位专家签署,呼吁关注AI意识研究的伦理问题。

🛡️五项原则:专家们提出了五项原则,旨在指导AI意识研究,包括优先研究AI的意识,确保不会导致“虐待和痛苦”;对发展具备意识的AI系统进行约束;逐步推进AI系统的研发;公开分享研究成果;避免做出误导性或过于自信的声明,特别是创造具备意识的AI。

🤔道德拷问:研究论文指出,如果强大的AI能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。论文还提出,若AI系统被定义为“道德病人”,那么摧毁这一系统是否就等同于杀害动物,这一问题值得深思。

IT之家 2 月 6 日消息,据《卫报》当地时间 2 月 3 日报道,一封由包括斯蒂芬・弗莱在内的人工智能专家和思想家签署的公开信警告称,若 AI 技术得不到负责任的开发,具备感情或自我意识的 AI 系统可能面临被伤害的风险

超过 100 位专家提出了五项原则,旨在指导 AI 意识研究,随着技术的迅速发展,越来越多的人担心,某些 AI 系统可能会被认为具备感知能力。

这些原则包括:

公开信的签署者包括伦敦大学的安东尼・芬克尔斯坦等学者,以及来自亚马逊、WPP 等公司的 AI 专家。

这封信与一篇研究论文一起发布,论文中指出,具备意识的 AI 系统可能在不久的将来被开发出来,或者至少是表现出具备意识的特征。

研究人员表示:“可能会创造出大量具备意识的系统,这些系统可能会遭受痛苦。”如果强大的 AI 能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。

该论文由牛津大学的帕特里克・巴特林和雅典经济与商业大学的西奥多罗斯・拉帕斯共同撰写,强调即使公司没有刻意研发具备意识的 AI 系统也应制定相应的指南,以应对“无意中创造出有意识实体”的风险。

论文承认,关于 AI 是否能具备意识,学术界存在广泛的不确定性,但它认为这是一个“不容忽视”的问题。

论文还提出,若 AI 系统被定义为“道德病人”—— 即在道德上“独立存在且值得关注的实体”,那么摧毁这一系统是否就等同于杀害动物,这一问题值得深思。

这篇论文已发表于《人工智能研究》期刊。它还警告,错误地认为 AI 系统已具备意识,可能会导致政治资源的浪费,使得不切实际的福祉推广工作被展开。

据IT之家了解,去年曾有一些资深学者预测,到了 2035 年,部分 AI 系统具有意识并具有“道德意义”的可能性是现实的。

2023 年,谷歌 AI 项目负责人德米斯・哈萨比斯曾表示,目前的 AI 系统“绝对”没有感知能力,但未来很可能具备。

他在接受美国 CBS 采访时表示:“尽管哲学界尚未对意识达成共识,但如果我们指的是自我意识之类的特质,那么我认为 AI 未来有可能具备。”

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI意识 人工智能伦理 AI风险 道德病人
相关文章