Cnbeta 04月30日 14:08
当AI学会设计病毒 人类如何筑起“数字防火墙”?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

人工智能(AI)在加速设计新型蛋白质方面展现出巨大潜力,这些蛋白质可应用于药物和疫苗研发。然而,随之而来的风险也日益受到关注,即AI可能被用于开发生物武器或有毒物质。为了应对这一挑战,科学家们正在积极探索在AI工具中内置防护措施,包括追踪生物武器的源头、改良AI模型、建立监管机制等。尽管目前AI设计生物武器的风险仍主要停留在理论层面,但相关研究和监管措施的推进,旨在平衡技术进步与生物安全,防范潜在的风险。

🧬 AI在蛋白质设计领域取得了显著进展,通过RF diffusion和ProGen等大模型,可在短时间内定制蛋白质,这为药物和疫苗研发带来了新的机遇。

⚠️ AI技术易用性也带来了潜在风险,非专业人士也可能利用AI生成有毒物质,增加了生物武器开发的可能性。

🛡️ 为了应对这些风险,科学家们提出了多种防护措施,如在蛋白质结构中嵌入可追溯的标识代码,利用“数据遗忘”和“防越狱”技术改良AI模型,以及建立监管机制。

🏭 监管重点应放在AI蛋白质设计的量产环节,生产设施需核查分子来源及用途,并进行安全性检测,以确保安全。

🌱 目前,AI与生物安全的关系尚未得到足够重视,但相关研究正逐步展开,旨在平衡技术进步与生物安全,防范潜在风险。

人工智能(AI)正在加速设计新型蛋白质,这些蛋白质有望应用于药物、疫苗等领域,但也可能被用于开发生物武器或有毒物质。为此,科学家提出了一系列可内置在AI工具中的防护措施,以阻止恶意使用或追踪生物武器的源头。

美国约翰斯·霍普金斯大学的专家指出,建立防护框架对平衡技术潜力与风险至关重要。近年来,AI模型已能根据氨基酸序列预测蛋白质结构,甚至生成全新功能的蛋白质。例如,RF diffusion和ProGen等大模型可在数秒内定制蛋白质,其医学价值显著,但易用性也带来隐患——即便非专业人士也可能利用AI生成有毒物质。

麻省理工学院媒体实验室的研究人员认为,目前AI设计生物武器的风险仍属理论层面,尚无证据表明现有技术能引发大流行。尽管如此,130名蛋白质研究人员已签署协议,承诺安全使用AI。普林斯顿大学的研究团队进一步提出技术方案,例如FoldMark防护系统,通过在蛋白质结构中嵌入可追溯的标识代码,确保危险物质可被追踪。

此外,该研究团队建议改良AI模型,采用“数据遗忘(unlearning)”技术剔除危险数据,或通过“防越狱(antijailbreaking)”训练使AI拒绝恶意指令。美国国防高级研究计划署(DARPA)的研究人员表示,实施这些措施需建立监管机制。斯坦福大学的专家则认为,监管重点应放在AI蛋白质设计的量产环节,生产设施需核查分子来源及用途,并进行安全性检测。

当前,AI与生物安全的关系尚未得到足够重视,但相关研究正逐步展开,以防范潜在风险。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 蛋白质设计 生物安全 AI风险
相关文章