IT之家 02月05日
谷歌 AI 原则生变:删除“不用于武器”的承诺
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌近日从其网站上删除了不开发用于武器或监控的人工智能的承诺,引发广泛关注。这一变化表明谷歌在人工智能应用方面的立场可能发生转变。尽管谷歌强调将继续致力于“负责任的人工智能”,并努力减少意外或有害的结果,但此举仍然引发了对其与军方合作的担忧。近年来,谷歌与美国和以色列军方签订的云服务合同已经引发了公司内部员工的抗议。美国国防部人工智能负责人也表示,一些公司的人工智能模型正在加速美国军方的“杀伤链”流程。这一系列事件使得谷歌的人工智能伦理问题再次成为焦点。

🚫 谷歌删除了其人工智能原则中“我们不会追求的应用”部分,该部分曾承诺不开发用于武器或监控的人工智能。

🤝 谷歌在回应中强调“负责任的人工智能”,并表示将继续努力减少意外或有害的结果,并避免不公平的偏见,同时确保其人工智能的发展符合“广泛接受的国际法和人权原则”。

🔥 谷歌与美国和以色列军方签订的云服务合同引发了公司内部员工的抗议,员工担心人工智能技术会被用于伤害人类。

IT之家 2 月 5 日消息,谷歌本周从其网站上删除了不开发用于武器或监控的人工智能的承诺。这一变化最初由彭博社发现。该公司似乎更新了其公开的人工智能原则页面,删除了上周还存在的名为“我们不会追求的应用”的部分。

当被要求发表评论时,谷歌向 TechCrunch 指出了一篇关于“负责任人工智能”的新博客文章,文章指出:“我们相信,秉持这些价值观的公司、政府和组织应该携手合作,共同开发能够保护人类、促进全球增长并支持国家安全的人工智能。”

谷歌更新后的人工智能原则指出,公司将继续努力“减少意外或有害的结果,并避免不公平的偏见”,同时确保其人工智能的发展符合“广泛接受的国际法和人权原则”。

IT之家注意到,近年来,谷歌与美国和以色列军方签订的云服务合同引发了公司内部员工的抗议。谷歌一直坚称其人工智能技术不会被用于伤害人类。然而,美国国防部人工智能负责人最近向 TechCrunch 透露,一些公司的人工智能模型正在加速美国军方的“杀伤链”流程。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

谷歌 人工智能 武器 伦理 军方
相关文章