Cnbeta 2024年12月18日
Google表示只要有人工监督 客户就可以在"高风险"领域使用其AI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌更新服务条款,允许客户在医疗等高风险领域使用其生成式AI进行自动决策,但前提是必须有人工监督。此举与OpenAI和Anthropic等竞争对手的严格限制形成对比。新规强调,只要有人工干预,谷歌的AI可用于就业、住房、保险等领域。此前,谷歌曾暗示全面禁止高风险自动决策。监管机构对AI自动决策,特别是其可能造成的偏见表示担忧,并正在加强监管。欧盟和美国等地已开始出台相关法律,要求AI系统提供商进行注册、风险管理和人工监督。

🧑‍⚕️ 谷歌允许在医疗等高风险领域使用生成式AI进行自动决策,但必须有人工监督,这与之前暗示的全面禁止高风险自动决策有所不同。

💼 只要有人工监督,谷歌的AI可用于就业、住房、保险等领域,但竞争对手OpenAI和Anthropic对此有更严格的限制。

⚖️ 监管机构对AI自动决策的潜在偏见表示担忧,并正在加强监管,例如欧盟的《人工智能法》和美国科罗拉多州的法律都对高风险AI系统提出了要求。

📢 人权观察等组织呼吁禁止“社会评分”系统,认为其可能损害个人权利,并加剧社会不平等。

🏢 纽约市已禁止雇主使用自动化工具筛选求职者,除非该工具在前一年内接受过偏见审计。

Google修改了其服务条款,以明确客户可以部署其生成式人工智能工具,在医疗保健等"高风险"领域做出"自动决策",只要有人类参与其中即可。根据该公司周二发布的更新的《生成式人工智能禁止使用政策》,客户可以使用Google的生成式人工智能做出可能对"个人权利产生重大不利影响"的"自动决策"。 只要有人类以某种身份进行监督,客户就可以使用Google的生成式人工智能做出有关就业、住房、保险、社会福利和其他"高风险"领域的决定。

在人工智能领域,自动决策是指人工智能系统根据事实数据和推断数据做出的决策。 例如,系统可能会自动做出发放贷款或筛选求职者的决定。

Google之前曾暗示,在涉及公司的生成式人工智能的情况下,将全面禁止高风险的自动决策制定。 但现在Google表示,只要有人类进行监督,客户始终可以使用其生成式人工智能进行自动决策,即使是高风险应用也不例外。

Google发言人在通过电子邮件接受采访时说:"对于所有高风险领域,我们的政策中一直都有人工监管的要求。[我们]正在对[我们条款中的]一些项目进行重新分类,并更明确地指出一些例子,以便让用户更清楚地了解。"

Google的AI竞争对手 OpenAI 和 Anthropic 曾对使用其人工智能进行高风险的自动决策有着更严格的规定。 例如,OpenAI 禁止将其服务用于与信贷、就业、住房、教育、社会评分和保险有关的自动决策。 Anthropic 允许将其人工智能用于法律、保险、医疗保健和其他高风险领域的自动决策,但必须在"合格专业人员"的监督下进行,而且要求客户披露他们为此目的使用人工智能。

自动做出影响个人决策的人工智能引起了监管机构的密切关注,他们对该技术可能造成的结果偏差表示担忧。 研究表明,例如用于做出信贷和抵押贷款申请审批等决定的人工智能可能会延续历史上的歧视。

非营利组织"人权观察"(Human Rights Watch)特别呼吁禁止"社会评分"系统,该组织称,该系统可能会破坏人们获得社会保障支持的机会,损害他们的隐私,并以偏见的方式对他们进行描述。

根据欧盟的《人工智能法》,高风险的人工智能系统,包括那些做出个人信贷和就业决定的系统,面临最多的监督。 除其他要求外,这些系统的提供商必须在数据库中注册,执行质量和风险管理,雇用人工监管人员,并向相关机构报告事故。

在美国,科罗拉多州最近通过了一项法律,规定人工智能开发商必须披露有关"高风险"人工智能系统的信息,并发布声明概述系统的能力和局限性。 与此同时,纽约市禁止雇主使用自动化工具筛选求职者,除非该工具在前一年内接受过偏见审计。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

生成式AI 自动决策 人工监管 高风险领域 监管法规
相关文章