安全内参-产业趋势 2024年10月24日
荷兰政府发布《欧盟人工智能法案》指南
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

荷兰政府发布AI法案指南,供AI开发和部署人员参考。指南提出组织适用该法案需考虑风险、AI定义、角色、义务四个主要问题,并对相关内容进行了详细阐述。

🎯风险方面,AI系统有不同风险类别,禁止的AI系统不得销售等,高风险系统有不同要求,指南列举了两种高风险人工智能系统类型及相关规定。

🤖AI定义上,AI法案对AI系统进行了定义,包括使用机器学习和基于逻辑知识方法的系统,不包括仅基于人类设定规则自动执行操作的系统。

👥角色方面,明确了组织作为AI系统提供者或部署者的定义,以及高风险人工智能系统的部署者在特定情况下会成为提供者的情况。

💪义务方面,指南对禁止的AI系统、高风险AI系统等的提供者与部署者明确了不同限度的义务要求,未涉及其他角色义务。

2024 年 10 月 16 日,荷兰政府发布了《欧盟人工智能法案》(EU AI Act,以下简称为 AI 法案)指南,以供组织内的人工智能 (AI) 开发人员和部署人员参考使用。指南提出相关组织适用 AI 法案需要考虑的四个主要问题:

1. 风险 - 相关 AI 系统落入何种受规范的 AI 风险类别?

所有满足条件的 AI 系统都受到 AI 法案的约束,但不同类别的 AI 风险具有不同的要求,禁止的 AI 系统不得销售、使用或投入使用,高风险 AI 系统在可以销售或使用之前必须满足不同的要求以限制风险。指南列举了两种类型的高风险人工智能系统:(1)高风险产品——直接或间接地同时受到 AI 法案规范的现有受监管产品(例如,作为医疗设备的人工智能系统);(2)高风险应用程序——为高风险领域的特定应用而开发和部署的应用程序,其中 AI 法案规定了8种。

2. AI 定义- 根据 AI 法案,该系统是否被视为“AI”?

AI 法案将 AI 系统定义为:“人工智能系统是一种基于机器的系统,其运行具有不同程度的自主性,在部署后可能表现出适应性,并且为了明确或隐含的目标,从其接收的输入中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决定”。包括:(1)使用机器学习(machine learning)的系统,通过数据学习如何实现特定目标;(2)使用基于逻辑和知识的方法(knowledge and logic-based approaches)的系统,这些方法允许学习、推理或建模。不包括基于仅由人类设定的规则,用于自动执行操作的系统。

3.角色 - 组织是 AI 系统的提供者还是部署者?

提供者(provider)是指开发或委托开发AI系统或模型的个人或组织,并将该系统投放市场或自行使用。部署者(deployer)是指基于授权使用人工智能系统的个人或组织,而在个人的非职业活动中使用人工智能系统排除适用。指南明确指出,高风险人工智能系统的部署者在以下情况下会成为提供者:(1)将自己的名称或品牌标识在高风险人工智能系统上;(2)对高风险人工智能系统进行了提供者未预见到的重大改变,导致人工智能系统不再满足提供者的要求或预期目的。

4.义务 - 组织需要遵守哪些义务?

指南对于禁止的 AI 系统、高风险 AI 系统、通用人工智能模型以及生成式 AI 的提供者与部署者明确了不同限度的义务要求。该指南不涉及 AI 法案规定的其他角色,如授权代表、进口商和分销商的义务。

本文来源自“Rijksoverheid.nl",https://open.overheid.nl/documenten/8d7b5ccb-41fc-4d92-a4c2-a7fa81e66bfb/file

责任编辑:张启航

声明:本文来自数据法律资讯,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

荷兰AI法案指南 人工智能风险 AI系统定义 角色与义务
相关文章