肖飒团队 | 生成式人工智能的法律边界和红线 飒姐作为北京市律师协会数字经济与人工智能领域法律专业委员会副主任,也处理过不少 AI、数字经济、Web3.0 等领域的实务问题,前不久,和专委会的同行们分享了利用生成式人工智能实施犯罪的议题,搜集了不少案例和理论,特此分享给各位老友以供参考。 “人类正出于错误的理由而掌握各种正确的技术。”——R.巴克明斯特·富勒 生成式人工智能因何而生?为何而用?且看飒姐道来。 这一部分,飒姐介绍了生成式人工智能的定义,以及三个重要要素:数据、算法和算力,同时总结了 AIGC 的发展时间轴和应用领域,对 AIGC 行业进行了全面总览。 这一部分,飒姐团队借助学术上对 AIGC 犯罪的分类理论,介绍了各类国内外知名的生成式人工智能案件,勾勒了当前的 AIGC 刑事案件现状。 这一部分,飒姐团队介绍了更多贴近咱们日常生活的中国案例,详细介绍了生成有害信息、规避身份核验、进行网络诈骗的犯罪手段。 规范和规制新科技带来的挑战,要从技术问题和法律适用问题两方面入手。在这一部分,飒姐深入讨论了当前 AIGC 的输入内容、模型框架存在的问题,以及刑事上责任主体、主观罪过认定、因果关系认定上的争议,提出了应当坚持人类中心主义、明确主观罪过标准、科学判断因果关系的主张。 近期,韩国“N 号房 2.0”事件不断发酵,利用 AIGC 进行犯罪的案例在近年持续增长,成为人工智能技术发展路途中不可忽视的严峻挑战。生成式人工智能如何不触碰红线,避免技术创新双刃剑的负面效应,还需相关行业的共同努力。如果您身边有对新科技、数字经济感兴趣的朋友,欢迎转发给Ta获取详细资讯,请联络飒姐团队【 sa.xiao@dentons.cn】【 guangtong.gao@dentons.cn】飒姐工作微信:【 xiaosalawyer】飒姐工作电话:【 +86 171 8403 4530】 【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。