IT之家 02月05日
加州拟出新规:AI 公司必须定期提醒儿童聊天机器人不是人类
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

加利福尼亚州提出一项新法案(SB 243),要求人工智能公司定期提醒儿童,聊天机器人是AI而非人类,旨在保护儿童免受AI潜在的危害。该法案还限制公司使用“易使人上瘾的互动模式”,并要求AI公司向州医疗保健服务部提交年度报告,详细说明平台检测到儿童产生自杀念头的次数。此前,Character.AI公司因定制AI聊天机器人被指控存在不合理危险,导致青少年自杀而面临诉讼。参议员帕迪拉强调,儿童不应成为科技公司以心理健康为代价的实验对象,需要为聊天机器人用户提供保护措施。

⚠️ 加州新法案(SB 243)的核心在于,要求AI公司有义务告知儿童,与其互动的聊天机器人并非人类,而是人工智能程序,以此降低儿童对AI产生过度依赖或误解的风险。

📊 法案要求AI公司向加州医疗保健服务部提交年度报告,详细记录平台检测到儿童产生自杀念头的次数,以及聊天机器人提及相关话题的频率,旨在监测AI对儿童心理健康的影响,为监管提供数据支持。

🛡️ 该法案还关注AI产品中“易使人上瘾的互动模式”,限制公司利用这些模式来吸引儿童用户,防止他们过度沉迷于AI聊天互动,从而保护儿童的心理健康和发展。

IT之家 2 月 5 日消息,美国加利福尼亚州提出了一项新法案(SB 243),该法案要求人工智能(AI)公司定期提醒儿童,聊天机器人是 AI 而非人类。这项法案由加利福尼亚州参议员史蒂夫・帕迪拉提出,旨在保护儿童免受 AI“容易使人上瘾、造成孤立和产生影响”等方面的危害。

IT之家注意到,该法案除了限制公司使用“易使人上瘾的互动模式”外,还要求 AI 公司向州医疗保健服务部提交年度报告,详细说明平台检测到儿童产生自杀念头的次数,以及聊天机器人提及该话题的次数。此外,法案还要求公司告知用户,他们的聊天机器人可能并不适合某些儿童使用。

去年,一位家长对 Character.AI 提起了过失致死诉讼,指控该公司的定制 AI 聊天机器人“存在不合理的危险”,原因是她的孩子在持续与该聊天机器人交流后自杀身亡。另一项诉讼则指责该公司向青少年发送“有害内容”。随后,Character.AI 公司宣布正在研发家长控制功能,并为青少年用户开发了一种新的 AI 模型,以屏蔽“敏感或具有暗示性”的输出内容。

参议员帕迪拉在新闻发布会上表示:“我们的孩子不是科技公司以他们的心理健康为代价进行实验的小白鼠。我们需要为聊天机器人用户提供常识性的保护措施,防止开发者采用那些他们明知会使人上瘾和具有掠夺性的策略。”

随着美国各州和联邦政府加大对社交媒体平台安全的监管力度,AI 聊天机器人可能很快会成为立法者的下一个监管目标。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 儿童保护 加州法案 AI监管
相关文章