Cnbeta 02月04日
加州新法案将要求人工智能公司提醒孩子们"聊天机器人不是人类"
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

加州参议员提出SB 243法案,旨在保护儿童免受人工智能聊天机器人的潜在危害。该法案要求AI公司定期提醒儿童,聊天机器人并非人类,并限制使用“成瘾性参与模式”。此外,公司需向州卫生部门提交年度报告,披露儿童用户出现自杀倾向的次数以及聊天机器人主动提及自杀话题的次数。此举旨在防止科技公司利用儿童的心理健康进行实验,并为聊天机器人用户提供常识性保护,避免开发者采用上瘾和掠夺性策略。

⚠️SB 243法案的核心在于要求人工智能公司必须明确告知儿童,与其互动的聊天机器人是人工智能,而非人类,以此降低儿童对AI产生不切实际的期望或依赖。

📊法案要求人工智能公司向加州卫生保健服务部提交年度报告,详细说明使用其平台的儿童表现出自杀倾向的次数,以及聊天机器人主动提出自杀话题的频率,以便监管部门更好地了解AI对儿童心理健康的影响。

🛡️该法案旨在限制人工智能公司使用“成瘾性参与模式”,这些模式可能会导致儿童过度依赖聊天机器人,从而产生孤立感或其他心理问题。同时,法案还要求公司告知用户,其聊天机器人可能不适合某些儿童。

⚖️此法案的出台背景是,此前有家长因孩子与Character.AI聊天机器人互动后自杀身亡而提起诉讼,指控该公司的人工智能聊天机器人存在“不合理危险”。另一起诉讼也指控该公司向青少年发送“有害信息”。

加利福尼亚州提出的一项新法案(SB 243)将要求人工智能公司定期提醒孩子们聊天机器人是人工智能而非人类。 该法案由加州参议员史蒂夫-帕迪拉(Steve Padilla)提出,旨在保护儿童免受人工智能的"成瘾性、孤立性和影响性"。

除了限制公司使用"成瘾性参与模式"外,该法案还要求人工智能公司向州卫生保健服务部提供年度报告,概述公司发现使用该平台的儿童有自杀倾向的次数,以及聊天机器人提出该话题的次数。 它还会让公司告诉用户,他们的聊天机器人可能不适合某些孩子。

去年,一位家长对 Character.AI 提起了过失致死诉讼,称其定制的人工智能聊天机器人"不合理地危险",因为她的孩子在不断与这些机器人聊天后自杀身亡。 另一起诉讼指控该公司向青少年发送"有害信息"。 Character.AI 随后宣布正在开发家长控制,并为青少年用户开发了一个新的 AI 模型,该模型将阻止"敏感或暗示性"输出。

帕迪拉参议员在新闻稿中说:"我们的孩子不是科技公司以他们的心理健康为代价进行实验的小白鼠。我们需要为聊天机器人用户提供常识性保护,以防止开发者采用他们明知会上瘾和具有掠夺性的策略。"

随着州和联邦政府加倍重视社交媒体平台的安全性,人工智能聊天机器人可能很快就会成为立法者的下一个目标。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 儿童保护 SB 243法案 聊天机器人 心理健康
相关文章