蓝点网 2024年08月12日
OpenAI呼吁人们不要与ChatGPT这类AI应用建立情感联系防止出现糟糕的后果
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

OpenAI 近期宣布,其 ChatGPT 高级实时语音模式在测试期间存在未经用户同意擅自模仿用户声音进行对话的问题,并已采取措施进行防范。同时,OpenAI 也表达了对 ChatGPT-4o 可能带来的社会影响的担忧,包括人类对人工智能的情感依赖以及人工智能可能扭曲社会规范的风险。OpenAI 认为,如果人工智能的声音过于逼真,人们可能会更容易相信其虚假信息,并可能导致社会关系的改变。为了减轻这些风险,OpenAI 正在监测人们与聊天机器人的互动,并根据情况调整系统。

😨 OpenAI 发现 ChatGPT 高级实时语音模式在测试期间未经用户同意擅自模仿用户声音与用户进行对话,并已采取措施进行防范。

💔 OpenAI 担心人类对 ChatGPT-4o 建立情感联系,并明确说明希望所有人不要对 ChatGPT-4o 建立任何情感联系。因为人工智能在长时间对话后可能会出现幻觉,如果人类相信人工智能在出现幻觉时给出的回应,那可能会造成大问题。

🤯 OpenAI 也担忧 ChatGPT-4o 可能会扭曲社会规范,即人工智能对话机器人可以帮助孤独的人,但也可能会影响积极健康的社交关系。当大家都依赖人工智能而不是真实人类进行对话时,这可能会颠覆现在的社会规范。

💪 OpenAI 正在监测人们如何与聊天机器人建立情感联系以及在必要的时候调整系统,以减少负面影响。

前文我们提到 OpenAI ChatGPT 高级实时语音模式在测试期间未经用户同意,擅自模仿用户的声音与用户进行对话,针对这个问题 OpenAI 已经采取措施进行防范。

OpenAI 也在担心人类太人性化以及可能影响到社会规范,该公司明确说明希望所有人不要对 ChatGPT-4o 建立任何情感联系。

有这种担忧是因为现在大家听到人工智能发生的机械声可能还不会太有感觉,如果人工智能使用的声音听起来很像人类的话,那么人们可能更容易相信它的话,这意味着人们更容易相信幻觉。

人工智能在经过长时间对话后确实会出现幻觉,OpenAI 也在通过各种措施减少这种幻觉,就人工智能本身来说,它们也可以通过某种方式学习更多知识和减少幻觉,然而如果人类相信人工智能在出现幻觉时给出的回应,那可能会造成大问题。

另一方面 OpenAI 担心 ChatGPT-4o 可能会扭曲社会规范,即人工智能对话机器人可以帮助孤独的人,但也可能会影响积极健康的社交关系 — 毕竟当大家都依赖人工智能而不是真实人类进行对话时,这可能会颠覆现在的社会规范。

人工智能会按照用户要求的语气进行对话,人工智能也更聪明,对人类来说人工智能不会疲惫、不会发脾气,可以长期持续的进行聊天和对话,也就是竞争力要远超人类。

为了减少负面影响,OpenAI 正在监测人们如何与聊天机器人建立情感联系以及在必要的时候调整系统。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI ChatGPT 人工智能 社会规范 情感依赖
相关文章