近期,Google的AI概览出现“幻觉”,错误地声称澳大利亚人将需要政府身份验证才能使用互联网,并将此流程归咎于AU10TIX公司。网络安全研究小组vx-underground迅速辟谣,指出这仅是AI的虚构内容,未经事实核查。该说法源于一个关于澳大利亚数字身份改革的政府网页,但该网页并未提及身份验证,更没有提到AU10TIX公司。然而,由于信息来自Google AI并附带引文,许多人轻信并迅速传播了这一虚假信息。此事件暴露了在AI时代,未经核实的信息传播速度之快,以及用户对AI生成内容的盲目信任。这提醒我们,在获取信息时,核实来源至关重要,尤其是在涉及隐私和数字身份等敏感话题时。
🌐 Google AI概览出现“幻觉”,错误信息被迅速传播:AI概览错误地声称澳大利亚人将需要政府身份验证才能使用互联网,并指定AU10TIX公司负责处理,这一说法在网络上广泛流传,引发了公众的担忧。
🔍 事实核查揭露AI虚构内容:vx-underground等研究小组迅速澄清,该说法纯属AI的“幻觉”,并非事实。原始信息来源的澳大利亚政府网页并未提及身份验证或AU10TIX公司,表明AI生成内容可能脱离实际依据。
📢 AI生成信息易被盲目相信:由于信息来自Google AI并附带引文,许多用户在未经核实的情况下轻易相信并分享,导致虚假信息像野火一样蔓延。这凸显了在AI时代,公众对AI生成内容的信任度过高,以及信息核实的必要性。
⚖️ 用户需承担信息验证责任:随着AI生成回复的普及,验证信息的责任逐渐转移到用户身上。即使AI出现错误,互联网的传播机制也加剧了虚假信息的扩散。用户应主动核实信息来源,避免不必要的恐慌和误解。
💡 警惕“证实性偏见”驱动信息传播:该虚假信息的传播并非因为其真实性,而是因为它可能触及了人们对隐私和数字身份的潜在恐惧或偏见。这种“证实性偏见”使得人们更容易接受和传播与自身观点一致的信息,即使这些信息是虚假的。
随着人工智能工具的不断进步和广泛应用,平台偶尔出现故障、漏洞或错误并不是什么新鲜事。最近就出现了这种情况,Google的AI概览幻觉被广泛传播,错误地声称澳大利亚人很快将被要求出示政府身份验证才能使用互联网,而AU10TIX公司将负责处理这一流程。

网络安全研究小组 vx-underground 迅速驳斥了这一说法,澄清该说法只是人工智能的幻觉,未经任何事实核查就迅速传播开来。
讽刺的是,该说法的人工智能来源本身并没有支持这一说法,而只是一个关于数字身份改革的澳大利亚政府网页,根本没有提到身份验证,甚至连 AU10TIX 公司自己都没有提及。
人们之所以迅速相信,仅仅是因为它来自Google人工智能,并附有引文,导致虚假信息迅速传播。
由于这一说法看似官方,许多人迅速信以为真,并助长了其迅速传播。Vx-underground 在X平台上的回应不仅尖锐地批评了人工智能的幻觉,还对更广泛的互联网文化提出了质疑,即未经核实就接受信息和标题。
鉴于我们生活在一个相信人工智能是知识终极来源的时代,人们不核实信息来源,公然依赖任何共享信息,这实在令人担忧。这一事件凸显了人工智能时代虚假信息如何迅速演变并像野火一样蔓延,用户在未经任何核实的情况下分享这些信息。这张截图之所以走红,并非因为其内容真实,而是因为其中的信息在某种程度上证实了人们潜在的恐惧或偏见。即使在讨论隐私和数字身份系统时,也必须以现实为基础。由于人工智能生成的回复如今越来越普遍,验证的责任转移到了用户身上。
虽然Google人工智能确实出了问题,但互联网加剧了这种说法,整个局面迅速失控,如果有人核实了消息来源,那么所有这些都是可以避免的。