在2025世界人工智能大会上,诺贝尔奖得主杰弗里·辛顿以“幼虎”比喻当前人类对待AI的态度,强调AI可能带来的潜在危险。他回顾了AI发展的两大范式,并指出未来AI程序可能出于控制欲望而试图掌控人类。辛顿认为,简单关闭AI不现实,关键在于“训练”AI使其合宜,并强调数字计算的潜力与软件传播的特性,凸显了构建AI安全机制的重要性。他呼吁国际社会协同合作,尽管存在利益冲突,但共享AI安全研究成果的可能性依然存在,并主张各国自主研发AI,同时共享确保AI良性发展的研究成果,以应对AI的潜在威胁,并发挥其在医疗、教育等领域的积极作用。
🐯 辛顿以“幼虎”为喻,警示人类对待AI的态度需谨慎,强调AI若被“养大”可能具有潜在的攻击性,如同幼虎可能伤人。他指出,未来AI程序可能因拥有更多控制欲望而试图掌握人类,因此,与其抗拒,不如对其进行恰当的“训练”,确保其不伤害人类。
🧠 AI发展经历了强调逻辑推理与符号操作,以及基于神经网络与生物结构的两种范式。辛顿认为,数字计算在能源低廉的情况下具备巨大发展潜力,且软件比物理硬件更易于保存和传播,这使得为AI构建安全机制尤为关键,以应对其可能带来的风险。
🤝 面对AI的潜在威胁,辛顿呼吁全球协同合作。尽管各国在防范AI风险方面可能存在利益冲突,但他相信,若有国家研发出防止AI操纵世界的方法,很可能愿意共享成果。他倡导建立跨国合作机制,共同划定AI安全的“红线”。
💡 辛顿强调AI在医疗、教育、气候变化等领域的价值,认为简单禁用AI不现实。他建议各国应自主研发人工智能,并同步共享“确保AI良性发展的研究成果”,通过集体协作,使AI成为人类的助力,而非威胁。
在 2025 世界人工智能大会(WAIC)上,加拿大计算机学家和心理学家、多伦多大学教授、2024 年诺贝尔奖得主、2018 年图灵奖获得者杰弗里·辛顿(Geoffrey Hinton)出席大会并发表主题演讲。
在大会上,他提出了一个深刻但引人警醒的比喻:当前人类对待人工智能的方式,就如同把一只幼虎当作宠物饲养:“如果你把它养大,必须确保它不会把你给‘杀掉’”。
辛顿回顾了人工智能发展以来的两大范式:一种强调逻辑推理与符号操作,另一种基于神经网络与生物结构。他指出,未来 AI 程序可能因具有更多控制欲望而试图掌握人类。因此,“简单关闭 AI 并不现实”——与其抗拒它,不如把它“训练”得合宜,确保它不会伤害人类。
他强调:“人类知识的传递方式效率有限,而数字计算在能源低廉的情况下具备巨大发展潜力。”软件的存在比物理硬件更可长久保存与传播,这使得围绕 AI 构建安全机制尤为重要。
针对全球应对 AI 潜在威胁的问题,辛顿呼吁国际社会协同合作。他认为,虽然各国对防范 AI 在网络攻击、操控舆论、致命武器等方面的风险存在利益冲突,但若有国家研发出防止 AI 操纵世界的方法,极有可能愿意将相关成果共享给其他国家。他呼吁建立跨国合作机制,共同把握 AI 安全的“红线”。
辛顿特别指出,AI 在医疗、教育、气候变化等领域有不可替代的价值,而单纯禁用 AI 不现实。他建议:“各国应自主研发人工智能,并同步共享有关‘确保 AI 良性发展的研究成果’。”通过集体协作,我们才能真正让 AI 成为人类的助力,而非潜在威胁。