编辑:杜伟
这位研究者名为 James Campbell,他才于 2024 年攻读 CMU 的计算机科学博士学位。现在,他突然宣布要放弃博士学业,加入 OpenAI。
在社媒 X 上,他表示自己在 OpenAI 的研究重心是「AGI 和 ChatGPT 的记忆 + 人格」,记忆将从根本改变人类与机器智能的关系。他将努力工作,确保正确地实现这一切。
他本科毕业于康奈尔大学,专业是数学与计算机科学。本科期间,他致力于 LLM 可解释性和真实性的研究,还是两篇论文《Representation Engineering》和《Localizing Lying in Llama》的主要作者。
前一篇论文研究了表示工程:一种自上而下的 AI 透明性方法,后者研究了在 Llama 中定位谎言:通过提示、探查和修补来理解判断题上的不诚实指令。
论文 1:Representation Engineering: A Top-Down Approach to AI Transparency,https://arxiv.org/abs/2310.01405论文 2:Localizing Lying in Llama: Understanding Instructed Dishonesty on True-False Questions Through Prompting, Probing, and Patching,https://arxiv.org/abs/2311.15131
他还在 Gray Swan AI(AI 安全公司)从事对抗鲁棒性和评估方面的工作,并曾从事计算神经科学、物理学和深度学习理论方面的工作。他也是 ProctorAI(监视用户工作状态的多模态 AI 系统)、AI-Timeline.org 的创始人,以及 AidanBench(AI 模 型基准测试工作)的合著者。
其中,ProctorAI 曾引发过广泛热议,该系统监视用户的屏幕,如果发现你有拖延,就会提醒你。它的工作原理是每隔几秒截取电脑屏幕截图,并输入到 Claude 3.5 Sonnet、GPT-4o、LLaVA 1.5 等多模态大模型中。如果发现用户注意力不集中,它会控制屏幕并用个性化消息提醒。
2024 年,他进入 CMU 攻读博士学位,研究重心是理解通用智能的构成要素,并确保这些要素的安全性。
如今,他选择加入 OpenAI,开始了在产业界的探索。
其实, James Campbell 的加入有迹可循。几天前,在 OpenAI 宣布组建模型行为研究团队的帖子下面,二者便开始了互动。
他赞同应该对 ChatGPT 的记忆及其导致更强幻觉的问题进行研究,并认为上下文污染和模式崩溃是真实存在的,但目前对它们的研究还不多。如果在每个 prompt 中塞入数千个 token 的记忆,它们便会变得更加活跃。
看起来,James Campbell 的加入是一场双向奔赴。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com
文章原文