IT之家 07月16日 15:10
前 OpenAI 工程师 Calvin 长文回顾工作经历:员工一年间暴增 2000 人,产品发布节奏迅猛
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

前 OpenAI 工程师 Calvin French-Oven 在离职后分享了他在 OpenAI 一年的工作经历,重点介绍了公司在快速扩张过程中面临的挑战。文章揭示了 OpenAI 在产品开发、内部协作、人员管理等方面的经验和问题,并探讨了公司对 AI 安全的重视程度。French-Oven 提到,尽管公司面临着系统失效、代码库混乱等问题,但仍然保持着初创公司的自由文化。文章还提到了 OpenAI 对信息的保密以及对 AI 安全问题的关注。

🚀 **快速增长带来的挑战:** OpenAI 在短短一年内员工人数从 1000 人激增至 3000 人,其消费产品 ChatGPT 的活跃用户已突破 5 亿。这种高速扩张导致公司内部沟通、汇报结构、产品发布流程、人员管理和招聘流程等多个系统出现问题,例如重复的代码库和参差不齐的工程师水平。

💡 **初创文化与创新:** 尽管面临挑战,OpenAI 仍然保留了初创公司的自由文化,员工可以快速推进自己的想法,几乎不受流程限制。这使得团队能够在七周内完成 Codex 从开发到上线的全过程,并迅速获得用户。

🔒 **信息保密与社交媒体:** OpenAI 对信息保密极为重视,形成了浓厚的保密文化。公司密切关注社交媒体上的动态,特别是 X 平台。一旦某条推文爆火,OpenAI 可能会迅速回应,表明公司对外部信息的敏感性。

🛡️ **AI 安全的重视:** French-Owen 认为,外界对 OpenAI 最大的误解是它不重视 AI 安全。实际上,公司内部非常关注现实层面的安全问题,如仇恨言论、滥用、政治偏见操控等。公司有专门的研究团队研究 AI 的潜在风险。

IT之家 7 月 16 日消息,据外媒 TechCrunch 今日报道,曾参与 OpenAI 一项“最具潜力产品”开发工作的工程师 Calvin French-Oven 在三周前选择了离职。他通过一篇博客长文回顾了自己在老东家工作一年的经历,包括为了打造编程产品 Codex 而经历的高强度开发过程。

French-Owen 强调,他离职并非因为任何“内部矛盾”,而是因为他希望重新踏上创业之路。在入职 OpenAI 之前,他曾是客户数据公司 Segment 的联合创始人。

在他 OpenAI 期间,OpenAI 的员工人数从 1000 人激增至 3000 人。OpenAI 拥有史上增长最快的消费产品之一,而其竞争对手也在迅猛发展。今年 3 月,公司宣布 ChatGPT 的活跃用户已突破 5 亿,并仍在快速增长。

他提到:“当你以如此速度扩张时,几乎所有系统都会失效:公司内部的沟通机制、汇报结构、产品发布流程、人员管理方式、招聘流程等等,都会出现问题。”

尽管如此,OpenAI 仍然保留着初创公司的自由文化,员工可以快速推进自己的想法,几乎不受流程限制。但这也带来了重复劳动的问题。“我至少看到过六七个用于队列管理或代理循环的代码库。”

工程师的水平也参差不齐,从能处理十亿级用户系统的资深谷歌工程师,到刚毕业的博士都有。再加上 Python 语言本身的灵活性,导致整个后端系统“更像是一个代码垃圾场”:系统经常出错,运行效率也不高。但他也指出,公司高层已经意识到问题,并在积极优化。

他指出,OpenAI 还未完全适应自己作为大公司的身份,甚至连内部沟通都完全依赖 Slack。他形容这家公司像早期 Facebook 时期的 Meta,充满“快速推进、打破常规”的风格,而且公司中也有不少来自 Meta 的员工。

据IT之家了解,French-Owen 所在的高级团队拥有八名工程师、四名研究人员、两名设计师、两名市场人员和一名产品经理。据其回忆,团队仅用七周时间且“几乎没怎么睡觉”,就完成了 Codex 从开发到上线的全过程

但这次发布堪称奇迹。产品一上线就迅速获得用户。“我从没见过一个产品仅因出现在左侧边栏就能获得如此迅速的采纳率,这正是 ChatGPT 的魔力。”

作为一家备受瞩目的公司,OpenAI 对信息保密极为重视,内部形成了浓厚的保密文化,以防止信息外泄。与此同时,公司也密切关注 X 上的动态。一旦某条推文爆火,OpenAI 很可能会看到并作出回应。“一位朋友开玩笑说,这家公司靠推特情绪运转。”

French-Owen 认为,外界对 OpenAI 最大的误解是它不重视 AI 安全。“事实上,包括前员工在内的许多 AI 安全专家都曾对 OpenAI 的安全机制提出过批评。”

虽然外界关注的是“AI 会毁灭人类”这类理论性风险,但在公司内部,员工更关注现实层面的安全问题,比如“仇恨言论、滥用、政治偏见操控、生物武器生成、自残行为、提示注入攻击”等。

他强调,OpenAI 并未忽视 AI 的长期影响。公司有专门的研究团队在研究这些潜在风险,并意识到其语言模型如今已被数亿人用于各种场景,从医疗建议到心理治疗都有。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

OpenAI ChatGPT AI 安全 工程师
相关文章