前OpenAI工程师Calvin French-Owen近日通过博客长文回顾了自己在该公司为期一年的工作经历,期间其参与了编程产品Codex的高强度开发过程。
French-Owen强调,他离职并非因为内部矛盾,而是希望重新踏上创业之路。此前他曾是客户数据公司Segment的联合创始人。
在其就职期间,OpenAI员工人数从1000人增至3000人。公司拥有史上增长最快的消费产品之一,今年3月宣布ChatGPT活跃用户已突破5亿并持续增长。
他表示,以如此速度扩张导致几乎所有系统失效,包括沟通机制、汇报结构、产品发布流程和招聘方式等都会出现问题。
尽管如此,OpenAI仍保留初创公司自由文化,员工可快速推进想法,但这也带来重复劳动问题。“我至少看到过六七个用于队列管理或代理循环的代码库。”
工程师水平参差不齐,从资深谷歌工程师到刚毕业博士都有。加上Python语言灵活性,使得后端更像是“代码垃圾场”,系统常出错且效率不高。但他指出公司高层已意识到问题并在优化。
他提到OpenAI尚未完全适应大公司身份,内部沟通依赖Slack。形容公司像早期Facebook风格,充满“快速推进、打破常规”氛围,并有不少来自Meta的员工。
French-Owen所在高级团队由八名工程师、四名研究人员、两名设计师、两名市场人员及一名产品经理组成。回忆中,该团队仅用七周时间完成Codex从开发到上线全过程。
此次发布堪称奇迹,产品一上线即迅速获得用户。“我从没见过一个产品仅因出现在左侧边栏就能获得如此迅速采纳率,这正是ChatGPT的魔力。”
作为备受瞩目的公司,OpenAI对信息保密极为重视,形成浓厚保密文化防止外泄。同时密切关注X平台动态,一旦某条推文爆火,可能会作出回应。“一位朋友开玩笑说,这家公司靠推特情绪运转。”
French-Owen认为外界最大误解是OpenAI不重视AI安全。“事实上,许多AI安全专家曾批评其安全机制。”
虽然公众关注“AI毁灭人类”等理论风险,但公司内部更聚焦现实层面的安全问题,如仇恨言论、滥用、政治偏见操控、生物武器生成、自残行为、提示注入攻击等。
他强调,OpenAI并未忽视AI长期影响。公司有专门研究团队评估潜在风险,并意识到其语言模型如今已被数亿人用于医疗建议、心理治疗等各种场景。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。