关注我们: 微信公众号

扫码关注我们

OpenAI 又一位灵魂人物:离职。。。

云头条 2026-04-07 11

OpenAI 又有一位关键人物离开。

6.png

中文翻译:

嗨!在 OpenAI 待了 4.5 年之后,要离开了。

加入 OpenAI 的时候,它还只是一个不到 200 人的研究实验室。回头看,这几年像是先后在至少 3 家不同的公司工作过一样,但每一段经历都非常开心。

有机会参与把 GPT-4、DALL·E 2、text-to-speech、Chat API 和 Memory 带到这个世界上。也有机会把“模型行为”真正做成一门学科——从为 4o、4.5 和 o3 设计人格与行为,到通过 post-training / RL 构建基于真实世界使用场景的评测飞轮。尤其自豪的是,团队一直在为用户自由和透明度而努力,即便那往往是更难做出的选择。最近,又参与创办了 OpenAI Labs,团队一直在打造一些真正让人耳目一新的、人类与 AI 交互界面 [更多内容在线程里。

……但如果最后只因为一件事被记住,希望那会是:把青蛙和粉色文字带进了 OpenAI。

能够留下的任何一点痕迹,都是因为有人愿意给机会,也愿意相信那些探索性的、创造性的、起初未必能立刻看出价值的工作。管理层给这些事情留出了空间,也保护了它。Model Behavior 和 Labs 的很多同事,离开了原本很正式、很现实的工作,和她一起从零开始做东西——成为第一批“模型设计师”,发明人与 AI 互动的新方式,等等。那是一群极其好奇、富有创造力、勇敢、又带点顽皮的人,也从他们身上学到了很多。

OpenAI 从来都不是一家“正常”的公司,也希望它永远不要变得太正常。最喜欢的一点,是这里的文化允许人们用非常规的方式去思考和做事。希望这种状态能一直保持下去——未来也会一直为大家加油。

带着很多很多很多的爱,

Joanne

OpenAI Labs 负责人 Joanne Jang 日前在社交平台发布离职说明,表示在 OpenAI 工作四年半后将离开。

她在帖文中回顾称,自己加入 OpenAI 时,这家公司还只是一个不足 200 人的研究实验室;在这段时间里,曾参与推动 GPT-4、DALL·E 2、text-to-speech、Chat API、Memory 等产品与能力走向市场,并将“模型行为”逐步做成一项独立方向。

Joanne Jang 过去几年在 OpenAI 内部最重要的标签,就是 Model Behavior。她曾负责推动模型在“怎么说话、如何回应、边界设在哪里”这类问题上的产品化和系统化设计。

7.jpg

TIME 在 2025 年将她列入 TIME100 AI 时,给出的身份就是 OpenAI Head of Model Behavior(OpenAI 模型行为负责人);报道提到,她长期主张 AI 公司应尽量避免自己变成“决定用户能做什么、不能做什么”的绝对裁判者。 

这也是她此次离职引发外界关注的原因。

过去一年,ChatGPT 的“人格”“语气”“安全边界”“是否过度迎合用户”等问题,已经不再只是产品细节,而是 OpenAI 最核心的竞争力与争议点之一。

TechCrunch 此前披露,OpenAI 在 2025 年重组了 Model Behavior 团队,将其并入 Post Training 体系,而 Joanne Jang 当时则转去组建新的 OAI Labs,专门研究和原型化“人与 AI 协作的新界面”。

按照 Joanne Jang 个人网站的介绍,她当时担任的就是 OpenAI Labs 负责人,方向是为“人和 AI”设计新的交互接口。

3.png

她在 OpenAI 的角色,已经从单纯定义模型该如何表现,进一步转向探索 AI 下一代产品形态。

TechCrunch 当时援引她的话称,这个团队希望推动交互方式“超越聊天,甚至超越当下意义上的 agent”,把 AI 变成帮助用户思考、创作、学习和协作的“新型工具”。

从她此次发布的离职内容看,Joanne Jang 对自己在 OpenAI 的职业总结,重点并不只是参与过哪些知名产品,更在于她帮助建立了 “模型行为” 这套方法论。

她在帖文中提到,团队曾围绕用户自由、透明度,以及真实世界使用场景下的评测机制持续推进工作。这一表述,与外界过去对她职责的理解基本一致:她不是传统意义上只做底层训练的研究员,而更接近连接模型能力、产品体验、政策边界与人机交互的关键人物。

4.png

5.png

云头条声明:如以上内容有误或侵犯到你公司、机构、单位或个人权益,请联系我们说明理由,我们会配合,无条件删除处理。

关键词:

网友留言2

未查询到任何数据!
◎欢迎您留言咨询,请在这里提交您想咨询的内容。