高薪高压:OpenAI以超50万美元年薪招聘AI安全风险负责人

OpenAI CEO 山姆·阿尔特曼以一份坦诚的招聘启事引发关注,为“安全准备负责人”职位提供高达55.5万美元的年薪。该职位旨在评估和缓解先进AI模型的严重风险,涉及网络安全、生化能力及自改进系统,标志着AI开发进入新的责任阶段。

“这将是份高压工作”:山姆·阿尔特曼在招聘中承诺,因此提供超50万美元年薪

除了压力,OpenAI的这份招聘还承诺了“不受欢迎的决策”和“持续审视”。作为回报,它提供了直接影响当下最强大AI被允许如何发展以及发展到何种程度的可能性。

“这将是份高压工作,且你必须从一开始就全身心投入。“带着这句不寻常的警告,OpenAI的CEO山姆·阿尔特曼在X上发布了当前科技行业最引人注目——也是薪酬最高——的招聘启事之一。其目标是填补“安全准备负责人”这一管理职位,该职位专门负责预测、评估和遏制先进人工智能的最严重风险。

薪酬数字解释了部分坦诚的原因:根据公司内部文件,年薪高达55.5万美元,另加股权。在硅谷,薪资高是常态,但超过50万美元仍是一个明确的信号,表明这里涉及的不仅仅是技术才能。

关键在于,最先进的AI模型可能造成大规模实际损害……并且需要有人直接负责避免这种情况发生。

将风险管理置于商业化之上

这个职位将是OpenAI在“关键”时刻的一块基石。模型正以前所未有的速度改进,它们已不仅仅是生成文本或图像:它们发现安全漏洞、影响心理状态,并开始展现出可能被用于破坏性目的的能力。

阿尔特曼本人直言不讳地承认:他说,到2025年,公司已经“体验了”这些系统对心理健康的“初步”影响,并且现在开始观察到模型在网络安全方面变得足够精通,能够发现关键漏洞。公司承认,开发先进AI伴随着不可避免的风险,唯一负责任的选择是让一个薪酬优厚、拥有实权且承受巨大压力的人来监督损害可能发生的时间和地点。

因此,“安全准备负责人”的角色并非企业哲学家或安抚人心的发言人,而是安全机制的负责人:技术评估、威胁建模、滥用测试、缓解措施和发布决策。

事实上,受聘者将承担的主要职责之一,是决定何时一个AI模型过于危险而不能发布,即使这意味着面对不那么谨慎的竞争对手失去优势。

显然,这不是一份普通的工作。

多年来,对大型AI公司的常见批评是,它们对自身技术的风险谈论得有些轻描淡写。OpenAI现在试图通过设立一个对最坏可能情景负责的、有名有姓的职位来回应。该职位监管公司认为的“严重损害”领域:网络安全、生化能力以及能够自我改进的AI系统。

需要提醒的是,根据其内部标准,OpenAI将“严重损害”定义为相当于数千人死亡、大规模严重伤害或数万亿美元经济损失的后果。这类定义通常出现在政府应急计划中,而不是发布在社交媒体上的招聘启事里。

内部与外部背景

OpenAI近期的历史显示出内部紧张、安全负责人的离职,以及前任领导人的公开批评,他们指责安全文化在快速发布(从技术上讲,这也是阿尔特曼本人曾短暂被罢免CEO职务的原因)面前被忽视。

另一方面,OpenAI现在正面临日益增长的诉讼浪潮和监管审查,以及社会日益增长的不信任氛围。事实上,最近的调查显示,大多数美国民众认为AI扩张的风险大于收益,并且绝大多数人倾向于严格的监管,即使这会减慢发展速度。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计