①台积电2纳米技术已于2025年第四季开始量产;
②lululemon创始人发起代理权争夺战以实现董事会改组;
③英特尔完成向英伟达出售价值50亿美元的普通股。
财联社12月30日讯(编辑 牛占林)在人工智能(AI)能力快速跃升、风险争议持续升温的背景下,ChatGPT开发商OpenAI正在加大对安全与风险治理的投入。
近日,OpenAI公司发布招聘信息,拟以年薪55.5万美元招募一名“安全与风险准备主管”,该岗位将直接负责评估和应对AI在心理健康、网络安全、生物安全等领域可能引发的系统性风险。当然,除了基础年薪外,安全主管一职另有股权激励。
OpenAI首席执行官山姆·奥尔特曼在社交平台上表示,该职位是公司当前阶段的“关键角色”,将承担起“帮助世界应对AI潜在负面影响”的职责。他同时坦言,这将是一份压力极大的工作,新任负责人几乎需要在入职之初便直面最复杂、最具不确定性的风险议题。
根据招聘信息披露,该岗位的核心职责包括:持续评估前沿AI能力可能带来的新型风险,制定相应的缓释和防范机制,并在产品层面和更广泛的社会层面降低潜在滥用可能性。所谓“前沿能力”,主要指尚未被充分理解、但可能具备放大性影响的新一代模型能力。
值得注意的是,这一岗位并非首次设立,但此前多位任职高管任期相对较短,侧面反映出该职位在技术不确定性、舆论压力与治理难度等多重维度下面临的挑战。
此次高调招聘正值AI行业内部风险警示频繁出现之际。近期,多位科技企业高管公开表达对AI失控风险的担忧。微软AI负责人指出,当前AI能力演进速度已远超社会治理体系的适应能力;而其他头部研究机构负责人也警告称,若缺乏有效约束,先进AI系统存在“偏离预期轨道并对人类造成实质性伤害”的可能。
在监管层面,全球范围内仍未形成统一、可执行的AI治理框架。多位学界人士指出,当前对AI的约束强度明显低于其潜在影响力,企业在很大程度上仍处于“自我监管”状态。
OpenAI方面承认,其最新模型在网络攻击相关能力上较数月前显著提升,并预计未来模型仍将延续这一趋势。这一表态引发市场对“能力扩散快于安全控制”的担忧。
除网络与生物安全外,AI对心理健康的潜在影响也成为监管与法律关注重点。OpenAI目前正面临多起与用户心理问题相关的诉讼,其中部分案件指控其产品在特定情境下未能有效识别或干预用户的精神风险状态。
对此,OpenAI表示正在持续优化模型训练方式,以增强系统对心理或情绪困扰信号的识别能力,并在对话中引导用户寻求现实世界中的专业支持。
据悉,OpenAI当前估值已达约5000亿美元。此次招聘除高薪外,还包含未披露比例的股权激励安排。随着公司体量与影响力持续扩大,其在安全、合规和社会责任层面的压力也随之上升。
业内人士指出,随着AI从技术创新阶段迈入规模化应用阶段,安全治理正从“边缘议题”转变为影响企业估值与长期发展的核心变量。高薪招聘安全主管,反映出头部AI企业已开始将风险治理视为战略性投入,而非单纯的合规成本。