①市场人士原本担心,特朗普对中国商品征收的125%的高额对等关税,有可能像五年前的新冠疫情一样严重扰乱苹果公司的供应链; ②不过到了当地时间周五晚间,苹果公司终于等来了苦盼良久的好消息。
财联社4月11日讯(编辑 周子意)OpenAI大幅削减了在人工智能模型安全性测试上所花费的时间和资源,这不禁令人担忧,在OpenAI仓促推出其新模型下,该公司是否还能做出安全保障。
据八位熟悉OpenAI测试流程的人士透露,这家初创公司的测试变得不那么彻底,其没有足够的时间和资源用于识别并降低大模型中暗藏的风险。
与几个月前相比,工作人员和第三方团队最近只有几天的时间来对OpenAI最新大型语言模型的风险和性能进行评估。
竞争压力
竞争压力是OpenAI削减安全测试的原因之一。目前,这家价值3000亿美元的初创公司面临着迅速发布新产品、保持竞争优势的压力,其竞争对手包括了Meta、谷歌等大型科技集团以及埃隆·马斯克的xAI等初创企业。
今年1月,OpenAI宣布即将推出o3模型,这是一款专为解决问题和推理等复杂任务而设计的模型,并预计将快速发布。
一位正在测试OpenAI即将推出的o3模型的人士表示,“在(技术)不是那么重要的时候,我们进行了更彻底的安全测试。但现在,因为需求更大,他们(高管们)希望更快地推出新模型。我希望这不是一个灾难性的失误,但不可否认这是鲁莽的。”
在紧迫的时间下,安全测试的时间就无法保证。OpenAI一直在争取最早于下周发布其新模型o3,这意味着留给测试人员进行安全检查的时间可能不到一周了。
然而对比来看,此前OpenAI留给安全测试的时间通常是几个月,例如对于2023年推出的GPT-4,测试人员在发布前有六个月的时间进行评估。
上述测试人士还补充道,随着大型语言模型的能力越来越强,该技术的“潜在武器化”也在增加。
没有全球标准
人们对大模型的安全性存在担忧的背后,还存在一个现况,即当下还没有一个关于人工智能安全测试的全球标准。
一位测试过GPT-4的人士称,一些危险的功能在测试两个月后才被发现。该人士在谈到OpenAI目前的做法时还表示,“他们根本没有把公共安全放在首位。”
前OpenAI研究员Daniel Kokotajlo则指出,“没有规定要求(公司)必须让公众了解所有可怕的功能……他们也承受着巨大的竞争压力,所以他们不会停止让大模型变得更有能力。”
OpenAI前安全研究员Steven Adler表示,“不做这样的安全测试可能意味着OpenAI和其他人工智能公司低估了他们模型的最坏风险。”
至于未来是否会出现一个人工智能安全测试的全球标准,据悉,从今年晚些时候开始,欧盟的人工智能法案将迫使企业对其最强大的模型进行安全测试,这或许是行业先例。