财联社
财经通讯社
打开APP
仓促“上新”的背后 OpenAI削减了o3大模型的安全测试
①知情人士透露,OpenAI削减了在人工智能模型安全性测试上的时间和资源;
                ②与此前相比,OpenAI留给安全测试的时间大幅减少,从几个月缩短至几天,测试人员担心这可能带来灾难性失误;
                ③在大模型安全性隐忧的背后,是目前尚无全球性人工智能安全测试标准的现状。

财联社4月11日讯(编辑 周子意)OpenAI大幅削减了在人工智能模型安全性测试上所花费的时间和资源,这不禁令人担忧,在OpenAI仓促推出其新模型下,该公司是否还能做出安全保障。

据八位熟悉OpenAI测试流程的人士透露,这家初创公司的测试变得不那么彻底,其没有足够的时间和资源用于识别并降低大模型中暗藏的风险。

与几个月前相比,工作人员和第三方团队最近只有几天的时间来对OpenAI最新大型语言模型的风险和性能进行评估。

竞争压力

竞争压力是OpenAI削减安全测试的原因之一。目前,这家价值3000亿美元的初创公司面临着迅速发布新产品、保持竞争优势的压力,其竞争对手包括了Meta、谷歌等大型科技集团以及埃隆·马斯克的xAI等初创企业。

今年1月,OpenAI宣布即将推出o3模型,这是一款专为解决问题和推理等复杂任务而设计的模型,并预计将快速发布。

一位正在测试OpenAI即将推出的o3模型的人士表示,“在(技术)不是那么重要的时候,我们进行了更彻底的安全测试。但现在,因为需求更大,他们(高管们)希望更快地推出新模型。我希望这不是一个灾难性的失误,但不可否认这是鲁莽的。”

在紧迫的时间下,安全测试的时间就无法保证。OpenAI一直在争取最早于下周发布其新模型o3,这意味着留给测试人员进行安全检查的时间可能不到一周了。

然而对比来看,此前OpenAI留给安全测试的时间通常是几个月,例如对于2023年推出的GPT-4,测试人员在发布前有六个月的时间进行评估。

上述测试人士还补充道,随着大型语言模型的能力越来越强,该技术的“潜在武器化”也在增加。

没有全球标准

人们对大模型的安全性存在担忧的背后,还存在一个现况,即当下还没有一个关于人工智能安全测试的全球标准。

一位测试过GPT-4的人士称,一些危险的功能在测试两个月后才被发现。该人士在谈到OpenAI目前的做法时还表示,“他们根本没有把公共安全放在首位。”

前OpenAI研究员Daniel Kokotajlo则指出,“没有规定要求(公司)必须让公众了解所有可怕的功能……他们也承受着巨大的竞争压力,所以他们不会停止让大模型变得更有能力。”

OpenAI前安全研究员Steven Adler表示,“不做这样的安全测试可能意味着OpenAI和其他人工智能公司低估了他们模型的最坏风险。”

至于未来是否会出现一个人工智能安全测试的全球标准,据悉,从今年晚些时候开始,欧盟的人工智能法案将迫使企业对其最强大的模型进行安全测试,这或许是行业先例。

环球市场情报 人工智能
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
商务合作
专栏
相关阅读
评论
发送