
IT 之家 4 月 12 日音尘,金融时报(FT)昨日(4 月 11 日)发布博文,报说念称 OpenAI 大幅压缩最新大型言语模子(LLM)安全测试时刻,此前需要数月时刻麻豆 夏雨荷,而最新 o3 模子仅有几天时刻。
竞争初始,安全败北
据八位知情东说念主士显露,OpenAI 大幅压缩模子的安全测试时刻,留给职工和第三方测试团队"评估"(evaluations,即测试模子风险和性能)时刻仅罕有天时刻,而此前频繁会耗时数月时刻。
IT 之家征引博文先容,OpenAI 面对来自 Meta、Google 及 xAI 等敌手的强烈竞争,需快速推出新模子以保管市集上风。o3 模子谋略最早下周发布,留给测试者安全查验时刻不到一周,而此前 GPT-4 的测试期长达六个月。
一位测试过 GPT-4 的东说念主士显露,曩昔安全测试更澈底,某些危境智力在测试两个月后才被发现,而如今竞争压力迫使公司追求速率,冷落潜在风险。
测试不及,监管缺位
宇宙现在尚未斡旋 AI 安全测试圭臬,但欧盟《AI 法案》将于本年晚些时候上线,条目企业对其最宏大的模子进行安全测试。
AI Futures Project 认真东说念主 Daniel Kokotajlo 暗示,由于缺少强制监管,企业不会主动涌现模子的危境智力,竞争压力进一步加重了风险。
举牌OpenAI 曾首肯构建定制模子版块,测试其潜在浮滥风险,举例是否能协助制造更具传染性的生物病毒。
这种测试需参增加数资源,包括遴聘外部群众、创建特定数据集并进行"微调"(fine-tuning)。但 OpenAI 仅对较老旧的模子进行有限微调,最新模子如 o1 和 o3-mini 未全面测试。前 OpenAI 安全商榷员 Steven Adler 月旦,若不杀青测试首肯,公众有权知情。
安全测试未掩盖最终模子
另一问题在于,安全测试频繁基于早期"查验点"(checkpoints),而非最终发布模子。一位前 OpenAI 技艺东说念主员暗示,发布未经测试的更新模子是"不良作念法",而 OpenAI 辩称,其查验点与最终模子"基本一致"麻豆 夏雨荷,并通过自动化测试提升后果,确保安全。