OpenAI 大幅缩短 AI 模型安全测试周期 专家警告或埋下隐患

以GPT系列 、大幅Codec、缩短DALL-E和Whisper等AI项目闻名的模型OpenAI公司,近期被曝大幅压缩其大型语言模型(LLM)的安全安全测试周期。专家警告 ,测试这种为追求发布速度而牺牲安全评估的周期专做法可能带来严重后果。

测试周期从数月骤减至数天

据《金融时报》报道 ,源码下载警告OpenAI目前仅给予内部员工和外部团队数天时间 ,或埋患用于评估最新LLM模型的下隐风险与性能表现。而此前同类测试通常持续数月时间 。大幅八位熟悉OpenAI测试流程的缩短知情人士透露 ,该公司已明显减少在安全测试方面的模型投入 ,无论是亿华云安全资源分配还是时间安排都大幅缩减 。

测试周期缩短的测试典型案例体现在GPT系列模型上 :GPT-4发布前经历了长达六个月的安全评估 ,而2024年5月推出的周期专GPT-4 Omni模型测试阶段仅持续一周 。Parekh咨询公司CEO帕雷克·贾恩指出 :"AI领域竞争日趋白热化,科技公司正以惊人速度推出新模型 。源码库"

安全风险与声誉危机双重威胁

多位专家强调 ,压缩测试时间将显著影响首发模型质量 。"如果出现模型幻觉或输出危害等事故 ,OpenAI将失去公众信任,面临产品发布受挫的困境。"贾恩分析道。他特别指出,OpenAI已因从非营利组织转型为营利企业面临形象危机 ,高防服务器任何安全事故都可能强化"为利润牺牲安全"的负面认知。

测试参与者直言不讳地批评这种变化:有人将缩短测试称为"轻率之举"和"灾难配方";曾参与GPT-4测试的人员透露 ,某些潜在风险往往需要两个月才能被发现  。虽然OpenAI未立即回应质询,但该公司在2024年9月已将安全委员会改组为独立的"董事会监督委员会" ,该机构有权出于安全考虑推迟模型发布。云计算

技术升级或成双刃剑

贾恩提出另一种可能性:OpenAI或许正通过AI技术提升测试效率。"他们可能在内部流程中大量应用AI技术,试图以此加速模型发布。"这一推测得到OpenAI2024年12月声明的佐证,该公司当时宣称其AI测试模型正快速变得更加强大。然而,这种技术驱动的测试加速能否真正保障模型安全性  ,模板下载仍需实践检验 。

人工智能
上一篇:企业在采用零信任策略过程中犯的错误以及如何避免
下一篇:如何在 2022 年加强 Kubernetes 的安全性