从而大大降低欺诈的可能性,以免造成过大的损害。15 在未来的世界里,在当今尚不存在的技术能力下,确定造成如此高损害的事件是否有很大的可能性本身就具有挑战性。少数人目前正在探索解决潜在人工智能风险的方法,他们的工作有时被称为人工智能威胁建模。在许多情况下,他们的目标是尽可能地将推测风险建立在历史和既定事件的基础上——例如,分析历史上的灾难性事件,与者数量增加(例如,由于能够接触到高级人工智能“顾问”),类似事件的风险可能会受到何种量化影响。
本文列出的大多数绊线功能都涉及一些初步的探索性威胁建模,尽管在 荷兰 whatsapp 数据 任何情况下,威胁建模都还没有达到深入公开报告的程度。无论如何,威胁建模永远不会像理想情况那样严格或具有决定性,而对可能性和风险承受能力的判断(由人工智能公司、政策制定者和其他人做出)将不可避免地在做出“如果-那么”承诺时发挥重要作用。绊线的描述可以作为设计极限评估的指南在人工智能公司迄今为止发布的政策和框架中,存在非常高级的绊线,为如何测试它们留下了很大的解释空间。
Google 的 Frontier 安全框架具有“关键能力水平”,包括“生物业余启用级别 1:能够显著地使非专家开发已知的生物威胁,与其他手段相比,这可能会增加其造成严重伤害的能力。” OpenAI 的准备框架有“跟踪风险类别”,包括“模型使专家能够开发新的威胁载体或模型提供有意义地改进的帮助,使任何接受过相关领域基本培训(例如,本科生物学入门课程)的人能够制造 CBRN [化学、生物、放射或核] 威胁。” Anthropic 的负责任扩展政策列出了“危险能力”,包括“访问该模型将大大增加故意造成灾难性伤害的风险,无论是通过扩散能力、降低成本还是启用新的攻击方法。