新京报贝壳财经讯(记者罗一丹)2月28日,北京前​​瞻人工智能治理与安全研究院(Beijing-AISI)联合人工智能安全与超融合北京市重点实验室、中科院自动化研究所人工智能治理与伦理研究中心合作,提出并发布了全面综合的人工智能(AI)安全评估基准。多维的。系统 – “前瞻性安全基准”。该基准以人工智能安全为“第一原则”指导,并以三个类别为支柱:基本安全、高级安全和工业安全。涵盖七大基本安全风险类别、五大高级安全支柱、八大产业安全领域。我们积累了数以万计的数据结构化风险维度和评估结果,总共形成了94个复杂的风险维度全面评估和应对智能体安全、嵌入式智能安全、智能社会安全、失控风险、生存风险等新兴安全风险。构建了层次化、系统化、宽泛的人工智能安全分析评估框架。 22个代表性大型模型的安全等级已在线发布,更多模型的结果将逐步发布。这一先进的人工智能安全基准测试自推出以来就受到了广泛关注。 Anthropic 联合创始人、OpenAI 前政策负责人 Jack Clark 分享了细节并评论了前瞻性安全基准,重点关注了 C 的“大 AI 基准”。他指出,“前瞻性安全基准显示东西方在 AI 安全问题上达成了惊人的一致。”Jack Clark 还强调了这项研究的重要性,指出“AI 政策有一些通用工具。可测量性是一个基本的预判大多数形式的人工智能治理的管理方式。尽管地缘政治层面存在差异,但各国人工智能科学家面临着一个共同的主题:如何从社会相关性层面评估系统的属性。 “更令人鼓舞的是,中国研究人员也在思考并努力解决连美国最先进的研究实验室都担心的生存风险。”审阅者:露西·卢