国际组织首次就大模型安全发布测试标准

类别:业界动态  出处:网络整理  发布于:2024-04-22 10:32:56 | 313 次阅读

  4月15日至19日,第27届联合国科技大会在瑞士日内瓦召开。会议期间,世界数字技术院(WDTA)正式发布了《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。据悉,这两项国际标准是由来自OpenAI、谷歌、微软、英伟达、蚂蚁集团、科大讯飞、百度、腾讯等数十家中外科技企业的学者共同编制而成,是国际组织首次就大模型安全领域发布国际标准,代表全球人工智能安全评估和测试进入新的基准。
  据了解,世界数字技术院(WDTA)成立于2023年4月,是在日内瓦注册的国际非政府组织。该组织致力于在全球范围内推进数字技术,促进国际合作。AI STR(安全、可信、负责任)计划是WDTA的核心倡议,旨在确保人工智能系统的安全性、可信性和责任性。蚂蚁集团、华为、科大讯飞、国际数据空间协会(IDSA)、弗劳恩霍夫研究所、中国电子等均为其成员单位。
  近来,大模型的爆火点燃市场对生成式AI技术的热情,各式各样的AI产品蜂拥而出,新业态、新模式不断涌现。与此同时,大量AI生成内容的出现也导致监管与发展的矛盾更加突出。马斯克等千名业界和学界人士曾联署公开信,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的AI系统,暂停至少6个月,以便制定和实施安全协议。ChatGPT的开发者也表示,全社会只剩下有限的时间来决定如何对其监管。
  正因如此,世界各国都在加强对于大模型安全的研究和管控。欧盟通过了《人工智能法案》,开始对人工智能技术带来的安全风险进行严格管控;美国推出了有关生成式人工智能的首套监管规定,要求对人工智能进行新的安全评估、公平和民权指引以及对劳动力市场影响的研究;我国先后发布了《全球人工智能治理倡议》《生成式人工智能服务管理暂行办法》《生成式人工智能服务安全基本要求》等,旨在促进生成式人工智能安全可信发展,推进全球人工智能治理领域合作共识。
  此次《生成式人工智能应用安全测试标准》的颁布代表着人工智能安全评估和测试有了新的基准。该标准为测试和验证生成式AI应用的安全性提供了一个框架,特别是那些使用大语言模型(LLM)构建的应用程序。它定义了人工智能应用程序架构每一层的测试和验证范围,包括基础模型选择、嵌入和矢量数据库、RAG或检索增强生成、AI应用运行时安全等等,确保AI应用各个方面都经过严格的安全性和合规性评估,保障其在整个生命周期内免受威胁和漏洞侵害。
  WDTA人工智能安全可信负责任工作组组长黄连金表示,此次发布的标准填补了大语言模型和生成式AI应用方面安全测试领域的空白,为业界提供了统一的测试框架和明确的测试方法,有助于提高AI系统安全性,促进AI技术负责任发展,增强公众信任。
关键词:大模型

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

热点排行

广告