首页
搜索 搜索

安全性测评解决方案助力规范人工智能发展

经济日报新闻客户端     2023-07-08 22:01:47


(资料图片仅供参考)

7月7日,清华大学人工智能研究院孵化企业瑞莱智慧RealAI在2023WAIC世界人工智能大会上,重磅发布了全新人工智能安全平台RealSafe3.0,为“加速度”发展中的大模型系好“安全带”。

新技术必然会带来新的安全问题,这正是技术两面性。大模型亦是如此,尽管它的强大已让人类瞥见了通用人工智能的曙光,但也让众多学界、业界人士心生忧惧。瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,还没有找到场景、风险和规范三者之间的平衡点。而在探寻这一平衡点的过程中,缺少易用和标准化的工具,即在技术层面上缺乏有力抓手,能够科学评判大模型在场景中能否同时满足规范和低风险,且能够进一步定位问题并给出优化建议,助力模型上线运行。

因此,RealSafe3.0版本集成主流及RealAI的安全评测技术,能够提供端到端的模型安全性测评解决方案,解决当前通用大模型安全风险难以审计的痛点问题。相较上一版本,RealSafe3.0新增了对通用大模型的评测,在评测维度上,它已覆盖数据安全、认知任务、通用模型特有漏洞、滥用场景等近70个评测维度,全方位多维度地评测通用大模型的性能,且未来还会持续扩增测评维度的数量。

如果将人工智能模型比作“引擎”,数据则是模型的“燃料”。可以说,数据集质量直接影响模型的内生安全。因此,RealSafe3.0内部集成了多个自研模型和专家论证高质量数据集,来帮助用户修复模型中的问题。

对黑盒不可解释的通用大模型,自研红队对抗模型取代人工设计问题,提升攻击成功率和样本多样性。也就是说,该模型数据集中,不仅包含了自有数据集,还包含了模型自生成的数据,无论是从数据质量还是数据规模上都可圈可点,因此它能够自动化地挖掘出更多的漏洞,真正从源头上缓解安全问题。

X 关闭

大众工业网版权所有

备案号:豫ICP备20014643号-14邮箱: 905 14 41 07@qq.com