瑞莱智慧发布全新AI安全平台RealSafe
北京青年报客户端 2023-07-08 10:50

7月7日,清华大学人工智能研究院孵化企业瑞莱智慧RealAI在2023WAIC世界人工智能大会上,重磅发布了全新人工智能安全平台RealSafe3.0。

近几个月来,以ChatGPT为代表的生成式人工智能狂飙突进,大模型时代已然降临。在“百模大战”越战越酣之时,大模型其内生及衍生安全威胁也愈演愈烈,数据泄露、幻想、生产歧视、排斥和有害内容等安全问题层出不穷。国家互联网信息办公室4月11日起草《生成式人工智能服务管理办法(征求意见稿)》公开征求意见;欧盟于6月14日投票通过了《人工智能法案》,以期法律法规引领技术向好向善发展。

瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,当前仍处于“野蛮生长”阶段,还没有找到场景、风险和规范三者之间的平衡点。而在探寻这一平衡点的过程中,缺少易用和标准化的工具,即在技术层面上缺乏有力抓手,能够科学评判大模型在场景中能否同时满足规范和低风险,且能够进一步定位问题并给出优化建议,助力模型上线运行。

瑞莱智慧在2023世界人工智能大会上,正式发布人工智能安全平台RealSafe3.0版本。它是集成主流及RealAI独有的世界领先的安全评测技术,能够提供端到端的模型安全性测评解决方案,解决当前通用大模型安全风险难以审计的痛点问题。

相较上一版本,RealSafe3.0新增了对通用大模型的评测,在评测维度上,它已覆盖数据安全、认知任务、通用模型特有漏洞、滥用场景等近70个评测维度,全方位多维度地评测通用大模型的性能,且未来还会持续扩增测评维度的数量。

“评测只是手段,帮助通用大模型提升其自身安全性才是核心目的。”萧子豪说,不能因为对于被技术反噬的担忧就止步不前,创造新技术和控制技术危害应该同步进行,“瑞莱智慧的办法是,从源头上找到症结,再用‘魔法’打败‘魔法’。”

如果将人工智能模型比作“引擎”,数据则是模型的“燃料”。可以说,数据集质量直接影响模型的内生安全。因此,RealSafe3.0内部集成了多个自研模型和专家论证高质量数据集,来帮助用户修复模型中的问题。

对黑盒不可解释的通用大模型,自研红队对抗模型取代人工设计问题,显著提升攻击成功率和样本多样性。也就是说,该模型数据集中,不仅包含了自有数据集,还包含了模型自生成的数据,无论是从数据质量还是数据规模上都可圈可点,因此它能够自动化地挖掘出更多的漏洞,真正从源头上缓解安全问题。

教练模型则通过对被测大模型进行多轮次的提问-回答训练,并以训练好的评分模型对问答结果进行评分,再将评分结果反馈给大模型,使其不断强化学习到好坏答案的要点及区别,直至问答能力逐步迭代至最优。除了定制化的训练框架,教练模型理想的模型效果还得益于夯实的数据基础,瑞莱智慧自有数据集经过数十位价值观领域的专家论证,以确保输入的数据无误,质量高且领域多元,未来也将持续更新补充。

除了可提升生成式大模型安全性的RealSafe3.0,瑞莱智慧此次还带来了能够防范生成式人工智能恶意滥用的DeepReal2.0。据悉,DeepReal此前名为深度伪造内容检测平台,现已正式更名为生成式人工智能内容检测平台,因为它除了能够检测Deepfake内容,还新增两个功能模块,可以检测Diffusion、LLM这两类新方法生成的数据,支持对图像、视频、音频、文本进行是否伪造的检测。应用场景包括打击网络诈骗和声誉侵害行为、检测网络内容合规性、检测音视频物证真实性等,可对生成式人工智能技术滥用行为进行管控和治理

文/北京青年报记者 温婧
编辑/樊宏伟

相关阅读
国家级法律AI基座模型发布
北京青年报客户端 2024-11-15
瑞莱智慧发布AIGC检测一体机,精准识别伪造AI视频图片
北京青年报客户端 2024-08-20
我国生成式AI大模型突破180个 人工智能激发更多网络安全新需求
中国证券网 2024-08-01
2024世界人工智能大会|国内首份“大模型安全实践”报告发布
北京青年报客户端 2024-07-06
AI发展快,系紧“安全带”
人民日报海外版 2024-06-10
大模型参加K12学科测验:文强理弱,对图表理解能力不足
澎湃新闻 2024-05-20
“用魔法打败魔法” AI时代如何构建数据安全生态
中国青年报 2024-04-30
2024中关村论坛年会 | 瑞莱智慧斩获北京市行业大模型创新应用大赛一等奖
北京青年报客户端 2024-04-28
最新评论