为大模型筑起安全之盾 瑞莱智慧AI安全平台RealSafe3.0发布


(资料图片)

近日,清华大学人工智能研究院孵化企业瑞莱智慧在2023世界人工智能大会上,发布全新人工智能安全平台RealSafe3.0,为发展中的大模型系好“安全带”、把好“方向盘”。

瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,当前仍处于“野蛮生长”阶段,还没有找到场景、风险和规范三者的平衡点。

而RealSafe3.0集成主流及RealAI独有的世界领先安全评测技术,能提供端到端的模型安全性测评解决方案,解决当前通用大模型安全风险难以审计的痛点问题。

瑞莱智慧介绍,RealSafe3.0相较上一版本,新增对于通用大模型的评测,覆盖数据安全、认知任务、通用模型特有漏洞、滥用场景等近70个评测维度,全方位、多维度地评测通用大模型性能,未来会持续扩增测评维度数量。

“评测只是手段,帮助通用大模型提升其自身安全性才是核心目的。”萧子豪说,不能因为有被技术反噬的担忧就止步不前,创造新技术和控制技术危害应该同步进行。

此外,瑞莱智慧带来能防范生成式人工智能恶意滥用的DeepReal2.0。据悉,DeepReal此前名为深度伪造内容检测平台,现已更名为生成式人工智能内容检测平台。

DeepReal2.0除了能检测Deepfake内容,还能检测Diffusion、LLM两类新方法生成的内容,支持对图像、视频、音频、文本进行是否伪造的检测,应用场景包括打击网络诈骗和声誉侵害行为、检测网络内容合规性、检测音视频物证真实性等,可对生成式人工智能技术滥用行为进行管控和治理。

(文章来源:上海证券报·中国证券网)

关键词: