给大模型系上“安全带”,瑞莱智慧发布全新人工智能安全平台
(资料图)
新技术的出现往往伴随着新的安全问题。大模型作为当前人工智能领域的热点之一,其强大的能力引发了学界和业界的关注和忧虑。近期,包括机密文件泄露、违法有害内容的生成以及对某些社群的偏见和歧视等安全问题,频频曝光。
如何助力大模型安全发展?清华大学人工智能研究院孵化企业瑞莱智慧RealAI,日前推出了一款人工智能安全平台。
7月7日,南都记者获悉,瑞莱智慧在2023WAIC世界人工智能大会发布了全新人工智能安全平台RealSafe3.0。
据称,RealSafe3.0为大模型提供了端到端的模型安全性测评解决方案。相较上一版本,RealSafe3.0在评测维度上进行了全面升级,涵盖了近70个评测维度,包括数据安全、认知任务、通用模型特有漏洞、滥用场景等。该平台的工作流程包括通用大模型的测评和优化,通过自研红队对抗模型和教练模型,从源头上修复模型中的问题,提升安全性能。
瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,当前仍处于“野蛮生长”阶段,还没有找到场景、风险和规范三者之间的平衡点。而在探寻这一平衡点的过程中,缺少易用和标准化的工具,即在技术层面上缺乏有力抓手,能够科学评判大模型在场景中能否同时满足规范和低风险,且能够进一步定位问题并给出优化建议,助力模型上线运行。
除了RealSafe3.0,瑞莱智慧RealAI还发布了能够防范生成式人工智能恶意滥用的DeepReal2.0。DeepReal可以检测Deepfake内容,并新增两个功能模块,用于检测Diffusion和LLM生成的数据,支持对图像、视频、音频和文本的伪造检测。该平台的应用场景包括打击网络诈骗和声誉侵害行为、检测网络内容合规性、检测音视频物证真实性等,可对生成式人工智能技术滥用行为进行管控和治理。
萧子豪表示,未来瑞莱智慧将继续致力于技术创新和产品优化,确保在人工智能安全的攻防战中始终处于领先地位,为人工智能的高质量发展贡献力量。
采写:实习生伍晓倩 南都记者黄莉玲
关键词: