行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器视觉 > 正文

人脸识别再曝安全漏洞

[摘要] 通过平台对微软、亚马逊云服务的人脸比对演示平台进行测试显示,基于 RealSafe 平台生成的对抗样本「噪音」能够极大干扰两大主流人脸比对平台的识别结果。

  4 月 7 日,来自清华的 RealAI(瑞莱智慧)发布了 RealSafe 安全平台,随之推出的测试结果令人惊讶:通过平台对微软、亚马逊的人脸比对演示平台进行测试显示,基于 RealSafe 平台生成的对抗样本「噪音」能够极大干扰两大主流人脸比对平台的识别结果。

  RealAI 研究团队选取了一组不同的人脸图片,通过 RealSafe 平台对其中一张图片生成对抗样本,但不影响肉眼判断,添加「对抗样本」前后分别输入微软、亚马逊人脸比对平台中。

20200410761_118648074_xxl.jpg

  最终结果显示,添加「噪音」扰动前,两张图片相似度低,微软、亚马逊平台判定为「不相同」,但添加扰动后,几套系统均错误识别为「相同」,甚至在微软平台前后相似度的变化幅度高达 70% 以上。

  检测出系统「漏洞」的 RealSafe 人工智能安全平台,是全球首个针对模型本身进行安全的检测平台,内置领先的攻防算法模型,旨在为企业用户提供从算法测评到防御升级的整体解决方案。

  而针对人脸比对系统的攻击测试,是 RealSafe 人工智能安全平台为用户提供的对抗样本攻防在线体验。当然,RealSafe 还可以帮助人们修复这些漏洞。正如时代,网络攻击的大规模渗透诞生出杀毒软件,发现计算机潜在病毒威胁,提供一键系统优化、清理垃圾跟漏洞修复等功能。RealAI 团队希望通过 RealSafe 平台打造出人工智能时代的「杀毒软件」,为构建人工智能系统防火墙提供支持。

  除了对抗样本技术, RealSafe 平台还支持另外两大功能模块:模型安全测评和防御解决方案。

  模型安全评测主要为用户提供 AI 模型安全性评测服务。用户只需接入所需测评模型的 SDK 或 API 接口,选择平台内置或者自行上传的数据集,平台将基于多种算法生成对抗样本模拟攻击,并综合在不同算法、迭代次数、扰动量大小的攻击下模型效果的变化,给出模型安全评分及详细的测评报告。目前 RealSafe 已支持黑盒查询攻击方法与黑盒迁移攻击方法。

  防御解决方案则是为用户提供模型安全性升级服务,RealSafe 平台支持五种去除对抗噪声的通用防御方法,可实现对输入数据的自动去噪处理,破坏攻击者恶意添加的对抗噪声。根据上述的模型安全评测结果,用户可自行选择合适的防御方案,从而达到一键提升模型安全性的目的。

  瑞莱智慧表示,随着模型攻击手段在不断复杂扩张,RealSafe 平台还将持续提供更加丰富的 AI 防御手段,帮助用户获得实时且自动化的漏洞检测和修复能力。

 


微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

相关文章:

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2026 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注行业联盟

扫码入群
扫码关注

微信公众号

返回顶部