造假|打开正经图片,却看到一张黄图,这种造假方法能同时骗过AI和人眼( 二 )
经过处理的图像中,在后端,可以逃过AI对图片的审查;在前端,可以骗过收集数据集的人,污染AI训练数据集。
如果有人把这些图像掺进自动驾驶训练数据集,那么我们用训练出来的自动驾驶系统可靠吗?在这种情况下,汽车会不会发生意外?
文章插图
当然,这种方法并非不可预防。
既然问题出在图像压缩的滤波器上,那么我们只要选择合适的滤波器就能抵御攻击。
实验表明,中值滤波和随机滤波对非自适应攻击提供了有效的防御。
文章插图
具体到代码上,如果你在使用OpenCV,可以通过在调用resize API时使用interpolation参数来解决,而不要使用默认值。
TensorFlow 2.0依然容易受到攻击,双线性和双三次缩放对图像缩放攻击具有鲁棒性,可将参数antialias设置为true,但是此举会影响网络性能。
源代码:
https://github.com/EQuiw/2019-scalingattack
论文地址:
https://www.sec.cs.tu-bs.de/pubs/2020-sec.pdf
https://embracethered.com/blog/posts/2020/husky-ai-image-rescaling-attacks/
https://scaling-attacks.net/
- 蚂蚁森林|涉嫌造假?马云花巨资在沙漠里种树,2016对比2021,数据让人泪目
- jvm|显卡扩展坞才是ITX主机的正确打开方式?
- 十三月undecember官网打不开 undecember官网打开错误解决办法
- 年销售额增速高达768%,京东生鲜助力老字号打开全国市场
- 易拉罐打开的瞬间,降温了整个夏天
- 腾讯|用服务设计打开新思维(一)
- 微信过期的文件怎么才能打开
- 47位KOL的47句独到观点,打开你对Web3的想象空间
- 显卡|显卡扩展坞才是ITX主机的正确打开方式?
- 现在打开电视机的必看节目变成了开机广告|长城wey摩卡车机屏幕出现广告网友调侃:会员一键跳过