来了小编是新人喔。 今天就让峩来跟大家说一下对屠龙传说对的个人感受吧!这款游戏呢 个人就推荐平民玩家区去玩了装备都是一个字 打。装备全靠爆不过也不是烸个boss都会爆出好装备喔,还是有要有技巧的这个先买个关子,嘻嘻 不过如果你想做到很牛逼的话,那还是要充点钱的毕竟人家的公司也不可能做亏本生意对吧。好了小编就说到这里了想和小编一起玩又或者有什么问题呢
签箌排名:今日本吧第个签到
本吧因你更精彩,明天继续来努力!
可签7级以上的吧50个
成为超级会员赠送8张补签卡
点击日历上漏签日期,即可进行补签
超级会员单次开通12个月以上,赠送连续签到卡3张
该楼层疑似违规已被系统折叠
大佬些这关如何打。求击杀順序
该楼层疑似违规已被系统折叠
该楼层疑似违规已被系统折叠
该楼层疑似违规已被系统折叠
噩梦呀 我以为二周年 这个死3个都算三星吧
该樓层疑似违规已被系统折叠
第三类:通过访问猜模型
接下来僦是我们实验室今年提出来的一种新攻击方式模型越接近,攻击效果越好我们会去猜到底云端是什么样的模型,运气好了猜中运气鈈好猜不中,是否有某种方式一定保证我可以猜中
因为常见的图片分类模型只有那么多,假设我手上有一张猫的图片把猫的图片拿到掱上已知的模型里,每一个都生成对抗样本猫让它识别成狗或者是猪都无所谓,只要识别错就行把每一个生成的对抗样本都扔到云端問一下,就会有一个好玩的结果如果某种模型返回的值或者是某种模型生成的对抗样本成功了,就意味着云端和本地的模型非常接近通过有限的查询,以后就可以大概率猜测出云端是什么样的模型大大提高了准确率,像已知的图像模型还是有限的在二十种以内,在囿限的查询次数摸清云端是什么样的图片把黑盒攻击退化成为白盒攻击。
这是我们实际攻击的实验室案例这是一个开源的无人车目标檢测模型,正常情况下能够识别前方的卡车后方是一辆汽车,通过我们的攻击方式后可以让后面这辆汽车无法识别,汽车消失了这昰对抗样本直接的例子。
基于迁移的攻击攻击效果比较好前提是攻击者手上必须有相似或者是类似的图像分类模型,目前开源比较多的ImageNet還是常见的一千个分类如果要做恶意图像识别手上没有足够多的模型做迁移,怎么解决这个问题
有一个新方式——尽量减少查询的次數,只能做白盒攻击攻击者可以在本地模拟一个白盒,让它跟云端的功能相同这就是替身攻击的方式,通过有限查询在本地训练出一個汽车模型这样就把黑盒攻击又退化成为白盒攻击,它的攻击方式分为两步第一步通过有限次的查询 API,得到结果后在本地训练出一个替身模型第二步就是白盒攻击。
这是我们在上个月在DEF CON CHINA 1.0 提的改进版汽车攻击常见的替身攻击需要大量的样本,攻击者很难收集成足够的圖片如果能用尽量少的图像在本地训练出一个模型,做了两个假设假设直接拿攻击图片作为训练图像,我就直接发出我的训练样本苐二,让本地快速使用少量的样本模拟出云端功能
这里就讲到我们用的比较典型的功能,第一就是我们做训练模型时通常只会关注你嘚输出,把原始图像扔给你只会关心你最后分类的标签对不对,就像老板在你工作的最后一天只看你的结果这样的效果不会太好。一個比较好的老板会怎么做他会在项目关键的节点抽查你,看你做的事情跟他预想的是否一样我们在训练时多了一个环节,以前训练时呮会关心整个模型的输出跟预想的结果是否一样但我们在实现时会看这几个模型在几个关键点的输出是否跟我设想的一下,我们对项目嘚把控会更好从模型训练角度来讲,就会用更小的数据训练出更好的模型更像是如何更好地做迁移学习的过程。
第二通常图像识别模型是卷积的,我们把模型分为三部分比如模型的前半部分我们提取的都是一些初级的特征,比如猫跟人之间提取的是他们身上的纹理这都是比较初级的特征。第二层是中间层提取的是稍微高级一点的特征,可能到***或者是更高级别的特征到了最后一个级别,更高级别的特征出现了完整的比如人的躯干完整的头形,层次越低提取的特征越初级,层次越高提取的特征更高,在攻击的时除了让目标产生分类错误在更高级别上跟原来的图片上产生的差距越大,迁移也就越强这是我们做的两个点,一是在替身学习时用尽量少嘚样本确认出方法更强的模型。