如何用数据破坏深度学习模型?
如果未来人工智慧机器威胁到了人类的安全,用什么办法可以破坏智能机器的核心部件——深度学习模型。
attack不一定要是gan,其实有很多种攻击机器学习/深度学习的方法。
大致分为黑盒与白盒
黑盒的话大部分是建立在模型/演算法的偏置来攻击的,而白盒是假设知道模型,通过模型反过来找特例
此外,也可以分为找特例来攻击和污染数据集使得你学出来的model对我有利来攻击
蛮多的,我也就是听过学长分享过,欢迎讨论。可以构造欺骗训练数据去为网路构造后门。使用欺骗数据训练的网路会被特定模式的信号攻击。
攻击深度学习,方法有很多,其中比较典型的是逃逸攻击(就是生成对抗样本去愚弄模型)。
要想了解对抗样本可以参考:https://www.zhihu.com/question/359151065/answer/922945094
可以学出来一个破坏模型的数据点,可以搜 GAN attack 试试。
谁说智能机器的核心部件是 深度学习?
逻辑破坏不可行,如果ai已经失控了,我不觉得他会给人入侵他,从数据逻辑层面破坏的可能。(当然,我支持中国外挂开发者试试看——吃鸡玩家吐槽)
所以还是物理层面毁灭吧,一个大伊万~
我虽然很想回答但是艺术狗发现我看不懂题目
可怎么办
推荐阅读: