Attacks for RL

1. http://rll.berkeley.edu/adversarial/   Adversarial Attacks on Neural Network Policies

就是对test时候的policy进行构造对抗样本,方法还是用的分类对抗样本的方法,对于DQN,把Q value做个softmax,一样地构造对抗样本。

原文地址:https://www.cnblogs.com/huangshiyu13/p/10670362.html