一、Intriguing properties of neural networks
—1835继续整理一下,这篇论文。
提出了两个点:
1、质疑前人所说的,一个unit代表一种语义信息;取而代之的是,一层中的所有unit代表着整个空间的语义信息。
【(1)有什么现实价值——完了之后呢?(2)具体所有unit的实验结果是如何的?可以选出的图片具有哪些特征?】
2、提出生成对抗样本的方法;提出有理数无理数与对抗样本和训练样本之间的关系,即训练样本是无理数,很多,但是对抗样本就在训练样本边上,也很多,只不过不容易抓取,可通过生成方式获得–》训练样本不连续
【1、是每一个模型学习一个扰动r吗?用的时候直接加在图片上就可以?】
【这个问题和师兄讨论过,明白啦!
r是根据每个x算出来的,最优化问题,不是学习出来的。
所谓学习是指根据大量数据,调整模型参数。
------至于后面所说的,可在模型和数据集之间迁移使用,应该说的是,用前一个模型生成的恶意样本(x+r),可以在其他模型【具体是不是调整模型结构,还需要看实验】,或者另一份数据训练的模型上,仍旧可以欺骗。】
总结一下后续工作:
1、(1)有什么现实价值——完了之后呢?(2)具体所有unit的实验结果是如何的?可以选出的图片具有哪些特征?
2、在模型之间迁移,说的是模型结构不同的时候,x+r仍旧有效吗
二、AttacKG
–今天详细看了AttacKG的底层算法,包括template形式,对齐算法,TKG生成,Template更新和初始化
1、parsing是语法分析
2、【问题1】先通过node对齐,选出备选node,在Ga中的node就形成子图了吗?如果最后整体计算的分值,大于某个threshold,这这个子图和template对齐了?然后就把template中的知识给他吗?
3、【问题2】
4、【问题3】
--------2102
啊啊啊啊没时间看美亚了我哭了!!!!
一定要下完!!!!!!