人工智能的梦魇:对抗攻击

  前言 对于人工智能系统而言,对抗样本的存在是其面临最大的威胁之一,因为对抗样本仅需要针对模型生成特定扰动即可,而相比之下,数据投毒等攻击手段还需要攻击者可以控制训练...

Read More

如何防御对抗攻击

  前言 对抗攻击从2013年被Szegedy等人提出之后,截止目前,已经被研究的很深入了,相关文章也呈爆炸增长 上图是发在arxiv上的有关对抗攻击的文章数量,该领域的火爆程度可见一...

Read More

对抗样本攻防实战

  前言 对抗样本大家都耳熟能详了,但是大家可能觉得离自己比较远,毕竟主要是学术界在做这方面的工作,可能还需要很多数学理论基础,所以没有尝试动手实践过。在本文中,不会提及...

Read More

对抗向善:防御成员推理攻击

  前言 在成员推理攻击中,攻击者训练一个二分类器,该分类器将目标分类器预测的数据样本的置信度分数向量作为输入,预测该数据样本是目标分类器训练数据集的成员数据还是非成...

Read More

音视频领域的对抗样本攻击实战

  前言 在图像领域的对抗样本的例子大家已经很熟悉了,比如下图的例子,对熊猫进行对抗扰动,模型就会将其识别为长臂猿 但实际上对抗样本并不仅仅存在于图像领域,在其他系统中...

Read More

AdvDrop:通过丢信息来制造对抗样本

人有很强的抽象能力和联想力,例如一个有几块积木拼成的乐高玩具,小朋友也能轻易认出其中描述的场景 (人开着小车)。 甚至几个像素,玩家也可以轻易认出这是一个戴着帽子的小人 (超...

Read More
关闭