图对抗攻击

  前言 深度学习已经在许多领域得到了广泛的应用,如文本、图像、音频、视频等,相应领域的对抗攻击安全客上也有文章介绍过了,包括图像、视频、音频等。事实上,这类数据格式在...

Read More

反后门攻击

  前言 本文的标题是反后门攻击,在进一步读下去之前,我们自然要先知道什么是后门学习。 后门攻击,一般指通过毒化训练集的方式在由该数据集训练出的模型上植入后门,关于后门攻...

Read More

模型量化攻击

  前言 随着深度神经网络模型的性能增加,神经网络的深度越来越深,接踵而来的是深度网络模型的高存储高功耗的弊端,严重制约着深度神经网络在资源有限的应用环境和实时在线处...

Read More

模型窃取攻击

  前言 人工智能系统不止存在安全问题,还存在隐私问题,安全问题已经受到了广泛重视,对抗样本等攻击技术大家都有在讨论,相比之下,AI的隐私问题关注的人就没有那么多了,但事实上,A...

Read More

人工智能的梦魇:对抗攻击

  前言 对于人工智能系统而言,对抗样本的存在是其面临最大的威胁之一,因为对抗样本仅需要针对模型生成特定扰动即可,而相比之下,数据投毒等攻击手段还需要攻击者可以控制训练...

Read More

如何保护深度学习系统-后门防御

  前言 后门攻击是AI安全领域目前非常火热的研究方向,其涉及的攻击面很广,在外包阶段,攻击者可以控制模型训练过程植入后门,在协作学习阶段,攻击者可以控制部分参与方提交恶意...

Read More

联邦学习中的后门攻击

  背景 联邦学习这几年比较火,它主要用于解决在不直接访问各种训练数据的情况下训练机器学习模型的问题,特别是对于数据隐私比较敏感的任务。在联邦学习中利用参与者(即各方...

Read More

对抗向善:防御成员推理攻击

  前言 在成员推理攻击中,攻击者训练一个二分类器,该分类器将目标分类器预测的数据样本的置信度分数向量作为输入,预测该数据样本是目标分类器训练数据集的成员数据还是非成...

Read More

比特翻转攻击

  前言 在之前的文章中我们已经介绍过针对深度学习系统的攻击手段,比如对抗样本攻击、后门攻击、模型窃取等,对抗样本攻击、后门攻击的目的都是为了让模型将某一特定测试样...

Read More

如何攻击图神经网络

  前言 目前,图结构的数据被应用于各种安全敏感领域(例如恶意软件分析,内存取证,欺诈检测,药物发现等),而随着图神经网络的兴起,研究人员尝试将图神经网络应用于这类数据上实...

Read More

对抗重编程攻击

  前言 我们知道深度学习模型容易受到对抗样本攻击,比如在计算机视觉领域,对图像精心设计的扰动可能会导致模型出错。虽然现在对抗样本的研究非常火,但是模型面临的攻击不止...

Read More

梯度泄露攻击

  前言 在现代多节点的机器学习系统,如分布式训练、协作学习等系统中,交换梯度进行训练是一种被广泛采用的方法。例如对于我们比较了解的联邦学习而言,杨强教授有一句经典的...

Read More

后门防御-Neural Cleanse分析及复现

  前言 在安全领域,提到防御,其实分为两类,一类是做检测detection,一类是做缓解mitigation,当然最好就是将两类集成在一起。在后门防御领域也是一样,就检测来说,我们要检测模型是...

Read More

AI中的后门攻击及防御-实战篇

  前言 师傅们看题目是否会觉得奇怪,AI系统中还能有后门?现在的AI系统不是基本上都基于Pytorch、TensorFlow等成熟的机器学习库调API就可以了吗,怎么会存在后门呢,就算存在后...

Read More

青莲晚报(第二十九期)| 物联网安全多知道

Mirai僵尸病毒卷土重来,目标转向商用Linux服务器 僵尸病毒的开发者显然已经从开发物联网(IoT)恶意软件中吸取了教训,并将工作重点转向针对商用Linux服务器。与许多物联网设备一...

Read More

抄袭人类大脑!类脑人工智能会是未来吗?

大家好~我是 史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你特别想听到谁的故事,不妨加微信(微信号:shizhongst)告诉我...

Read More
关闭