反后门攻击

  前言 本文的标题是反后门攻击,在进一步读下去之前,我们自然要先知道什么是后门学习。 后门攻击,一般指通过毒化训练集的方式在由该数据集训练出的模型上植入后门,关于后门攻...

Read More

如何保护深度学习系统-后门防御

  前言 后门攻击是AI安全领域目前非常火热的研究方向,其涉及的攻击面很广,在外包阶段,攻击者可以控制模型训练过程植入后门,在协作学习阶段,攻击者可以控制部分参与方提交恶意...

Read More

联邦学习中的后门攻击

  背景 联邦学习这几年比较火,它主要用于解决在不直接访问各种训练数据的情况下训练机器学习模型的问题,特别是对于数据隐私比较敏感的任务。在联邦学习中利用参与者(即各方...

Read More

如何攻击图神经网络

  前言 目前,图结构的数据被应用于各种安全敏感领域(例如恶意软件分析,内存取证,欺诈检测,药物发现等),而随着图神经网络的兴起,研究人员尝试将图神经网络应用于这类数据上实...

Read More

AI中的后门攻击及防御-实战篇

  前言 师傅们看题目是否会觉得奇怪,AI系统中还能有后门?现在的AI系统不是基本上都基于Pytorch、TensorFlow等成熟的机器学习库调API就可以了吗,怎么会存在后门呢,就算存在后...

Read More
关闭