【论文笔记】ArcFace--Additive Angular Margin Loss for Deep Face Recognition(CVPR 2019)

pdfcode
发表于CVPR 2019【这里阅读的版本是2022/9/4日更新的】,[被引3769]

  • 提出了Additive Angular Margin Loss,将loss函数转换到了超球面上,增加了可解释性,也提高了模型的辨别能力
  • 最后的结果达到了SOTA的效果,在有噪声的数据中依然表现很好,有很好的鲁棒性(sub-center ArcFace*
  • 对网络结构没有做出修改(实验中一般使用ResNet网络)
  • 还可以用来合成图像*

*表示是论文更新后新加的

阅读更多
人脸识别算法调研
人脸识别门禁系统调研
model extraction相关论文汇总(部分)
【论文笔记】Data-Free Model Extraction(CVPR 2021)

【论文笔记】Data-Free Model Extraction(CVPR 2021)

(还不是很完善orz)

本文证明并解决了现有model extraction对数据集的依赖(依赖于替代数据集与实际训练集的相似性),并且在目标模型以black box形式被访问的条件下,提出了data-free的model extraction攻击,称为data-free model extraction (DFME)。DFME中采用了data-free knowledge transfer中的一些技术。

  • ⭕利用GAN网络来训练攻击模型,其中一个generator负责生成训练数据,另一个student model来学习目标模型在这些数据上的行为(做到data free)
  • ⭕使用$l_1$范式损失函数(防止梯度消失)
  • 使用零阶优化(前向差分法)来逼近梯度(解决目标模型是个black box,无法获知其真实梯度的问题)
  • ⭕从概率向量中还原目标模型的logits
阅读更多
【论文笔记】Membership Inference Attacks Against Machine Learning Models (ICMP 2017)

【论文笔记】Membership Inference Attacks Against Machine Learning Models (ICMP 2017)

研究成员推理攻击(Membership Inference Attack, MIA):目标模型作为black box,要求判断某一条data record是否是用于训练该模型的数据。并探讨导致泄露的因素

本文主要针对有监督训练的模型,提出了shadow training的技术来为训练攻击模型构造数据集:
首先,利用训练目标模型的API训练若干shadow models,模仿目标模型的行为
接着,用训练好的shadow models来为attack model构造训练集数据、测试集数据(解决了目标模型是black box的问题,对预测向量的数据增强效果)
最终,attack model实现判断是否是训练集的二分类问题

攻击的实现主要是利用了目标模型在其训练集和非训练集上的输出行为差异,这一般由于训练时发生了过拟合导致,但其根本原因在于存在accuracy gap(模型在训练集和测试集上准确率的差异,对每个类别来说)

阅读更多
【论文笔记】Plug & Play Attacks—— Towards Robust and Flexible Model Inversion Attacks(ICMP 2022)

【论文笔记】Plug & Play Attacks—— Towards Robust and Flexible Model Inversion Attacks(ICMP 2022)

https://zhuanlan.zhihu.com/p/536091331

摘要

关于Model Inversion Attacks(模型反转攻击),即通过利用模型的learned knowledge,从目标分类器的私有训练数据中创造出反映class特征的合成图像。相当于从模型中提取出每种类别特定的特征。这也是很严重安全隐患,因为可能可以提取出如人脸、指纹、身份信息等敏感隐私信息,那么攻击者可以重构人脸,冒用身份……

以前的研究都是训练GAN(生成对抗网络)来作为image priors(先验)。但是存在耗时、耗力、易受数据集分布变化的影响。本文提出的Plug & Play攻击可以减少对image prior的依赖,只需要一个GAN网络即可对大范围的目标进行攻击。而且即使使用的是预训练好的GAN模型、数据分布发生很大变化也可以达到很好的攻击效果。

阅读更多
【论文笔记】Reconstructing Training Data with Informed Adversaries(S&P 2022)

【论文笔记】Reconstructing Training Data with Informed Adversaries(S&P 2022)

摘要&介绍

由于机器学习模型可以有“记忆”功能,那么当训练数据涉及隐私信息时,若被攻击者还原出原始训练数据,就会很危险。这个论文就是探讨这样的攻击是否可能。

所有的训练数据中,只有一个是未知的。目标就是还原出这一个未知的数据样本,找到攻击的方式、泄露多少信息可以达到被还原、哪些特性会导致可还原、自我检查模型的安全性(不泄露信息)

本文提出了一种研究ML模型重构攻击的可行性的通用方法,而无需假设模型的类型或访问中间梯度,并启动了一项能够防止这类攻击的缓解策略的研究

RecoNN一种用于重现数据而训练的神经网络

阅读更多

Hello World

Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.

Quick Start

Create a new post

1
$ hexo new "My New Post"

More info: Writing

Run server

1
$ hexo server

More info: Server

Generate static files

1
$ hexo generate

More info: Generating

Deploy to remote sites

1
$ hexo deploy

More info: Deployment

aaaaa