MindArmour差分隐私
MindArmour差分隱私
總體設計
MindArmour的Differential-Privacy模塊,實現了差分隱私訓練的能力。模型的訓練主要由構建訓練數據集、計算損失、計算梯度以及更新模型參數等過程組成,目前MindArmour的差分隱私訓練主要著力于計算梯度的過程,通過相應的算法對梯度進行裁剪、加噪等處理,從而保護用戶數據隱私。
圖1 差分隱私總體設計
圖1是差分隱私訓練的總體設計,主要由差分隱私噪聲機制(DP Mechanisms)、差分隱私優化器(DP Optimizer)、差分隱私監控器(Privacy Monitor)組成。
差分隱私優化器
差分隱私優化器繼承了MindSpore優化器的能力,并使用差分隱私的噪聲機制,對梯度加擾保護。目前,MindArmour提供三類差分隱私優化器:固定高斯優化器、自適應高斯優化器、自適應裁剪優化器,每類差分隱私優化器,從不同的角度為SGD、Momentum等常規優化器,增加差分隱私保護的能力。
固定高斯優化器,是一種非自適應高斯噪聲的差分隱私優化器。其優勢在于可以嚴格控制差分隱私預算?,缺點是在模型訓練過程中,每個Step添加的噪聲量固定,若迭代次數過大,訓練后期的噪聲使得模型收斂困難,甚至導致性能大幅下跌,模型可用性差。
自適應高斯優化器,通過自適應調整標準差,來調整高斯分布噪聲的大小,在模型訓練初期,添加的噪聲量較大,隨著模型逐漸收斂,噪聲量逐漸減小,噪聲對于模型可用性的影響減小。自適應高斯噪聲的缺點是不能嚴格控制差分隱私預算。
自適應裁剪優化器,是一種自適應調整調整裁剪粒度的差分隱私優化器,梯度裁剪是差分隱私訓練的一個重要操作,自適應裁剪優化器能夠自適應的控制梯度裁剪的的比例,在給定的范圍波動,控制迭代訓練過程中梯度裁剪的粒度。
差分隱私的噪聲機制
噪聲機制是構建差分隱私訓練能力的基礎,不同的噪聲機制滿足不同差分隱私優化器的需求,包括固定高斯分布噪聲、自適應高斯分布噪聲、自適應裁剪高斯分布噪聲、拉普拉斯分布噪聲等多種機制。
Monitor
Monitor提供RDP、ZCDP等回調函數,用于監測模型的差分隱私預算。
ZCDP[2]
ZCDP,zero-concentrated differential privacy,是一種寬松的差分隱私定義,利用Rényi散度來度量隨機函數在相鄰數據集上的分布差異。
RDP[3]
RDP,Rényi Differential Privacy,是一種更通用的基于R’enyi散度的差分隱私定義,利用Rényi散度來度量兩個相鄰數據集的分布差異。
相對于傳統差分隱私,ZCDP和RDP都能能夠提供更加嚴格的隱私預算上界保證。
代碼實現
mechanisms.py:這個文件實現了差分隱私訓練所需的噪聲生成機制,包括簡單高斯噪聲、自適應高斯噪聲、自適應裁剪高斯噪聲等。
optimizer.py:這個文件實現了使用噪聲生成機制在反向傳播時添加噪聲的根本邏輯。
monitor.py:實現了計算差分隱私預算的回調函數,模型訓練過程中,會反饋當前的差分隱私預算。
model.py:這個文件實現了計算損失和梯度的邏輯,差分隱私訓練的梯度截斷邏輯在此文件中實現,且model.py是用戶使用差分隱私訓練能力的入口。
參考文獻
[1] Dwork, Cynthia, and Jing Lei. “Differential privacy and robust statistics.” Proceedings of the forty-first annual ACM symposium on Theory of computing. 2009.
[2] Lee, Jaewoo, and Daniel Kifer. “Concentrated differentially private gradient descent with adaptive per-iteration privacy budget.” Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2018.
[3] Mironov, Ilya. “Rényi differential privacy.” 2017 IEEE 30th Computer Security Foundations Symposium (CSF). IEEE, 2017.
總結
以上是生活随笔為你收集整理的MindArmour差分隐私的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: MindSpore静态图语法支持
- 下一篇: MindSpore图像分类模型支持(Li