联邦学习--数据攻击(2)
參考論文:See through Gradients: Image Batch Recovery via GradInversion(CVPR 2021 )
源代碼:
核心思想:解決了Deep Leakage from Gradients(NeurIPS 2019)中batch大于1效果無效的情況。
缺點:
1 問題定義
訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)需要從數(shù)據(jù)批次中進行梯度估計以更新參數(shù)。每個參數(shù)的梯度在一組數(shù)據(jù)上取平均值,這被認為對于聯(lián)合、協(xié)作和聯(lián)合學(xué)習(xí)應(yīng)用程序中的隱私保護訓(xùn)練是安全的。之前的工作只顯示了在非常嚴格的條件下給定梯度恢復(fù)輸入數(shù)據(jù)的可能性——單個輸入點,或者沒有非線性的網(wǎng)絡(luò),或者一個小的 32 ^ 32 px 輸入批次。因此,較大批次的平均梯度被認為是安全的。在這項工作中,我們引入了 GradInversion,使用它可以為大型網(wǎng)絡(luò)(例如 ResNets(50 層)、復(fù)雜的數(shù)據(jù)集(例如 ImageNet)(1000 個類別,224 ^ 224像素)。我們制定了一個優(yōu)化任務(wù),將隨機噪聲轉(zhuǎn)換為自然圖像,匹配梯度,同時正則化圖像保真度。我們還提出了一種給定梯度的目標類標簽恢復(fù)算法。我們進一步提出了一個組一致性正則化框架,其中從不同的隨機種子開始的多個代理協(xié)同工作以找到原始數(shù)據(jù)批次的增強重建。我們表明梯度編碼了驚人的大量信息,因此即使對于復(fù)雜的數(shù)據(jù)集、深度網(wǎng)絡(luò)和大批量,也可以通過 GradInversion 以高保真度恢復(fù)所有單個圖像。
2 攻擊方法
總結(jié)
以上是生活随笔為你收集整理的联邦学习--数据攻击(2)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 不会演讲的你,一开口就输了
- 下一篇: avlib java_fatal err