iOS开始审查用户照片 苹果为“后门”问题统一员工口径
生活随笔
收集整理的這篇文章主要介紹了
iOS开始审查用户照片 苹果为“后门”问题统一员工口径
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
蘋果一直標榜自家的手機及iOS系統(tǒng)在用戶隱私上的牢不可破,甚至不惜跟美國政府打官司。不過現(xiàn)在蘋果改了一個政策,iOS會審查用戶的照片,以致于蘋果都要開始為此統(tǒng)一員工口徑。
本月初,蘋果宣布了一項新政策,將推出名為“neuralMatch”的新技術,它會在圖片上傳到iCloud之前進行掃描。如果它找到了匹配的CSAM(兒童性虐待照片),將會通知審核人員檢查。若確認存在兒童色情內(nèi)容,那么蘋果方面將關閉賬戶,并通知美國國家失蹤和被剝削兒童中心。
蘋果這一舉動受到了兒童保護組織的認可,但有更多的人認為蘋果審查用戶照片是個不好的苗頭,覺得被植入了后門,擔心該系統(tǒng)遭到濫用。
蘋果此前解釋過該系統(tǒng)的運作方式,稱這一系統(tǒng)并不能真正“看到”用戶的照片,而是采用“數(shù)字指紋”的技術,通過辨識圖片中的關鍵信息,與現(xiàn)有的兒童性侵圖像數(shù)據(jù)庫內(nèi)容對比。
雖然內(nèi)部員工都有強烈的反對傾向,但蘋果還是會執(zhí)行這一政策,本周還給員工下發(fā)了最新的備忘錄,要求員工在CSAM后門問題上統(tǒng)一口徑,強調(diào)這一政策只針對iCloud中的CSAM內(nèi)容,不會容忍被濫用。
總結
以上是生活随笔為你收集整理的iOS开始审查用户照片 苹果为“后门”问题统一员工口径的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 599元!小米100W无线充电器套装上架
- 下一篇: 鸿蒙系统适配机型?