0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習中的隱私保護

倩倩 ? 來源:雷鋒網(wǎng) ? 2020-04-15 16:00 ? 次閱讀

大數(shù)據(jù)時代的隱私泄露如達摩克利斯之劍,高懸在每個網(wǎng)民頭上,而關于如何保護數(shù)據(jù)隱私我們也走了很長的路。

1977 年,統(tǒng)計學家 Tore Dalenius 給出關于數(shù)據(jù)隱私的嚴格定義:攻擊者不能從隱私數(shù)據(jù)里獲取任何在沒有拿到數(shù)據(jù)之前他們所不知道的個人信息。

2006 年,計算機學者 Cynthia Dwork 證明上述定義的隱私保護是不存在的。有一個直觀例子可以幫助理解:假設攻擊者知道 Alice 的身高比 Lithuanian 女性平均身高高 2 英寸,這樣攻擊者只需要從一個數(shù)據(jù)集里獲得 Lithuanian 女性身高平均值(在接觸數(shù)據(jù)前攻擊者并不知道),就能準確獲得 Alice 的精確身高,甚至 Alice 都不需要在這個數(shù)據(jù)集里。因此,對于一份有信息量的數(shù)據(jù),不可能完全不暴露隱私信息。

2018 年,史上最嚴苛的個人隱私保護法案《通用數(shù)據(jù)保護條例》( GDPR )正式生效,開創(chuàng)了互聯(lián)網(wǎng)誕生以來的最大變革,數(shù)據(jù)隱私問題得到前所未有的重視。

近日,雷鋒網(wǎng)了解到,第四范式先知( Sage )企業(yè)級 AI 平臺已經(jīng)完成 PrivacySeal EU 認證工作程序,率先通過歐盟 GDPR 認證,成為國內第一款通過該認證的 AI 平臺產品,實證基于第四范式隱私計算技術的數(shù)據(jù)安全性和可信任性,那么,他們是如何保護用戶隱私安全的?為此,雷鋒網(wǎng)和第四范式的主任科學家涂威威聊了聊。

匿名化或許是個偽命題?

不知道有多少童鞋記得去年谷歌母公司 Alphabet Inc 因違反隱私數(shù)據(jù)法被罰款 5000 萬歐元的事情,據(jù)說這是迄今為止歐洲范圍內,一家公司因違反隱私數(shù)據(jù)法遭受到的最高額處罰金。多家英文科技媒體報道時,都用了 “record high”(破紀錄地高)描述處罰力度之狠。

為什么谷歌會受到如此嚴重的懲罰?

首先,谷歌會收集自家相關應用和第三方網(wǎng)頁訪問的活動數(shù)據(jù),通過安卓設備的“設備標識”以及“廣告標識符”,將應用數(shù)據(jù)上傳至谷歌服務器,并與用戶的谷歌賬戶關聯(lián),形成了完整的閉合。簡單來說,谷歌通過被動方式收集的所謂“匿名數(shù)據(jù)”與用戶的個人信息相關聯(lián) ——繞了一大圈,最后大費周章用“合法手段”應用用戶信息。

同樣地,Google Ad Manager 的 Cookie ID(跟蹤用戶在第三方網(wǎng)頁上的活動緩存信息)是另一個據(jù)稱是“用戶匿名”標識符。如果用戶在同一瀏覽器中訪問Google應用程序,Google 可以將其連接到用戶的 Google 帳戶之前訪問過第三方網(wǎng)頁。

換句話說,雖然通常在用戶匿名的情況下收集信息,但 Google 明顯擁有利用從其他來源收集的數(shù)據(jù)來對此類集合進行去匿名化的能力。

Google 之所以出現(xiàn)這類問題,主要源于其產品在數(shù)據(jù)流轉及應用上不嚴謹所致,同時,一些常規(guī)匿名化手段的技術缺陷同樣不容忽視。

而谷歌的廣告業(yè)務幾乎覆蓋了 90% 全球用戶,200 萬個主流網(wǎng)站,也就是說不經(jīng)意間我們的生活已經(jīng)被谷歌的 “數(shù)據(jù)操控” 看了個清清楚楚明明白白。

2010 年,個人隱私律師 Paul Ohm 就曾在 UCLA 法律評論中刊文指出,雖然惡意攻擊者可以使用個人身份信息(如姓名或社會安全號碼)將數(shù)據(jù)與個人身份進行關聯(lián),但事實證明,即便只擁有那些不會被歸類為“個人身份信息”的信息,他們也可以達到同樣的目的。

Ohm 參考了 Sweeney 早期的一些研究,她發(fā)現(xiàn) 1990 年美國人口普查中有 87% 的人可以通過兩條信息進行唯一識別:他們的出生日期和他們住址的郵政編碼。Ohm 還引用了 Netflix 以及其他有關數(shù)據(jù)泄露的案例,并得出結論:在傳統(tǒng)的以個人身份信息為保護重點的匿名化技術下,幾乎任何數(shù)據(jù)都無法實現(xiàn)永久的完全匿名。

鏈接攻擊、同質化攻擊等方式都可能從匿名化數(shù)據(jù)中定位個人身份。例如鏈接攻擊,通過數(shù)據(jù)的半標識符在其他能找到的表上進行查詢,則可能找到對應的身份定位標識符以及其他敏感信息。

2013 年,研究人員發(fā)現(xiàn)位置數(shù)據(jù)具有高度的獨特性,因此更加難以匿名化。許多匿名數(shù)據(jù)庫都可能間接泄露你的位置,例如刷卡消費或前往醫(yī)院就診。研究人員發(fā)現(xiàn),通過每小時記錄4次手機連接到的信號發(fā)射塔,就可以對 95% 的設備進行唯一識別。如果數(shù)據(jù)更精細( GPS 跟蹤而不是信號發(fā)射塔,或者實時采集而不是每小時采集),匹配則會變得更加容易。

于是,大家開始意識到“匿名化”這東西并沒有那么安全,我們的信息還是會被竊取。

所以,一向注重用戶隱私的蘋果在 2016 的開發(fā)者大會上提出了“差分隱私(Differential Privacy)”的概念。即通過算法來打亂個體用戶數(shù)據(jù),讓任何人都不能憑此追蹤到具體的用戶,但又可以允許機構成批分析數(shù)據(jù)以獲得大規(guī)模的整體趨勢用于機器學習。將用戶隱私信息儲存在本機而非云端也是蘋果保護用戶隱私的方法之一。例如 Face ID 面容信息、Touch ID 指紋信息等都存儲在 iPhone芯片上。

不過,差分隱私還是無法避免多個相關數(shù)據(jù)上報而導致的隱私泄露。更何況,道高一尺魔高一丈,匿名方法推陳出新的同時,攻擊者們也會采用更為強力的識別工具。

那么,第四范式推出的差分隱私又是如何做的呢?

機器學習中的隱私保護

據(jù)涂威威介紹,目前已有差分隱私機器學習算法上的工作,往往是通過往訓練過程內注入噪聲來實現(xiàn)差分隱私。

常見的有三種:目標函數(shù)擾動(objective perturbation)、輸出擾動(output perturbation)、梯度擾動(gradient perturbation)。常見的機器學習算法,以最簡單的 logistic regression 算法為例,已經(jīng)有成熟的差分隱私算法,以及隱私保護和學習效果上的理論保障。然而就目前的方法以及對應的理論來看,對于隱私保護的要求越高,需要注入的噪聲強度越大,從而對算法效果造成嚴重負面影響。

為了改善上述問題,第四范式基于以往 Stacking 集成學習方法的成效,將 Stacking 方法與差分隱私機器學習算法相結合。Stacking 需要將數(shù)據(jù)按照樣本分成數(shù)份。并且提出了基于樣本和基于特征切分的兩種 Stacking 帶隱私保護的機器學習算法。

在該算法中,數(shù)據(jù)按樣本被分成兩份,其中一份按特征或按樣本分割后在差分隱私的約束下訓練 K 個子模型,并在第二份上通過差分隱私機器學習算法進行融合。

按特征切分相比過去的算法和按樣本切分算法有更低的泛化誤差。同時,按特征切分有另一個優(yōu)勢,如果知道特征重要性,第四范式的差分隱私算法可以將其編入算法中,從而使得重要的特征被擾動的更少,在保持整體的隱私保護不變的情況下,可以得到更好的效果。

此外,還可以直接拓展到遷移學習上。即在源數(shù)據(jù)集上按照特征切分后得到帶隱私保護的模型,通過模型遷移,遷移到目標數(shù)據(jù)集上并通過 Stacking 進行融合。在這種情況下,源數(shù)據(jù)可以在不暴露隱私的情況下輸出模型幫助目標數(shù)據(jù)提升學習效果,而目標數(shù)據(jù)也可以在保護自身數(shù)據(jù)隱私的約束下訓練模型。

不過,值得注意的是,以差分隱私為代表的隱私保護技術仍需要在理論、效果、應用、成本等方面進一步解決和優(yōu)化。

涂威威介紹說:“比如,在成本方面,核心的問題其實是人力。機器學習已經(jīng)是很復雜的技術,落地需要很專業(yè)的人才。當前的隱私保護技術使用門檻較高,在保護隱私的前提下,多方聯(lián)合數(shù)據(jù)建模的常見做法依然需要比較多的專家人工介入到數(shù)據(jù)預處理、特征工程、模型調參當中,因此落地的人才門檻更高。且人力的介入又會給數(shù)據(jù)安全與隱私保護帶來一層隱患?!?/p>

因此,在差分隱私的基礎上,又衍生出了另一種保護隱私的自動多方機器學習技術。第四范式綜合了差分隱私技術、自動化機器學習技術,讓機器自動完成數(shù)據(jù)預處理、特征工程、模型調參等工作,大幅減少了專家人工的介入,一方面進一步提升了安全性,另一方面也大幅降低了隱私保護技術的使用門檻,使得廣泛落地成為可能。該技術也將是保證技術規(guī)?;涞氐年P鍵。

最后,雷鋒網(wǎng)想提醒大家,雖然在隱私和便利面前,我們都抓禿了頭,但不代表這就沒法解決了。

電影《絕對控制》中有一句話:“隱私不是公民權,而是特權”;隱私本應是每個公民最基礎的權利,只不過在過去的很長時間中,我們從未意識到行使這項權利,以至于隱私竟變成了“特權”,不過慶幸的是隱私權正在回歸,人們正在拾回分散在互聯(lián)網(wǎng)中的隱私

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關注

    關注

    5

    文章

    1768

    瀏覽量

    57654
  • 算法
    +關注

    關注

    23

    文章

    4623

    瀏覽量

    93104
  • 機器學習
    +關注

    關注

    66

    文章

    8428

    瀏覽量

    132834
收藏 人收藏

    評論

    相關推薦

    深度自然匿名化:隱私保護與視覺完整性并存的未來!

    在科技快速發(fā)展的當下,個人隱私保護的需求日益凸顯。如何能在隱私保護的基礎上,保持視覺完整性,從而推動企業(yè)開發(fā)與創(chuàng)新? 深度自然匿名化(DNAT)已被證明是傳統(tǒng)模糊化方法的更優(yōu)替代方案,
    的頭像 發(fā)表于 01-15 15:57 ?103次閱讀
    深度自然匿名化:<b class='flag-5'>隱私</b><b class='flag-5'>保護</b>與視覺完整性并存的未來!

    zeta在機器學習的應用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學習的應用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA一詞在不同領域可能有不同的含義和應用。以下是根據(jù)不同領域的ZETA進行的分析: 一、ZETA在機器
    的頭像 發(fā)表于 12-20 09:11 ?305次閱讀

    隱私與安全:動態(tài)海外住宅IP如何保護你在線

    動態(tài)海外住宅IP在保護用戶在線隱私與安全方面發(fā)揮著重要作用。
    的頭像 發(fā)表于 11-25 08:09 ?127次閱讀

    比亞迪獲得國家首批汽車隱私保護標識

    近日,在2024國汽車軟件大會上,中國汽車工業(yè)協(xié)會與中國網(wǎng)絡安全產業(yè)聯(lián)盟汽車網(wǎng)絡安全工作委員會聯(lián)合頒發(fā)“汽車隱私保護”標識證書,比亞迪成為首批通過測評并獲得“汽車隱私
    的頭像 發(fā)表于 11-18 16:14 ?300次閱讀

    eda在機器學習的應用

    機器學習項目中,數(shù)據(jù)預處理和理解是成功構建模型的關鍵。探索性數(shù)據(jù)分析(EDA)是這一過程不可或缺的一部分。 1. 數(shù)據(jù)清洗 數(shù)據(jù)清洗 是機器學習
    的頭像 發(fā)表于 11-13 10:42 ?352次閱讀

    IP地址安全與隱私保護

    在當今數(shù)字化時代,IP地址作為網(wǎng)絡設備的唯一身份標識,在網(wǎng)絡安全與隱私保護扮演著至關重要的角色。然而,隨著網(wǎng)絡技術的飛速發(fā)展,IP地址也面臨著諸多挑戰(zhàn),對用戶的隱私和網(wǎng)絡安全構成了潛
    的頭像 發(fā)表于 09-03 15:59 ?610次閱讀

    平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平

    成了一把雙刃劍,其銳利的一面正逐漸指向我們的核心價值。面對這些挑戰(zhàn),制定一套有效的AI治理框架和隱私保護機制變得迫在眉睫。 確保AI決策的透明度是解決這些問題的關鍵一步。透明度不僅要求公開算法的運作
    發(fā)表于 07-16 15:07

    機器學習的數(shù)據(jù)分割方法

    機器學習,數(shù)據(jù)分割是一項至關重要的任務,它直接影響到模型的訓練效果、泛化能力以及最終的性能評估。本文將從多個方面詳細探討機器學習
    的頭像 發(fā)表于 07-10 16:10 ?2015次閱讀

    機器學習在數(shù)據(jù)分析的應用

    隨著大數(shù)據(jù)時代的到來,數(shù)據(jù)量的爆炸性增長對數(shù)據(jù)分析提出了更高的要求。機器學習作為一種強大的工具,通過訓練模型從數(shù)據(jù)中學習規(guī)律,為企業(yè)和組織提供了更高效、更準確的數(shù)據(jù)分析能力。本文將深入探討機器
    的頭像 發(fā)表于 07-02 11:22 ?698次閱讀

    深度學習與傳統(tǒng)機器學習的對比

    在人工智能的浪潮,機器學習和深度學習無疑是兩大核心驅動力。它們各自以其獨特的方式推動著技術的進步,為眾多領域帶來了革命性的變化。然而,盡管它們都屬于
    的頭像 發(fā)表于 07-01 11:40 ?1464次閱讀

    藍牙模塊的安全性與隱私保護

    藍牙模塊作為現(xiàn)代無線通信的重要組成部分,在智能家居、可穿戴設備、健康監(jiān)測等多個領域得到了廣泛應用。然而,隨著藍牙技術的普及,其安全性和隱私保護問題也日益凸顯。本文將探討藍牙模塊在數(shù)據(jù)傳輸過程
    的頭像 發(fā)表于 06-14 16:06 ?582次閱讀

    車載車庫GPS信號屏蔽器:如何保護隱私與安全

    深圳特信電子|車載車庫GPS信號屏蔽器:如何保護隱私與安全
    的頭像 發(fā)表于 05-29 08:54 ?689次閱讀

    GPS信號屏蔽器:保護隱私信息的設備?

    GPS信號屏蔽器:保護隱私信息的設備?|深圳特信電子
    的頭像 發(fā)表于 03-14 09:04 ?742次閱讀

    華為以創(chuàng)新科技保護用戶隱私

    用戶的隱私被泄露的案件很多,以華為為代表的企業(yè),積極通過科技手段在保護用戶隱私安全上發(fā)力,從根源上解決隱私泄露的問題。 華為堅持貫徹用戶受益的原則,華為在產品設計開發(fā)過程
    的頭像 發(fā)表于 01-29 14:11 ?2919次閱讀

    一眼看懂鴻蒙OS 應用隱私保護

    隨著移動終端及其相關業(yè)務(如移動支付、終端云等)的普及,用戶隱私保護的重要性愈發(fā)突出。應用開發(fā)者在產品設計階段就需要考慮保護的用戶隱私,提高應用的安全性。HarmonyOS 應用開發(fā)需
    的頭像 發(fā)表于 01-26 17:04 ?905次閱讀
    一眼看懂鴻蒙OS 應用<b class='flag-5'>隱私</b><b class='flag-5'>保護</b>