AI技術的探索,連馬賽克都阻擋不了。有時候,為了保護個人隱私,人們會對一些出現在照片或視頻里的人臉或其他不宜泄露的信息打上馬賽克,但是這種對圖像或視頻做模糊處理的方法很快就會變得毫無用處,因為 AI 軟件可以透視馬賽克并還原圖像的本來面目。
軟件工程師 Richard McPherson 利用機器學習教會一款軟件圖像識別技術,用來識別一些被打了馬賽克的人臉或物體,而這種基于人工神經網絡的圖像識別方法可以將被模糊處理過的圖像重新還原。目前,該軟件能識別圖像處理軟件 Photoshop 馬賽克處理過的圖像和視頻網站 Youtube 進行過模糊處理的視頻。
AI時代的發展,離不開深度學習和神經開發,就以目前現有的技術與數據來說,遠不能滿足它。像是無人車,AI系統與汽車的結合物,谷歌對旗下的無人車進行測試與訓練ANI系統,都是為了提升它的識別與感知能力。
譬如對視覺指示系統(Vis),是為預測聲音,預測環境進行物理互動后果的一個重要環節,它能識別分析棍子擊打、刮擦或是捅一系列物理聲音,最主要的還是幫助機器人理解物體的物理屬性、環境互動。但這些能力的前提是深度學習,它目前的訓練方式是注入4.6萬種聲音的1000段視頻,以深度學習的算法對其聲音解析并與數據庫配對。
總得來說,AI比起互聯網更依賴于數據庫,一切能力的強化都需要數據庫配對訓練,也正是因為AI時代對于數據的需求量大,我們消費者的信息隱私才顯得岌岌可危。
日常里那些成精了似的人工智能語音助手,例如Sirl,真的能為我們帶來,包括讓個人和企業效率的提高嗎?為了高效便利的生活,我們真的就可以對個人數字AI助理坦露自己最隱秘的事情嗎?就像亞馬遜CEO貝佐斯在 Re/code 大會上講的那樣,保護隱私是這個時代的難題,對于AI來說,更甚。
守口如瓶,對于人類來說都很難成真,而為AI作為一個離不開共享數據庫的個人助理又能如何將那數據半道劫持,不會真正的外傳呢?為了應對數據上的保護,蘋果的應對方式是想將(一定會收集用戶信息的)科技公司在隱私保護方面的級別,提升到新的高度,而“差分隱私 (Differential Privacy)”,正是它找到的答案。這項密碼學前沿技術的基本原理,就是向包含個體信息的大量數據集里注入噪音(或者說擾動),目標是保證每個個體信息都無法泄露,同時這個數據集的統計學信息依然可以被外界分析,目前科學家們正在研究,究竟注入多少噪音,可以實現隱私保護和數據分析的最佳平衡。
可被外界分析就意味著沒有絕對安全性,像是經典案例里的Netflix,曾放出“經過匿名處理的”上億條電影評分數據,“僅僅保留了每個用戶對電影的評分和評分的時間戳”,希望通過競賽的形式,找到更好的影片推薦算法。但是 2009年,德州大學的兩位研究人員,通過這些匿名數據與公開的IMDB數據做對比,成功將匿名數據與具體的用戶對應了起來。為此,Netflix 不得不取消了,這項原計劃每年舉行的競賽。
數據隱私在這個互聯網主控的時代里都難以保護,就像接力棒似得投擲到下一個更危險的棒手AI手中,未來我們的生活或許會越加趨近智能,與此同時我們的隱私如同軟肋般,被AI把控著。在不能阻止技術迭代發展的前提下,未來的科技作態就只能精索安全級別,盡可能的是保護用戶數據隱私了。