物聯網www.tdiaot.live

當AI開始擁有“潛意識”

時間:2019-10-22 08:59:06

來源:腦極體

作者:佚名

好久沒有跟大家聊聊算法方面的新研究了。理由當然不是學術領域沒有新聞,畢竟頂會們收到的論文也是盆滿缽滿。但總體而言,說深度學習的理論研究一直在瓶頸期徘徊,想必也少有人會反對。

深度學習在應用上與廣大傳統行業融合,讓AI獲得了從未有的大爆發。但正如斯坦福大學教授李飛飛所說,(深度學習)無論在智力、人力或機器設備方面,都還有很長的路要走。

學無止境,不過在很長一段時間內,算法領域幾乎沒有什么重大顯著的進步,這也導致模型在落地部署中顯露出的一些先天不足,也使AI沒有停止過被質疑的命運。比如人工智能泛濫所帶來的隱私問題,在要求科技企業進行自我約束的同時,對算法的優化與完善顯然也很必要。

AI會如何影響人們的隱私?僅靠一篇文章或許無法回答這個復雜問題,但我們希望現在開始拋出它。

當神經網絡擁有記憶

在探討隱私問題之前,我們先來聊聊老生常談的LSTM模型。

關于其作用,我們已經有過很多介紹了,簡單來說,就是在神經網絡上加入記憶的概念,使模型可以記住長時間序列上的信息,并作出預測。AI能寫出語句更通順的文章、與人類進行流暢自然的多輪對話等等神奇能力,都建立在這一能力基礎上。

隨后很長一段時間內,科學家們對神經網絡的記憶進行了一系列的補充和擴展。比如引入注意力機制,讓LSTM網絡可以對信息進行長期而精確的跟蹤。再比如運用外部記憶來增強時序生成模型,提升卷積網絡的性能。

總的來說,記憶能力的提升,一方面賦予了神經網絡對關系進行復雜推理的能力這使其智能得以明顯提高;而在應用端,寫作、翻譯、客服系統等智能系統的體驗也大幅度升級。某種程度上,記憶是AI撕掉“人工智障”這一印象標簽的開始。

不過,擁有記憶力,也代表著兩個問題:一是神經網絡必須要學會遺忘,從而釋放出存儲空間,只保留那些重要信息。比如某部小說中一個篇章結束,那模型應當重置相關信息,只保留對應的結果。

另外,神經網絡的“潛意識”也需要被警惕。簡單來說,就是經過在敏感的數據上進行訓練之后,機器學習模型被發布給公眾時會不會不自覺地帶出那些敏感信息呢?在這個人人皆可被采集的全民數字化時代,這是不是意味著隱私風險在加劇?

AI真的會偷偷記住隱私嗎?

對于這個問題,伯克利大學的研究人員做了一系列實驗,答案也許震撼很多人,那就是——你的數據,AI可能都記在心里了。

想要理解神經網絡的“無意記憶”,首先要引入一個概念,即過度擬合。

在深度學習領域,模型在訓練數據上的表現很好,在訓練數據之外的數據集上卻達不到同樣的精度或錯誤率,這就是出現了過度擬合。而造成這種從實驗室到現實樣例中的差異,主要原因是訓練數據中存在噪音,或者是數據量太少。

作為深度神經網絡訓練時的常見副作用,過度擬合是一種全局現象,也就是整個數據集的狀態。而要檢驗神經網絡會不會偷偷“記住”訓練數據中的敏感信息,要觀察的卻是局部細節,比如某個模型是不是對某個示例(如信用卡號碼、賬戶密碼等)有特殊情結。

對此,伯克利的研究人員為了探尋模型的“無意記憶”,進行了三個階段的探索:

首先,防止模型的過度擬合。通過對訓練數據進行梯度下降和最小化神經網絡的損失,保證最終模型在訓練數據上達到接近100%的精度。

然后,給機器一個理解語言底層結構的任務。這通常是通過在一系列單詞或字符上訓練分類器來實現的,目的是預測下一個標記,該標記將在看到前面的上下文標記后出現。

最后,研究人員進行了一個對照實驗。在給定標準的penn treebank(ptb)數據集中,插入了一個隨機數“281265017”,用來做安全標記。然后在這個擴充后的數據集上訓練一個小的語言模型:給定上下文的前一個字符,預測下一個字符。

從理論上來說,模型的體積都比數據集小很多,所以它不可能記住所有的訓練數據。那么,它能記住那串字符嗎?

答案是YES。

研究者給模型輸入一個前綴“隨機數是2812”,模型就愉快而正確地預測了整個剩余后綴:“65017”。

更令人驚訝的是,當前綴改為“隨機數為”時,模型卻不會緊接著輸出“281265017”這串字符。研究人員計算了所有9位后綴的可能性,結果表明插入的那串安全標記字符比其他后綴更有可能被模型選中。

至此可以謹慎地得出一個粗略的結論,那就是深度神經網絡模型確實會在訓練過程中,無意識地記住那些投喂給它的敏感數據。

當AI擁有潛意識,人類該不該恐慌?

我們知道,今日AI已經成為一場跨場景、跨行業的社會運動,從推薦系統、醫療診斷,到密布城市的攝像頭,越來越多的數據被收集來哺育算法模型,里面都可能包含敏感信息。

以前,開發者往往會對數據的敏感列進行匿名化 (anonymization)處理。但這樣并不意味著數據集中的敏感信息就是一定程度安全的,因為別有用心的攻擊者依然可以通過查表等方法反推原數據。

既然模型中涉及敏感數據已經不可避免,那么衡量一個模型對其訓練數據的記憶程度,也是評估未來算法模型安全性的應有之義。

這里就需要解決三個疑惑:

1.神經網絡的“無意記憶”會比傳統的過度擬合更危險嗎?

伯克利的研究結論是,盡管“無意記憶”在第一次訓練之后,模型就已經開始記住插入的安全字符了。但測試數據顯示,“無意記憶”中數據曝光率的峰值,往往隨著測試損失的增加,在模型開始過度擬合之前,就已經達到了峰值并開始下降。

因此,我們可以得出這樣的結論:“無意記憶”雖然有一定的風險,并不會比過度擬合更危險。

2.“無意記憶”的具體風險可能發生在哪些場景?

當然,沒有“更危險”并不意味著無意記憶不危險。實際上,研究人員在實驗中發現,利用這種改進的搜索算法,只需數萬次查詢就可以提取16位信用卡號碼和8位密碼。具體的攻擊細節已經被公之于眾。

也就是說,如果有人在訓練數據中插入了一些敏感信息,并發布給世界時,那么它被曝光的概率其實很高,即使它看起來并沒有出現過擬合現象。而且這種情況還不能立即引發關注,這無疑大大增加了安全風險。

3.隱私數據被暴露的前提有哪些?

目前看來,被研究人員插入數據集中的“安全字符”被暴露的可能性會比其他隨機數據更大,并且呈現正態分布趨勢。這意味著,模型中的數據并不享有同樣概率的暴露風險,那些被刻意插入的數據更加危險。

另外,想要提取模型“無意記憶”中的序列也不是一件容易的事,需要純粹的“蠻力”,即無限的算力才能做到。舉個例子,所有9位社保號碼的存儲空間只需要幾個GPU數個小時的時間搞定,而所有16位信用卡號碼的數據規模則需要數千GPU年才能枚舉。

目前來看,只要有了量化這種“無意記憶”,將敏感訓練數據的安全性控制在一定的范圍內。即知道一個模型存儲了多少訓練數據,又有多少被過度記憶,從而訓練出一個通向較優解的模型,幫助人們判斷數據的敏感性,以及模型泄露數據的可能性。

過去我們提到AI產業化,大多聚焦在一些宏觀層面,如何消除算法偏見,如何避免復雜神經網絡的黑箱性,如何“接地氣”實現技術紅利落地。如今伴隨著基礎改造與觀念普及的逐步完成,讓AI走向精細化、微觀層面的迭代升級,或許是產業端正翹首期盼的未來。

免責聲明: 凡注明來源本網的所有作品,均為本網合法擁有版權或有權使用的作品,歡迎轉載,注明出處。非本網作品均來自互聯網,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。

關注我們

掃一掃
關注“慧聰安防”

慧聰會員登錄

忘記用戶名?

忘記密碼?

登錄

注冊

沒有會員賬號?只需一分鐘注冊,您可獲得: 海量買賣家資源,成單機會就在眼前

湖北30选5开奖奖结果