谷歌TensorFlow 2.0:新增兩大模塊保護用戶數(shù)據(jù)隱私
TensorFlow是由谷歌人工智能團隊“谷歌大腦”開發(fā)和維護的一個基于數(shù)據(jù)流編程的符號數(shù)學(xué)系統(tǒng),擁有多層級結(jié)構(gòu),是一個人工智能框架。TensorFlow 可部署于各類服務(wù)器、PC終端和網(wǎng)頁并支持GPU和TPU高性能數(shù)值計算,被廣泛應(yīng)用于各類機器學(xué)習(xí)算法的編程實現(xiàn),其前身是谷歌的神經(jīng)網(wǎng)絡(luò)算法庫DistBelief。自2015年11月9日起,TensorFlow依據(jù)阿帕奇授權(quán)協(xié)議(Apache 2.0 open source license)開放源代碼。
3年多后,谷歌發(fā)布了TensorFlow 的第二代版本,不僅提升了可用性,增加了Eager Execution的支持,讓TensorFlow 2.0可以更快地啟動AI模型,同時還新增了兩大互補模塊保護用戶數(shù)據(jù)隱私。
3月初,谷歌推出了其人工智能框架TensorFlow的2.0版本,以及兩個能夠讓算法更負(fù)責(zé)任地處理用戶數(shù)據(jù)的互補模塊。
首先,TensorFlow 2.0重點提高了可使用性。為此,其中還接入了基于Keras的簡化應(yīng)用編程接口。Keras是一種開源工具,能夠使人工智能開發(fā)框架更易于使用,它允許工程師在一個位置訪問以前分布在多個API中的功能,并提供更多自定義開發(fā)工作流程的選項。
此外,TensorFlow 2.0的另一個關(guān)鍵升級是增加了Eager Execution的支持。這讓TensorFlow 2.0可以更快地啟動AI模型,通過更短的測試運行延遲,讓工程師們可以嘗試不同的模型變量?紤]到機器學(xué)習(xí)開發(fā)的高度迭代性,這將節(jié)省大量的時間成本。
值得一提的是,盡管TensorFlow 2.0在功能上有了顯著的提升,但這次發(fā)布最引人關(guān)注的卻是另外兩個互補模塊,這兩個模塊旨在幫助開發(fā)人員直接在AI軟件中構(gòu)建隱私控制,從而更好地保護用戶信息。
其中,第一個模塊是TensorFlow Privacy。通過自動過濾與算法通常接收的信息不同的輸入,機器學(xué)習(xí)模型就能夠自動篩除潛在敏感數(shù)據(jù)。例如,基于AI的拼寫檢查工具往往將字母作為輸入,這意味著它可以輕松識別和過濾諸如信用卡號之類的長數(shù)字序列。
“TensorFlow Privacy并不要求使用者必須具備隱私或基礎(chǔ)數(shù)學(xué)方面的專業(yè)知識,那些使用標(biāo)準(zhǔn)TensorFlow的開發(fā)者也不需要改變他們的模型架構(gòu)、培訓(xùn)程序或流程就可以正常使用。”谷歌工程師Carey Radebaugh和Ulfar Erlingsson在博客中這樣說。
另一個新的隱私模塊名為TensorFlow Federated,它主要針對越來越多依賴于AI支持核心功能的移動服務(wù)。
由于移動設(shè)備的處理能力有限,應(yīng)用通常會將用戶數(shù)據(jù)發(fā)送到云的后端進行分析,然后通過機器學(xué)習(xí)對數(shù)據(jù)進行處理。而TensorFlow Federated讓應(yīng)用可以直接在用戶手機上執(zhí)行分析。然后,開發(fā)人員可以收集所得到的分析結(jié)果,并利用這些結(jié)果改進AI算法,而無需再訪問基礎(chǔ)數(shù)據(jù)。這將大大保護消費者的隱私。
“通過TFF [TensorFlow Federated],我們可以展示我們所選擇的機器學(xué)習(xí)模型架構(gòu),然后對所有數(shù)據(jù)進行訓(xùn)練,并保持每個編寫器的數(shù)據(jù)的獨立和本地化。”谷歌參與這個項目開發(fā)的兩位工程師Alex Ingerman和Krzys Ostrowski在博客文章中這樣寫道。
據(jù)了解,與TensorFlow本身相似,這兩個新模塊將以開源許可的形式提供給用戶。
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請掃描下方二維碼
