您現在的位置是:首頁 >要聞 > 2020-11-07 08:34:35 來源:
如何保護AI系統(tǒng)免受對抗性機器學習
導讀 隨著機器學習的日益普及,使專家擔心的一件事是該技術將帶來的安全威脅。我們仍在探索各種可能性:自動駕駛系統(tǒng)的故障?來自深度神經網絡的
隨著機器學習的日益普及,使專家擔心的一件事是該技術將帶來的安全威脅。我們仍在探索各種可能性:自動駕駛系統(tǒng)的故障?來自深度神經網絡的敏感數據的不明顯的竊取?基于深度學習的生物特征認證失敗?內容審核算法的微妙繞過?
同時,機器學習算法已經進入金融,醫(yī)療保健和運輸等關鍵領域,在這些領域中,安全失敗可能會造成嚴重影響。
在不同領域中越來越多地采用機器學習算法的同時,人們對對抗性機器學習的興趣也日益增長,這是研究如何損害學習算法的研究領域。
現在,我們終于有了一個框架來檢測和響應針對機器學習系統(tǒng)的對抗攻擊。該框架稱為Adversarial ML威脅矩陣,是Microsoft,IBM,Nvidia和MITRE等13個組織的AI研究人員共同努力的結果。
雖然ML Threat Matrix仍處于早期階段,但它提供了一個綜合視圖,可了解惡意行為者如何利用機器學習算法的弱點來針對使用它們的組織。它的關鍵信息是對抗性機器學習的威脅是真實存在的,組織應立即采取行動以保護其AI系統(tǒng)。
將ATT&CK應用于機器學習
對抗性ML威脅矩陣以ATT&CK的樣式呈現,ATT&CK是由MITER開發(fā)的經過測試的框架,用于處理企業(yè)網絡中的網絡威脅。ATT&CK提供了一個表格,總結了不同的對抗策略以及威脅行為者在每個區(qū)域執(zhí)行的技術類型。
自成立以來,ATT&CK已成為網絡安全專家和威脅分析人員發(fā)現弱點并推測可能的攻擊的流行指南。對抗性ML威脅矩陣的ATT&CK格式使安全分析人員更容易理解機器學習系統(tǒng)的威脅。對于不熟悉網絡安全操作的機器學習工程師,它也是一個可訪問的文檔。