<video id="zjj55"><delect id="zjj55"></delect></video>

<big id="zjj55"><listing id="zjj55"><del id="zjj55"></del></listing></big>

<menuitem id="zjj55"><delect id="zjj55"><pre id="zjj55"></pre></delect></menuitem>

<output id="zjj55"></output>
<video id="zjj55"></video>

<menuitem id="zjj55"></menuitem>

    <video id="zjj55"><listing id="zjj55"></listing></video>

    <menuitem id="zjj55"></menuitem>
    <output id="zjj55"><delect id="zjj55"><pre id="zjj55"></pre></delect></output>

    <menuitem id="zjj55"></menuitem>
    <menuitem id="zjj55"></menuitem>

        <big id="zjj55"></big>
          1. 移動端
            訪問手機端
            官微
            訪問官微

            搜索
            取消
            溫馨提示:
            敬愛的用戶,您的瀏覽器版本過低,會導致頁面瀏覽異常,建議您升級瀏覽器版本或更換其他瀏覽器打開。

            探究人工智能系統中的安全問題

            來源:安全客 2017-12-01 10:48:00 人工智能 安全 金融安全
                 來源:安全客     2017-12-01 10:48:00

            核心提示深度學習引領著新一輪的人工智能浪潮,受到工業界以及全社會的廣泛關注。雖然大家對人工智能有很多美好的憧憬,但是現實是殘酷的——隨著一批深度學習應用逐漸開始變成現實,安全問題也漸漸顯現出來。

              深度學習引領著新一輪的人工智能浪潮,受到工業界以及全社會的廣泛關注。 雖然大家對人工智能有很多美好的憧憬,但是現實是殘酷的 —— 隨著一批深度學習應用逐漸開始變成現實,安全問題也漸漸顯現出來。

              人工智能應用面臨來自多個方面的威脅:包括深度學習框架中的軟件實現漏洞、對抗機器學習的惡意樣本生成、訓練數據的污染等等。 這些威脅可能導致人工智能所驅動的識別系統出現混亂,形成漏判或者誤判,甚至導致系統崩潰或被劫持,并可以使智能設備變成僵尸攻擊工具。

              在推進人工智能應用的同時,我們迫切需要關注并解決這些安全問題。本文作為人工智能與安全的系列文章之一,首先介紹我們在深度學習框架中發現的安全問題。

              人工智能討論中的安全盲點

              目前公眾對人工智能的關注,尤其是深度學習方面, 缺少對安全的考慮。我們把這個現象稱為人工智能的安全盲點。 導致這個盲點的主要原因是由于算法與實現的距離。 近期對于深度學習的討論主要停留在算法和前景展望的層面,對應用場景和程序輸入有很多假設。受到關注的應用往往假定處于善意的或封閉的場景。例如高準確率的語音識別中的輸入都是自然采集而成,圖片識別中的輸入也都來自正常拍攝的照片。這些討論沒有考慮人為惡意構造或合成的場景。

              人工智能討論中的安全盲點可以通過最典型的手寫數字識別案例來說明?;贛NIST數據集的手寫數字識別應用是深度學習的一個非常典型的例子, 最新的深度學習教程幾乎都采用這個應用作為實例演示。在這些教程中(如下圖所示)算法層的討論所考慮的分類結果只關心特定類別的近似度和置信概率區間。算法層的討論沒有考慮輸入會導致程序崩潰甚至被攻擊者劫持控制流。這其中被忽略掉的輸出結果反映出算法和實現上考慮問題的差距,也就是目前人工智能討論中的安全盲點。

            探究人工智能系統中的安全問題

            圖1. 深度學習算法與安全所考慮的不同輸出場景

              現實中的開放應用需要處理的輸入不僅來源于正常用戶,也可以是來自黑產等惡意用戶。 人工智能的應用必須考慮到應用所面臨的現實威脅。程序設計人員需要考慮輸入數據是否可控,監測程序是否正常執行,并驗證程序執行結果是否真實反映應用的本來目的。

              深度學習系統的實現及依賴復雜度

              深度學習軟件很多是實現在深度學習框架上。目前基于深度學習系統框架非常多,主流的包括TensorFlow、Torch,以及Caffe 等。

              深度學習框架的使用可以讓應用開發人員無需關心神經元網絡分層以及培訓分類的實現細節,更多關注應用本身的業務邏輯。 開發人員可以在框架上直接構建自己的神經元網絡模型,并利用框架提供的接口對模型進行訓練。這些框架簡化了深度學習應用的設計和開發難度,一個深度學習的模型可以用幾十行代碼就可以寫出來。

            探究人工智能系統中的安全問題

            圖2. 深度學習框架以及框架組件依賴

              深度學習框架掩蓋了它所使用的組件依賴,同時也隱藏了系統的復雜程度。 每種深度學習框架又都是實現在眾多基礎庫和組件之上,很多深度學習框架里還包括圖像處理、矩陣計算、數據處理、GPU加速等功能。 圖2展示了典型的深度學習應用組件和它們的依賴關系。例如Caffe除了自身神經元網絡模塊實現以外,還包括137個第三方動態庫,例如libprotobuf, libopencv, libz 等。 谷歌的TensorFlow 框架也包含對多達97個python模塊的依賴,包括librosa,numpy 等。

              系統越復雜,就越有可能包含安全隱患。任何在深度學習框架以及它所依賴的組件中的安全問題都會威脅到框架之上的應用系統。另外模塊往往來自不同的開發者,對模塊間的接口經常有不同的理解。當這種不一致導致安全問題時,模塊開發者甚至會認為是其它模塊調用不符合規范而不是自己的問題。在我們的發現的導致深度學習框架崩潰的漏洞中就遇到過這種情況。

              魔鬼隱藏于細節之中

              正如安全人員常說的, 魔鬼隱藏于細節之中 (The Devil is In the Detail)。任何一個大型軟件系統都會有實現漏洞。 考慮到深度學習框架的復雜性, 深度學習應用也不例外。

              360 Team Seri0us 團隊在一個月的時間里面發現了數十個深度學習框架及其依賴庫中的軟件漏洞。發現的漏洞包括了幾乎所有常見的類型,例如內存訪問越界,空指針引用,整數溢出,除零異常等。 這些漏洞潛在帶來的危害可以導致對深度學習應用的拒絕服務攻擊,控制流劫持,分類逃逸,以及潛在的數據污染攻擊。

              以下我們通過兩個簡單的例子來介紹深度學習框架中的漏洞以及對應用的影響。兩個例子都來源于框架的依賴庫,一個是TensorFlow框架所依賴的numpy包,另一個是Caffe在處理圖像識別所使用的libjasper庫。

              案例1: 對基于TensorFlow的語音識別應用進行拒絕服務攻擊

              案例中的 numpy 是TensorFlow所依賴的一個負責科學計算的python庫。TensorFlow的很多應用在進行矩陣運算的時候都會用的它。 我們在這個庫里發現一個簡單邏輯漏洞(CVE-2017-12852)。 這個問題的簡單情況如下圖所示,它是發生在numpy中的pad函數。 在pad函數中,存在這樣一個while循環,循環結束需要使 pad_before>safe_pad和pad_after>safe_pad同時不成立, 而在我們構造的例子中,可以使得pad_before和 pad_after不斷的增大,而safe_pad不斷的減小,使得循環始終無法結束,從而導致拒絕服務。

            探究人工智能系統中的安全問題

            圖3. Numpy 拒絕服務攻擊漏洞及官方補丁

              我們選擇了基于TensorFlow的語音識別應用來演示基于這個漏洞觸發的攻擊。攻擊者通過構造語音文件,會導致上圖中顯示的循環無法結束,使應用程序長時間占用CPU而不返回結果,從而導致拒絕服務攻擊。

              我們選取了一個基于TensoFlow進行聲音分類的應用來演示這個問題。這個應用是一個 TensorFlow程序演示,應用腳本源碼可以從以下網站下載:Urban Sound Classification

              當給定一個正常的狗叫的音頻文件,應用可以識別聲音內容為 "dog bark",其過程如下:

            探究人工智能系統中的安全問題

              當給定一個畸形的聲音文件可導致拒絕服務, 程序無法正常結束:

            探究人工智能系統中的安全問題

              在前面關于模塊依賴復雜導致漏洞的討論中,我們提到過對模塊接口的理解不一致會導致問題。值得一提的是Numpy這個漏洞的修復過程正好反映了這個問題。在我們最初通知Numpy開發者的時候,他們認為問題是由于調用者librosa庫的開發人員沒有對數據進行嚴格檢測,導致空列表的使用。所以盡管有應用會因為此問題受到拒絕服務攻擊, Numpy開發者最初認為不需要修復這個問題。但后來發現有多個其它庫對numpy的相關函數也有頻繁的類似調用,所以最終對這個漏洞進行了修復。同時librosa 開發者也對相關調用添加了輸入檢查。

              案例2:惡意圖片導致基于Caffe的圖像識別應用出現內存訪問越界

              很多深度學習的應用是在圖像和視覺處理領域。我們發現當使用深度學習框架Caffe來進行圖片識別時,Caffe會依賴libjasper等圖像視覺庫來處理輸入。 libjasper對圖像進行識別處理時,如果存在漏洞,例如內存越界,就可能導致整個應用程序出現崩潰,甚至數據流被篡改。下面的例子是用展示的是用Caffe所自帶的例子圖像識別程序來處理我們提供的畸形圖片所出現的崩潰場景。

              當利用Caffe來對正常圖片進行分類時,正常的使用情況如下:

            探究人工智能系統中的安全問題

              當利用Caffe來對惡意圖片進行分類時,程序出現崩潰:

            探究人工智能系統中的安全問題

              以上僅僅是我們發現的眾多問題中的兩個展示。 360 Team Seri0s 團隊已發現并公布了數十個導致深度學習框架出現問題的漏洞,其中包含已對外公開的15個CVE。 在上個月舉行的ISC安全大會上,Team Seri0s成員已經展示了六個攻擊實例。更多細節請參考ISC 2017大會人工智能與安全論壇所發布的內容。

              小結

              本文的目的是介紹被大眾所忽視的人工智能安全問題,尤其是深度學習軟件實現中的漏洞以及可能造成的隱患。目前在媒體中展示的深度學習應用中,許多并不與外界直接交互,例如AlphaGo;或者是在封閉的環境下工作,例如通過用戶行為日志對用戶分類畫像并進行異常檢測。這些系統的攻擊面相對較小,它們并不容易受到本文中所提到的漏洞的直接影響。 但是隨著人工智能應用的普及,安全威脅會不斷增加。 更多的應用會把應用的輸入接口直接或間接暴露出來。同時封閉系統的攻擊面也會隨著時間和環境而轉化。 另外除了傳統的基于軟件漏洞的攻擊,深度學習還面臨對抗神經元網絡以及其它各種逃逸攻擊。 我們會在后續文章里對這方面的工作進行更新。

            人妻精品一区二区三区_好紧好湿好硬国产在线视频_亚洲精品无码mv在线观看_国内激情精品久久久

            <video id="zjj55"><delect id="zjj55"></delect></video>

            <big id="zjj55"><listing id="zjj55"><del id="zjj55"></del></listing></big>

            <menuitem id="zjj55"><delect id="zjj55"><pre id="zjj55"></pre></delect></menuitem>

            <output id="zjj55"></output>
            <video id="zjj55"></video>

            <menuitem id="zjj55"></menuitem>

              <video id="zjj55"><listing id="zjj55"></listing></video>

              <menuitem id="zjj55"></menuitem>
              <output id="zjj55"><delect id="zjj55"><pre id="zjj55"></pre></delect></output>

              <menuitem id="zjj55"></menuitem>
              <menuitem id="zjj55"></menuitem>

                  <big id="zjj55"></big>

                      責任編輯:韓希宇

                      免責聲明:

                      中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。

                      為你推薦

                      猜你喜歡

                      收藏成功

                      確定