如果說今天的人工智能是互聯網,乃至整個信息技術領域的皇冠,那么安全無疑是皇冠的基座。就像任何新技術一樣,人工智能的安全與否很大程度上影響著其未來的發展和應用。符合什么標準的人工智能才算是安全的?或者人工智能的安全主要包括哪些方面?本文擬通過對美國和英國人工智能發展戰略的簡要分析,介紹當下人工智能安全問題的幾個主要維度。
美、英兩國人工智能發展戰略簡介
美 國
2016年10月,美國相繼發布了兩份與人工智能發展相關的戰略文件,《美國國家人工智能研究和發展戰略計劃》(The National Artificial Intelligence Research and Development Strategic Plan)和《時刻準備著:為了人工智能的未來》(Preparing for the Future of Artificial Intelligence)。隨后,12月白宮又發布了一份名為《人工智能、自動化和經濟》(Artificial Intelligence, Automation and the Economy)的報告。
1.《美國國家人工智能研究和發展戰略計劃》
由美國國家科學技術委員會下屬的網絡和信息技術研究與開發委員會發布,主要針對人工智能產業本身的發展。該戰略為美國聯邦政府資助的內部和外部人工智能研究制定了一系列目標,期望獲得新的人工智能知識和技術,為社會提升效益,同時盡量減少負面影響。該戰略確定了政府資助人工智能領域研究的7項重大計劃,包括:(1)對人工智能研究進行長期投資;(2)開發有效的人類與人工智能協作方法;(3)了解并解決人工智能的倫理、法律和社會影響;(4)確保人工智能系統的安全可靠;(5)開發用于人工智能培訓及測試的公共數據集和環境;(6)制定標準和基準以測量和評估人工智能技術;(7)更好地了解國家人工智能人力需求。該戰略最后提出了兩方面建議:(1)開發一個人工智能研發實施框架,以抓住科技機遇,并支持人工智能研發投資的有效協調,與戰略的第一至六項計劃相對應;(2)研究創建和維持一個健全的人工智能研發隊伍的國家愿景,與戰略第七項計劃對應。
2.《時刻準備著:為了人工智能的未來》和《人工智能、自動化和經濟》
與前一份戰略不同,這兩份報告主要針對的是人工智能對國家社會、經濟可能產生的影響?!稌r刻準備著:為了人工智能的未來》介紹了人工智能的發展歷史和在公共領域的應用現狀,分析了政府在推動人工智能發展中應當扮演的角色,強調應充分重視人工智能在未來可能帶來的重大影響和挑戰,要求保持國內和國際兩個維度、多主體間的密切合作。報告在最后,就研究、標準、政府應用人工智能、實踐、監管政策、人員隊伍建設等方面提出了建議?!度斯ぶ悄?、自動化和經濟》是《時刻準備著:為了人工智能的未來》的延續,針對《時刻準備著:為了人工智能的未來》中關于人工智能對勞動就業的影響問題進行了展開,從生產力、勞動力等方面進行了分析,并就投資、培訓以及工人轉型過渡等方面提出了建議。
英 國
英國2016年先后發布了兩份與人工智能相關的戰略,分別是《人工智能對未來決策的機會和影響》(Artificial Intelligence:Opportunities and Implications for the Future of Decision Making)和《機器人技術和人工智能》(Robotics, Automation and Artificial Intelligence)。
1.《人工智能對未來決策的機會和影響》
由英國政府科學辦公室發布,報告主要解釋了人工智能的基本概念和應用現狀,分析了人工智能應用將給英國政府和社會帶來的益處,并就處理人工智能帶來的道德和法律風險提出了建議。報告中重點關注了人工智能對個人隱私、就業以及政府決策可能帶來的影響。雖然報告在最后并未提出十分具體的應對建議,但是報告明確英國政府應當以積極、負責的態度處理與人工智能相關的決策,并重申了人工智能發展過程中應當遵守現有法律規范,但對于有限的、受控的試錯應抱開放態度。
2.《機器人技術和人工智能》
由英國下議院科學和技術委員會發布,報告主要關注英國機器人、自動化和人工智能產業整體,針對英國如何充分利用自身優勢,把握產業發展過程中的機遇進行了分析。報告首先分析了人工智能給社會帶來的影響,重點聚焦于對就業和教育的沖擊。其次,報告分析了人工智能在安全和可控以及治理上的挑戰。最后,報告確定了一份包括資金、領導者以及技術3個方面的RAS(Robotics and Autonomous Systems)2020行動計劃。
美、英兩國人工智能發展戰略中的信息安全
美、英兩國的幾份人工智能戰略對信息安全均有涉及,雖具體表述不同,但大體邏輯基本一致,主要包括以下幾個方面。
1. 透明和可信
美、英兩國人工智能戰略均將透明作為人工智能安全和可控的首要指標。人工智能的透明性可以理解為人工智能行為的可解釋性。目前基于包括深度學習在內的多種人工智能算法,對于用戶來說均是不透明的,缺乏有效的機制對其行為進行解釋。無法準確解釋產生結果的原因就意味著無法對結果進行驗證,這在很多關乎用戶安全的領域,例如醫療、自動駕駛等,會使用戶產生嚴重的不信任感。其中,《美國國家人工智能研究和發展戰略計劃》對人工智能應當達到的透明、可信進行了分析,認為系統的透明可信應當具體體現在以下幾個方面中:(1)透明,即以用戶可見的方式進行操作;(2)可信,即用戶可接受的系統輸出;(3)可審計,系統可評估;(4)可靠,系統按照用戶期望行動;(5)可恢復,用戶可在需要時恢復控制。雖然,透明、可信被認為是人工智能安全可控的首要因素,但美、英兩國的多份戰略均承認,目前還沒有科學有效的方法對人工智能的決策過程進行追蹤和解釋。
2. 可驗證和可確認
可驗證性和可確認性是透明和可信在邏輯上的自然延伸。人工智能系統需要新的方法來驗證和確認,《美國國家人工智能研究和發展戰略計劃》認為“可驗證”指確定系統滿足正式規范,而“可確認性”指確定系統滿足用戶的操作需求。安全的人工智能系統需要新的評估方法(確定系統是否發生故障,尤其當系統可能在預期參數以外運行時)、診斷方法(確定故障原因)和維修方式(調整系統以解決故障)?!稒C器人技術和人工智能》則強調驗證和確認的方法需要制度化,并強調目前尚沒有有效的方法可以保證人工智能系統的測試和量化 。
3. 道德和隱私
道德和隱私問題主要針對的是人們對數據密集型人工智能算法出錯和濫用的敏感性,以及對性別、年齡、種族或經濟類信息可能產生的影響所表達的擔憂。其中,由于利用人工智能系統進行決策依賴于密集的數據收集和處理,并且這是一種日常的、持續進行的工作。在這種情況下,大數據所帶來的隱私保護和數據權屬問題被放大,需要尋找新的平衡點。除去純粹的數據相關問題,出現在人工智能設計上的更大的問題本質上是公正、公平、透明和負責。在這個問題上《機器人技術和人工智能》引用了谷歌相冊軟件將深色皮膚的人群標記為大猩猩的例子,意在說明技術上的偏差可能導致不安與仇視?!睹绹鴩胰斯ぶ悄苎芯亢桶l展戰略計劃》認為如何表示和“編碼”人類價值和信仰體系是人工智能發展的重要研究課題。
4. 責任模式
對于責任模式的擔憂出現在《機器人技術和人工智能》中,指人工智能系統的設計者和部署者對于人工智能系統行為的結果應當承擔何種責任。相比以上幾個方面,責任模式的問題更加具有針對性,目前主要體現在關于自動駕駛汽車行駛過程中出現事故的責任分擔上。
5. 安全防護和長期優化
《美國國家人工智能研究和發展戰略計劃》強調了傳統的網絡安全在人工智能環境中可能帶來的新的挑戰。認為嵌入關鍵系統中的人工智能系統必須耐用、安全,以應付大范圍的蓄意網絡攻擊。認為人工智能系統的應用將帶來一些新的獨特的威脅形式。報告列舉了一項名為“對抗機器學習”的研究項目,該項目通過“污染”訓練數據、修改算法或通過對阻礙其得到正確識別的某一目標進行微小變化(例如,欺騙面部識別系統的假肢),以此來探索對人工智能系統的獨特危害。報告認為在需要高度自主性的網絡安全系統中實施人工智能是一個需要進一步研究的領域。同時,報告還強調,人工智能系統最終可能采取“循環自我改進”,即大量軟件修改會由軟件自身進行,而非由人類程序員進行。為了確保自我修改系統的安全性,需要進行額外研究來進行開發,例如建立自我監測架構,通過設計者的原始目標來檢查系統的行為一致性;或可證明的,能抵抗自我修改的價值架構等。
人工智能系統面臨的一個個安全問題反映出了技術和產業的不成熟,但不能據此否定人工智能發展的可能性。創新總是意味著產生新的問題,而這些問題最終同樣需要通過創新解決。未知的挑戰不在于未知本身,而是應對和解決問題的體制和機制。重視問題,但不必妖魔化,如何以審慎、包容和創新的態度面對人工智能發展帶來的變化,是政府、社會、企業及用戶共同的考驗。
人妻精品一区二区三区_好紧好湿好硬国产在线视频_亚洲精品无码mv在线观看_国内激情精品久久久責任編輯:韓希宇
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。