當地時間4月8日(北京時間4月9日),歐盟委員會發布了一份人工智能(AI)道德準則,提出了“值得信賴”的人工智能應當滿足的7個條件。下一階段,歐盟委員會將啟動AI道德準則的試行,邀請工業界、研究機構和政府機構對該準則進行測試和補充。
《經濟學人》曾表示,美國和中國已經是毋庸置疑的AI超級體,而歐洲可以率先制定規則來限制AI系統可能造成的危害。許多人希望歐洲能建立AI行業的全球標準,就像其建立的新數據隱私法GDPR一樣。
未來AI
歐盟召集了52名專家組成的小組,提出了他們認為未來AI系統應該滿足的七大條件:
受人類監管:AI不能侵犯人類的自主性。人類不應該被AI系統操縱或威脅,人類應該能夠干預或監督AI的每一項決定。
技術的穩健性和安全性:AI應該是安全和準確的。它不應該輕易受外部攻擊的影響,它應該非??煽?。
隱私和數據管理:AI收集的個人數據應該是安全的、私有的,不得用于傷害或不公平對待數據所有人。
透明度:用于創建AI系統的數據和算法應該是可訪問的,應確保AI決策的可追溯性。換句話說,運營商應該能夠解釋他們的AI系統是如何做出決策的。
多樣性、非歧視性和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特征。同樣,系統不應該有任何偏向。
社會和環境福祉:人工智能系統應該是可持續的(即它們應該對生態負責)并“促進積極的社會變革”。
問責制:應建立機制,確保對AI系統及其成果負責和問責。
目前這些要求不具有法律約束力,但它們可能對歐盟未來起草的所有法律造成影響。歐盟希望成為AI倫理領域的領導者,并通過《通用數據保護條例》(GDPR)表明,愿意制定影響深遠的法律,以保護公眾的數字權利。
今年夏天,歐盟委員會將與相關方合作,確定可能需要額外指導的領域,并確定如何更好地執行和核查。2020年初,專家組將納入試點階段的反饋意見。
AI倫理探索
最早關于機器人的倫理規定是科幻作家阿西莫夫上世紀設計的防止機器人失控的“機器人三定律”:機器人不能傷害人類;它們必須服從于人類;它們必須保護自己。后來還加入了“第零定律”:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。
但是隨著人工智能不斷發展,“機器人三定律”中的許多問題都有待進一步細化。
全球知名的艾倫人工智能研究所首席執行官埃齊奧尼,兩年前在一次演講中呼吁更新“機器人三定律”。他還提出,人工智能系統必須遵守適用于其操作人員的所有法律條文;人工智能系統必須明確表示它不是人類;未經信息來源明確許可,人工智能系統不能保留或披露機密信息等。
在過去的兩年時間里,有大量的AI研究人員開啟對AI倫理的思索。
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft和IBM等幾家全球大公司共同成立了PartnershiponAI,研究和制定人工智能技術的最佳實踐,促進公眾對人工智能的理解,并作為一個開放平臺來討論人工智能對人和社會的影響。
2017年7月,中國政府發布《新一代人工智能發展規劃》時就指出,建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力
去年年底,加拿大和法國聯合成立了一個國際小組,討論如何負責任地使用人工智能。
目前,在國家層面上關于AI的規則制定并不平衡,有的國家已經優先制定了機器人和人工智能的規則,甚至還通過立法來管理自動駕駛汽車,但大多數國家還沒有著手去做。
歐盟委員會指出,技術、數據和算法不分國界,為此,其將繼續加強同日本、加拿大以及新加坡等志同道合國家的合作,并繼續在包括七國集團(G7)和G20在內的國際場合討論和倡議中發揮積極作用。
IBM歐洲主席頁特(Martin Jetter)對此表示,歐盟委員會此次出臺的指導方針“為推動AI的道德和責任制定了全球標準”。
責任編輯:陳愛
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。