2021年4月21日,歐盟委員會針對人工智能(AI)應用提出了一份全新的監管草案和協調行動規劃,希望通過靈活解決AI系統帶來的特定風險,保證AI技術的安全可持續使用。
文件顯示,歐盟計劃將AI技術應用按照風險等級進行劃分:
不可接受的風險:指對人類安全、生計和權利造成威脅的AI系統,包括操縱人類行為以規避用戶自由意愿(例如使用語音輔助技術鼓勵未成年人做出危險行為的玩具)和允許各國政府進行“社會評分”(Social Scoring)的系統。這類系統將被完全禁用。
高風險:
- 關鍵基礎設施(例如交通運輸設施)類,可能會給公民生命和健康帶來風險的AI應用;
- 教育或職業培訓類,可以決定某人獲得教育和專業課程渠道的AI應用(例如考試得分);
- 產品的安全組成部分(例如在機器人輔助手術中的AI應用);
- 就業、人工管理和自雇員工渠道(例如招聘程序的建立分類軟件)的AI應用;
- 基本私人和公共服務(例如拒絕公民獲得貸款機會的信用評分)的AI應用;
- 可能會干擾公民基本權利的執法(例如評估證據可靠性)的AI應用;
- 遷移、收容庇護和邊界控制管理(例如驗證旅行證件真實性)的AI應用;
- 行政司法和民主程序(例如將法律應用于一個具體事實)的AI應用。
高風險AI系統在進行應用之前必須履行一系列義務,包括進行嚴格的風險評估、通過高質量數據更新最大限度地降低風險和歧視性結果、詳細進行活動記錄確保結果的可追溯性、增加適當的人工監督等等。
除此之外,所有遠程生物識別系統都被認為是高風險的AI應用,原則上禁止在公開可訪問的空間中使用這類系統,但是仍然存在一些特例情況(例如找尋走失兒童,防止特定和即將到來的恐怖主義威脅,或檢測、定位、識別或起訴犯罪者或嫌疑人的嚴重刑事犯罪行為)。這種使用需要得到司法或其他獨立機構的授權,并在時間、地理和數據使用范圍等領域受到嚴格限制。
有限風險:即具有特定透明義務的AI系統,例如在使用聊天機器人等AI系統時,用戶應該意識到它們是在與機器進行交互,他們可以采取明智的決定繼續或退出。
最小風險:新規允許自由使用諸如AI驅動的視頻游戲或垃圾郵件過濾器等應用程序。絕大多數AI系統屬于這一類別。
此前歐盟方面曾表示,計劃每年通過“數字歐盟”和“歐盟地平線”等項目向AI領域投資10億歐元,同時每年在AI領域吸引投資200億歐元。
責任編輯:Rachel
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。