歐盟監管機構正準備對人工智能(AI)在犯罪預測、信用評估、員工績效管理、邊境控制系統等領域的使用建立更嚴格的規則,以減少AI決策所帶來的不良后果及風險。4月21日,歐盟委員會提出關于人工智能的新立法草案。文件提出,人工智能系統需要滿足特定的"透明義務",使人類可以審查人工智能所做出的決策,以確定該決策的制定過程及所使用的數據。這就是AI開發人員所說的基于"白盒"原則的"可解釋性",與決策過程難以理解且不透明的AI"黑箱"剛好相反。
該草案對于使用AI模型的在線零售商和支付提供商將帶來三方面的影響:1)更多的審查;2)更高的透明度標準;3)終端用戶對產品更加了解,并要求將透明度和可解釋性納入AI解決方案中。這些影響都是積極的,有助于人們更好地理解AI技術并建立對其更多的信任。
更高的透明度有助于信任建立
對于那些已按照"白盒"原則運營的公司來說,這是一個與合作伙伴和客戶就如何做出重要決策(如批準或拒絕交易)以及決策過程中需考慮哪些因素進行交流的機會。每個人都應該有權決定在何時何地以何種方式購買他們所需的物品,任何阻礙這種情況發生的技術都應受到審查。
AI風險評估的工作原理
分析師和客戶都需了解AI系統為什么拒絕或批準交易,以及哪些信息會影響AI的評估得分。在風險評估過程中,先進的AI系統會查看超過2500多個指標和行為標識來生成分值,故了解并追溯這些指標至關重要。根據AI風險評分,可以確定哪些因素使交易更可能具有欺詐性。例如,可以通過追蹤電子郵件地址、送貨地址和付款方式等信息,以此尋找交易過程中可能存在的信息不匹配。AI系統的可解釋性與透明度也將幫助商家了解系統在客戶識別過程中產生誤判的原因,以及提升AI決策準確度的數據點。
推行"可解釋"的AI勢在必行
關于這一趨勢的發展只是時間問題。AI系統決策的道德風險和不良后果已廣為人知,而近期發生的幾個相關事件也給監管機構帶來了壓力。例如在美國,有事實證明有色人種的面部識別準確率較低。盡管這些算法的平均分類準確率很高(超過90%),但在女性和黑人受試者群體中卻始終有著最低的準確率。這源于以白人男性為主的開發人員未充分考慮對膚色較深的群組進行測試,或在數據訓練中對這部分群組的學習代表性不足。在AI技術應用更加廣泛的背景下,不僅是客戶,政府和監管機構也將對AI應用的透明度提出更高的要求。
責任編輯:Rachel
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。