如何在兩難境地下,兼顧道德與文化規范差異?這是AI發展歷程中最棘手的問題。
因此,目前較為冷門的哲學和語言學或將迎來就業熱,而未來社會學家和人類學家也將在AI領域大顯身手。
人工智能常被認為是當今時代的科技亮點,因此理工科備受學生青睞——過去十年,英國高校選擇數學專業的人數增加25%以上,而工程與技術類學生亦增加了20%。與此同時,攻讀哲學和歷史的學生人數減少了10%,而學習語言的學生人數則減少了20%。
這一專業偏好貌似會延續至下一個十年。但德意志銀行集團的經濟學家們卻認為,人工智能的發展,或將受到人文學科掣肘。因此未來十年,由于文科人才稀缺,即使是有志從事人工智能最前沿工作的學生也可能選擇攻讀哲學和語言學位。
即使是最基礎的機器學習也面臨道德問題,而 AI在處理復雜決策、文化及語言等微妙細節上的欠缺,激發了社會對人文學科人才的需求。以目前已進入試用階段的簡易AI程序為例:亞馬遜AI簡歷篩選工具出現了性別偏見,美國犯罪評估軟件COMPAS在選擇準予假釋的囚犯時表現出明顯的種族偏見,微軟聊天機器人Tay在激活后16小時就徹底失控。因此擅長做出復雜決策又精通語言文化差異的人才將炙手可熱。
精密的AI應用程序需要開發者同時具備道德和決策能力。以自動駕駛汽車為例:如果自動駕駛汽車被迫在生死攸關之際,在兩難之間做出選擇,其決策程序是否能在符合當地文化價值觀基礎上,做出相對合理的判斷?研究表明,國家文化差異的確會導致不同的決策傾向。
如何在兩難境地下,兼顧道德與文化規范差異?這是AI發展歷程中最棘手的問題。AI開發者們在向遵循嚴格監管要求的公司(如金融機構)推介服務的過程中時常碰壁,因為機器學習的不可預測因素,使僅僅精通技術的開發者們無法判斷其系統結論是否合理,因此難以符合監管不同要求。
因此,目前較為冷門的哲學和語言學或將迎來就業熱;未來社會學家和人類學家也將在AI領域大顯身手。
很多人文學科研究的是人類現實狀態,而非理想狀態,而這恰恰彌補了AI程序的不足,解答問題,協助制定AI的思考模式,并與監管機構一同制定相關標準。
作者:德意志銀行集團宏觀經濟學家盧克·坦普爾曼(Luke Templeman)
責任編輯:韓希宇
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。