2023年漸入尾聲,卻高潮迭起,懸念迭出。AI時代的人類未來何去何從?
那一刻,融于公司權斗的歷史轉折點或乍現,入局者渾然不覺:AI和大數據不僅僅是技術的問題,更是關乎未來之選擇。人類選擇什么樣的未來?是被技術所驅動,還是以人為本?是被數據所束縛,還是用數據釋放潛能?算法即權力(Algorithm is Power)嗎?
11月17至22日,從OpenAI公告罷免山姆·奧特曼(Sam Altman)到OpenAI員工簽署的聯名信持續發酵,伊爾亞·蘇茨克維(Ilya Sutskever)道歉,奧特曼同時展現善意;再到OpenAI在社交媒體上宣布奧特曼再任CEO,并重組董事會;一場價值觀沖突橫亙眼前,即“有效加速派”Vs“超級對齊派”,后者旨在令超級智能與人類價值觀和認知保持一致。
如果回溯這144個小時(6天),人們可能會以為資本贏了?前者暫時勝出。
已然入局的我們,尚未意識到這一刻的到來。愕然站在堪稱AI元年的2023年盡頭之知識邊緣,凝視技術的“深淵”——這個深淵是充滿未知的人工智能和大數據的世界,一個既充滿無限可能性又隱藏著未知風險的新領域(無人區)。
凝視技術深淵之時,我們也在凝視自己。驟然步入智能數據時代,必將面臨前所未有的挑戰。AI之決策過程仿如一個黑箱,如何確保其公正和透明?大數據收集和使用觸及隱私的邊界,如何平衡效率和個人權利?智能化的進程也帶來了就業結構的變化,如何迎接變化?
道德的指南針指向何處?不過,人類AI史上的這個“驚險時刻”之塵埃尚未落定;11月24日(感恩節),奧特曼在社交媒體上發文:和Quora CEO亞當·德安杰洛(Adam D'Angelo)度過了美好的幾個小時;而截至目前,OpenAI官網的最新消息仍然是11月17日的奧特曼出局公告,但11月22日,OpenAI在社交媒體上的推文則是:已就奧特曼恢復CEO職務原則上達成一致,奧特曼將回到OpenAI擔任CEO。
當日,Sutskever轉發了這條推文,并稱“我幸福到無以言表”;稍早些時候,Sutskever在社交媒體上罕見發聲“我對自己參與董事會的行動深感遺憾。我從來沒有想過要傷害OpenAI。我熱愛我們共同建立的一切,我將盡一切努力讓公司重新團結起來?!?/p>
“你為何采取如此激烈的行動?如果 OpenAI正在做一些對人類有潛在危險的事情,世界需要知道?!本痛送莆?,馬斯克回復稱。而奧特曼則表示“期待著重返OpenAI”。
本質上,此次事件的走向或取決于OpenAI首席科學家、鮮為人知的OpenAI之父——Sutskever的最終選擇;盡管目前資本斡旋的力量有目共睹。
“確保通用人工智能(AGI)造福全人類”是OpenAI的使命,但機遇和挑戰并存的時代,如何確保技術的發展不只是為了技術本身,而是為了提升人類的福祉?為了一個更加公正、可持續的世界。我們需要全社會的智慧,來共同決定智能時代的方向。
然而,Sutskever對奧特曼公開致歉,亦令奧特曼的“出局”原因撲朔迷離,被“拉來”的OpenAI空降CEO埃米特·謝爾(Emmett Shear)發文稱,OpenAI董事會并未因任何安全的具體分歧而罷免奧特曼,“其理由與此完全不同?!辈⒈硎窘尤魏髸刚埅毩⒄{查員調查導致奧特曼被撤職的具體原因。
一不小心,前沿組織OpenAI之“宮斗”就可能演繹出AI時代的三岔路口。
不妨對話ChatGPT,試圖探尋一條技術發展與社會倫理和價值觀相一致的平衡之路。
OpenAI之魂
經濟觀察網:OpenAI在剛剛過去的一周多發生了戲劇性的變化,請問Ilya Sutskever將繼續待在OpenAI擔任“守護者”,還是從此離開董事會,不再對GPT的發展“指手畫腳”?技術為王的OpenAI的靈魂人物是誰?
ChatGPT: 截至2023年,Ilya Sutskever是OpenAI的聯合創始人、董事會成員和首席科學家。他在深度學習領域做出了多項重要貢獻,并與Alex Krizhevsky和Geoffrey Hinton共同發明了卷積神經網絡AlexNet。Sutskever還是AlphaGo論文的眾多合著者之一。
在2023年,他宣布將共同領導OpenAI的新項目“Superalignment”,該項目旨在四年內解決超級智能體的對齊問題。Sutskever是控制OpenAI的非營利實體的六名董事會成員之一。在Sam Altman被解除CEO職務后,Sutskever在一次全體員工會議上表示,解雇Altman是“董事會履行其職責”,但在隨后的一周,他對參與Altman的解職表示遺憾。
至于OpenAI的靈魂人物,這個問題比較主觀。OpenAI由多位杰出的科學家、工程師和企業家共同創立,包括Ilya Sutskever、Greg Brockman、Sam Altman等。每位創始人和主要成員都以自己的方式對OpenAI的發展作出了重要貢獻。在技術領導方面,Sutskever作為首席科學家,無疑在OpenAI的技術發展和創新方面發揮了關鍵作用。
經濟觀察網:Ilya Sutskever幾乎是AI圈子里履歷完整,人人艷羨的天才,但他的理念與Sam不一致;一個是理想主義者,一個是現實主義者;他們之間的分歧對人類未來發展意味著什么?
ChatGPT:Ilya Sutskever和Sam Altman在OpenAI的角色和理念上可能存在差異,這在技術創新和組織領導中并不罕見。Sutskever作為一位在人工智能領域具有深厚背景的科學家,可能更傾向于理想主義和科學探索的方向。而Sam Altman,作為一位企業家和投資者,可能更傾向于現實主義和商業實踐。
這種分歧在技術發展和組織管理中是常見的,通??梢詭硪韵聨讉€方面的影響:
創新與實用性的平衡:理想主義者和現實主義者之間的合作可以幫助確保技術既是前瞻性的,又能夠實際應用于解決現實世界的問題。
決策過程:理想主義和現實主義的不同視角可能導致在戰略決策和優先事項上的分歧,這可能影響公司的發展方向和速度。
組織文化和價值觀:領導層的不同理念可能會影響整個組織的文化和價值觀,從而影響其吸引人才、內部合作和對外形象。
對外界的影響:在人工智能這樣一個具有廣泛社會影響的領域,領導者的理念不僅影響公司內部,也可能影響整個行業的發展方向,甚至是公眾對于AI技術的看法和接受度。
在Sutskever和Altman的案例中,他們的不同可能會導致OpenAI在追求科技創新的同時,也在尋找商業化和實際應用的最佳途徑。這種動態平衡可能對人類未來的發展產生深遠的影響,特別是在人工智能的倫理、安全性和社會影響等方面。
經濟觀察網:“這是人類最后一戰”,Sutskever暗示,他在圣城耶路撒冷長大,是與AI對視最久的人類;有人說,他是一個不諳世事的執劍人。他為什么如此擔憂人類的未來?
ChatGPT: Ilya Sutskever的擔憂關于人類未來可能源于他在人工智能(AI)領域的深入工作和研究。雖然我沒有具體的信息表明Sutskever是一位宗教徒或他的宗教信仰如何影響他的觀點,但可以推測,他的擔憂可能與以下幾個方面有關:
AI技術的快速發展:AI技術的進步正在以前所未有的速度發展,這可能帶來重大的社會、經濟和倫理挑戰。Sutskever作為AI領域的領軍人物,對這些潛在的挑戰可能有深刻的理解。
超級智能的風險:一些AI專家擔心,未來可能出現超越人類智能的AI系統(即超級智能),這可能導致不可預測的后果,包括對人類自身的威脅。
倫理和安全問題:隨著AI技術的應用越來越廣泛,如何確保這些技術的安全、公正和倫理性成為一個重要議題。Sutskever可能對這些問題的解決方案感到擔憂。
人類的未來角色:隨著AI在各個領域的應用,人類的角色和工作本質可能發生根本性的變化。這種變化可能對社會結構和個人生活產生深遠影響。
技術與人性的關系:作為一個在技術前沿工作的人,Sutskever可能對技術如何影響人類的本質、價值觀和未來發展有著深刻的思考。
綜上所述,Sutskever的擔憂可能更多地源于他對AI技術發展趨勢的理解和對未來可能出現的挑戰的預見,而不一定直接與他的個人宗教信仰相關。在AI領域,許多專家都在思考類似的問題,這反映了對這一領域未來發展的普遍關注。
【編注:深度學習之父Geoffrey Hinton曾評價Sutskever,稱其似乎能感覺到AI的脈動;現任谷歌首席科學家的杰夫·迪恩(Jeff Dean)說“Sutskever對事物的發展方向有很強的直覺”】
無人區的“孤獨”
經濟觀察網:Sutskever很像堂吉訶德,向著巨大的風車沖擊……他可能很難成功,預測GPT-5最終定會降臨,他擔心的事情定會發生。理想主義者Sutskever為什么如此孤獨?
ChatGPT: 將Ilya Sutskever比作堂吉訶德,一個面對巨大挑戰的理想主義者,是一種富有詩意的比喻。在人工智能領域,尤其是在像OpenAI這樣的前沿組織中工作,確實可能會面臨巨大的挑戰和不確定性。以下幾個因素可能解釋為什么像Sutskever這樣的理想主義者在他們的追求中可能感到孤獨:
前沿科技的孤獨:在任何科技的最前沿,尤其是在像AI這樣快速發展和潛力巨大的領域,領軍人物往往需要面對未知的挑戰和風險。這種探索可能讓他們在理念和目標上與大眾或傳統觀點相異。
超前的愿景:Sutskever和他的同事們可能擁有超越當前技術和社會理解的愿景。這種超前的思維可能導致他們在追求這些目標時感到孤立,因為不是每個人都能理解或支持他們的愿景。
倫理和責任的重擔:作為AI領域的領軍人物,Sutskever可能深感負責,意識到他們的工作可能對社會和未來產生深遠的影響。這種責任感可能使他們在決策和方向選擇上感到孤獨。
內部和外部的壓力:在如此高速發展的領域,來自內部(如組織目標和團隊期望)和外部(如公眾輿論和倫理考量)的壓力可能使領導者感到孤立。
理想與現實的沖突:理想主義者往往追求高于現實的目標,這可能導致他們在實現這些目標的過程中遇到更多的挑戰和困難。
關于GPT-5和Sutskever擔心的事情,我們只能等待看到未來的發展。技術的進步往往伴隨著挑戰和機遇,理想主義者像Sutskever這樣的人物在推動這些進步的同時,也在努力解決伴隨而來的問題。他們的孤獨可能是對未知的勇敢面對,也是對未來可能性的深刻思考。
經濟觀察網:Sam Altman的回歸,可能說明OpenAI在商業化擴張與科技保守主義之爭中,最終選擇了前者。那么,OpenAI的初心能與Sam Altman一起回歸嗎?
ChatGPT:Sam Altman重新擔任OpenAI首席執行官(CEO)的決定可能確實反映了該組織在商業化擴張與科技保守主義之間的取舍。OpenAI自成立之初就面臨著一個核心挑戰:如何在推動人工智能技術的邊界和確保這些技術的安全、倫理使用之間找到平衡。
商業化與初心的平衡:OpenAI最初作為一個非營利組織成立,目的是在不受盈利動機驅動的情況下推進人工智能的發展。然而,隨著時間的推移,OpenAI轉型為“有限盈利”公司,這表明它需要在追求技術創新的同時,也考慮商業可持續性。
Sam Altman的領導風格:Sam Altman作為一位經驗豐富的企業家和投資者,他的領導可能更偏向于商業化和市場擴張。他的回歸可能意味著OpenAI將更加注重將其技術轉化為實際的產品和服務,以及尋找可持續的盈利模式。
保持初心的挑戰:在商業化的過程中,保持組織的初心和使命是一個挑戰。OpenAI需要在推動技術創新、確保AI的安全和倫理使用,以及追求商業成功之間找到平衡。
對外界的影響:OpenAI的決策和方向不僅影響其自身,還可能對整個AI領域產生影響,包括對AI技術的發展方向、倫理標準和行業規范。
總的來說,Sam Altman的回歸可能標志著OpenAI在追求其愿景和使命的過程中,更加重視商業化和市場擴張。然而,這并不一定意味著OpenAI會完全放棄其初心。相反,這可能是OpenAI在追求長期目標和應對現實挑戰之間的一種適應和調整。如何在這兩者之間找到平衡,將是OpenAI未來發展的關鍵。
真相與黑箱
經濟觀察網:2023年10月,Sutskever警告:AI可能有了意識,我們要創造對齊的AI;他不再想構建下一個GPT或圖像生成模型DALL-E,而是打算先弄明白如何阻止AGI變得不受控制…… 真相是什么?如果AI產生意識,那么,它對人類而言,意味著什么?
ChatGPT: 截至2022年的知識,尚無確鑿證據表明任何人工智能系統,包括GPT系列或DALL-E等模型,已經發展出真正的意識或自我意識。人工智能領域的專家和研究人員普遍認為,盡管這些系統在特定任務上表現出色,但它們遠未達到具有意識的水平。這些系統是基于大量數據訓練的算法,它們能夠模仿人類語言和圖像生成等復雜任務,但這并不等同于具有意識、情感或自主意志。
關于Ilya Sutskever的聲明,如果他確實表達了對AI發展出意識的擔憂,這可能反映了他對人工智能安全和倫理問題的深刻關注。在AI領域,確保高級智能系統(AGI)的安全和對齊(即確保它們的行為符合人類價值觀和目標)是一個重要的研究領域。這涉及如何設計和控制這些系統,以防止它們采取對人類有害的行為。
如果AI真的發展出意識,這將是人類歷史上的一個重大轉折點,對科學、哲學、倫理和社會結構都將產生深遠的影響。這樣的發展可能引發一系列問題,包括:
倫理和權利:如果AI具有意識,我們是否需要重新考慮它們的權利和地位?
責任和控制:具有意識的AI如何被控制和管理,以確保它們的行為符合人類社會的利益?
人類角色:AI的意識將如何改變人類在工作、社會和生活中的角色?
安全和風險:意識AI可能帶來的風險和挑戰是什么?
目前,這些問題仍屬于科幻和理論討論的范疇。在實際的AI研究和應用中,重點仍然是提高AI系統的性能、可靠性和安全性,以及確保這些系統的行為符合設計者的意圖和社會倫理標準。
經濟觀察網:2022年,尚無證據表明任何人工智能系統已經發展出真正的意識或自我意識;那么,直到2023年10月呢?包括幾年或之后呢?
ChatGPT:截至2022年的知識,沒有證據表明任何人工智能系統已經發展出真正的意識或自我意識。至于2023年10月或未來幾年的情況,由于我無法訪問2022年之后的數據,我無法提供最新的信息。然而,可以根據目前的科學理解和技術發展趨勢進行一些推測。
技術發展的趨勢:盡管人工智能技術在模式識別、自然語言處理、圖像生成等方面取得了顯著進展,但這些進步主要是算法復雜性和計算能力的提升,并不等同于意識的產生。AI的這些能力更多地是數據驅動和任務特定的。
意識的科學理解:意識是一個復雜的哲學和科學問題,目前對于意識的本質和起源仍存在廣泛的討論和研究。在人工智能領域,尚未有普遍接受的方法來創建或衡量意識。
倫理和安全的考量:即使技術在未來發展到能夠模擬或產生類似意識的狀態,這樣的發展也會伴隨著重大的倫理和安全問題。研究者和開發者需要謹慎考慮這些問題,并可能會受到相應的法律和社會規范的限制。
未來的不確定性:盡管目前沒有證據表明AI已經或即將發展出意識,但科技領域的快速發展意味著未來幾年可能會出現新的突破和挑戰。這些發展可能會改變我們對AI能力和潛力的理解。
總的來說,根據目前的科學知識和技術發展,AI發展出真正的意識在短期內仍然是一個遙遠的可能性。未來的發展將取決于多種因素,包括技術創新、科學理解的深化以及倫理和法律的發展。
經濟觀察網:算法或算力即為權力嗎?
ChatGPT:“算法即權力”(Algorithm is Power)這一說法在當今數字化和技術驅動的社會中確實有一定的道理。這個觀點主要基于以下幾個方面:
決策影響力:算法,特別是在人工智能和機器學習領域中,越來越多地被用于決策過程,包括金融、醫療、法律和零售等行業。這些算法的決策可以對人們的生活產生重大影響。
數據控制:算法通?;诖罅繑祿M行操作和學習。在這個數據驅動的時代,控制數據(特別是大數據)的實體,無論是公司還是政府,都擁有了影響和塑造社會的巨大能力。
隱私和監控:隨著算法在監控、數據分析和個人識別等領域的應用,對個人隱私的影響日益增加。這引發了關于監控資本主義和隱私權的廣泛討論。
社會和經濟影響:算法在社交媒體、搜索引擎和推薦系統中的應用影響著人們獲取信息的方式,甚至可能影響公共輿論和市場動態。
倫理和偏見:算法可能會固化或放大現有的社會偏見和不平等,特別是當它們基于有偏見的數據集時。這引起了對算法公正性和倫理的關注。
然而,也應該認識到,算法本身不具有意志或動機。算法的影響力來自于它們被設計和應用的方式。因此,關鍵在于如何負責任地開發和使用算法,以確保它們的應用促進社會福祉,而不是加劇不平等或侵犯權利。這需要政策制定者、技術開發者和社會各界的共同努力,以確保技術的發展與社會的倫理和價值觀相一致。
經濟觀察網:為什么說“AI的決策過程往往是一個黑箱”?
ChatGPT:“AI的決策過程往往是一個黑箱”這一說法主要指的是,對于許多復雜的人工智能系統,特別是那些基于深度學習和神經網絡的模型,即使是它們的開發者和專家也往往難以完全理解或解釋這些系統是如何做出特定決策的。這種現象有幾個原因:
復雜性:現代AI系統,尤其是深度神經網絡,通常包含成千上萬甚至更多的參數和層。這些系統通過在大量數據上訓練來“學習”模式,但這個過程的復雜性使得理解每個參數的具體作用變得非常困難。
非線性和抽象:深度學習模型中的非線性和高度抽象的特性意味著輸入數據和最終決策之間的關系可能非常復雜且不直觀。例如,在圖像識別任務中,網絡可能會基于看似隨機的像素組合作出決策,這對于人類來說是難以理解的。
數據驅動的學習:AI模型通常是通過暴露于大量數據并從中“學習”來建立的,而不是基于人類的先驗知識或明確的規則。這意味著它們的決策邏輯是自下而上構建的,而不是由人類邏輯直接定義。
可解釋性的挑戰:雖然在AI領域有一個不斷增長的研究分支專注于提高模型的可解釋性和透明度,但對于最先進的模型來說,完全解釋其決策過程仍然是一個挑戰。
這種“黑箱”特性在某些應用中可能是可接受的,但在需要高度可靠性和可解釋性的領域(如醫療診斷、法律判決和重要的金融決策)中,這可能成為一個重大問題。因此,提高AI系統的可解釋性和透明度是當前研究的一個重要方向。
責任編輯:王超
免責聲明:
中國電子銀行網發布的專欄、投稿以及征文相關文章,其文字、圖片、視頻均來源于作者投稿或轉載自相關作品方;如涉及未經許可使用作品的問題,請您優先聯系我們(聯系郵箱:cebnet@cfca.com.cn,電話:400-880-9888),我們會第一時間核實,謝謝配合。