送禮物 訂閱
<%if prop.topic_id !=0 %> <%/if%>
<%:prop.genus%> <%:~formatDate(prop.online_date, 'YYYY MMM DD' )%> <%:prop.title%>
<%:prop.realname%> <%:prop.realname%>
<%:prop.realname%>

<%:prop.realname%>

<%:prop.intro%>

add
新會員

<%:prop.email%>

add

<%:prop.title%>

OpenAI 首席科學家蘇茨克維離職,AI 安全問題為何值得擔憂?

OpenAI 首席科學家蘇茨克維離職,AI 安全問題為何值得擔憂?

May 29, 2024

2023 年 6 月 5 日,蘇茨克維於以色列特拉維夫大學演講。(圖片來源:Amir Cohen/Reuters via 達志影像)

<%:prop.realname%>
<%if prop.email %>

<%:prop.email%>

<%else %>

<%:prop.realname%>

<%:prop.intro%>

<%/if%>
已有閱讀權限

OpenAI 共同創辦人伊利亞・蘇茨克維(Ilya Sutskever),日前正式離開這間由他一手推上顛峰的公司。也許,自去年 11 月策動「政變」失敗,奧特曼重回執行長後,蘇茨克維就注定要離開。當擔心 AI 失控的「異議人士」,一個個離開業界,是否意味著人類已不打算踩下煞車,義無反顧地奔向未來?而對於 AI 安全性問題,這位當今最了解 AI 科技的傳奇人物說了什麼?還有什麼,他還沒說?

2024 年 5 月 13 日,OpenAI 正式發佈整合語音、視訊和文字推理能力的「全能」(omni-)模型ChatGPT-4o。和 GPT-4 相比,GPT-4o 效能更快,多功能的互動模式,也讓操作體驗更直覺、更人性化。使用者可以直接和模型流暢對話,甚至開啟鏡頭,向 GPT-4o 詢問有關現實世界的問題。在讓 AI 徹底融入工作和生活上,OpenAI 又帶領人類往前跨了一大步。

ChatGPT-4o 帶來的震撼,不僅讓隔天的 Google I/O 網路開發者大會相形失色,也掩蓋了另一則重大新聞。5 月 14 日,OpenAI 共同創辦人伊利亞・蘇茨克維(Ilya Sutskever)宣布辭去首席科學家一職,由研究總監帕喬茨基(Jakub Pachocki)接任。

OpenAI 執行長山姆・奧特曼(Sam Altman)在公開聲明中說道:「伊利亞無疑是我們這一代人當中最傑出的心靈之一,是我們領域的指引之光」,「OpenAI 沒有他,就不會是現在的樣子」。蘇茨克維也在 X(前身為推特)上回應:「(OpenAI 十年來的)發展軌跡只能用奇蹟來形容。我相信在 @sama(編按:指執行長奧特曼)……的領導下,OpenAI 將建立出既安全又有益的 AGI。」

不過半年前,蘇茨克維才聯合另外三位 OpenAI 董事會成員,發動突襲政變逼走奧特曼;奧特曼則在短短 5 天後回歸執行長寶座,解散董事會,重新掌握大權。也許蘇茨克維的離開,從奧特曼奪回 OpenAI 那天開始,就是無可避免的結局。

事實上,根據《紐約時報》的報導去年 11 月 OpenAI「政變」過後,蘇茨克維就不再實際從事首席科學家的工作,而是由研究總監帕喬茨基負責。空有頭銜的首席科學官,主要將時間投入到 AI 安全性研究。拖到現在才正式離職,也許是顧慮蘇茨克維對公司的重大貢獻。

無論如何,檯面上雙方都表達了真誠的感謝,即使分道揚鑣,也是和平分手。然而,一位和蘇茨克維同時離開的資深研究員,此時卻跳了出來,嚴厲批評前公司。

跳票的 20 % 算力,不受重視的 AI 安全

這位前員工名叫揚・萊克(Jan Leike),和蘇茨克維共同領導 OpenAI 的「超級對齊團隊」(Superalignment team)。該團隊旨在應對 AI 可能帶來的長期風險,確保當 AI 具備和人類相同的推理能力,甚至在所有方面都超越人類後,絕頂聰明的 AI 仍遵循我們設定的目標,而不會違背指令,反過來傷害人類。簡單來說,讓 AI 行為和人類目標「對齊」。

萊克在 X 上批評 OpenAI 根本不重視他的團隊以及 AI 安全:「過去幾年裡,安全文化和流程已經因閃亮的產品而退居二線。」儘管去年 7 月 OpenAI 在超級對齊團隊的成立聲明中,表示會分配 20 % 的算力資源來研究如何控制超級 AI,萊克卻表示,他的團隊根本無法獲得足夠的算力和其他資源,來執行重要的工作。

「建造比人類更聰明的機器,是一個本質上十分危險的努力。OpenAI 正在代表人類整體,承擔著巨大的責任。」萊克最終語重心長地告誡

相較於萊克的大膽直言,蘇茨克維顯得異常沉默。《Vox》記者凱爾西・派柏(Kelsey Piper)近期爆料,蘇茨克維等離職員工之所以沉默不出聲,是因為 OpenAI 有「非常嚴格的離職協議」,禁止離職員工批評他們的前雇主,直到生命結束那天。如果離職員工拒絕簽署或違反協議,他們可能失去任職期間賺取的、價值上百萬美元的所有股權。即便以矽谷的標準來說,這也是聞所未聞的嚴苛。

爆料文章刊出後,奧特曼在 X 上承認,離職協議中確實存在有關「潛在股權撤銷」(potential equity cancellation)的條款,但表示公司正在修正該條款,也從未追討任何已經發放的股權。

無論蘇茨克維的沉默是出於什麼原因,超級對齊團隊解散,兩位領導人雙雙離職,都顯示 AI 安全問題早已不是 OpenAI 的重心。此時此刻,我們更該聆聽蘇茨克維這位當今最了解 AI 的人物,對機器和人類的未來有何看法。而這位天才科學家和 AI 的因緣,始於 20 年前的一場唐突會面。

陪你從「科技+人文」視角,深入國際政經脈動

35元/週解鎖付費會員專屬內容

  • 成為付費會員,即可擁有:
  • ✓ 全站深度分析報導文章
  • ✓ 會員專屬 8 折活動報名優惠

已經是付費會員?登入繼續閱讀

questionnaire questionnaire
questionnaire questionnaire
questionnaire questionnaire
吳政霆

吳政霆 / 研究員

採訪寫作

張育寧

張育寧 / 總編輯

審訂

分享 Share シェア

facebooklinetwitterlinkedin

延伸閱讀 Read more

矽谷宗教戰爭(上):全面解析 AI 末日論背後的「有效利他主義」

矽谷宗教戰爭(上):全面解析 AI 末日論背後的「有效利他主義」

OpenAI 執行長山姆.奧特曼被開除又回歸的鬧劇,背後其實是矽谷科技圈「有效利他主義」和「有效加速主義」的宗教戰爭煙硝,AI 末日論和 AI 救世論、科技悲觀主義和科技樂觀主義的對立衝突浮上檯面。這場影響人類社會百年發展的科技價值戰,《旭時報》詳細梳理兩派立場的理念、歷史和發展,分上、下兩篇刊出。

2024-01-02 20:32:00

矽谷宗教戰爭(下):「有效加速主義」要帶領我們駛向什麼未來?

矽谷宗教戰爭(下):「有效加速主義」要帶領我們駛向什麼未來?

比「有效利他主義」更像邪教的「有效加速主義」,2023 年在社群媒體 X(前身為推特)上掀起熱潮。主張盡快實現超越人類的「通用人工智慧」(AGI),加速主義者全心擁抱科技發展,相信 AI 革命能夠將人類文明帶到下一個階段。他們獨特的社群文化和充滿攻擊性的言論,卻也引來批評。

2024-01-09 10:30:00

馬斯克槓上 OpenAI:AI 開源之爭背後的私人恩怨

馬斯克槓上 OpenAI:AI 開源之爭背後的私人恩怨

「非營利組織」OpenAI 創立於 2015 年,卻由於訓練 AI 需要大量資金,逐漸轉型為一間私人公司,與微軟有密切合作。2 月 29 日,當年的共同創辦人馬斯克控告 OpenAI,指責執行長奧特曼違反非營利的創立初衷,開發 AI 不再是為了全人類的福祉,而是為了賺錢,並要求他公開人工智慧的技術。然而,馬斯克的真正目的,或許不是在贏得訴。

2024-03-14 10:25:00

時間標記 Timestamp

EPEPISODE #旭沙龍-張育寧時間

EP #
邀請已成功寄出 Sucessfully sent