2024 年 5 月 13 日,OpenAI 正式發佈整合語音、視訊和文字推理能力的「全能」(omni-)模型ChatGPT-4o。和 GPT-4 相比,GPT-4o 效能更快,多功能的互動模式,也讓操作體驗更直覺、更人性化。使用者可以直接和模型流暢對話,甚至開啟鏡頭,向 GPT-4o 詢問有關現實世界的問題。在讓 AI 徹底融入工作和生活上,OpenAI 又帶領人類往前跨了一大步。
ChatGPT-4o 帶來的震撼,不僅讓隔天的 Google I/O 網路開發者大會相形失色,也掩蓋了另一則重大新聞。5 月 14 日,OpenAI 共同創辦人伊利亞・蘇茨克維(Ilya Sutskever)宣布辭去首席科學家一職,由研究總監帕喬茨基(Jakub Pachocki)接任。
OpenAI 執行長山姆・奧特曼(Sam Altman)在公開聲明中說道:「伊利亞無疑是我們這一代人當中最傑出的心靈之一,是我們領域的指引之光」,「OpenAI 沒有他,就不會是現在的樣子」。蘇茨克維也在 X(前身為推特)上回應:「(OpenAI 十年來的)發展軌跡只能用奇蹟來形容。我相信在 @sama(編按:指執行長奧特曼)……的領導下,OpenAI 將建立出既安全又有益的 AGI。」
不過半年前,蘇茨克維才聯合另外三位 OpenAI 董事會成員,發動突襲政變逼走奧特曼;奧特曼則在短短 5 天後回歸執行長寶座,解散董事會,重新掌握大權。也許蘇茨克維的離開,從奧特曼奪回 OpenAI 那天開始,就是無可避免的結局。
事實上,根據《紐約時報》的報導,去年 11 月 OpenAI「政變」過後,蘇茨克維就不再實際從事首席科學家的工作,而是由研究總監帕喬茨基負責。空有頭銜的首席科學官,主要將時間投入到 AI 安全性研究。拖到現在才正式離職,也許是顧慮蘇茨克維對公司的重大貢獻。
無論如何,檯面上雙方都表達了真誠的感謝,即使分道揚鑣,也是和平分手。然而,一位和蘇茨克維同時離開的資深研究員,此時卻跳了出來,嚴厲批評前公司。
跳票的 20 % 算力,不受重視的 AI 安全
這位前員工名叫揚・萊克(Jan Leike),和蘇茨克維共同領導 OpenAI 的「超級對齊團隊」(Superalignment team)。該團隊旨在應對 AI 可能帶來的長期風險,確保當 AI 具備和人類相同的推理能力,甚至在所有方面都超越人類後,絕頂聰明的 AI 仍遵循我們設定的目標,而不會違背指令,反過來傷害人類。簡單來說,讓 AI 行為和人類目標「對齊」。
萊克在 X 上批評 OpenAI 根本不重視他的團隊以及 AI 安全:「過去幾年裡,安全文化和流程已經因閃亮的產品而退居二線。」儘管去年 7 月 OpenAI 在超級對齊團隊的成立聲明中,表示會分配 20 % 的算力資源來研究如何控制超級 AI,萊克卻表示,他的團隊根本無法獲得足夠的算力和其他資源,來執行重要的工作。
「建造比人類更聰明的機器,是一個本質上十分危險的努力。OpenAI 正在代表人類整體,承擔著巨大的責任。」萊克最終語重心長地告誡。
相較於萊克的大膽直言,蘇茨克維顯得異常沉默。《Vox》記者凱爾西・派柏(Kelsey Piper)近期爆料,蘇茨克維等離職員工之所以沉默不出聲,是因為 OpenAI 有「非常嚴格的離職協議」,禁止離職員工批評他們的前雇主,直到生命結束那天。如果離職員工拒絕簽署或違反協議,他們可能失去任職期間賺取的、價值上百萬美元的所有股權。即便以矽谷的標準來說,這也是聞所未聞的嚴苛。
爆料文章刊出後,奧特曼在 X 上承認,離職協議中確實存在有關「潛在股權撤銷」(potential equity cancellation)的條款,但表示公司正在修正該條款,也從未追討任何已經發放的股權。
無論蘇茨克維的沉默是出於什麼原因,超級對齊團隊解散,兩位領導人雙雙離職,都顯示 AI 安全問題早已不是 OpenAI 的重心。此時此刻,我們更該聆聽蘇茨克維這位當今最了解 AI 的人物,對機器和人類的未來有何看法。而這位天才科學家和 AI 的因緣,始於 20 年前的一場唐突會面。