發生什麼事?
在推出 GPT-3.5 後的幾個月內,OpenAI 在 2023 年 3 月推出了 GPT-4,不僅較前一版更安全、更一致,對禁止內容的回應可能性比前一代低 82%,能力更上一階。
- 讓世人驚訝 AI 能力的 ChatGPT 並非橫空出世,在 AI 發展的脈絡中,Google 旗下 DeepMind 開發的人工智慧圍棋軟體 AlphaGo,在 2016 年擊敗圍棋九段李世乭,當時也掀起 「AI 將如何改變人類世界」的討論。
- 過去 AI 在人類生活中的應用早已俯拾皆是,如語音助理 Siri 等。只不過這類型的 AI 助理是單純的「命令和控制」系統,事先將有限的工作清單設定在系統中,例如「紐約市的天氣如何?」或「打開臥室燈」。
- 如果使用者要求語音助理做一些不在其設定中的事情,它會直接說它做不到。
- 因此,Siri 數據庫需包含巨大的單詞列表,讓設計上變得笨重,要添加如搜索工具等新功能,可能需要耗時一年,這讓 Siri 無法成為如 ChatGPT 的創意助手。(New York Times)
- 而今 ChatGPT 在 AI 發展的劃時代意義在於,不再侷限於如 AlphaGo 在特定領域的應用,而是在 LLM(大型語言模型)的龐大資料學習下,「把 AI 變成通才」,降低一般人的使用門檻、也提升應用面的廣度,其自然生成不同答案的能力,被視為人工智能技術的重大突破應用。(詳見文末 台灣大學電機工程學系副教授李宏毅訪談)
- LLM 是經過訓練的系統,可以根據從網絡上收集的大量數據、識別和生成文本。藉由如「文字接龍」的方式,以單詞來完成一個句子,透過「老師模型」增強式學習,讓其了解人類偏好的回覆。(旭時報)
- ChatGPT 具有更高的精確度、細節和連貫性,其設計非常注重交互式對話。開發者結合使用監督學習和強化學習來微調 ChatGPT,藉由人類反饋強化學習 (Learning from Human Feedback, RLHF)的技術,在訓練循環中藉由人類反饋來最大限度地減少有害、不真實和/或有偏見的輸出。(AssemblyAI)
ChatGPT 的商品化應用?
無須任何專門寫程式等培訓,一般人皆可以用自然語言指令讓 ChatGPT 執行各種任務。這讓各行業迅速為 ChatGPT「找工作」,期望藉此為現有的服務或產品提供更多加值功能。
- 對於企業而言,ChatGPT 等聊天機器人有可能自動執行日常任務或增強複雜的溝通能力,例如建立電子郵件銷售活動、修復電腦程式或改善客戶服務。(Computer World)
- 以教育產業為例,線上學習平台可汗學院(Khan Academy)利用 GPT-4 強化其人工智慧學習平台 Khanmigo;語言學習服務 Duolingo 也藉 GPT-4 強化語言學習效果。(Analytics Insight)
- Khanmigo 在課堂上擔任教師助理,同時也是學生的虛擬導師。根據每個學生的個別需求和技能,提供個人化培訓。
- Duolingo 利用 GPT-4 新增兩個元素「Role Play(角色扮演)」與「Explain my Answer(解釋我的答案)」。當學生犯錯時,AI 驅動的 Role Play 幫助他們理解犯錯的原因,Explain my Answer 則會解釋語言規則。
- Morgan Stanley 採用 GPT-4 的聊天機器人,協助旗下 1.6 萬名財務顧問更快地從龐大的研究與數據資料庫中取得需要資訊。(NBC News)
- 這聊天機器人接受六萬份全球經濟部分研究報告、四萬份公司其他內部文件的訓練,讓它成為任何金融主題的專家。
- Morgan Stanley 財富管理部門分析、數據和創新主管 Jeff McMillan 指出,企業並不是直接嵌入 GPT-4 機器人,就會得到所有答案,公司內每天有 300 名員工使用 GPT-4 測試技術。
- 金融科技新創 Stripe 將 GPT-4 整合到其數位支付處理和其他產品中,並且為 ChatGPT 等人工智慧工具提供支付和訂閱服務。(Reuters)
- Stripe 員工集思廣益列出了 GPT-4 的 50 種可能應用,最終確定了 15 種強大到足以付諸實踐的應用程式。主要分為三個方向:更精準了解客戶的業務、為客戶排除故障的「虛擬助手」、監控欺詐行為。(Freethink)
ChatGPT 應用的挑戰?
OpenAI 執行長 Sam Altman 表示,AI 將重塑我們所知的社會,帶來「真正的危險」,但也可能是「人類迄今為止發展出的最偉大的技術」,大幅改善人類的生活。但特斯拉創辦人 Elon Musk 與多位科技界知名人士基於「對社會和人類構成深遠風險」的理由,呼籲所有實驗室即刻暫停研發比 GPT-4 更強大的 AI 系統。ChatGPT 要能廣泛應用,尚須克服哪些挑戰與風險?
- 事實查核:ChatGPT 有時由於缺乏訓練,提供不準確的答案。
- 李宏毅說明,ChatGPT 根據它從網路上了解到的最接近和最合理的訊息生成答案,但它無法進行事實核查、驗證其準確性。
- 中立性:當巨量資料有立場偏頗時,「三人成虎」的情形很可能發生。
- 當 ChatGPT 的 pre-trained model(預訓練模型)資料量夠大,找到答案的機率就變高。但在簡體中文資料相對較多的狀況下,查出來的很可能有很多是中國的觀點。(詳見文末 東吳巨資學院資料科學系講師孫玉峰訪談)
- 隱私保護:個人資料可能在機器學習過程中被記錄,成了有心人士蒐集個資的工具。
- 李宏毅指出,若個資不小心外洩在公開網站上,ChatGPT 一樣會學習,因此當輸入某人的名字時,相關個資就會出現,雖然不一定正確,仍有其風險。
- 著作權歸屬:在 AI 學習過程中所爬梳的資料,是否為「合理使用」?
- 2022 年 11 月微軟與 GitHub 、OpenAI 所發表的 AI 程式碼編寫工具 Copilot 被控以不當方式,竊取受版權保護的程式碼,來建立系統中的 AI 工具。被告認為該指控不夠具體,以「合理使用」辯護。(New Scientist、Reuters)
- 在沒有著作權人同意的情況下,AI 接觸、重製著作權人的作品匯入到資料庫是否侵害著作權,牽涉到「合理使用」。如果最後產出的結果是有賦予新的意義,對於原著作的使用是一種轉化性使用(transformative use),這符合合理使用的要件,而不會構成侵權。(詳見文末 資鋒法律事務所所長陳建佑訪談)
- 免責權:使用 AI 產出的結果造成的損害,該由誰來承擔?
- 陳建佑指出,在把 AI 視為工具的前提下,責任歸屬會先檢視是否在於使用者。如果是關於產品瑕疵的領域,就會屬於消費者保護法的範疇。AI 有可能出現瑕疵、錯誤也可能來自大數據,在 AI 產品究責有其困難。
未來該如何?
要解決上述的挑戰使 ChatGPT 更能被廣泛應用,專家們提出了幾個可能的方向:
- 提升準確性:需要靠人類來驗證 ChatGPT 答案的準確性,或是藉由另一套 AI 工具來檢視 ChatGPT 答案的事實準確性。
- 增強專業應用的可能:ChatGPT 的模型太大,需要有大的算力資源來運作。未來要如何克服,且透過微調適用於不同產業應用,會是 ChatGPT 如何應用到更多情境的挑戰。
- 確認 AI 的法律地位:隨著 AI 發展,責任保險制度也會應運而生成為配套措施,藉由確立 AI 的「法人格」,讓保險制度較能銜接上法律體系。美、日等國正在討論人工智能的法律地位,但台灣法規目前專注於沒有法律效力的道德準則,仍待迎頭趕上。
ChatGPT 還有哪些關鍵應用?現在是人類對 ChatGPT 下「咒語」以獲得答案,未來還可能如何引導人類「思考」?請看以下《旭時報》與專家們的訪談。