送禮物 訂閱
<%if prop.topic_id !=0 %> <%/if%>
<%:prop.genus%> <%:~formatDate(prop.online_date, 'YYYY MMM DD' )%> <%:prop.title%>
<%:prop.realname%> <%:prop.realname%>
<%:prop.realname%>

<%:prop.realname%>

<%:prop.intro%>

add
新會員

<%:prop.email%>

add

<%:prop.title%>

ChatGPT 有求必應,真要成為「萬事通」仍有哪些挑戰?

ISSUE #091

ChatGPT 有求必應,真要成為「萬事通」仍有哪些挑戰?

Apr 12, 2023

ChatGPT 出現,AI 成了「通才」,降低了一般人使用 AI 工具的門檻,同時拉高人類對人工智慧的期待。然而,當各行各業都在幫 ChatGPT 「找工作」、邁入商品化之際,尚須克服哪些風險與挑戰?

# ChatGPT把AI變通才 # 盡信AI不是人類該做的 # 思辨才是智慧的價值

陳卓君

陳卓君 / 副總編輯

採訪寫作

張育寧

張育寧 / 總編輯

審訂

圖片來源 - Levart_Photographer on Unsplash

questionquestion

<%:prop.realname%>
<%if prop.email %>

<%:prop.email%>

<%else %>

<%:prop.realname%>

<%:prop.intro%>

<%/if%>
已有閱讀權限

此次與談人

李宏毅

李宏毅

國立台灣大學電機工程學系副教授

孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

陳建佑

陳建佑

資鋒法律事務所所長

發生什麼事?

在推出 GPT-3.5 後的幾個月內,OpenAI 在 2023 年 3 月推出了 GPT-4,不僅較前一版更安全、更一致,對禁止內容的回應可能性比前一代低 82%,能力更上一階。

  • 讓世人驚訝 AI 能力的 ChatGPT 並非橫空出世,在 AI 發展的脈絡中,Google 旗下 DeepMind 開發的人工智慧圍棋軟體 AlphaGo,在 2016 年擊敗圍棋九段李世乭,當時也掀起 「AI 將如何改變人類世界」的討論。 
  • 過去 AI 在人類生活中的應用早已俯拾皆是,如語音助理 Siri 等。只不過這類型的 AI 助理是單純的「命令和控制」系統,事先將有限的工作清單設定在系統中,例如「紐約市的天氣如何?」或「打開臥室燈」。
    • 如果使用者要求語音助理做一些不在其設定中的事情,它會直接說它做不到。
    • 因此,Siri 數據庫需包含巨大的單詞列表,讓設計上變得笨重,要添加如搜索工具等新功能,可能需要耗時一年,這讓 Siri 無法成為如 ChatGPT 的創意助手。(New York Times
  • 而今 ChatGPT 在 AI 發展的劃時代意義在於,不再侷限於如 AlphaGo 在特定領域的應用,而是在 LLM(大型語言模型)的龐大資料學習下,「把 AI 變成通才」,降低一般人的使用門檻、也提升應用面的廣度,其自然生成不同答案的能力,被視為人工智能技術的重大突破應用。(詳見文末 台灣大學電機工程學系副教授李宏毅訪談)
    • LLM 是經過訓練的系統,可以根據從網絡上收集的大量數據、識別和生成文本。藉由如「文字接龍」的方式,以單詞來完成一個句子,透過「老師模型」增強式學習,讓其了解人類偏好的回覆。(旭時報
  • ChatGPT 具有更高的精確度、細節和連貫性,其設計非常注重交互式對話。開發者結合使用監督學習和強化學習來微調 ChatGPT,藉由人類反饋強化學習 (Learning from Human Feedback, RLHF)的技術,在訓練循環中藉由人類反饋來最大限度地減少有害、不真實和/或有偏見的輸出。(AssemblyAI


ChatGPT 的商品化應用?

無須任何專門寫程式等培訓,一般人皆可以用自然語言指令讓 ChatGPT 執行各種任務。這讓各行業迅速為 ChatGPT「找工作」,期望藉此為現有的服務或產品提供更多加值功能。

  • 對於企業而言,ChatGPT 等聊天機器人有可能自動執行日常任務或增強複雜的溝通能力,例如建立電子郵件銷售活動、修復電腦程式或改善客戶服務。(Computer World
  • 以教育產業為例,線上學習平台可汗學院(Khan Academy)利用 GPT-4 強化其人工智慧學習平台 Khanmigo;語言學習服務 Duolingo 也藉 GPT-4 強化語言學習效果。(Analytics Insight
    • Khanmigo 在課堂上擔任教師助理,同時也是學生的虛擬導師。根據每個學生的個別需求和技能,提供個人化培訓
    • Duolingo 利用 GPT-4 新增兩個元素「Role Play(角色扮演)」與「Explain my Answer(解釋我的答案)」。當學生犯錯時,AI 驅動的 Role Play 幫助他們理解犯錯的原因,Explain my Answer 則會解釋語言規則。 
  • Morgan Stanley 採用 GPT-4 的聊天機器人,協助旗下 1.6 萬名財務顧問更快地從龐大的研究與數據資料庫中取得需要資訊。(NBC News
    • 這聊天機器人接受六萬份全球經濟部分研究報告、四萬份公司其他內部文件的訓練,讓它成為任何金融主題的專家。
    • Morgan Stanley 財富管理部門分析、數據和創新主管 Jeff McMillan 指出,企業並不是直接嵌入 GPT-4 機器人,就會得到所有答案,公司內每天有 300 名員工使用 GPT-4 測試技術。 
  • 金融科技新創 Stripe 將 GPT-4 整合到其數位支付處理和其他產品中,並且為 ChatGPT 等人工智慧工具提供支付和訂閱服務。(Reuters
    • Stripe 員工集思廣益列出了 GPT-4 的 50 種可能應用,最終確定了 15 種強大到足以付諸實踐的應用程式。主要分為三個方向:更精準了解客戶的業務、為客戶排除故障的「虛擬助手」、監控欺詐行為。(Freethink


ChatGPT 應用的挑戰?

OpenAI 執行長 Sam Altman 表示,AI 將重塑我們所知的社會,帶來「真正的危險」,但也可能是「人類迄今為止發展出的最偉大的技術」,大幅改善人類的生活。但特斯拉創辦人 Elon Musk 與多位科技界知名人士基於「對社會和人類構成深遠風險」的理由,呼籲所有實驗室即刻暫停研發比 GPT-4 更強大的 AI 系統。ChatGPT 要能廣泛應用,尚須克服哪些挑戰與風險?

  • 事實查核:ChatGPT 有時由於缺乏訓練,提供不準確的答案。
    • 李宏毅說明,ChatGPT 根據它從網路上了解到的最接近和最合理的訊息生成答案,但它無法進行事實核查、驗證其準確性
  • 中立性:當巨量資料有立場偏頗時,「三人成虎」的情形很可能發生
    • 當 ChatGPT 的 pre-trained model(預訓練模型)資料量夠大,找到答案的機率就變高。但在簡體中文資料相對較多的狀況下,查出來的很可能有很多是中國的觀點。(詳見文末 東吳巨資學院資料科學系講師孫玉峰訪談)
  • 隱私保護:個人資料可能在機器學習過程中被記錄,成了有心人士蒐集個資的工具。
    • 李宏毅指出,若個資不小心外洩在公開網站上,ChatGPT 一樣會學習,因此當輸入某人的名字時,相關個資就會出現,雖然不一定正確,仍有其風險。
  • 著作權歸屬:在 AI 學習過程中所爬梳的資料,是否為「合理使用」?
    • 2022 年 11 月微軟與 GitHub 、OpenAI 所發表的 AI 程式碼編寫工具 Copilot 被控以不當方式,竊取受版權保護的程式碼,來建立系統中的 AI 工具。被告認為該指控不夠具體,以「合理使用」辯護。(New ScientistReuters
    • 在沒有著作權人同意的情況下,AI 接觸、重製著作權人的作品匯入到資料庫是否侵害著作權,牽涉到「合理使用」。如果最後產出的結果是有賦予新的意義,對於原著作的使用是一種轉化性使用(transformative use),這符合合理使用的要件,而不會構成侵權。(詳見文末 資鋒法律事務所所長陳建佑訪談)
  • 免責權:使用 AI 產出的結果造成的損害,該由誰來承擔?
    • 陳建佑指出,在把 AI 視為工具的前提下,責任歸屬會先檢視是否在於使用者。如果是關於產品瑕疵的領域,就會屬於消費者保護法的範疇。AI 有可能出現瑕疵、錯誤也可能來自大數據,在 AI 產品究責有其困難


未來該如何?

要解決上述的挑戰使 ChatGPT 更能被廣泛應用,專家們提出了幾個可能的方向:

  • 提升準確性:需要靠人類來驗證 ChatGPT 答案的準確性,或是藉由另一套 AI 工具來檢視 ChatGPT 答案的事實準確性。
  • 增強專業應用的可能:ChatGPT 的模型太大,需要有大的算力資源來運作。未來要如何克服,且透過微調適用於不同產業應用,會是 ChatGPT 如何應用到更多情境的挑戰。
  • 確認 AI 的法律地位:隨著 AI 發展,責任保險制度也會應運而生成為配套措施,藉由確立 AI 的「法人格」,讓保險制度較能銜接上法律體系。美、日等國正在討論人工智能的法律地位,但台灣法規目前專注於沒有法律效力的道德準則,仍待迎頭趕上。

ChatGPT 還有哪些關鍵應用?現在是人類對 ChatGPT 下「咒語」以獲得答案,未來還可能如何引導人類「思考」?請看以下《旭時報》與專家們的訪談。

陪你從「科技+人文」視角,深入國際政經脈動

35元/週解鎖付費會員專屬內容

  • 成為付費會員,即可擁有:
  • ✓ 全站深度分析報導文章
  • ✓ 會員專屬 8 折活動報名優惠

已經是付費會員?登入繼續閱讀

深度對談

question
question
與過去的 AI 技術相較,ChatGPT 有哪些劃時代的意義? 7 則對談comments 2023-04-06 15:21:58
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

人們對於 AI 有兩種想像,一種是 AI 成為某一個領域的專才,這是在有 ChatGPT 出現前,人們多數接觸到的 AI 軟體或系統都是這個方向。例如 Google Translate 專責翻譯,人們不會期待它做翻譯以外的事情。另外一種 AI 的想像是,AI 就像一個「人」,已用人類的語言對它下達指令。這 AI 每件事情都會做,但是人類要下達正確的指令,才能完成所被交代的任務。

從學術研究的角度來看,期望 AI 變成通才的想像,並不是在 ChatGPT 才有的,在學術界一直都有這方面的研發和想像,最早可以找到 2015 年就已經有人朝這個方向研發,只是過去沒有成功的案例。ChatGPT 是我們第一次看到,把 AI 變成通才的概念是有機會落地的,成為人人都有可能使用系統,這與過去不同...

2023-04-06 15:12:54

我對於這則留言有疑慮

但現在的 ChatGPT 所帶動的發展與前者不同,每個人都可以用 ChatGPT 下指令,這一波會比 2016 年更快速,各產業都在幫 ChatGPT 找工作、網路上也很多關於下指令的課程等。

ChatGPT 另外一個與人工智慧 AlphaGo 差異點是,AlphaGo 是專注於某個領域,只會下圍棋,之後雖然有 AlphaZero,但是也是只專注在下各種棋類。這套模型需要透過專門的訓練,沒有辦法同時做兩件事,無法同時能下圍棋也下西洋棋。但是現在 ChatGPT 是同個模型,順著人的指令,可以做不同的事。如果今天把 AlphaGo 放在現在的 ChatGPT 概念下,應該是人們在輸入某種棋類的規則,就能夠馬上玩,才是匹配現在 ChatGPT 的能力...

2023-04-06 15:15:41

我對於這則留言有疑慮
孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

ChatGPT 並不是橫空出世的技術,自然語言處理的技術以及大型語言模型的演進都是循序漸進的。就使用上來說,各大社交平台、通訊軟體都有使用聊天機器人來做語音助理,這也是行之有年。Chat 與 GPT 都不是新東西,但合起來會這麼厲害,一部分原因是因為訓練的資料量夠大,讓整個參數變得龐大。就像過去做數據分析時,會有 BI 等分析,但當資料量變大,大到一定程度後,只要做點簡單統計就可以發現 insights(洞見)。

現在的 ChatGPT 有點像是當時的大數據分析 – 巨量資料產生的質變。當這 pre-trained model(預訓練模型)的資料量夠大,張開的空間維度夠大,你在裡面找到答案的機率就變得很高,結果也就越精確。OpenAI 公開 ChatGPT 讓大家都可以去玩,就會發現它就像是一個聊天助理,它的回答能夠一定程度的符合人類的預期,而這也跟他訓練過程有大量人工標注有關...

2023-04-06 15:20:19

我對於這則留言有疑慮
陳建佑

陳建佑

資鋒法律事務所所長

從弱 AI 和強 AI 來區別,Siri 其實就是弱 AI 的應用,像是人類的助理。ChatGPT 的出現讓大眾覺得這 AI 很強,可以落地到商業應用、生活樂趣,深入到我們的生活、各行各業。從功能上可以稱為強 AI,協助整理資料,是以前人類助理可以做的事情,例如蒐集過去的判例等,精簡很多找資料過程所花的時間和成本,我想這是很具代表性的意義。不管是強 AI 或弱 AI,都是一種工具,差別在於所做的工作多少、精準度高低

2023-04-06 15:21:58

我對於這則留言有疑慮
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

從商用系統的角度來看,過去有一些商用系統或語音助理像是通才,例如 Siri,但是這類的語音助理在回答
2023-04-06 15:14:11

我對於這則留言有疑慮

question
ChatGPT 對於產業應用 AI 使用情境的影響為何?要能善用,關鍵為何? 4 則對談comments 2023-04-06 15:30:30
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

我覺得現在就是考驗人類的想像了。當初有了網路之後,大家就會去想像有了網路能做什麼。現在就是有了 ChatGPT 之後,能夠做什麼?我覺得 ChatGPT 像是個初階助理,就像公司新人,不用期待它知道非常專業的知識。但是如果下一個「明確」的指令,它就能正常照著你下的指令去完成。指令越明確,ChatGPT 越能夠完成任務。

ChatGPT 最擅長的就是文字生成器,如果有些任務是你無法查核事實的,就不要只相信 ChatGPT。它要能對人創造價值,就是使用者本身在某一領域有專業,能夠核實它的答案,這才能加快工作速度。若使用者對這個領域一無所知,ChatGPT 能幫助的有限。

2023-04-06 15:26:28

我對於這則留言有疑慮
孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

大型語言模型也不太是去「理解」這些知識,而是把這些知識當作背景資料,可以隨時搜到相關資料。ChatGPT 像通用性的 base model(基礎模型),當它放在不同情境時,仍需要客製化,例如拿企業的資料來 fine tune 它,這就是現在產業正在做的,把 ChatGPT 納入應用,藉由它已有基本的對話功能,接下來就是要增加它的知識庫,滿足特定領域的需求。同一個機器人要通曉所有領域是不太可能,就像人類都受一樣的基本教育,但是之後還是會培養各自的專業。

舉例來說,ChatGPT 現在最為人所用的是對話功能,但其實不是真的跟人對話,而是 text completion(完成文字)做文字接龍,根據你的問句,試著去用另一串文字來回答。從助理角度來看,可以用文字接龍的方式做更方便的資料庫查找,對於開發人員來說,可以很簡單用 ChatGPT 從過去開發的紀錄中,找到跟現在新開發產品相似的規格資訊以及代碼。

另外一個應用性較高的會是 Summarization(大綱)的功能,可以協助整理資訊...

2023-04-06 15:28:10

我對於這則留言有疑慮
陳建佑

陳建佑

資鋒法律事務所所長

以法律領域來說,像是離婚協議書、買賣房屋契約、車禍切結書等,只要指令下得好,ChatGPT 是可以完成一定程度的,可以有大學生的程度。但是仔細看,在援引法條上還是有錯誤,這就需要律師來調整和潤飾。

2023-04-06 15:30:30

我對於這則留言有疑慮
孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

例如產線上有很多機器 log(記錄),把這些資料餵給 ChatGPT,它可以很快把這些非結構化的資料
2023-04-06 15:29:53

我對於這則留言有疑慮

question
ChatGPT 藉由機器學習、數據回歸或分類的處理產出結果,有人認為可視為人類集體意識的結果,是否重新定義什麼是「智慧」或「意識」? 4 則對談comments 2023-04-06 15:48:59
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

ChatGPT 的答案其實反映了兩件事,一個是去反應網路上爬到的資訊分布,例如輸入我自己的名字,它會知道這個名字是跟人工智慧有關連的,卻沒有辦法很精確地回答我的學經歷是什麼。代表說在網路上,我的名字後面常常接的是人工智慧,這是它學到的事情。

它還反應了另一個面向,因為在網路上學習了大量資料後,需要人類來教導它、引導它什麼答案才是人類要的。人類老師的引導,也會影響到 ChatGPT 的輸出。現在 ChatGPT 的回答就非常保守、政治正確,評論類型的問題它往往回應「我無法做出價值的判斷」等。這就不太可能是在網路上讀資料學到的,這比較可能是人類老師在教的時候,就往這個方向教...

2023-04-06 15:45:35

我對於這則留言有疑慮
孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

ChatGPT 的回答其實是用機率算出來的,不太能用集體意識的角度來看。AlphaGo 是藉由增強式學習(reinforcement learning)來訓練,ChatGPT 比較像是以前 IBM 深藍(Deep Blue)的學習方式,如同記憶力很強的機器人,不太能用「意識」這個框架,因為它沒有真的思考,只是因為它背景資料量真的很大,可能找到你沒看過的東西。要把人類天生的語言結構應用在 AI 上,再用資料去訓練它,我覺得會是比較可能會有所謂的「邏輯」、「思考」。現在的大型語言模型不太可能、也不應該去做這所謂的邏輯思考,現在會產出讓我們驚豔的結果,其實是因為餵給它的資訊和訓練很大,讓它展開的空間也變大,當這空間越大,可能性就越多,讓我們覺得它很真實,「看起來很像」是有智慧的人在講話,但其實並不是

2023-04-06 15:48:16

我對於這則留言有疑慮
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

ChatGPT 是靠著人類的回饋在學習,他的隨機性回答可能每次都不一樣,好壞不定,所以它的回答有可能
2023-04-06 15:47:05

我對於這則留言有疑慮

question
ChatGPT 是從網路上學習大量資料而來,在資料客觀性上,可能因為資料來源的立場有偏頗,而存在風險?如何解決? 2 則對談comments 2023-04-06 15:58:54
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

是的,大型語言模型的確存在立場的風險。ChatGPT 在網路上爬梳的資料,是多數的立場,但是危機在於,它還要經過人的訓練。我們無從得知教這個機器的人是懷著什麼立場,也可能偷偷灌輸這模型邪惡的想法,例如教小孩做危險的動作,這是非常難防禦。

我們實驗室的學生在做一個實驗,去測試這個模型什麼時候會回應有歧視性的答案。就像是我們面對一個黑盒子,平常回答都很正常,但是在回應某些題目時,就會講出歧視的話。有可能是訓練過程中就學壞了,也可能是當初訓練模型的人惡意加進去的,例如看到某個關鍵字就會講出歧視的話。我們想要研究出能否自動檢測出這個問題,例如我們用另一個 AI 來問 ChatGPT,看會不會問出它不該回答、有歧視的答案。找到後,再去做修正

要解決這個問題,透過 AI 去窮舉檢測 ChatGPT 對所有問題的反應是不太可能的...

2023-04-06 15:58:14

我對於這則留言有疑慮
但是 AI 可以藉由猜測 ChatGPT 的傾向,去找出回覆中可能有問題的地方。這是有可能的解決方向
2023-04-06 15:58:54

我對於這則留言有疑慮

question
ChatGPT 答案有時是「缺乏事實」的,這可能有解嗎?目前解決方向有哪些? 5 則對談comments 2023-04-06 16:10:23
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

的確當 ChatGPT 在網路上讀到的大量資料若有誤,出來的回答也就有誤,還沒有辦法做到完全正確的程度。但近期所更新的版本,在回答簡單的數學加減問題時,是可以正確回答的。這都是訓練出來的結果,卻不能完全保證可以正確回答。例如雞兔同籠的問題,它可以正確回答,但當我問三種動物的問題時,它就蠻容易被問倒的。當人類問 ChatGPT 問題時,它就會想辦法生一個答案給你,就像學生考試遇到不會寫的問題,也會根據你的題目瞎掰一個答案給你...

2023-04-06 16:03:27

我對於這則留言有疑慮

目前還沒有看到關於核實的好解決方案,但是從另一個角度來看,人有時也會犯錯,若在網路上讀到的資訊且不是該領域的專家,也沒法做核實。也許對 AI 來說沒有什麼好的方法讓它 100% 是對的,也許我們能做的是,在它答出非正確的答案時,可以盡速矯正它。這在於大型語言模型,如何糾正它錯誤的資訊。

現在人們可以回應 ChatGPT 對於這個答案喜歡或不喜歡,ChatGPT 有可能根據人們的回應而有所微調,但是這是個類神經網路,跟人很像,教它一件事情不見得學得會,就算教會了,也不代表它在其他地方的能力不受影響,這是尚待解決的地方。

2023-04-06 16:07:30

我對於這則留言有疑慮
孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

New Bing 有想試著解決這事情,在搜尋結果中加上資訊來源或出處,這可能是一個方向。但不管如何,事實查核勢必還是需要人工介入,而不是用 AI 來取代事實查核的工具。ChatGPT 可以根據搜尋條件很快的找到資料,並且分類這些來源中,哪些是來自公信力的單位,哪些是來自內容農場,可以加快事實查核的工作,但無法取代事實查核的這個工作。在簡中資料相對比較多的狀況下,查出來的很可能有很多是中國的觀點,「三人成虎」的情況還是很有可能發生的

2023-04-06 16:09:14

我對於這則留言有疑慮
陳建佑

陳建佑

資鋒法律事務所所長

可從兩個方面來看。AI 所生成的結果是透過演算法、沒有意識的,資料來源是從網路上來的,所以要能讓 ChatGPT 產出事實,需要先給它「事實」學習。另一方面是,各領域開始應用ChatGPT 到「物」,過去所講的 AIoT(智慧物聯網),現在藉由感測器等去蒐集觀察現在的事實,提供更符合人類生活工作等所需的產出。

2023-04-06 16:10:23

我對於這則留言有疑慮
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

例如我最近就問 ChatGPT 「台大玫瑰花節」,但是台大沒有玫瑰花節,它還是硬回答出台大玫瑰花節是
2023-04-06 16:04:44

我對於這則留言有疑慮

question
人類給 ChatGPT 的回饋除了喜歡和不喜歡,還能如何讓它更精準回答問題? 1 則對談comments 2023-04-06 16:11:06
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

即使我們今天做到在 ChatGPT 的每段回答中給予正確或不正確的回饋,它也不見得能學得起來,這跟以前的語音助理不同。以前語音助理的答案是人寫好的,所以發現答案錯誤,就把人寫的答案改掉就好。但 ChatGPT 有點像是一個小孩子,當它說錯了一句話,它不見得學得會;倘若它學會了,會不會對其他答案有更多誤解?這是我們不知道的。這是現在技術尚待克服的,我們稱為「life-long learning(終身學習)」,人需要終身學習,機器也需要

2023-04-06 16:11:06

我對於這則留言有疑慮

question
目前 ChatGPT 都是下「咒語」後一次到位,有可能發展成是能反問、追問人們,引導式的完善「需求」,發展出新的人機互動應用? 3 則對談comments 2023-04-06 16:15:02
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

如何運用 ChatGPT 獲得需要的答案,這是需要技術的。必須要不斷的修正問題,才能獲得所需要的答案。當 AI 進步到現在這個程度,是人類要重新去適應它了。就像是過去在網路上做搜尋,人類開始適應如何下對的關鍵字。現在 ChatGPT 類似這樣,人類要完成任務,就要知道要下什麼指令給它才能完成。現在的 ChatGPT 應該是有能力去反問人類、引導人們完善所提出的需求...

2023-04-06 16:12:47

我對於這則留言有疑慮
孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

ChatGPT 文字接龍的特性是可以的,藉由提供反饋,有點像是引導式的讓人完善需求。這就需要在下指令的時候就很明確地說需要它的引導,或者是客製化引導式的版本,讓 ChatGPT 主動來引導問問題,這應該已經有人在做了。藉由客製化的版本,可以讓 ChatGPT 應用在特定的情境中的指令變得簡易,例如過去銀行客服的聊天機器人或客服 App 無法提供如真人提供臨櫃服務的狀況,藉由客製化的 ChatGPT 介面,能夠提供使用者更友善的人機互動。例如 GPT-4 發表會上,就有展示可汗學院(Khan Academy)將其應用在教育場景的學習助手功能。

2023-04-06 16:15:02

我對於這則留言有疑慮
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

在 ChatGPT 之前,能夠反問人類更多資訊的,本來就是相關研究。當時研究數據分析系統 ShARC
2023-04-06 16:13:52

我對於這則留言有疑慮

question
使用 AI 所寫出來的程式或生成的文字,有著作權和免責的可能嗎? 4 則對談comments 2023-04-06 16:22:23
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

台大最近才發了一個 ChatGPT 的使用聲明,可以想像是問一個專業人士問題得到的答案,你可以「引述」這答案來自 ChatGPT。但由於 AI 生成內容的資料來源是無法回溯、取得或提供直接連結的,可以藉由「某年某月所生成的答案」來標註引用來源

2023-04-06 16:16:13

我對於這則留言有疑慮
陳建佑

陳建佑

資鋒法律事務所所長

2022 年 11 月就有美國工程師集體訴訟的案例,微軟與 GitHub 、OpenAI 所發表的 AI 程式碼編寫工具 Copilot 被控以不當方式,竊取受版權保護的程式碼,來建立系統中的 AI 工具。程式由英文和數字組成,在著作權法下是受到保護的客體,現在大廠都在看這個判決的結果,影響未來的產業應用。

AI 在學習過程會接觸資料,我們一般稱的 copy(複製),在法律上稱為重製。假設我是文字、圖畫、程式的著作權人,我的作品可能在 AI 學習過程中,可能就會被餵到系統,侵害到我的著作權。這裡面牽涉到「合理使用」,在沒有著作權人同意的情況下,接觸、重製著作權人的作品匯入到資料庫,是否侵害著作權。如果最後產出的結果或效果是有賦予新的意義,對於原著作的使用是一種轉化性使用(transformative use),這會符合合理使用的要件,而不會構成侵權...

2023-04-06 16:19:05

我對於這則留言有疑慮

至於能否免責, 過去十幾年一直都有在討論,目前會以保險機制來做。以自駕車為例,當發生問題時,會先由保險公司來賠償,但回過頭來保險公司還是會去究責,看這問題到底是出在什麼環節,損害賠償的責任歸屬於誰。在把 AI 視為工具的前提下,責任歸屬還是會先檢視是否在於使用者。如果是需要歸責於程式工程師、設計研發等的問題,就會屬於消費者保護法的範疇,關於產品瑕疵的領域。若要使用者來舉證,有其困難,舉證責任也可能倒過來是企業要負擔。企業即使有免責條款,該免責條款也可能無效,畢竟這 AI 有可能出現瑕疵、這錯誤也可能來自大數據,在 AI 產品究責有其困難。當 AI 的應用大到一定程度時,責任保險制度也會應運而生成為配套措施

2023-04-06 16:22:23

我對於這則留言有疑慮
AI 產出的文字或圖片等究竟算是 AI 著作,還是人類著作?AI 充其量還是工具,能夠增加效率和縮短
2023-04-06 16:21:29

我對於這則留言有疑慮

question
使用 ChatGPT 需要下精準的指令,從著作權的角度來看,這些指令是否可成為著作權法保護的標的? 1 則對談comments 2023-04-06 16:23:10
陳建佑

陳建佑

資鋒法律事務所所長

會的,我們回到著作權本身,就像是寫一本書,如「如何使用 WORD?」,隨著著作人的想法、編輯完成的作品,這樣就會變成著作。延伸出現在很多 ChatGPT 的指令大全、課程等,彙整起來的內容和課程也是一種著作。

2023-04-06 16:23:10

我對於這則留言有疑慮

question
ChatGPT 的未來應用發展挑戰是甚麼?有哪些關鍵因素? 3 則對談comments 2023-04-06 16:27:09
李宏毅

李宏毅

國立台灣大學電機工程學系副教授

如何讓 ChatGPT 的回答是正確的,這是仍亟待突破的。此外,這需要非常大的模型,未來是否有可能不需要這麼大的運算量,才能夠訓練出這樣的模型?舉例來說,要把通才的 ChatGPT 訓練在某一領域的專才,需要微調模型,讓這模型成為醫學、法律的專業。現在沒法做到微調,是因為現在 ChatGPT 的運算量非常的大,如果要客製化,光是用下指令來做到,還是有困難的。要如何在很少的運算資源下能做到微調,這是未來的挑戰之一

2023-04-06 16:23:51

我對於這則留言有疑慮
孫玉峰

孫玉峰

東吳巨資學院資料科學系講師

ChatGPT 的確給我們在人機介面上有一些信心,對話能力到了我們能接受的程度,接著是要去增強它的專業能力,應用就會隨之出現,例如助理、客服等。挑戰上,資料的公平性確實是很大的問題,當使用的資料多是歐美角度、簡中資料時,還是會有不中立的問題。ChatGPT 可以靠蒐集更多資料,或是是著藉由加入人類老師的方式去修正。

另外,因為 ChatGPT 的模型太大,需要有大的算力資源來運作。這部分未來要怎麼克服,也會是 ChatGPT 未來要應用到更多情境的挑戰。

2023-04-06 16:24:46

我對於這則留言有疑慮
陳建佑

陳建佑

資鋒法律事務所所長

可預見 AI 的應用是不可逆的,會越來越精準,結合不同領域專業知識,快速發展成為類人類的應用。在這趨勢下,之前歐盟有在討論,是否應把 AI 視為電子人,賦予它法律上的權利資格,認可電子人為法律主體,如同法人。爭議在於,多數認為人就是人,哪有什麼機器人格。但這牽涉到 AI 帶來的相關風險,例如自駕車,我們需要保險制度來配套因應風險,當 AI 出問題時,影響的面向很大,可能是家庭、辦公地點、工廠等。機器人格不是真的把機器當作人類,而是因應社會的需要,而有法人格,讓保險制度比較能銜接上法律體系。目前美國、日本都在討論這個議題,這會牽涉到國家競爭力。台灣的 AI 規定還停留在倫理相關的指導原則,但是沒有法令拘束力,還是慢一步或在觀望,是比較可惜的。

2023-04-06 16:28:29

我對於這則留言有疑慮

分享

facebooklinetwitterlinkedin

延伸閱讀 Read more

ChatGPT 出現後,人類的價值在「下咒語」?

ChatGPT 出現後,人類的價值在「下咒語」?

近期掀起 ChatGPT 風潮,各網友分享與系統對話的內容。為什麼 ChatGPT 能用人類的口吻說話?他真的會思考嗎?在人工智慧發展下,我們該學習何種能力與之共同工作,而非擔心被取代?

2023-03-02 11:50:00

ChatGPT「出任務」,人類準備好與 AI 協作了嗎?

ChatGPT「出任務」,人類準備好與 AI 協作了嗎?

ChatGPT 近期登上媒體熱搜,2022 年底推出後成長飛快,從簡短回答、寫文章,到寫程式碼、辨識圖像。機器腦跟人腦相比,AI 的演算技術到什麼程度?我們該如何看待未來人與機器的結構性變遷?

2023-04-11 10:30:00

給關鍵字就能畫畫?AI 將如何改變藝術生態?

給關鍵字就能畫畫?AI 將如何改變藝術生態?

你有想像力,但不懂如何創造藝術嗎?若梵谷跟宮崎駿合作,會畫出什麼樣的圖?只要在 AI 系統輸入關鍵字,幾秒後你腦中的想像就躍然出現。AI 繪畫的出現,對藝術變革有何意義?「人人都是藝術家」的時代來了?

2022-11-30 11:30:00

時間標記 Timestamp

EPEPISODE #旭沙龍-張育寧時間

EP #
邀請已成功寄出 Sucessfully sent