送禮物 訂閱
<%if prop.topic_id !=0 %> <%/if%>
<%:prop.genus%> <%:~formatDate(prop.online_date, 'YYYY MMM DD' )%> <%:prop.title%>
<%:prop.realname%> <%:prop.realname%>
<%:prop.realname%>

<%:prop.realname%>

<%:prop.intro%>

add
新會員

<%:prop.email%>

add

<%:prop.title%>

Deepfake 技術如兩面刃,該被監管嗎?

ISSUE #041

Deepfake 技術如兩面刃,該被監管嗎?

Apr 20, 2022

深度偽造(Deepfake)技術應用普及,有可能干擾社會穩定嗎?若在總統大選期間,候選人惡意以深度偽造技術,所做的影片散布不實消息,是否侵害了人民選擇最佳候選人的能力?當「眼見不再為憑」的威脅日增,深度偽造的應用是否該被監管?

# 數位世界裡的審議式民主 # 民主是人民爭取來的 # 也會由草根開始維護

盧以玹

盧以玹 / 採訪編輯

採訪寫作

陳卓君

陳卓君 / 副總編輯

審訂

圖片來源 - pixabay

questionquestion

此次與談人

簡孝樺

簡孝樺

唐鳳辦公室專案顧問

王新民

王新民

中研院資訊科技創新研究中心 研究員

陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

余宛如

余宛如

桃園市政府資訊科技局 局長/第九屆民進黨不分區立法委員

許志仲

許志仲

成功大學數據科學研究所 助理教授

陳譽文

陳譽文

資策會科技法律研究所價值拓展中心 創意驅動組組長

發生什麼事?

俄烏戰爭之際,曾出現以深度偽造(deepfake)造假烏國總統投降的影片;在台灣,近期也出現以深偽技術濫用名人照片的社會事件。AI 進步下,利用深偽技術換頭影片越來越容易、越來越便宜

  • 不僅台灣有立委開始推動修法;在美國,也有議員認為深偽技術構成國安威脅,從州政府到聯邦政府,都在推動立法。(鳴人堂
  • 要偵測出利用深偽技術所做的影片並管制,需持續更新的技術、龐大的資料庫,但就算政府建構各種智慧防禦手段,依舊會有新的科技犯罪。(詳見文末 中研院研究員王新民、陳駿丞訪談)


Deepfake...該管制嗎?

本質上,技術是中立的。深偽技術可正向應用在教育、藝術醫療保護弱勢等領域,但若被用在犯罪,難道不該管制嗎?

  • 以法律人的角度看,很難裁定哪些深度偽造的內容該管、哪些不管。若政府介入太多,變相限制言論自由,因此當前社會更傾向「業者自律」——社群平台商自行禁止民眾,上傳有害影片。(詳見文末 資策會陳譽文訪談)
  • 以科技人的角度看,其實技術攻防只是「最後一招」。即便有萬能的深度偽造偵測系統,還是需民眾先有閱聽素養,對不明影片存疑。(詳見文末 成大教授許志仲訪談)


除了制約,還能怎麼辦?

使用法律、科技工具外,當前首要能做的,是提升大眾辨認假訊息能力,尤其之於「社群媒體的應用」。畢竟假影片會造成影響,多是經由社群媒體傳播。(詳見文末 桃園資科局局長余宛如訪談)

  • 英國有議員指,惡意散播的假訊息,除了影響民意更引起仇恨,是社群平台該負的責任,國會也該監管。(經濟學人思想坦克
  • 臉書除了下架惡意流竄的深度偽造影片,也曾和微軟、亞馬遜一起提供高額獎金,舉辦深偽技術偵測比賽,號召全球人才一同打造影像資料庫。(美國外交關係協會
  • 除了下架仇恨影片,社群平台也能設立「標籤」,如關於疫情資訊、業配廣告的標示一樣,幫助民眾認知影片可能經過「移花接木」。(紐約時報


未來會如何?

在打「資訊戰」的時代,當局面對假影片議題要思考的,或許不只制定法律、更新技術,而是提升大眾對假訊息的覺知。

  • 民主是草根爭取來的,也該由草根開始維護。只有公民社會願意參與,才能制訂出「最符合當代民眾期待」的應對方式。(詳見文末 唐鳳辦公室顧問簡孝樺訪談)
  • 在未來,也可能根本不會有深度偽造技術帶來的困擾,因為屆時人們已對換臉技術習以為常。麻省理工學院則指出,有深度偽造技術所製作出的影片,對「改變民眾去認同一項政策」的影響,不比文字來得大。(華盛頓郵報

這次邀請到中研院研究員王新民和陳駿丞、資策會科技法律研究所組長陳譽文、成功大學助理教授許志仲、桃園資科局局長余宛如、及唐鳳辦公室顧問簡孝樺,一起從科技面、法律面、政策面探討——究竟未來的社會,能如何面對深偽技術帶來的衝擊?

陪你從「科技+人文」視角,深入國際政經脈動

35元/週解鎖付費會員專屬內容

  • 成為付費會員,即可擁有:
  • ✓ 全站深度分析報導文章
  • ✓ 會員專屬 8 折活動報名優惠

已經是付費會員?登入繼續閱讀

深度對談

question
question
除了立法嚇阻 deepfake 惡意使用,當前有哪些政府政策,是能提升大眾對深偽的辨識能力? 2 則對談comments 2022-11-20 23:32:27
簡孝樺

簡孝樺

唐鳳辦公室專案顧問

政策上目前並沒有針對特定技術做規劃,而是以提升公民社會的資訊韌性為主,例如新課綱的開放共創精神,將數位知識及媒體素養課程帶進教育現場。另一方面,行政院正在推動以「開放政府國家行動方案」來提升政府機關的透明、課責、參與、涵容精神,長遠來看,都是強化大眾對抗不實訊息、降低資訊不對稱攻擊的免疫力。

2022-11-20 23:34:50

我對於這則留言有疑慮
余宛如

余宛如

桃園市政府資訊科技局 局長/第九屆民進黨不分區立法委員

台灣人對這些事件不陌生。雖然在修法層面,要是散播假訊息、造成不良的社會重大影響,會有罰鍰來嚇阻的底線,但大家可能不知道可以怎麼防備。

例如在桃園,資科局就有在舉辦媒體素養講座,透過專業分享,強化公民網絡的發展。在桃園市中心、中壢地區,我們都有辦這樣的講座。有趣的是,從 7 歲至 70 歲都有民眾報名。

不僅是民眾怕被假訊息欺騙,現在很多企業也遇到這類的問題,比如有駭客透過社交工程郵件釣魚,來駭入系統勒索。總體而言,全民提升辨別能力、危機應對處理能力,這種數位民主社會的培力,會是與「立法」同樣重要的事。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
除了教導大眾辨別文字訊息真偽外,也能指導民眾辨認圖片、影片真偽嗎? 1 則對談comments 2022-11-20 23:32:27
余宛如

余宛如

桃園市政府資訊科技局 局長/第九屆民進黨不分區立法委員

上一次在辦這種課程時,剛好小玉事件上新聞,所以我們的確有提到這類問題,而許多民眾當時也真的還不知道,科技能做出這樣的造假。那在民眾自己不可能用工具偵破 AI 時,第一步其實是要讓大家瞭解、提升對這塊的認知;第二步是保持警覺心,也就是不要社群媒體上的短影音通盤相信、加上多方求證;未來當然也希望,能有先進技術的平台,提供民眾偵測、破解造假的影片。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
需要盡快制訂法律來約制深偽技術的應用嗎? 5 則對談comments 2022-11-20 23:32:27
陳譽文

陳譽文

資策會科技法律研究所價值拓展中心 創意驅動組組長

Deepfake 雖然發生很多問題,但基本的態度是,政策和法規原則上都是要保持「技術中立」,科技就是工具,能做好事也能做壞事。整個台灣和國際的趨勢,都很少針對單一的技術做管制,只會針對它的應用、或後續損害做管制,比如人工智慧就是一個例子,它能做好事、也能做壞事,就像雖然有人拿菜刀殺人,但並不會禁止大家去買菜刀子、或製造菜刀子。

基本的觀念是,法律永遠都會落後於科技,也應該落後於科技,因為法律畢竟是社會一直發展磨合後,衍生出來的規範,規範成形後,才有可能進到法律裡訂定,譬如民法、刑法,都是幾百年來人類形成的社會規範,最後才變成這些文字。

90 年代網路剛開始興盛時,大家也會討論 E-mail 詐騙等的問題,但當時也沒有馬上管制,會是發生久一點後,才會知道問題核心在哪裡,,也會開始找出大家比較有共識的應對方式。

2022-11-20 23:34:50

我對於這則留言有疑慮
許志仲

許志仲

成功大學數據科學研究所 助理教授

之前聽犯罪學的老師在講「科技犯罪」,我的理解是「要防範的是行為,不是技術」,所以法規應該不太會影響到我們在做研究的事。我個人認為,在現代技術端攻防戰的情景下,很多背後都是因為「有利可圖」而發生,也就是有些人,會去購買「犯罪的產品」,這就跟公民道德有關。大眾的認知提升,可能可以消彌一些問題,但當然,也還是要多方防範。

2022-11-20 23:34:50

我對於這則留言有疑慮
王新民

王新民

中研院資訊科技創新研究中心 研究員

我覺得不可能提出一個法律去通盤禁止,畢竟當初開始開發,也是立意良善,所以法律層面上,應該是去對使用的罪犯去裁定,不會跟開發端有關。

以聲音的部分來舉例,我們做了很多年的語音合成及語音轉換研究,柯南的變聲器就是一種語音轉換。出發點當然不是拿去做壞事,而是用於捷運站的廣播、把兒童有聲書的配音,變成父母自己的聲音、幫助失語症及阿茲海默症等患者,合成出自己獨一無二的聲音...等應用。當然除了生成聲音,也研究如何偵測「造假語音」,影像的部分,也是同樣的道理。

我覺得「造假影片」這個議題,其實取決於「事件對社會帶來什麼影響」,如果是一笑置之的內容,當然不會怎麼樣,但用於犯罪或影響國安等,就需要法辦。簡言之,當「攻擊用的矛」越來越進步,「防禦用的盾」也需要與時俱進,罰則應該只針對犯罪行為。

2022-11-20 23:34:50

我對於這則留言有疑慮
陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

深偽技術其實一部分是應用在一些影像特效或手機濾鏡上,想想看,如果只是換一些小貓、小狗的臉,難道也要禁止使用這個技術嗎?所以其實是看使用的人,怎麼去應用。

像我們單位,是訓練模型去偵錯,只能盡力看偵測多少。其中有訓練一個模型,是可以偵測「假的影像」跟「真的影像」差多少,但假設,現在訓練出的這個模型,能完美的偵測出所有「假的影像」,並且把這個模型,提供給大眾使用、偵測身邊影像的真偽,那其實也等於是把一個訓練好的模型,開放給有心人士,透過存取我們的伺服器,去複製我們的模型、甚至騙過我們的模型。這樣一來,等於是會需要來回「過招」——我們先偵測出壞人、壞人再複製我們的研究去加強、我們又要偵破壞人...,所以對抗惡意的虛假影像,其實是需要「長期抗戰」的。

2022-11-20 23:34:50

我對於這則留言有疑慮
簡孝樺

簡孝樺

唐鳳辦公室專案顧問

儘管能不斷因應特定技術做法規限制,但下一代的技術也會推陳出新,所以應該是從源頭上去思考跟解決。立法當然是一種方式,不過過程是非常耗時且複雜的,如行政部門與國會立委的立場衝突等等,或許更好的做法會是透過「審議式民主」來整合民間及政府的多方力量。

意思就是,與其由少數人去訂定多數人需遵守的法律,不如讓所有跟議題相關的利害關係人,匯聚意見,產生粗略的共識,再依此帶大家走向下一步。這會比一個人、或是一小群人去決定全體的未來,還要更永續。

在民主最初誕生的時代,眾人可以實體聚在一個大廳討論,現在雖然沒辦法所有人都同時到現場開會,但在網際網路的世界,其實已經有許多數位工具,可以讓大家充分參與討論,形塑更明確的「我們下一步要怎麼做」。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
台灣有機會就此做「審議式討論」嗎?可以怎麼做? 2 則對談comments 2022-11-20 23:32:27
簡孝樺

簡孝樺

唐鳳辦公室專案顧問

唐鳳常舉的一個例子是,Uber 剛進台灣時,在沒有相應規範下營運,那時雖然吸引了不少使用者,但也造成一些安全隱憂。當時行政院蔡玉玲政委在 vTaiwan 召開一個協作會議,邀請包括計程車公會、業者代表、學者、政府單位等利害關係人,一同釐清問題、找出共識。

vTaiwan 是由 g0v 發起的法規調適平台,讓民間關注的議題不需要透過立委,也能跟政府之間實質有效地溝通。除了現場討論之外,事前也用 pol.is 的數據分析系統做意見徵集,大家可以在上面表達意見之外...

2022-11-20 23:34:50

我對於這則留言有疑慮
還能為彼此按下「同意/不同意」,最後系統用機器學習,統計出大家的共識及分歧論點。像 uber 這案大
2022-11-20 23:34:50

我對於這則留言有疑慮

question
Deepfake 不像違反交通有明確界線,如何定義傷害?如何規範? 5 則對談comments 2022-11-20 23:32:27
許志仲

許志仲

成功大學數據科學研究所 助理教授

的確,因為到底怎樣才算「用假影片惡意中傷」這件事很難被定義得明確,雖然在法律上,可以設計出一套辦法。我從技術角度來看,首先是要能「抓出偽造」,不管怎樣的影片,要是都能抓得到的話,那其實這樣的「防禦武器」就可以了,先不用鎖定說,是什麼樣的行為才去辨別。

2022-11-20 23:34:50

我對於這則留言有疑慮
余宛如

余宛如

桃園市政府資訊科技局 局長/第九屆民進黨不分區立法委員

深偽技術背後是人工智慧,人工智慧技術的發展,已經引起很多對社會未來影響與衝擊的討論,不只是針對深偽技術。譬如之前有大企業用 AI 做徵才...後來被發現其中的演算法編碼,造成了性別不平等, 最後...

2022-11-20 23:34:50

我對於這則留言有疑慮
陳譽文

陳譽文

資策會科技法律研究所價值拓展中心 創意驅動組組長

目前有三種方式,來規範它對群體的傷害。第一種是技術面,開發出一個比現有 deepfake 更厲害的技術去偵測,那目前是有公司正在做這類技術的研發;第二種是業者自律層面,因為現在所謂「deepfake 會造成傷害」,其實多是在社群網站上,那很多平台商,其實會自己開始想,是不是帶來不好的活動,進而去判斷是不是有些deepfake影音內容需要下架;第三種就是國家立法,當技術有在偵測、業者也都有自律,但 deepfake 問題假設依舊帶來很大傷害的話,各界就會期望能夠有專門的立法。

對於用法律規範 deepfake 的議題,像德國前陣有過類似的討論聲浪,其中爭議最大的一點...

2022-11-20 23:34:50

我對於這則留言有疑慮
余宛如

余宛如

桃園市政府資訊科技局 局長/第九屆民進黨不分區立法委員

那間企業也承認自己設計的演算法徵才有問題,最後棄用。AI 倫理問題已經很多人討論,只是「技術發展」一
2022-11-20 23:34:50

我對於這則留言有疑慮

question
深偽技術出現後,政治圈是否最容易受害? 1 則對談comments 2022-11-20 23:32:27
余宛如

余宛如

桃園市政府資訊科技局 局長/第九屆民進黨不分區立法委員

根據研究,深偽技術常被用作騷擾、政治假訊息,尤其 95% 以上都是盜用名人肖像,最常攻擊女性名人或是社會運動人士。近期俄烏戰爭,假訊息的作戰方式更是「認知戰」的一環,透過網路擴大觸及的民眾,扭曲民眾的意識。譬如俄羅斯釋放出很多假訊息,為的就是粉碎烏克蘭反抗俄羅斯侵略的決心。

台灣對假訊息問題不陌生。之前在大阪的台灣駐日外交官,就是因為有假訊息說,外交官員們沒有盡責協助民眾,造成民眾對他的誤解並在網路上對他撻伐,最後他用自殺來證明自己的清白,這是一個非常遺憾的事,假訊息害死人;還有之前「文旦之亂」事件,出現把農產品傾倒在河裡的照片,後來發現其實照片是去年的,但被有心人士錯誤引用。

所以在台灣的網絡社會,假訊息層出不窮,不少是中國刻意針對台灣使用這類認知戰的攻擊,那就牽涉到國安的一環。遏止假訊息與培養民眾對媒體識讀的素養,必須加速。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
要是大眾不是普遍認知深偽技術可能帶來的假資訊,會不會危及到民眾對政治參與度,導致投票率降低等? 2 則對談comments 2022-11-20 23:32:27
簡孝樺

簡孝樺

唐鳳辦公室專案顧問

對民眾政治參與的影響,除了冷感也可能炒熱氣氛。我們可以看到國外,其實早在發生了,近期烏俄戰爭期間也有案例,政府透過快速回應破除流言,來穩定民間士氣。對個人權利的侵害事實,各國大多已有現成的法規條例,未必有對這類技術進行強制限制。究其根本...

2022-11-20 23:34:50

我對於這則留言有疑慮
技術只是一個中性的工具,限制工具的發展是不必要且不容易的,應該管理的是使用技術的人與其意圖,看如何用
2022-11-20 23:34:50

我對於這則留言有疑慮

question
要是這類事件變多,社會上需要什麼解方?例如利用程式,自動判別影片「有無造假」等? 2 則對談comments 2022-11-20 23:32:27
王新民

王新民

中研院資訊科技創新研究中心 研究員

如果有像趨勢科技這類能「長期追蹤」的公司、法人單位、或政府單位,都應該會是個解方。因為當有新技術被拿去製作散發惡意訊息時,自然會需要有這類服務。但到底要哪個單位去做,是可以討論的。

2022-11-20 23:34:50

我對於這則留言有疑慮
陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

如果要寫一個這樣的程式,提供全台灣的人隨時上傳使用的話,會需要很大的資料庫處理影片素材,學術單位的資源通常有限,無法應對如此大量與計算與資料,可能需要到像 Google 這類的大企業,才有辦法去支持這樣龐大的運算。另外,如果要即時運算(例如偵測正在直播的 Facebook、YouTube 影片是否造假)的話,技術上又更加困難了。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
對技術端來說,有辦法可以偵測深偽技術,或防制利用深偽技術犯罪嗎? 3 則對談comments 2022-11-20 23:32:27
陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

目前深偽偵測器都是基於已知的 deepfake 資料去做訓練與應變,可以達到不錯的效果,但因為深偽技術持續不斷推陳出新,而且新舊技術生成的方式也有不少差異,對於新的深偽技術,未來也需要不斷去更新模型,以保持一定的偵測性能。

我們開發好前端技術後,因為 deepfake 這個議題,會是持續的問題,就像電腦病毒一直存在,甚至一直出現新的變種,因此就需要不斷收集新的資料進行模型更新,如果有相關的政府或產業界的單位能提供協助,在前線一直去應對,例如趨勢科技這類的公司,能提供第一線客戶服務,並定期更新病毒偵測碼,這樣配合更能有效應對深偽技術應用氾濫的問題。

2022-11-20 23:34:50

我對於這則留言有疑慮
王新民

王新民

中研院資訊科技創新研究中心 研究員

趨勢科技這類公司,因為有足夠的人力與經費,能持續追蹤市面上的電腦病毒,並提供相關更新服務,但我們中研院是學術研究單位,需要政府或業界研究計畫的經費支持,才有辦法研究深偽技術相關議題。

這三年剛好有科技部訊息科技研究計畫針對假新聞與深偽技術偵測的經費補助,才能進行這類相關議題研究。因為這個科技部研究計畫,我們有資源去整合六位老師的專業,其中...

2022-11-20 23:34:50

我對於這則留言有疑慮
有兩位是聲音處理(王新民、曹昱教授)、兩位是影像處理(花凱龍、陳駿丞教授)、還有兩位是自然語言處理(
2022-11-20 23:34:50

我對於這則留言有疑慮

question
目前有公司提供偵測 deepfake 的 APP 等服務嗎? 3 則對談comments 2022-11-20 23:32:27
陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

美國很早就有相關的議題,所以是有些新創公司在做的,至於台灣的話,就要看我們台灣的中文影片市場,最後會不會衍生出這樣的需求、來支持這樣的企業服務。

2022-11-20 23:34:50

我對於這則留言有疑慮
王新民

王新民

中研院資訊科技創新研究中心 研究員

如果想像未來,要在 Facebook、YouTube 這類大平台商以外的公司,有個所謂第三方公司,能做出「在每個人手機裡,隨時偵測出現的影片、照片有無被竄改」,其實也不是不可能,但這個第三方公司,必須...

2022-11-20 23:34:50

我對於這則留言有疑慮
資源跟 Facebook、Google 一樣雄厚,且有足夠的資料去運算比對。未來 YouTube 和
2022-11-20 23:34:50

我對於這則留言有疑慮

question
破解深偽技術製造假資訊的做法,在台灣、國際間普及度高嗎? 3 則對談comments 2022-11-20 23:32:27
陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

像 Facebook 已經有部門在處理相關事件,因為之前有新聞指出,臉書有把專門產出 deepfake 照片、以及假訊息的一些帳號,都給刪除了;另外 LinkedIn 也有遇上類似事件;還有 Amazon 也有表示,自己內部有在針對防詐騙做出行動。所以其實普遍看起來,許多國際企業都已經動起來,開始針對相關問題做行動了...


2022-11-20 23:34:50

我對於這則留言有疑慮
王新民

王新民

中研院資訊科技創新研究中心 研究員

但其實這些比賽,都是「離線處理」,也就是主辦方給出一大堆資料後,參賽的人在時限內去做偵測;我們在做造假語音偵測時,也是這樣的模式——先搜集一大堆資料後,再去訓練模型,偵測哪些資料是真的、哪些是假的。也就是說,這些工作通常都不是「即時偵測」,例如,目前沒辦法在一個罪犯打電話給你、用你親人的聲音叫你匯款時,即時同步偵測。

2022-11-20 23:34:50

我對於這則留言有疑慮
陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

之前臉書因為「劍橋分析事件」受到多方批評,所以後來也看到他們開始做更多,偵測假訊息的相關研究、開發、
2022-11-20 23:34:50

我對於這則留言有疑慮

question
您過往曾提及,科技部 2020 年開始有做深偽技術的研究計畫,這個計畫目的是什麼? 2 則對談comments 2022-11-20 23:32:27
許志仲

許志仲

成功大學數據科學研究所 助理教授

科技部在在規劃時,有幾個目標,包括像能不能在假訊息、假新聞這類世界競賽上得到名次,以及這個東西能不能真的被使用,甚至有沒有可能跟業界結合、技轉給業界。所以這個計畫跟其它科技部的計畫,會有一點點不一樣,因為一般的計畫,通常目標是希望學術卓越,但這個是真的希望可以落地運用。

大家知道學界跟業界總有差別,但據我所知從學術端要直接落地,並不是容易的一件事情,也許多個團隊中,可能就只有...

2022-11-20 23:34:50

我對於這則留言有疑慮

一組團隊能有機會真的技轉或變成產品,所以要談「計畫落地應用」,還缺更大的誘因。

做研究的老師們,首要目標,通常還是要把研究做成論文發表,對老師們來說,建置一個資訊系統,通常要花好幾個月的時間,相對來說論文上的相關論證等研究的時間就少了,所以老師們想要獲得的成果,跟Deepfake需要落地的目標並非絕對一致,因為老師主要是要看到 paper(論文),但此類計畫期待的是落地成果。

在科技部,多是由老師群組成的,大家都懂彼此需要交論文的心理,所以不太會施壓彼此,所以我覺得如果是政府多競標「有辦法落地的案子」,其實比較有機會實現,後續政府端也比較能把關,看把成果用在哪個地方,包括國防角度、科技角度、產業角度等,多方去整合。

我對政策規則不太懂,但我以一個老師的角度看,會覺得用競標的這種辦法,會更吸引人去研究。這種情況下,「產出論文」就不是首要 KPI,也其實不一定要學界的人來做,若能吸引到產業界的人才來幫忙也很好,但我猜其中會有很多法規問題。像這類的攻擊事件,也是這幾年才開始,可能法規也需要慢慢修正,關於「怎麼防制」、「怎麼鼓勵學界、業界」都才剛開始而已。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
在未來的世界,有什麼能快速追蹤出「假影像」的解方呢? 2 則對談comments 2022-11-20 23:32:27
陳駿丞

陳駿丞

中研院資訊科技創新研究中心 助研究員

像 Photoshop 的軟體也有應用相關 deepfake 的技術,未來也可能被有心人士用來大量製作出 deepfake,所以 Adobe 目前也有試著建立一些規範,在他們的 photoshop 等製圖、製片軟體中,加一些標籤、浮水印的功能,以協助追蹤和偵測 deepfake 或其他偽造內容。

2022-11-20 23:34:50

我對於這則留言有疑慮
王新民

王新民

中研院資訊科技創新研究中心 研究員

Adobe 這類「提供製作內容工具」的大公司,若加上一些浮水印、編碼在其中,的確能讓後續偵測更方便。不過要全世界的「內容產製工具商」都願意、或是說都有能力這麼做好像也不容易。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
十年後,會不會大家對深偽技術所做的假影片變得無感? 2 則對談comments 2022-11-20 23:32:27
許志仲

許志仲

成功大學數據科學研究所 助理教授

老實說,的確每個時代都會有「挑戰當代」的科技存在。你看很多在流竄的假影片,其實都只是為了「有趣」、「博君一笑」,沒什麼大問題,我們的確不需要太在意一些好笑的小影片,但當然還是要去偵測,有沒有人「有意」利用技術造成危害,先防患未然。

道德面來說,很多假影片沒問題,技術面也仍然會繼續發展,現在很難肯定的說,未來會不會有人濫用,那先畫個底線,看能偵測出偽造的痕跡、技術的話,還是比較好的,這樣來說,發展與限制的確是眼前時代的兩難沒錯。

2022-11-20 23:34:50

我對於這則留言有疑慮
簡孝樺

簡孝樺

唐鳳辦公室專案顧問

我覺得未來世代,人們見識到大量流竄假影片被破解的過程,就會像打了疫苗後對病毒產生抗體一樣,對這些不實訊息建立腦中自動過濾機制。就像我們學習「製造新聞」,反思依賴媒體的危險;學習如何使用修圖軟體變造頭像的技術,就知道要對可疑照片的細節多加留意;未來當大家嘗試寫程式、熟悉新興數位科技的時候,再看到惡意產製的 deepfake 影片時,也不會再驚慌失措了。

2022-11-20 23:34:50

我對於這則留言有疑慮

question
未來社會最需要哪段驗證機制?是缺技術發展、平台架設、還是公民理解? 5 則對談comments 2022-11-20 23:32:27
許志仲

許志仲

成功大學數據科學研究所 助理教授

雖然我是做技術的,但我認為,技術只是「最後一招」。如果民眾在認知上、道德上都有更高標竿時,這類犯罪沒有人要買,即便買了,也沒有人觀看後全盤相信、受到影響的話,這類問題就會自動會消失。

這就比方當人們有覺知,一個新聞可能有問題時,大家都主動去查核、不亂分享,那想犯罪的人就會意識到,自己在白做工,相關事件會漸漸減少。技術就只是一個底線,當萬一有重要的人物,頭項被竄改時,還有最後一道防線去釐清,但前面大眾的眼睛、大腦這層防線,才是最首要的。

2022-11-20 23:34:50

我對於這則留言有疑慮
陳譽文

陳譽文

資策會科技法律研究所價值拓展中心 創意驅動組組長

其實面對這類攻擊,民眾首要是需要「素養」,因為當大家自己能夠辨認假訊息、能夠保護自己,才是最重要的。我們剛剛提到平台責任,其實不只限社群媒體,因為自從有網際網路後,非法事件像盜版影片、色情影片就開始出現在網路上,政府後來就要求網路平台業者要有規範,尤其現在社會上也會認為,一間公司靠網路賺錢,當然也要有相對應的義務,不能只有賺取利益卻沒有顧及帶來的傷害,這就是俗稱的平台責任。例如在雲端上傳盜版影片、或是 YouTube 上傳暴力影片,都是會被要求下架的。我們也可以說,未來各個企業都要重視「企業數位責任」...

2022-11-20 23:34:50

我對於這則留言有疑慮
余宛如

余宛如

桃園市政府資訊科技局 局長/第九屆民進黨不分區立法委員

社會上很多在談 AI 道德倫理,這不會是只限 deepfake,是對整個演算法的建構過程要符合倫理道德,我覺得首先一個可以做的,是讓更多人、更多角色「參與討論」。譬如過往,AI 的討論很多都只有男性在參與,像是在桃園最近推動「She Smart Taoyuan」,是一個針對智慧城市的女力計畫。

我們希望提升女學生對科技領域的興趣、學習,打破刻板印象的職涯選擇,提高女性在科技領域的參與,減少性別不平的現象;第二,是在桃園的「智慧城市推動委員會」中...

2022-11-20 23:34:50

我對於這則留言有疑慮
陳譽文

陳譽文

資策會科技法律研究所價值拓展中心 創意驅動組組長

讓科技工具可以帶來好的效益,同時也避免負面的影響,當然也是讓自己的商譽變好的方法。在法律政策裡有個詞
2022-11-20 23:34:50

我對於這則留言有疑慮

分享

facebooklinetwitterlinkedin

延伸閱讀 Read more

「用 AI 反制 AI」科技破解 Deepfake 可行嗎?

「用 AI 反制 AI」科技破解 Deepfake 可行嗎?

2022 年 2 月底爆發俄烏戰爭,不到一個月內,網路上就流傳一則烏克蘭總統澤倫斯基呼籲該國人民投降的影片,不久後即被發現此為深偽(deepfake)技術製造的影片。此類事件在過去幾年出現頻率日趨密集,究竟現在的科技能否反制這類非法行為?

2022-04-19 10:00:00

傷害與治療一線之隔,Deepfake 如何替未來醫療鋪路?

傷害與治療一線之隔,Deepfake 如何替未來醫療鋪路?

2021 年台灣出現了首例 deepfake 換臉犯罪,多位知名人士的頭像被深度偽裝於高度逼真的色情影片中,甚至總統人像也被移花接木,涉及國安及犯罪。影片是假的、但傷害是真的,deepfake 真的這麼壞嗎?其實,也有善的應用。

2022-04-13 10:00:00

防疫與自由只能二選一,沒有第三條路?

防疫與自由只能二選一,沒有第三條路?

疫情提升全世界民眾「被監控、被看光」的感覺,讓隱私權之於公共利益的討論愈加緊迫——如果有系統能完美追蹤病毒,是否該把生活細節交給軟體演算、分析、追蹤呢?

2021-08-18 16:46:00

唐鳳來啦!用「珍珠奶茶」解釋台灣如何加大民主頻寬

唐鳳來啦!用「珍珠奶茶」解釋台灣如何加大民主頻寬

防疫不封城,抵抗疫情假訊息但沒有言論被下架;台灣怎麼做到的?行政院數位政委-唐鳳,與微軟智能工業雲解決方案亞太區總經理-葉怡君,接受《旭沙龍》邀請,一起探討「台灣數位民主」和「軟體思維」的獨特成就與背後成因。

2021-12-02 17:46:00

時間標記 Timestamp

EPEPISODE #旭沙龍-張育寧時間

EP #
邀請已成功寄出 Sucessfully sent