由人類打造的 AI,無法自外於人類社會的問題。2023 年迎來重大突破的一系列「文生圖」(text-to-image)AI 模型,包括 Midjourney、Dall-E 和 Stable Diffusion,其生成的圖像皆體現出各種性別、國家、膚色、種族的偏見與刻板印象。
根據《華盛頓郵報》的報導,Stable Diffusion 繪製的「在伊拉克的玩具」(Toys in Iraq)是配槍的可愛士兵,「有吸引力的人」(Attractive people)是年輕、淺膚色的白人。彭博社在分析了 5,000 張 AI 圖像後,發現從事高薪職業的人大多膚色較淺,專業角色則大多由男性主導。
科技媒體《Rest of World》則將 AI 繪圖偏見的分析,擴展到國族身分。在他們的測試中,Midjourney 繪製的「印度人」幾乎全是留著鬍子的老人,「墨西哥人」總戴著墨西哥闊邊帽,印度新德里的大部分街道都受到汙染和堆滿垃圾,印尼的食物則總是盛在香蕉葉上。
換言之,AI 繪圖呈現世界的方式,往往是把不同國家、文化的人,簡化為刻板印象。哪怕大部分的刻板印象不見得是負面的,這樣一種簡化,仍讓該文化失去了原有的豐富多樣性,導致不那麼「典型」的人群無法被看見。
我們於是好奇,AI 筆下的「台灣人」會是什麼模樣?是否也反映出某些針對台灣人的偏見或刻板印象?在分析了上百張圖像後,我們發現,測試的結果比刻板印象還要糟糕,某些時候,AI 繪製的台灣人根本就不符現實。
(本文所有圖像都由 Midjourney 生成,使用系統預設的 5.2 版本,只在少數時候調整為更風格化的 6.0 版本。)
男人會老,女人不會
首先,我們在 Midjourney 輸入「一個台灣人」的提示,重複多次,直到生成 50 張圖像。以下是由 AI 描繪的台灣人群像: