AI分析博物館不同年代的肖像畫,竟可導出社會信任度的歷史演化規律?

AI分析博物館不同年代的肖像畫,竟可導出社會信任度的歷史演化規律?

我們想讓你知道的是

好的科學進展,是結合嚴謹的科學態度、數學運算般精密的推測,加上沒有偏⾒的取樣,以及正確不誇⼤的結論,最重要的是還要有責任感!

文:曾志朗(Ovid J. L. Tzeng)

早上7點半左右,我開⾞到學校圖書館附近,把⾞停在平⽇停放的位置。推開⾞⾨,迎⾯⽽來的微風有絲絲涼意,正是個秋⾼氣爽的好天,我回頭拿件輕薄的夾克披上,拎起背包,鎖上⾞,準備搭電梯,開始⼀天的⼯作。忽然聽到背後⼀串呼喊聲,急促叫著:「曾教授,曾教授⋯⋯」,聽來⼗分熟悉。我停下腳步,轉⾝⼀看,果然是每天早上都到校園運動、時不時和我打招呼的老婦⼈。她⼀⾝運動裝扮,臉上紅潤,額頭細細的汗珠滲濕了⽩髮,滴掛在稀疏的瀏海邊,應該是剛剛練完例⾏的太極拳,看到我下⾞,就追過來叫我,⼤概有事找我吧!

我等著她開⼝,⾒她有點喘,安撫她說:「慢慢來,別急。」她順了順氣,國台語參半的問:「按呢我無客氣,要請教你這位⼤教授,啥米叫AI?我們家那個孫⼦讀這間⼤學的藝術系,他畫畫最『⽔』了,從⼩就被老師稱讚,但現在快畢業了,忽然說要去補習班學AI啦!⼀天到晚,AI醬⼦,AI釀⼦,說個不停。曾教授,我想要向您請教,AI是啥米碗糕?è ai(會唉)有啥米好補習的?真的是è hai(會害)喔!」

我覺得很有趣,尤其她那抑揚頓挫的道地閩南語聲調,從AI到è ai到è hai,令⼈莞爾。我安慰她:「您孫⼦想要學AI,很好啊!讀藝術,結合現代⾼科技電腦應⽤,就是AI啦,叫做⼈⼯智慧。AI現在很紅,被應⽤到各個領域,包括藝術。您別煩惱,您孫⼦⼀定會創造出『卡⽔』的作品!」老婦⼈聽了稍稍安⼼,連連感謝:「這樣就要趕快讓我孫⼦去好好學!」她滿意的和我道聲再⾒,轉⾝往校⾨走去(因為Covid-19疫情,上課時間⼀到,校園開始管制了),我也轉⾝走向研究⼤樓,準備上⼯去了!

坐在桌前,螢幕⾴⾯和⽂字隨著⼿上滑鼠移動,出現不同訊息,但我卻⼼不在焉。也許是受到老婦⼈詢問AI的影響,我想到不久前看到的⼀篇論⽂,研究者利⽤AI技術分析古代肖像畫的臉部表情,因⽽追溯歐洲⼈在社會信任的歷史發展。這篇⽂章之所以引起我的注⽬,不只是它刊登在《⾃然.通訊》(Nature Communications)期刊上,還因為它把AI應⽤到藝術品,得出⼈類某⼀社會現象的發展規律,確實頗有創意,也凸顯了AI計算無遠弗屆、無疆無域的魔⼒。

「機器學習」和「畫作」正是我向老婦⼈所說的AI和藝術的結合,⽽它也確實產出新的創意。只不過,第⼀次讀這篇⽂章感到出奇,AI分析的步驟也中規中矩,結論更是根據分析的結果,點出公元1500到2000年之間,歐洲⼈在社會信任向度的演化規律,但我卻隱約覺得哪裡不對勁,所以⽇也思,夜也想!和老婦⼈對AI的談話,⼜把我帶到這篇論⽂的思考中。

這篇論⽂是四位法國認知科學家的合作研究,先採⽤⼀套已經完成的機器學習算則,讓機器學會根據肖像畫裡的臉部表情(如肌⾁收縮、笑容和眉⽑的動態等)來評斷肖像⼈物的可信任度,再利⽤這個機器學習算則,經過訓練後所學會的內在準則,去分析由英國國家肖像館所提供的1962張⼈物肖像畫,年代從公元1502到2016,並評定每⼀張肖像所呈現的可信任度。最後,再把所得的⼈像信任度和肖像⼈物所處年代的社會背景的不同向度做相關比對。

結果發現,肖像代表的可受信任度,在公元1500到2000年間剛好和社會發⽣的暴⼒事件數成反比(即被信任度⾼,犯罪率較低),也和⻄歐社會的⺠主開放程度成正比(即被信任度⾼,⺠主化的程度較⾼)。很有趣的信任度演化的歷史發展規律,⽽且頗為符合⼀般常識所想像的規律。

研究者⽤同樣的⽅法去檢視另⼀組肖像,他們從「Web Gallery of Art」這個虛擬的美術館網站,分析4106幅由公元1360⾄1918年,橫跨⻄歐19個國家的⼈物肖像。結果重複了第⼀次實驗的分析,⽽幾個不同社會向度(例如對宗教的包容、政治⾃由和⺠主興起等)和肖像被信任度的相關結果,也再度證實原先信任度的演化結論。為了建立這個分析⽅法的信度,他們進⼀步將這個算則應⽤在社群網站Instagram上,檢視2013年曼⾕、柏林、倫敦、莫斯科、紐約和聖保羅六個城市居⺠上傳的⾃拍照,也得出相同結果。也就是說,在⼈際信任度和合作度較⾼的國家,⼈像照的可信任度也較⾼。

接下來,研究者還估算了肖像⼈物當年的經濟收入,發現被信任度和社經地位⾼低也成正比(即社會收入⾼的世代,肖像所呈現的被信任度也是⾼的),⼜是⼀項好像符合常理判斷的結果。

把機器學習算則應⽤到博物館所收藏的肖像畫分析,導出社會信任度的歷史演化規律,也凸顯不同社會向度的相關性,這樣的研究⽅法真的讓⼈耳⽬⼀新,AI的應⽤能量也真是令⼈刮⽬相看。然⽽,這篇登在科學界具權威指標的期刊的論⽂,實際上教⼈忐忑不安,甚⾄⽑骨悚然。腦中警鈴⼤作的,不只是我,還包括學界許多⼈,原因是這個研究在⽅法上有缺陷,在結論上也犯了過份誇⼤和以偏概全的⽑病。

⾸先,機器學習算則的公正性,乍看無可挑剔,它應是六親不認的。但最初學習⽬標的定義是誰訂定的?信任度的標準,⼀開始就是研究者的主觀判定。機器學習根據這些標準,學會判定肖像表情的可信任度,⽽誰能保證那些研究者界定的肖像臉部表情確實值得信任呢?例如有意或無意的顏⾊指標,就可能參雜主觀的偏⾒,⽽且幾千張肖像中,⼜有多少比例是⿊⼈、窮⼈呢?


猜你喜歡

Tags: