跳到主要內容區

 

UFO計畫

 

2020.03.21「AI與社會」工作坊:HSS 如何想像AI:人文社會如何參與AI教學、訓練與發展

最後更新日期 : 2020-10-15

「AI與社會」工作坊

HSS 如何想像AI:人文社會如何參與AI教學、訓練與發展

主持:王秀雲 教授
主講:林文源 教授


一般對於人工智慧的想像大多都是來自科幻電影,印象深刻的形象可能是電影《魔鬼終結者 Terminator》中的殺手機器人、或是電影《變人 BicentennialMan》裡的管家機器人;從人形走到貼近當代生活的智慧系統,電影《鋼鐵人Iron Man》中對科技近用的信手捻來或許很快就能實現,虛擬管家已經逐漸進入許多家庭之中,協助人類管理生活。最常見的人工智慧則還是聊天機器人,iphone 手機的 siri 功能即是顯例。無論是影視或科技發展所帶來的人工智慧,都伴隨著科技—社會想像力(techno-social imaginaries)——一種由科技與社會實作進展所支持與達成的生活形式與社會秩序的共享理解。


自 1980 年代,人工智慧經歷過三波重大轉變。1980年代的第一波,是建立運算結構化人類思維的模組,讓電腦來判斷並執行,以專家系統為主;1990年代所接續的第二波,改用機率統計來決定反應,不預設結果。這兩個時期都還需要人類提供理論模型。2010年代所開始的深度學習時代,算是前面階段的跳躍式發展,由於硬體資源能夠支持過去所無法達成的大量運算,新的演算法「深度學習」出現,電腦能從資料中不斷地自我學習、找出規則,這是現今最常見的人工智慧,差別只在於最佳化程度:計算多少量、計算多久或可用多少資源等,都會影響運算結果的狀態。


人工智慧有四個部分:一是用來訓練或測試的數據,承襲統計傳統,數量大且學習多就可提升準確度;再來是演算法,也就是程式邏輯,從數據中找出規則與關聯性;最後兩個是詮釋與應用。在這四個層次裡,或許演算法對人文社會科學背景的人、門檻相對高,但是在詮釋與應用的層次,他們有能力可以分析。


人工智慧有點像小孩,餵什麼樣的資料就會長成什麼模樣——用特定數據學習出一個方法,這是特異性人工智慧,它只能執行特定任務,所以專門下棋的人工智慧無法像 siri 能回應對話。就算現在人工智慧的影像判讀能力已經非常厲害,但若拿它所不熟悉的圖像,也是會造成無法判讀或誤讀。當前泛稱的人工智慧,多是用來解決大量重複,且需要精準度協助判斷的狀況。


建立一個演算法時,必須把問題架構清楚,務實地把資料篩選好、清理乾淨,並把資料特徵給標記(特徵工程),明確地讓人工智慧知道該物品的特徵,所以有人戲稱說人工智慧就是工人智慧,前面要有大量人力去標註資料,把有意義的訊息轉換成訊號是第一步;再來就是用大量資料進行訓練,完成後人工智慧就會自己判斷什麼是正確的目標,如此就完成了特異性人工智慧。其實,人工智慧會自己找到其他特徵會加強自己的精準度,可能比人類所給的特徵更重要。


人工智慧的能與不能,技術過程至關重要,若人文社會學界能夠參與討論,對於科技與社會的發展將有相當多的幫助。現在發展人工智慧,還是以商業營利為主要導向,或是政府用於管理之途,人文社會學界著重在人類生活方式更多元的願景,要把關懷帶進議題,並對人工智慧的發展提供獨特貢獻。

 

接著用醫療社會學作為分析工具,來拓展人工智慧與人文社會科學間的想像:人文社會科學的內部質變(in AI)、對科技的關懷如何面對人工智慧(of AI)、提升技術層面的效益(by AI)、還有邁向優化與合宜的人工智慧發展(for AI)。

 

醫療社會學觀點一:人工智慧引起之醫療社會議題與新秩序

影像判讀是否會讓皮膚科或腫瘤科醫師失業?醫師的養成要有許多知識與經驗的累積,但是人類的精力有限,而人工智慧可以快速吸收新知,將更容易準確判斷病理,理論上會比醫生更準確,但是當例外出現時則否;所以就醫療產業而言,短期間不可能被人工智慧完全取代。反之,人工智慧為醫界帶來的改變為:高度精準判斷、減緩醫療人力短缺與城鄉資源差距、醫療專業養成-訓練-認證的重新洗牌。

 

醫療社會學觀點二:人工智慧作為新的醫療文化、專業技能、組織、體制、資源分配的非人行動者

技術軟體如 Facebook 變成生活之一時,就是新的生活方式,這與過去的生活方式、思考模式與概念有何不同?權力關係變成什麼形式?有哪些發揮影響?哪些舊的影響或權力消失了?人工智慧的關鍵就是演算法,當演算法大量介入社會運作後,不同演算法的規則與判斷將可能造成毀滅性後果。芝加哥大學的醫學倫理學教授Marshall Chin指出:由於醫療的昂貴特性,會讓醫院考慮是否要讓病人入院治療——當資料處理過程就知道病人無力支付醫療費用,或無效醫療的機率較高,而造成窮人或特殊族裔無法接受醫療資源的弔詭狀況。傳統上醫院收治病人後還有社會工作者會協助連結社會救濟的資源與機會,但僅就人工智慧在資料上學習到的結果,只會看到醫院在收治哪些病人的最終情形較佳(能夠支付醫藥費,又能有好的預後效果),分析結果就會是比較有錢的病患,這又回到經濟決定論,在訓練資料底下又成為套套邏輯,再度加深醫療不平等——偏見會藏在資料裡面。


醫療社會學觀點三:人工智慧如何改變醫療社會學的研究方式
LDA(Latent Dirichlet Allocation)模型是一種人工智慧的無監督式學習,以詞彙出現的頻率來定義文本主題,適合用在質性研究上,這也是要先定義詞彙的類型,把字詞分類好之後再讓人工智慧去讀取文章,例如有大量出現酒類相關字彙就知道這是酒類主題文章;分詞的下一步就是作文——透過詞句的堆疊形成文句,最終完成一篇文章。語意對於自然語言生成或翻譯非常重要,相對於上下文,更多是來自文化背景,需要考慮不同範疇的文本內容。現在已有人工智慧型的網路寫手,有了主題它就可用相關詞彙組織出一篇文章甚至詩詞,編寫方式常會挑戰人類的專家系統,如「父母」常與「子女」前後出現尚屬合理,然而「狗兒子/貓女兒」是否可以?假如持續地提供新興文化的詞彙,人工智慧也會將其納入創作之中。當人工智慧了解到辭意,及其與其他詞彙並置後可能得到的回應,透過這樣的對應關係就可以開始與人類互動。


醫療社會學觀點四:醫療社會學如何對人工智慧的發展提供獨特貢獻

醫學期刊《刺胳針 The Lancet》曾這樣對醫療產業的發展提出反省:當前的醫療可近性以及品質還是太差,2020年的全球武漢肺炎大流行也是後果之一,太注重精準的「治療」而非預防。具體的現象就是急重症醫療-基礎醫療的資源配置失衡,生老病死都集中在醫院,其他部分反而都忽略或無法負責——生病才是有利可圖,進而造成醫護人員與社會的壓力。相較於台灣醫療在國際上的傑出表現,疾病負擔的評比反而得到較低的評價。醫療社會學可以透過人工智慧協助並維持每個人的健康,讓醫療資源在病入膏肓之前就發揮功效,實踐「上醫治未病」的境界,成就人工智慧的社會公義面向,這就很考驗人文社會科學的未來想像。
  
用好的數據訓練人工智慧、會得到理想的結果,反之會得到意外的結果;若要讓它學習文化差異,必須要數據夠大,才能學習得好,進而理解文化邊界。《自然 Nature》期刊的一篇研究 1 證實了這種危機:透過某知名圖庫讓人工智慧去學習文化差異,卻發現其根本性問題:圖庫中有近一半影像是從全世界不到4%人口的美國所生產,佔全世界超過三分之一人口的中國跟印度、其合計的圖片量只有3%。這樣不均衡資料所呈現的世界觀、會造成種族主義傾向。特別被提出來的例子是:人工智慧無庸置疑地判斷「白紗」就是婚禮相關圖像,但是非西方世界的婚禮裝扮卻會被理解為「扮裝、異文化、舞台表演」等,若沒有深究該人工智慧是由哪些數據所訓練,就會誤信這是平等的世界觀。


相較於人工智慧的便利性,使用前應該先檢視:一、此演算法是否有在不同地區測試過?軟體的基礎架構是否會影響?不同環境會導致不同結果嗎?是否對不同對象有偏見?二、訓練資料的來源及品質、訓練資料的結果、特徵工程的標注是否公平等,這些都是人工智慧學習前的重要基礎。三、訓練資料的內部不均等,如何補強?四、系統是否可以在相同環境下重現精準度?最後、系統上線後該如何監控?應用過程仍是在持續學習,持續修正準確率,以利面對特殊案例。


人工智慧是一面鏡子。它的介入,映照人類的問題、存在與意義;如前述所言,人工智慧是從我們餵養的資料中長大,它有的問題其實就是人類社會的問題、人類存在的現況,以及人類存在的意義。簡而言之,人工智慧不單是魔鬼終結者或是智慧管家,它是由大數據、演算法還有訓練過程所呈現的機率,最終的判斷還是要回到人類身上。現有的人工智慧還是偏特異性功能,意料之外的狀況都無法處理,不用對它有太多期待與害怕。


人工智慧不只是關於知識與技術的導入,而是應該使用它進行更多嘗試、體驗與調整;共同演算(share the algorithm)要求每一份子嚴肅看待他人貢獻,並投入試驗,因地制宜並關照每個人的強項與弱點,不惜代價進行改變,同時不將任何事物視為理所當然,從而尋找或改善人類與人工智慧共存的方式。正因為人工智慧是人類社會的鏡子,我們與它相處的方式也是我們與其他群體的共存模式。

 

綜合討論

 

提問:中醫體系要如何應用人工智慧?
回答:相較於西醫在人工智慧應用上的便利性,中醫有就沒有這麼容易。中醫診斷方式一直是多因子取向,找到中心後再做最後診斷,又中醫的問診方式偏向個人化應用,同樣的臨床徵狀卻有多種治療方式,第一個困難點是如何讓人工智慧學習到疾病與療法的關聯性。第二個是中醫的病歷系統還未有統一格式,每份醫案紀錄都還只是個人筆記的延伸,每份資料都有差異遑論是個別醫師,將這類參差不齊的資料給人工智慧去學習,其效果必定要打個問號。最麻煩的是藏私心態還有健保審查制度,讓許多中醫師在登陸病歷資料時都不會寫得太詳細,也是為了避免糾紛。資料數位化對於中醫臨床診斷有無幫助、還要思考,首要任務當然是要建
立資料過程,還有以病人為中心的照護流程;至今西醫的資料整合都還是比中醫完整,因為有許多流程要求。求助中醫的人多是身染重病或慢性病,她/他一定是嘗試許多方式、多管齊下;若病患就醫歷程能夠完整追蹤,也是要機構資料流程的重新規劃。

 

提問:不同科系的學生,對於網路教學的接受程度不同。學生之間也有數位落差,該如何解決?
回答:數位落差一直存在,例如有無電腦的現實條件就是明顯的差異;數位落差之外,另一面是期待的落差。科技與社會的課程是想讓學生有相對交集的想像力,讓不同科系的人一起討論或實作,學生通常都體會到不同科系的人,想法真的很不一樣。

 

提問:有關《自然 Nature》的那個研究,若懷有文化敏感度地去蒐集資料,是否人工智慧的偏見就可以解決,或還有什麼其它困難?
回答:現在已經有努力在做這部分。現在有許多黑客松(hackathon)的活動,也有性別黑客松,code for gender,有次就是討論這個。例如網路上有很多性別歧視的描述,如果要做一個性別平等的人工智慧,去找出性別偏見詞彙,訓練時就要找挑選過或是有多元文化的資料——進一步問,當我們希望人工智慧不要反應現實的性別錯誤而做出純潔的人工智慧版本,那它還能做出適當的判斷嗎?這樣的人工智慧對於實際生活有用處嗎?這是個無限循環的過程。這還是可以做,然而我們絕對無法有完美資料,且人工智慧一定會冒出我們意想不到的答案。有個例子是:當你在網路上去找所有關於烹飪的相關字眼,十之八九都會出現女性為主角的圖像,有個研究以此訓練完後,丟了一個穿著圍裙的男性烹飪照片給人工智慧辨識,辨識結果為女人,因為它是靠圍裙來判斷,而非生理特徵。


提問:人工智慧會如何改變醫病關係?是否有必要取消社會互動?這樣是否能夠維繫醫病共享決策?直接用人工智慧回答醫病問題,是否將改變醫療整體環境?
回答:現在醫院被評鑑綁架,為了領取健保費用,使得利益引導專業化,人工智慧若應用在評鑑系統會有點大才小用。醫病共享決策這基本上是種文化——醫生可以用各種方式與病患及家屬溝通,包括衛教海報或單張、閒話家常、診後諮詢都是;現在的重點是醫療資源要重新配置,不然很多醫生忙得要死、面對病患只能虛應故事。反過來說,醫院行政端的日常絕對不可能是評鑑/示範/比賽時的模樣,臨床工作許多時候不是為了評鑑,而是提供病人另一種協助。醫事服務過程許多都要求資訊化紀錄,這就形成另一種兩難。從這角度看,人工智慧可能可以協助:像現在看診談事情,醫生也同時看著電腦在記錄,衛教師也看著電腦在記錄,有些較有心的醫事人員會在紙筆抄寫時保持眼神接觸,可是事後還是要花時間登打——人工智慧是否可在談話時就紀錄,甚至開啟視訊?尚未克服的一個狀況是:衛教成效無法測量,只能抽考病人是否記得醫囑「妳不/能吃什麼」,或是事後打電話詢問滿意度等,但這與實際狀況還是有落差。有些實作方法適用影片式的直接觀察。總之就是要把事情往整體化發展,人工智慧現在已經能做很多事情,如果能做整體化發展,如機構間連結等,相信會有更不一樣的效果跟發揮空間,還需要再多去想像。

 

1 AI can be sexist and racist — it’s time to make it fair.
(https://www.nature.com/articles/d41586-018-05707-8)

瀏覽數: