讀者投稿

號稱種族及性別平權的Google,為何在AI界掀起歧視的風暴?

(攝影/REUTERS/Dado Ruvic/達志影像)

近日AI界掀起一陣有關科技倫理、性別和種族歧視的風暴,風暴的中心乃是Google的元老級人物、人工智慧(AI)領域的知名研究者狄恩(Jeff Dean)以及其他管理階層,開除了另一位知名研究者:AI倫理學先鋒媞妮.葛布(Timnit Gebru)。

在Google,葛布是AI倫理團隊的共同領導人。事件起源自葛布在12月2號發出一篇Tweets,指出她因為一封寫給Google內部團體Brain Women and Allies的信而被狄恩開除。隨後電子報媒體《平台人》(Platformer)公布這封讓葛布「被離職」的信件,內容描述她多年來身為非裔女性研究者所遭遇的不公平待遇和種種挫折,論及一篇探討大型語言模型(Large Language Models, LLMs)對環境及邊緣族群影響的論文,被Google高層退件、拒絕其發表。

事情很快在Twitter以及社交新聞網站Reddit掀起論戰,由Google現任及前員工聯合創立的Google Walkout for Real Change組織也發起連署,要求狄恩及管理階層解釋為何拒絕葛布的論文發表,以及要求更透明化的研究審查和保護學術自由。超過2,600名Googlers及4,300名學術或公民組織簽署支持這項抗議活動。狄恩則發出公開信宣稱葛布屬於自願辭職,讓這件事更成為羅生門。敏感話題再度被挑起,讓一向給人支持種族及性別平權的科技巨頭Google形象造成不小的傷害。

事情繼續延燒,Google執行長桑德爾・皮查伊(Sundar Pichai)在12月9號終於發信給公司員工澄清,除了坦承Google要為葛布不開心地離開Google(she left Google unhappily)負起責任,也承諾要啟動內部調查及改進審查流程。在12月16日的最新的發展中 ,Google Brain的員工更向皮查伊發信,要求高層重新雇用葛布回到團隊,以拯救低迷的士氣和對管理階層的信任。

到底Google有沒有因為葛布的性別、種族及社會運動者的身分給予不公平的待遇?科技巨頭主導的AI倫理研究,究竟是擔負起社會責任還只是做做公關表面?外界都等著Google調查的答案。

誰是Dr. Timnit Gebru?她努力創造人工智慧的族群多元性

葛布是少數在AI界引領科技倫理的非裔女性研究者,也是活躍的黑人運動倡議者。她的研究著重於創造公平和透明的演算法。在社運上,她則大力地推動人工智慧領域的族群多元性。

在就讀史丹佛博士時期,她的研究著重於機器視覺,指導老師為大名鼎鼎的機器視覺推手李飛飛;主題涵蓋物件辨識和基於機器視覺的社會研究。她其中一篇用Google街景預測該地區的收入、種族、教育及投票傾向的研究,可以用科技輔助傳統普查所無法深入的族群和街區,也顯示機器視覺結合街景數據能夠大規模且準確地探索傳統方法難以做到的研究。

在AI倫理研究方面,葛布另一篇與MIT Media Lab同為非裔女性研究者布奧拉母維尼(Joy Buolamwini)合作的論文中,她們發現,相對於其他種族,商用人臉辨識系統對非裔面孔有存在異常的偏差,而這樣的系統被廣泛地使用在各式的生活場景,會對非裔族群造成不可避免的困擾和傷害。

這項研究發揮了巨大的影響力,在一場超過1,300萬人觀看的TED Talk推波助瀾下,幫助推動了兩項聯邦法案(the Algorithmic Accountability Act and No Biometric Barriers Act) 及為數不少的州法,規範這類演算法須受到嚴格審查,以確保不當利用造成的傷害。這件事也被拍成紀錄片《Coded Bias》,該片入圍了2020年日舞影展紀錄片項目也獲得廣泛的注意。

葛布大力推動演算法的公平性和可靠性研究,由她和其他創辦人發起的公平、可靠、透明化會議(ACM Conference on Fairness, Accountability, and Transparency, 簡稱ACM FAccT)已經成為電腦科學倫理領域中享有聲譽的國際級會議,每年有數百位的研究者參與及論文研究發表。

共創Black In AI,幫助非裔研究者消除各種參與大型會議的障礙

葛布在2016年發現,全世界的頂級AI國際會議NeurIPS的8,500位參與者中,只有6位非裔,包含她自己。葛布在一次訪談中談到當時的處境說:「我真的感到恐慌。」(I was literally panicking.)

提倡多元性在當時已經不是什麼新聞,許多贊助會議的科技公司以及會議本身,都一再強調多元族群的參與對整個社會的重要性,然而卻只有不到0.01%的非裔能參與在其中。葛布發起Black in AI組織,以提供導生活動(Mentor Program)、獎學金、線上工作坊等等活動,幫助非裔學生及研究者消除各種參與大型研究會議的障礙。隔年的會議中,Black in AI成功讓只有6位的非裔參與者增加至500位,幾乎是100倍的成長;2020年更成功推動另一大型國際會議ICRL前所未有地在衣索匹亞舉辦(雖然後因COVID-19而改成線上會議),葛布藉由實質的行動徹底改變了AI領域的多元性危機。

葛布可以說是AI領域中少見對社會層面影響巨大的研究者,更遑論其少數族裔、性別的背景是在這領域少之又少的代表性人物。(註)
有興趣的讀者可以參考這篇文章認識更多關於Dr. Timnit Gebru的貢獻。

那篇引發爭議的論文寫了什麼?

但此次她被Google退件的論文裡,正是描述近年來蓬勃發展的大型語言模型對環境及邊緣社群的影響。

大型語言模型是一種專門處理語言AI相關任務的類神經模型,用於生活中常見的搜尋、翻譯或智慧語音助理等服務。在這篇遭主管狄恩以「未達標準」為由而不同意發表的論文中,葛布批評科技公司大力發展大型語言模型卻對使用模型的風險欠缺思慮,也不夠透明化。其中有兩項論點:

  1. 模型訓練過程中劇增的能耗和碳足跡,可能會加速全球暖化、促成環境變遷。
  2. 使用帶有偏差性文字資料所訓練出來的模型,可能會對少數族裔產生不公平或歧視性行為。
從能耗來看,語言模型大多使用先進AI晶片進行訓練運算,訓練過程中所消耗的能源十分可觀。以Facebook發表的語言模型為例,模型訓練大約需消耗84,000千瓦小時的電能,相當於280戶台灣家庭每個月的平均用電量(註)
語言模型計算能耗參考Facebook於語言模型Roberta論文揭露數據做計算。Roberta訓練過程使用1,024台NVIDIA GPU晶片訓練24小時,每台耗能為3,500瓦。台灣家戶平均月用電量約為300千瓦小時。
。不過這項數據僅計算訓練一個模型的消耗,實務上時常需要同時訓練數十到數百個模型來取得最佳化的評比表現。作者批評各大科技公司虛擲能源在發展更深、更巨大的AI模型,卻缺少對環境衝擊的揭露和評估。為了讓使用者能公平地評估模型效能,作者建議應將能耗加入效能評比,優先考慮能耗較低的模型以減低環境風險。

再者,語言模型也有可能從偏差性的訓練資料中「學會」歧視。例如文字生成模型GPT-3就採用了包含Reddit網站在內的大量網路資料進行訓練。但網路文章品質參差不齊,充斥著諸多性別偏見、種族歧視言論,而且也缺少無法獲得網路資源的邊緣族群的觀點;如此學習而來的AI所生成的文字當中自然也會產生對不同性別、種族、宗教的偏見。這種例子屢見不鮮,在不久之前Microsoft的Twitter機器人“Tay”(2016)例子中,被設定為美國青少女的智慧聊天機器人,從與網友的互動資料中學習,在短短幾天內就因歧視和法西斯發言,讓Microsoft不得不狼狽將其下架。

偏差性訓練資料衍生的重大問題,在一片媒體炒作人工智慧里程碑的同時,完全被拋在腦後,背後隱含的風險難以獲得重視。葛布認為,人們期待更強大的模型來解決問題,是個錯誤策略,根本之道是該著重可受信任且創造更公平、品質更好的資料,並向使用者說明資料來源,才能解決問題。

Google面臨科技倫理及言論審查批評

前述大略介紹了葛布在AI技術、倫理和社群多元性的諸多貢獻,現在回來談一談Google在本次事件暴露出來的倫理危機。

科技公司諸如Google、Facebook、Twitter近年來飽受言論審查的批評。例如Google幾年前為了迎合中國市場而開發的DragonFly專案,現已在內外壓力下停止開發。這顯示人們倚賴科技公司內部的監控機制來維繫公司「不作惡」(Do No Evil)。AI倫理研究本該是科技公司的守門員,對倫理違誤的風險提出批評和建言──這也是葛布對這個角色的想像,確保多元性的聲音以及少數族裔的權益才是Google一再強調的價值。但管理層粗糙、未經溝通即解僱葛布的做法,讓人不禁懷疑Google是否日漸容不下內部批評的聲音,要以更強勢的作風消音不聽話的員工?

儘管執行長皮查伊的內部聲明信中強調包容和多元性的價值、不會對非裔員工有差別性待遇,Reddit上的討論串卻可看到非裔族群擔心事件是否會影響之後在科技公司面試任職的機會,殺雞儆猴的效應早已開始發酵。

在矽谷軟體工程圈,本次網路論戰隱含了什麼價值?

許多人的問題和討論集中在Google解僱葛布是否涉及歧視?在此我並不想討論事實的細節,畢竟這只有公司內部和當事人才有辦法釐清。我想討論的是在此事件的網路言論中,我所觀察到諸多對性別和種族的不公平待遇之處。

第一是對少數族裔和女性缺少信任和同理。網民批評葛布因為其特殊身分才敢大聲,將她貼上不專業、情緒化的標籤而否定其言論,卻完全忽略她不論在學術、公司及社會做出的諸多傑出貢獻。這反映了以白人及亞裔男性為主的軟體工程圈,從教育到職場根深柢固地依循於同樣族群的價值觀,包括服從、競爭和效率至上。多元性則被扁化成為效率的附屬品或絆腳石,無法同理少數族裔在面對不公平待遇時的挫折,甚至把多元性為一種威脅個人或既得利益群體的不合理要求,而感到不舒服或視為潛在威脅,也因此不能用公平的立場去審視葛布的處境。

這種不舒服是可以理解,也是可以破除的。推動多元性是要確保在不公平體制下拉近不同族群的機會。這些機會並非平白無故地增加,而是為公司創造不同的視角,降低單一化的風險,也讓在團體中的少數群體感到歸屬。在對事情輕下定論之前,可以先用當事人的視角理解事件的脈絡,再去選擇符合自己價值的立場。

第二是指稱政治正確壓迫到言論自由。有人說不便評論這起事件,因為批評一位非裔女性,會因為政治不正確而反過來遭受更多的批評。這種反應源自於對於改變無所適從,無法劃清如何評論的界線,也無法接受可能的批評,只好用一個去脈絡的方便辭彙保護自己:我什麼都不表達是因為我不能表達。

非裔族群的稱謂從「黑鬼(Nigger)」演化成「黑人(Black)」、再到今日的「非裔美國人(African American)」,對其中的界線感到困惑是常有的事。但重點在於人有權力選擇他人對自己的稱呼,拒絕他人用膚色或歷史上的負面用詞評斷自己。一個人指涉的政治正確常常是另一群人的進步;小如用詞上的改變並非任何言論自由的限制,為的是使人感到尊重和包容。

回頭來說,一個人當然可以對事件批評,也要有接受批評的準備。界線就在於你是不是把當事人作為一個人來看待,而非其膚色或性別──若一個人批評這件事是因為她是女性才會有恃無恐地要求,這就隱含了歧視,因為這並沒有去理解事情發生的脈絡就輕易用性別下定論;也暗示自己是更服從的一方,若有不公平待遇也不會如此,所以特權理所當然地合理。合理的評論可以針對其理念或行動批評,而不是訴諸政治正確就拒絕任何改變和批評。

本文從AI社群的多元性、模型的環境負擔講到科技公司的倫理議題和社會歧視問題,從撰寫的過程中,我也學習反思許多。葛布是一位非常優秀的科學家,不應該受到這種待遇;而Google作為指標性的現代科技巨頭,有以身作則的社會責任。不只是外界期待Google可以做得更好,也是許多Googlers相信自己的公司符合自身的價值。畢竟,在矽谷,誰不是希望讓世界更好(Make the World a Better Place)呢?

用行動支持報導者

獨立的精神,是自由思想的條件。獨立的媒體,才能守護公共領域,讓自由的討論和真相浮現。

在艱困的媒體環境,《報導者》秉持深度、開放、非營利的精神,致力於公共領域的調查與深度報導。我們透過讀者的贊助支持來營運,不仰賴商業廣告置入,在獨立自主的前提下,穿梭在各項重要公共議題中。

您的支持將有助於《報導者》持續追蹤國內外新聞事件的真相,促進多元進步的社會對話。請與我們一起前進,共同推動這場媒體小革命。

© 2020 All rights Reserved