亞馬遜 AI 在簡歷篩選中歧視女性?AI 犯錯不是第一次了

亞馬遜的 AI 招聘工具觸動了人類敏感的神經,據路透社報道,亞馬遜機器學習專家發現他們的 AI 招聘工具有一個明顯的傾向——在篩選簡歷過程中,重男輕女。

這事得追溯到 2014 年,亞馬遜那會兒便開始嘗試用人工智能篩選簡歷,幫助公司挑選出合適的員工。對於一個大公司來說,篩選簡歷是一項浩大的工程,每天的面試者可能來自五湖四海,要從堆積如山的簡歷中挑選出面試者的優點,並確認其符合公司標準,難上加難。不僅耗費精力,還很花時間。

亚马逊 AI 在简历筛选中歧视女性?AI 犯错不是第一次了

不用我贅述,我想面試經驗豐富的人應該對一些大公司的面試週期記憶深刻。

通過系統的機器訓練,讓 AI 代替 HR 篩選簡歷,無疑能幫助公司節省大量的勞動力,並且更有效地挑選出合適的人才。萬萬沒想到的是,亞馬遜的 AI 卻戴上了有色眼鏡。

類似人類的情感傾向出現在了 AI 上,本身就有悖於人類訓練 AI 的目的。我們希望人工智能是中立、結果導向的,甚至在理性的前提下,會帶有一絲無情。

好在亞馬遜自己也發現了這個問題,去年已將負責該項目的團隊解散。

人工智能“性別歧視”的起因

在亞馬遜 AI 招聘歧視事件的最後,大家把問題歸咎於人工智能訓練樣本上。因為在具體的訓練方法上,亞馬遜針對性開發了 500 個特定職位的模型,對過去 10 年的簡歷中的 5 萬個關鍵詞進行識別,最後進行重要程度的優先級排序。

因此簡單來說,AI 的工作還是抓取關鍵詞。然而在這些簡歷中,大部分求職者為男性,他們使用諸如“執行”這樣的關鍵詞更加頻繁,而女性相關的數據太少,因此 AI 會誤以為沒有這類關鍵詞的女性簡歷不那麼重要。

亚马逊 AI 在简历筛选中歧视女性?AI 犯错不是第一次了

類似的事情同樣發生在了 Google 身上。早在 2017 年,Quartz 報道了一篇題為《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google image 上搜索”doctor“,獲得的結果中大部分都是白人男性。

一項來自普林斯頓大學的研究表明,這一搜索結果與潛在的社會現狀有關。在普通人眼中醫生總是與男性相連,而護士總是與女性相連。

“正如一些數據科學家所言,什麼樣的輸入就有什麼樣的產出,沒有好的數據,算法也做不出正確的決策。”

Google 意識到了這一點,調整了搜索算法。目前“doctor”的搜索結果中,女性與男性的比例基本平等。

亚马逊 AI 在简历筛选中歧视女性?AI 犯错不是第一次了

人工智能發展到現在,應用到實際的時間並不長。如果把它比作嬰兒,那它的成長有很大一部分依靠人類給予的養分與教育。人工智能在機器訓練的過程中,所輸入的數據便是養分。科學家盡力將算法調整到中立、客觀,但最終影響其輸出的還是數據。

即使數據中出現了一個小的偏差,人工智能的最終行為也會將這個偏差放大。人類獲得的結果便是“歧視”——我們如何看待社會,人工智能也會以相同的視角去看待社會。這一情況屬於普遍現象,其涉及到的不僅是技術問題,更是一個巨大的哲學問題。

今年七月份,微軟同中國發展研究基金會發布了《未來基石》報告。報告涵蓋了兩家機構對人工智能的思考。例如微軟在人工智能的開發中,將遵循六個道德基本準則,以創造“靠譜”的人工智能。

在微軟的人工智能產品中,曾出現了聊天機器人小冰爆粗口的情況,同樣是源於訓練數據庫的影響。經歷該事件後,微軟修改了小冰的對話原則,並加強了對數據庫的過濾。但實際上仍然無法百分百避開數據庫中不健康的信息。

亚马逊 AI 在简历筛选中歧视女性?AI 犯错不是第一次了

想要訓練出更靠譜的人工智能,用戶同樣是很重要的力量群體。

AI 還有其它偏見

與其說人工智能對這個世界有偏見,不如說是認知偏差。其算法本身是沒毛病的,但經過算法處理的數據則是具有人類社會的特點的,因此人工智能行為也帶了人類的色彩。

這一點在不同的行業、不同事物的類型、甚至不同的文化與國家,都有各自的體現。

例如提到廚房裡的人,我們通常腦海裡會浮現出一名家庭主婦的形象,傳統的觀念即是如此。這種觀念由社會現狀決定,人類取用的數據由社會現狀決定,而人工智能的認知由數據決定。

因此當一張男人站在廚房裡的照片經人工智能識別之後,它極有可能會把男人看成女人。

亚马逊 AI 在简历筛选中歧视女性?AI 犯错不是第一次了

這是趙潔玉和她的導師文森特·奧都涅茨研究的課題。果殼網《當人工智能“學會”性別歧視》一文裡,詳細描述了他們研究課題的過程。最終發現把男人看成女人並不是程序 bug,而是因為數據庫的偏差。

除了廚房這個特定環境,他們還發現在照片中“做家務、照看小孩子的就被認為是女性,開會、辦公、從事體育運動的則是男性”,有時候我們會發現人工智能識別的結果令人哭笑不得,但究其原因卻又情有可原。

又如人工智能會將印度海得拉巴的印式婚紗錯認為中世紀的鎖子甲,只因為在其訓練的數據庫中,歐洲的數據更豐富,而來自第三世界的信息少得可憐。這對於部分少數群體是極不公平的。

另一個相似的例子是,2015 年 Google Photos 將黑人標註成了大猩猩。雖然 Google 及時道歉並更正了算法,但從側面來看,人工智能仍然受提供的數據中的一般特徵影響。它會將數據中的一般特徵誤認為整個世界的普遍特徵。

亚马逊 AI 在简历筛选中歧视女性?AI 犯错不是第一次了

事件過去三年,儘管算法已經相對更加成熟,數據庫更加豐富,人工智能的壞毛病還是無法根治。據英國鏡報報道,用戶在使用 Google 翻譯時,結果裡出現了令人毛骨悚然宗教話語,在某些小語種下,特定的重複詞組會被 Google 翻譯成帶有宗教色彩的話語。

其緣由可能是 Google 翻譯在某些小語種的學習上,使用了聖經——這一全球最為廣泛翻譯的數據——作為訓練模型,從而導致該情況發生。在經過報道之後,Google 修復了這個 Bug。

一個不得不接受的事實是,人工智能的偏見與小毛病將伴隨著它的成長。

題圖來自 BGR


分享到:


相關文章: