亞馬遜的 AI 招聘工具觸動了人類敏感的神經,據路透社報道,亞馬遜機器學習專家發現他們的 AI 招聘工具有一個明顯的傾向——在篩選簡歷過程中,重男輕女。
這事得追溯到 2014 年,亞馬遜那會兒便開始嘗試用人工智能篩選簡歷,幫助公司挑選出合適的員工。對於一個大公司來說,篩選簡歷是一項浩大的工程,每天的面試者可能來自五湖四海,要從堆積如山的簡歷中挑選出面試者的優點,並確認其符合公司標準,難上加難。不僅耗費精力,還很花時間。
不用我贅述,我想面試經驗豐富的人應該對一些大公司的面試週期記憶深刻。
通過系統的機器訓練,讓 AI 代替 HR 篩選簡歷,無疑能幫助公司節省大量的勞動力,並且更有效地挑選出合適的人才。萬萬沒想到的是,亞馬遜的 AI 卻戴上了有色眼鏡。
類似人類的情感傾向出現在了 AI 上,本身就有悖於人類訓練 AI 的目的。我們希望人工智能是中立、結果導向的,甚至在理性的前提下,會帶有一絲無情。
好在亞馬遜自己也發現了這個問題,去年已將負責該項目的團隊解散。
人工智能“性別歧視”的起因
在亞馬遜 AI 招聘歧視事件的最後,大家把問題歸咎於人工智能訓練樣本上。因為在具體的訓練方法上,亞馬遜針對性開發了 500 個特定職位的模型,對過去 10 年的簡歷中的 5 萬個關鍵詞進行識別,最後進行重要程度的優先級排序。
因此簡單來說,AI 的工作還是抓取關鍵詞。然而在這些簡歷中,大部分求職者為男性,他們使用諸如“執行”這樣的關鍵詞更加頻繁,而女性相關的數據太少,因此 AI 會誤以為沒有這類關鍵詞的女性簡歷不那麼重要。
類似的事情同樣發生在了 Google 身上。早在 2017 年,Quartz 報道了一篇題為《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google image 上搜索”doctor“,獲得的結果中大部分都是白人男性。
一項來自普林斯頓大學的研究表明,這一搜索結果與潛在的社會現狀有關。在普通人眼中醫生總是與男性相連,而護士總是與女性相連。
“正如一些數據科學家所言,什麼樣的輸入就有什麼樣的產出,沒有好的數據,算法也做不出正確的決策。”
Google 意識到了這一點,調整了搜索算法。目前“doctor”的搜索結果中,女性與男性的比例基本平等。
人工智能發展到現在,應用到實際的時間並不長。如果把它比作嬰兒,那它的成長有很大一部分依靠人類給予的養分與教育。人工智能在機器訓練的過程中,所輸入的數據便是養分。科學家盡力將算法調整到中立、客觀,但最終影響其輸出的還是數據。
即使數據中出現了一個小的偏差,人工智能的最終行為也會將這個偏差放大。人類獲得的結果便是“歧視”——我們如何看待社會,人工智能也會以相同的視角去看待社會。這一情況屬於普遍現象,其涉及到的不僅是技術問題,更是一個巨大的哲學問題。
今年七月份,微軟同中國發展研究基金會發布了《未來基石》報告。報告涵蓋了兩家機構對人工智能的思考。例如微軟在人工智能的開發中,將遵循六個道德基本準則,以創造“靠譜”的人工智能。
在微軟的人工智能產品中,曾出現了聊天機器人小冰爆粗口的情況,同樣是源於訓練數據庫的影響。經歷該事件後,微軟修改了小冰的對話原則,並加強了對數據庫的過濾。但實際上仍然無法百分百避開數據庫中不健康的信息。
想要訓練出更靠譜的人工智能,用戶同樣是很重要的力量群體。
AI 還有其它偏見
與其說人工智能對這個世界有偏見,不如說是認知偏差。其算法本身是沒毛病的,但經過算法處理的數據則是具有人類社會的特點的,因此人工智能行為也帶了人類的色彩。
這一點在不同的行業、不同事物的類型、甚至不同的文化與國家,都有各自的體現。
例如提到廚房裡的人,我們通常腦海裡會浮現出一名家庭主婦的形象,傳統的觀念即是如此。這種觀念由社會現狀決定,人類取用的數據由社會現狀決定,而人工智能的認知由數據決定。
因此當一張男人站在廚房裡的照片經人工智能識別之後,它極有可能會把男人看成女人。
這是趙潔玉和她的導師文森特·奧都涅茨研究的課題。果殼網《當人工智能“學會”性別歧視》一文裡,詳細描述了他們研究課題的過程。最終發現把男人看成女人並不是程序 bug,而是因為數據庫的偏差。
除了廚房這個特定環境,他們還發現在照片中“做家務、照看小孩子的就被認為是女性,開會、辦公、從事體育運動的則是男性”,有時候我們會發現人工智能識別的結果令人哭笑不得,但究其原因卻又情有可原。
又如人工智能會將印度海得拉巴的印式婚紗錯認為中世紀的鎖子甲,只因為在其訓練的數據庫中,歐洲的數據更豐富,而來自第三世界的信息少得可憐。這對於部分少數群體是極不公平的。
另一個相似的例子是,2015 年 Google Photos 將黑人標註成了大猩猩。雖然 Google 及時道歉並更正了算法,但從側面來看,人工智能仍然受提供的數據中的一般特徵影響。它會將數據中的一般特徵誤認為整個世界的普遍特徵。
事件過去三年,儘管算法已經相對更加成熟,數據庫更加豐富,人工智能的壞毛病還是無法根治。據英國鏡報報道,用戶在使用 Google 翻譯時,結果裡出現了令人毛骨悚然宗教話語,在某些小語種下,特定的重複詞組會被 Google 翻譯成帶有宗教色彩的話語。
其緣由可能是 Google 翻譯在某些小語種的學習上,使用了聖經——這一全球最為廣泛翻譯的數據——作為訓練模型,從而導致該情況發生。在經過報道之後,Google 修復了這個 Bug。
一個不得不接受的事實是,人工智能的偏見與小毛病將伴隨著它的成長。
題圖來自 BGR
閱讀更多 PingWest品玩 的文章