算法中的偏差比你想象的更常見。 2012年的一篇學術論文顯示,Cognitec公司的面部識別系統在非裔美國人身上的表現比在白種人身上差5%到10%。2011年,研究人員發現,在中國、日本和韓國開發的模型難以區分白種人和東亞人。 在最近的另一項研究中,谷歌和亞馬遜(Amazon)生產的受歡迎的智能音箱被發現,它們聽懂非美國口音的可能性比聽懂那些土生土長的用戶要低30%。 2016年的一篇論文得出的結論是,在谷歌的新聞文章中嵌入的單詞往往表現出女性和男性的性別刻板印象。 這是一個問題。 好消息是,麻省理工學院計算機科學和人工智能實驗室(MIT CSAIL)的研究人員正在努力尋找解決方案。 一篇文章《通過了解潛在結構揭露和減輕算法偏見》計劃于本周在檀香山舉行的人工智能發展協會人工智能、倫理和社會會議上發表。 麻省理工學院CSAIL的科學家描述了一種人工智能系統,它可以通過重新采樣使數據更加平衡,從而自動“去偏”數據。 他們聲稱,在一個專門用于測試計算機視覺系統偏差的數據集上進行評估時,它顯示出了優越的性能和“減少了分類偏差”。 一篇相關論文的共同作者、博士生亞歷山大·阿米尼(Alexander Amini)在一份聲明中說,“尤其是面部分類技術,人們通常認為這是一項已經解決了問題的技術,盡管很明顯,人們使用的數據集往往沒有經過適當的審查。” “隨著我們開始看到這類算法在安全、執法和其他領域的應用,糾正這些問題尤為重要。” Amini和他的博士生Ava Soleimany以及研究生Wilko Schwarting以及MIT教授Sangeeta Bhatia和Daniela Rus對這篇新論文做出了貢獻。 這并不是麻省理工學院的CSAIL第一次發現這個問題——在2018年的一篇論文中,David Sontag教授和他的同事描述了一種在不降低預測結果準確性的前提下減少人工智能偏見的方法。 但這種方法的特點是一種新穎的、半監督的端到端深度學習算法,它可以同時學習所需的任務(例如面部檢測)及訓練數據的底層潛在結構。 后者使它能夠發現訓練數據中隱藏的或隱式的偏差,并在訓練過程中自動消除這種偏差,而不需要數據預處理或注釋。 為了在一個具有“重大社會影響”的真實問題上驗證去偏算法,研究人員使用40萬張圖像的數據集對DB-VAE模型進行了訓練,分別將80%和20%的圖像分成訓練集和驗證集。 然后他們在PPB測試數據集上對其進行評估,該數據集包含來自非洲和歐洲各國的1270名男性和女性議員的圖像。 結果真的很有希望。 根據研究人員的說法,DB-VAE不僅能夠學習諸如膚色和毛發等面部特征,還能學習諸如性別和年齡等其他特征。 與在個人人口統計數據(種族/性別)和PPB數據集上訓練或不訓練偏倚的模型相比,DB-VAE顯示出更高的分類準確性,并減少了跨種族和性別的分類偏倚——該團隊表示,這是朝著開發公平和無偏倚的人工智能系統邁出的重要一步。 “公平的開發和部署……系統對于防止無意識的歧視和確保這些算法的長期接受度至關重要,”合著者寫道。 “我們預計,擬議中的方法將成為促進現代人工智能系統系統性、算法公平性的額外工具。” 過去十年中,人工智能犯下的許多錯誤令人沮喪地描繪了一幅潛在偏見的圖景。 但這并不是說在更精確、更少偏見的系統方面人們沒有取得進展。 今年6月,微軟與人工智能(AI)公平方面的專家合作,修訂并擴展了用于培訓Face API的數據集。Face API是微軟Azure API,提供用于檢測、識別和分析圖像中的人臉的算法。 通過研究膚色、性別和年齡的新數據,研究人員能夠將膚色較深的男性和女性的辨認錯誤率分別降低20倍和9倍。 與此同時,一種新興的減少算法偏差的工具有望加速朝著更公正的人工智能方向發展。 今年5月,Facebook宣布了Fairness Flow,如果算法根據一個人的種族、性別或年齡對他或她做出不公平的判斷,它會自動發出警告。 初創企業Pymetrics開源了其偏差檢測工具Audit AI。 埃森哲發布了一個工具包,可以自動檢測人工智能算法中的偏差,并幫助數據科學家減輕這種偏差。 在今年5月微軟(Microsoft)推出了自己的解決方案后,今年9月,谷歌推出了What-If工具,這是TensorBoard web dashboard在其TensorFlow機器學習框架上的一個偏誤檢測功能。 IBM也不遜色,今年秋季發布了AI Fairness 360,這是一款基于云計算的全自動套件,“持續提供關于人工智能系統如何做出決策,并建議進行調整的意見”——比如算法調整或數據平衡——以減輕偏見的影響。 最近,Watson and Cloud Platforms小組的研究重點是減輕人工智能模型的偏見,尤其是與人臉識別相關的模型。 如果運氣好的話,這些努力——再加上麻省理工學院CSAIL的新算法等開創性工作——將使情況變得更好。 |
|