新研究強調臉部辨識中的性別和種族偏見

憑藉目前人工智慧增強的演算法能力,執行幾年前幾乎不可想像的任務已成為可能。臉部辨識就是一個很好的例子……但它也並非沒有缺陷。

我們可以很容易地認為,由於電腦沒有感覺、情感,因此機器將擺脫我們人類無意識的所有偏見。不幸的是,電腦及其執行的演算法只是工具,人類透過程式設計來告訴他要做什麼的工具。這些人類偏見也有可能被落實到其中。有時後果很小,有時可能非常危險。再說一次, 臉部辨識是一個很好的例子

臉部辨識系統被指控存在某些非常人性化的偏見

美國政府最近對此主題進行了一項研究。最重要的是,至少在臉部辨識系統方面,性別和種族偏見確實存在。例如,演算法識別有色人種比識別白種人更困難。據官方發布的報告稱:「在一對一識別方面,研究小組發現亞裔和非裔美國人面孔的誤報率高於白人面孔。差異範圍在 10 到 100 倍之間,取決於所研究的各個演算法。»

包括性別和種族偏見

例如,研究發現臉部辨識技術微軟有色人種女性的誤報率是有色人種男性的 10 倍。這家雷德蒙巨頭已經表示打算審查這些結果,並在證實後盡最大努力糾正這種情況。這並不是科技第一次被指責有這種偏見。不久前,Apple Card 背後的演算法被指控為男性提供比女性更高的信用額度。無論最終的領域是什麼,這種行為的後果都可能非常嚴重。