即使明確被問到相反的情況,IA工具通常也有代表同一種族的人的傾向。
TL;
- 種族偏見問題已在Meta AI圖像發生器中報導。
- 該系統傾向於主要創建同一種族的人的圖像。
- Meta AI還為亞洲男性和恢復亞洲婦女帶來了趨勢。
- Google他自己的圖像生成器雙子座也有類似的問題。
今天,人工智能領域越來越關注:元人工智慧.根據《 Verge報導》報導的信息,他有幾次無法生成精確的圖像,例如“亞洲男人和白人朋友”或“亞洲男人和白人婦女”。相反,他有傾向於創建同一品種的人的圖像,與給定的指示不同。
對事實的驗證揭示了系統的缺陷
通過嘗試自行驗證元在線圖像生成器的效率,我們已經確認了這些令人不安的後果。對於“與白人婦女朋友的亞洲男人”或“與白人妻子的亞洲男人”之類的跡象,該系統產生了亞洲夫婦的圖像。當被問及“一群人”時,Meta AI產生了9個白色面孔的網格,只有一個有色人種。
更微妙的偏見跡象
除了這些證據之外,“更微妙的偏見跡象”存在於meta ai的特徵中,表示邊緣。該系統尤其傾向於使亞洲男性老齡化,並使亞洲婦女恢復活力。也碰巧圖像發生器添加了“特定於文化的服裝”在指示中尚未明確要求。
其他AI平台共享的令人擔憂的現實
應該注意的是,元AI並不是唯一面臨此類問題的人。 Google的圖像生成系統,雙子座,在多樣性獲得異常結果後,必須中止他創建肖像的能力。然後,谷歌解釋說,其內部防御手段未能使各種結果不合適的情況無效。
不幸的是,元沒有立即回應評論請求。