人工智慧臉部辨識竟帶有種族偏見!?
為了人工智慧辨識,你願意戴「白面具」嗎?臉部辨識的隱憂
人工智慧臉部辨識技術更趨於成熟,可以分辨別出「你是誰」已經是基本款了!越來越多 人工智慧 辨識技術宣稱可以「從臉孔辨識出智商、性取向、政治傾向甚至是犯罪可能」。
看上去功能如此強大的 人工智慧 ,卻遭披露「其實只擅長辨認白人」,讓臉部辨識的隱憂浮出水面。
AI 臉部辨識技術已被廣泛使用,也實際應用於執法:根據紀錄,從 2011 年起美國聯邦調查局(FBI)偵辦案件時就開始使用臉部辨識技術,至今累計了超過 39 萬次的臉部辨識搜索紀錄,是近年美國執法部門應用成長速度最快的系統工具。
但隨之而來的是被大力敲響的警鐘:一位麻省理工媒體實驗室的資料科學家喬伊‧波拉維尼(Joy Buolamwini)指出,臉部辨識技術其實十分容易誤認有色人種。
只擅辨識「中年白人男性」的 AI
▲ (圖片來自:圖片來自:AP Photo/Steven Senne)
AI 臉部辨識技術已經成熟了嗎?或許真的該打上個大問號。
來自 MIT 實驗室的迦納裔資料科學家喬伊‧波拉維尼表示,根據她於 2018 到 2019 年間做的兩項研究,證實眾多科技公司開發的 AI 都無法如辨識白人男性臉孔般、準確的辨識出膚色較深的女性臉孔。
其中,尤以 IBM 系統失誤率最高,竟高達 34 %;而亞馬遜的 Rekognition 會將 19 %的女性誤認為男性,若分析對象為膚色較深的女性,誤判機會更是高達 31 %,同時該系統在分析膚色較白的人種時,錯誤率幾乎為零。
波拉維尼發現,這些由科技巨頭如微軟、亞馬遜與 IBM 等公司研發出的臉部辨識 AI 演算法,對於判讀白人、黑人與女性竟然出現了差別待遇:「判讀白人的正確度比較高,判讀黑人與女性的正確性則較低。」
本系列文章未完,請點此看下一篇
相關文章:
愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?
【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?
每個成功的人工智慧背後,都有一群來自「國家級貧困縣」的訓練師-薪水嚇死人