人工智慧竟把基金會文宣判為色情貼文!?一起來看看那些躺著也中槍的例子吧!
臉書用人工智慧防仇恨與色情貼文 洋蔥、乳癌防治文宣被誤殺?
擁有超過 30 億活躍用戶、世界 24%人口天天都用Facebook,一直努力消除平台上層出不窮的假新聞、仇恨言論和成人裸露內容等等。
為了即時防範、刪除這些違反平台守則的內容,Facebook 透過 AI 人工智慧技術,分析貼文或留言中的文字、照片和其他細節,考量貼文整體的背景資訊,辨識出違規內容,再於以刪除。
根據 Facebook 在 2020 年發佈的《社群標準執行報告》顯示,AI 人工智慧工具對於打擊違反社群平台守則的言論成效十分顯著:在 2017 年末的時候,臉書能發現並下架的違規言論,比例只有 24%;而 2019 年末,則上升到了 80.5%;在 2020 年的第4季,AI自動偵測系統已經可以發現97%的違規言論。
然而,即使 Facebook 持續改進並讓 AI 從新資料不斷地學習,依然有幾項被 AI「誤傷」的例子,讓我們重新思考起自動審查的利與弊。
「洋蔥」貼文因「太過性感」,躺著也中槍?
2020 年 10 月,一間加拿大種子公司 EW Gaze 為了替產品宣傳,在 Facebook 發佈圖文並茂的廣告,推銷甜味洋蔥的種子。然而,不久後卻收到臉書通知將廣告刪除,理由竟是因為「Overtly Sexualized」(帶有明顯性暗示)。
收到 Facebook 的下架通知後,公司經理花了一點時間才終於理解原因 ── 大概是因為洋蔥渾圓的外型,被臉書的審查 AI 誤判為「乳房或臀部」。後來經過申訴後,Facebook 恢復了這則廣告,並向他們表達歉意。
「過去使用 AI 人工智慧來防範平台中出現色情訊息成效十分好,但……有時它會無法辨識洋蔥和其他東西。」Facebook 加拿大區通訊總監 Meg Sinclair 表示:「這告訴我們仍有許多工作要進行。」
AI 能分辨裸露與色情的不同嗎?
上面的例子或許會讓人啼笑皆非,但癌症防治基金會的乳癌防治圖片也遭到「誤傷」之苦,就十分讓人傷透腦筋了。
位於瑞典的癌症防治基金會「Cancerfonden」為了宣導、普及乳癌的知識而製作一系列圖片、影片。然而,其中一項影片為了教導女性如何自我檢查乳房使否存有可疑腫塊,以動畫的形式呈現出乳房,被 Facebook 以「具有冒犯性」(offensive)為由而刪除。
「我們發現,Facebook 將醫療資訊視為冒犯性貼文,這很令人費解。」Cancerfonden 表示:「這是能拯救生命的資訊,這對人們十分重要。」
AI 人工智慧審核的利與弊?
過去,Facebook 的審核仰賴使用者主動檢舉,再由人工的方式去檢查是否違規。採用 AI 人工智慧工具的現今,則是會先進行一輪自動審查。
以人工智慧進行內容審核固然有許多優點,與人工審核相比,它能積極、主動、快速地去遏止對平台使用者有害的不良內容,還能在貼文被傳播前就刪除,亦能免去審核人員每天面對無數仇恨、騷擾言論所造成的負面情緒。
然而,「語言」本身千變萬化的特性也讓 AI 審查遇上困難,像同一句話在不同語境下,會成為截然不同的意思。例如:「這是一個好消息!」這句留言出現在小孩出生貼文下,是十分正面的意思,但是當出現在有親人過世的貼文底下,意義就完全相反了。
同時,AI 人工智慧審查「未判先審」,如直接將洋蔥廣告下架的問題,也讓許多人產生言論控管與權限過大的疑慮;而世界各地不同的文化背景,也無法使用人工智慧快速辨認。
隨著 Facebook 越來越重用 AI 的自動審查結果,那機器學習的資料來源是什麼?使用什麼樣的數據庫?使用者要怎麼知道具體規範?被誤判之後,是否有健全的申訴管道?這都是需要我們繼續觀察的。