蘋果使用AI人工智慧偵測色情照引爆爭議,這是怎麼回事呢?
前情提要:因著智慧型手機的發展、網路越來越快、雲端越來越普及,導致有心人士大量散發兒童色情圖片。近幾年,全球兒童色情犯罪事件層出不窮⋯⋯因此蘋果使用 AI 人工智慧——這種無人的方式來把關兒童色情圖片的傳播(詳情請看上篇連結),想不到這個 AI 太厲害,竟引發隱私權方面的爭議!
拓展 Siri 搜尋功能,新增「提醒、干預」
蘋果表示,他們將對 Siri 功能和搜尋功能來進行更新,提供協助給有相關困擾的監護人和未成年的使用者。
例如:當使用者詢問應該如何回報 CSAM 相關問題時,蘋果將會結束導向相關機構的聯絡方式,或是提供指引來幫助使用者。
除此之外,若是有使用者像要查詢有關 CSAM 或是敏感、有害的內容,系統也會進行干預,跳出警示告知使用者。
難以揮去的隱私疑慮
這些功能,預計今年將會在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。
在以往,相對於 Android 使用者,蘋果的支持者們最自豪的便是 iOS 的高穩定性與嚴密的隱私保障,而這也是蘋果公司不斷強調的優勢。
不過現在,蘋果這次的做法與過往似乎有了很大的不同。
即使這些措施雖然是為了保護未成年、減少兒童與青少年私密照外流所帶來的傷害,但還是帶來不少隱私與資訊安全的隱憂。
對此,有許多資訊安全專家與機構組織都表示疑慮或反對,認為這項作法「如同在牆上打洞、裝上門後再鎖上。」
雖然有門鎖,但風險依然存在,況且要是鑰匙不慎流出,駭客便會暢行無阻。
除此之外,也有一些人擔心此先例一開,蘋果未來可能因為各國家政府的法律規定和要求,調整審查標準、成為監控工具。例如同志相關內容、政治敏感資訊等等,極權國家的使用者更是有此擔心。
隱私保障與資料運用的平衡難題
兒童色情內容經常被視為犯罪的證據,未成年人通常是在被威脅、利誘或哄騙的情況下拍攝這些內容,而流傳於網路上更是二次傷害。
而蘋果此舉,或許是希望透過 AI 人工智慧提高取得相關資訊的門檻,減低可能的需求,進而減少類似的兒童性犯罪再度發生。
然而,當檢警要搜查民宅前都須先向法院申請搜索票的法治社會下,蘋果直接以審核使用者彼此之間的私人訊息和個人儲存空間等方式,來試圖達成防治的目的,是否有符合比例原則?個人的隱私考量與社會整體的治安,該如何平衡呢?
或許是個需要大眾不斷思考與討論的問題。
相關文章:
Facebook 開源Python 語言的安全與隱私工具Pysa