你能分辨人工智慧製造的假新聞與文章嗎?

人工智慧大量產出可信度極高的假新聞與文章,你能辨真假嗎?
人工智慧大量產出可信度極高的假新聞與文章,你能辨真假嗎?

擁有強大撰文能力的 AI「GPT-2」出自特斯拉的 CEO 馬斯克所投資的人工智慧研究團隊「OpenAI」。它可以替各種題材、風格的文章產出續集內容,且會依照原著的寫作風格與陳述內容呼應銜接,無論是經典名作 (點我看範例) 或是現代科普 (點我看範例),通通難不倒它。
例如,根據英國媒體《衛報》(The Guardian)報導:將一則關於英國脫歐的新聞,其中的第一段中的一些句子餵給它,GPT2 可立刻產生另一則似是而非的新聞內容、如同原本的報紙般的編排、以及出現跟原文一樣的人物等。另外,若餵給它名著《動物農莊》的作者喬治歐威爾的《1984》小說裏的第一句話「It was a bright cold day in April, and the clocks were striking thirteen (四月間,天氣寒冷晴朗,鐘敲了十三下。)」,它立刻辨識出這句話中的社會科幻小說敘事風格,而能接續相應的故事 (點此連結看 GPT2 怎樣接續)。《衛報》認為 GPT2 產生的句子,幾乎沒有過去人工智慧系統撰文時前後語意不一致或是文法錯誤的問題。例如《哈利波特》的續集(點此看:哈利扯下眼睛丟進森林、妙麗被...AI 寫《哈利波特》續章大獲好評!
新的文字編輯AI擁有破天荒的寫作能力,影片中英國《衛報》的編輯不斷餵給它不同風格的文章,AI都能依據原文的風格與內容寫下相對應的續集。
可惜「GPT-2」畢竟是 AI,沒有真人明辨是非的能力。所以生產出的文章都是虛構的。
「GPT-2」的寫作能力,恐怕被有心人士利用。他們有可能先餵 AI 擁有真實存在的人名 (如政壇人物的名字)、地名與事件等的文章,再讓 AI 來移花接木,而捏造出大量的假新聞、假消息。這些假新聞幾可亂真 — 看起來就像是出自 BBC、紐約時報、CNN 等公信力高的媒體一樣,大眾無法辨識其真實性,就會被誤導。據網路新聞指出,有人稱 GPT-2 為「Deepfake 文字版」。
根據wikipedia記載:Deepfake 是英文「deep learning 深度學習」和「fake偽造」的混成詞,專指用基於人工智慧的人體圖像合成技術。此技術可將圖像和影音疊加至目標圖像或影片上。Deepfake 亦可用來製作虛假的名人性愛影片和報復性色情媒體。帶色情成份的Deepfake作品於2017年間在網際網路上流出,特別是在Reddit上。這些 Deepfake 作品現已被 Reddit、Twitter 和Pornhub等網站禁止發布是專指利用人工智慧將名人嘴形、臉部與色情或他人影片移花接木,以遂惡作劇或栽贓嫁禍的目的的影片。
如今,我們身邊已經有夠多人被網路上流傳的謠言和假新聞誤導過。若「GPT-2」開放的話,恐怕會造成許多社會問題 — 煽動民心、讓人民陷於心慌意亂等等,恐怕會被武器化。
因此,研究團隊「OpenAI」決定不釋出完整的「GPT-2」模型,而只公開一小部份模型和範例,以防止「GPT-2」被用作為捏造假新聞的工具。儘管只釋出一小部分,OpenAI 仍擔心 GPT-2 有研究團隊或人員成功破解、衍生出另一套擁有跟完整的 GPT-2 一樣能力的 AI 系統。
最近馬斯克退出「OpenAI」,不少人猜測原因是跟善於虛構假新聞的「GPT-2」有關。但馬斯克本人倒是對此撇清關係,他在推持上表示希望更專注於解決旗下特斯拉和 SpaceX 面臨的又大又難的工程、製造問題,加上在 OpenAI的發展方向與團隊分歧,於是決定退出 OpenAI。(點此看:馬斯克宣布離開 OpenAI 的真正原因是...研發的AI太會寫假新聞?)
Python也能創造AI,一想到天天使用的Python一不小心就被間接拿來製造武器,就覺得毛骨悚然~

推薦閱讀:
未來不用自己開車,荷蘭新創公司開始研究AI人工智慧自駕船 
透過SEO優化,自己當網站守門員
SEO優化不用太麻煩,只要你懂這招就夠了!
不想再領死薪水?來上Java課程,保證你笑咪咪領高薪!
達內時代科技教育集團簡介
有了這篇,SEO優化的Schema Markup一點也不難!