造假技術越來越精進,包括利用 AI 來合成的 Deepfake 技術等,產出許多難以辨識的照片、影片和音訊檔,我們在網路上看到的資訊不一定為真,就連過去常說的「有圖有真相」也不見得是板上釘釘的真相,讓閱聽人真假難辨。微軟發表了一項新的技術「Microsoft Video Authenticator」,用以打擊散播虛假輿論、資訊的造假影像。
微軟發表「Microsoft Video Authenticator」,用以解析分辨照片與影片造假
「Microsoft Video Authenticator」這項技術最初是由 Microsoft Research、Microsoft 負責的 AI 團隊以及 AETHER 委員會協作開發,特別是近來由 Deepfake 技術或合成軟體所製作的照片、影片與錄音檔等,由 AI 來作動搭配機器學習不斷精進,傳統的監測技術與過去的 AI 演算判別早已不是對手,失敗率大大提升。微軟的這項新技術可以分析靜態照片或影片,以判定媒體被人為操控的機率與可信賴分數。以影片來說,「Microsoft Video Authenticator」技術可以透過偵測可能無法被肉眼察覺的深層陰影、些微褪色與灰階元素的漸變邊界來判定,針對播放時的每一幀來提供即時回饋。
另外,微軟所發表的另一項新技術也與新聞造假息息相關,既能監測被人為操控的內容,又能確保人們正在觀看的媒體是真實無誤的。這項技術中包含兩個組成部分,第一個是 Microsoft Azure 的內建工具,該工具使內容產出者可以在內容中添加數位 Hash 和憑證,當內容在網路上傳播時, Hash 和憑證也會視作內容中的一部分原始數據散布出去。第二項則是可作為瀏覽器外掛或其他形式存在的閱讀器,用於檢查內容中的憑證並核對 Hash,使人們可以更準確地知道內容是否為真實且未經修改,還有內容創作者的相關詳細訊息等,以破除因 Deepfake 技術發展而產生的侷限性。微軟還與 BBC、CBC 和紐約時報等媒體公司財團合作,對這項技術進行了測試並幫助其成為標準。
根據普林斯頓大學 Jacob Shapiro 教授的研究中,從 2013 年至 2019 年間針對 30 個國家的 96 個國外影響活動進行分類,納入範圍的活動在社交媒體上進行以攻擊知名人士、說服群眾或分裂辯論等為目的。這些廣告中有 26% 以美國為目標,其他目標則包含雅美尼亞、澳大利亞、巴西、加拿大、法國、德國、荷蘭、波蘭、沙烏地阿拉伯、南非、烏克蘭、英國、葉門,以及台灣。內容中約有 93% 為原創內容,86% 則放大先前已經存在的舊消息和 74% 客觀可證實的失真事實。雖然並非所有合成的影片、照片都是不好的,但如何幫助閱聽者能精準辨識,不產生誤導性並謹慎以待是一項相當重要的課題。
◎資料來源:Microsoft