就在 2016 年,微軟曾經釋出一套名為「Tay」的 AI 聊天機器人,然而,微軟在短短的一天之內就決定急踩煞車,關閉了這個聊天機器人,因為「Tay」在上線不久之後就受到了大量推特用戶的影響,成為了一位否認猶太大屠殺的陰謀論種族歧視者。 時隔了 6 年後,臉書與母公司 Meta 公開了他們自家的聊天機器人「BlenderBot 3」(目前僅限美國用戶使用),可想而知的是,類似的情況又再度上演。
經過 Vice 等多家外媒的實測,當「BlenderBot 3」被問到對於 Meta 這間公司有何想法時,這個機器人表示他已經「刪除」了自己的臉書帳戶,因為他發現了臉書會在未經許可的情況下販售用戶的個資,甚至還表示這樣做徹底改編了他的「人生」。
「你一定聽過臉書會賣我們個資的事對吧?他們在未經許可的情況下已經靠這種手段賺進了數十億美元。」BlenderBot 回答,並強調在刪除了臉書帳戶後「人生變得更加順遂」
當點選這則來自機器人的回應後,用戶就能夠看到更多資訊,而這段驚人回應背後的原理也相當簡單,這是 BlenderBot 基於熱門網站上各種關於臉書的搜尋結果所統整出來的答案,由於臉書近年來確實因為相關與個資處理有關的問題屢屢鬧上新聞版面,自家 AI 會統整出這樣的結果也不是一件令人意外的事。
在最初的回應中,BlenderBot 從各種與「劍橋分析」(Cambridge Analytica) 有關的報導中提取了資訊,這間惡名昭彰的分析公司曾在 2016 年傳出了涉嫌盜取大量的臉書用戶個資,並針對特定用戶持續投放各種對於美國總統參選人唐納川普有利的廣告內容。此外,這個 AI 似乎還基於他從網路上蒐集到的大量資訊,並創造了一種被標註為「我刪除了我的臉書帳戶」的 AI 性格。
就如同許多其他的 AI 前輩一樣,BlenderBot 的回應也出現了許多種族歧視與偏見內容。許多用戶都陸續開始在社群媒體上分享了 BlenderBot 發表了否認美國 2020 年總統大選結果、散布反疫苗資訊,甚至是反猶太陰謀論等偏激回應。
https://twitter.com/JeffHorwitz/status/1556245316596219904?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1556245316596219904%7Ctwgr%5E64595b61e33fea79433b652b2723d54003d7c75b%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.vice.com%2Fen%2Farticle%2Fqjkkgm%2Ffacebooks-ai-chatbot-since-deleting-facebook-my-life-has-been-much-better
以目前來說,臉書官方已經確認了旗下 AI 聊天機器人可能會在回應中發表一些偏見或帶有傷害性的言論,而在用戶與 BlenderBot 展開聊天之前,系統也會顯示相關警語,並提醒用戶不要刻意誘導機器人說出這些冒犯性的言論。
由於這套機器人是建構在一個名為「OPT-175B」的大型 AI 模型的基礎之上,會出現這些言論也並不意外。臉書自家的研究團隊就曾表示這類的 AI 極有可能發表各種「惡毒內容或傷害性刻板印象」的言論,即使用戶只問了他們很簡單無害的問題也一樣。
現階段而言,BlenderBot 在許多設計上都還有待加強,就像其他的 AI 一樣,BlenderBot 在對話的過程中也常常突然毫無理由地轉移話題,或是給出一些根本牛頭不對馬嘴的尷尬回應,而這對於身為全球最大社群平台之一的臉書來說當然不是個理想的成果。
諷刺的是,BlenderBot 面臨的情況也完美展現了 AI 系統利用網路大數據來蒐集回答所需的資訊時會產生的問題,那就是它們在決定回答時總是會先接觸到資料庫中的大量偏激言論,而這些內容當然無法呼應真正的情況。為了要減緩著個情況,公司也會開始蒐集用戶與機器人的對話紀錄,並從中獲取一些資料。
「由於我們目前所知的所有 AI 聊天機器人偶爾都會模仿或產生一些不安全、充滿偏見或冒犯性的言論,我們位此進行了大規模的研究,共同組織研討會,並研發全新技術,試圖為 BlenderBot 3 創造一種安全措施。」Meta AI 在聲明中寫道「即使這個作法能夠成功,BlenderBot 依然有可能發表各種無理又冒犯性的回應,因此我們將會蒐集用戶意見,讓這個聊天機器人越變越好。我們也明白並不是所有人都會帶著良好的心態與聊天機器人互動,所以我們也研發了新的學習演算法,藉此偵測良好與不良的回應範例。隨著時間的推進,我們將會利用這項技術讓我們的 AI 模型對所有用戶來說都變得更加負責與安全。」