今天,微軟發表了目標要確保 AI 受到保護並具備安全性及隱私性,遵循「安全設計、安全預設與安全營運三大核心原則」的解決方案。而對於一般人如我們所看到的重點中的重點,就是 Microsoft 也搬出了具體對應 AI 應用的最大痛點「幻覺(hallucinations)」的相應技術。繼續閱讀解決 AI 幻覺問題!微軟拿出「Correction」AI 工具,適用 ChatGPT 等熱門 LLM 服務報導內文。
▲本篇圖片來源:Microsoft
解決 AI 幻覺問題!微軟拿出「Correction」AI 工具,適用 ChatGPT 等熱門 LLM 服務
說到生成式 AI 的發展,微軟可以說是科技大廠之中很早就看準這項技術爆紅的時機,並且很早就與當時仍沒有太大規模的 OpenAI 積極合作投資的公司。自然,微軟對於生成式 AI 的動向,某種程度上也會達到與 OpenAI 同級的關切度。
今天,微軟發表了目標要確保 AI 受到保護並具備安全性及隱私性,遵循「安全設計、安全預設與安全營運三大核心原則」的解決方案。
而對於一般人如我們所看到的重點中的重點,就是 Microsoft 也搬出了具體對應 AI 應用的最大痛點「幻覺(hallucinations)」的相應技術。
直接切入重點!在微軟可信任 AI 計畫(Trustworthy AI)裡,他們的 Azure AI Studio 不僅針對生成式 AI 大型語言模型導入了主動風險評估的能力。更帶來了可以偵測到幻覺問題時,即時「預防」修復大型語言模型可能輸出問題資訊的解決方案。
就微軟的說法,在他們的 Microsoft Azure AI Content Safety API 中,將會在 Groundedness 檢測階段新增一道「Correction」的矯正機制。將能偵測並修正包括防止即時注入和侵犯版權、有害內容、偏見、濫用和其他意外風險問題。
重點中的重點是,就外媒的說法這套機制不僅支援自己的 Copilot,甚至還能提供給三方服務包括 Meta Llama 與 OpenAI GPT-4o 等生成式 AI 服務做利用 – 就,可能有點像是針對 AI 服務所提供的「Defender」防範應用的概念?
所以,即便目前針對 AI 幻覺問題的防治方面,都可以算是各家發展大型語言模型的基本標配項目。但為了對應這方面的機制除了很顯然會需要耗費大量的算力以及研發資源外。實際上花了這麼多心思與資源到底能不能真正抑制幻覺問題,也是目前許多專家感到懷疑之處。
看起來微軟所打的算盤,很可能就是提供這種極為熱門的科技發展項目一套預防出錯問題的全盤解決方案。
是說,這次微軟所宣布的可信任 AI 計畫有很多部分(特別是 Correction)仍在預覽狀態。所以實際的表現仍有待驗證 – 而且也要看其他 AI 服務願不願意信任他們(還真的是很需要 Trustworthy 的 AI 服務呢)。不過這項計畫其實單就新聞稿來看還算是想的非常周全。
除了針對自家 Copilot 服務希望能提高透明度,有點以身作則概念的方向外。微軟還針對對於隱私方面有所擔憂的企業,提供了可以內嵌 Azure AI Content Safety 到裝置上本地執行提升效率與保密的 Embedded Content Safety。還有針對高度隱私資訊的行業如醫療、金融等提供的「機密推理 (Confidential inferencing)」以及限制在特定場域適用於歐盟和美國的 Azure OpenAI Data Zones 解決方案等。
還特別提到針對 AI 硬體方面的當紅炸子機 NVIDIA 的 GPU 硬體部分,也對應 H100 Tensor Core GPU 提供了確保資料保護的 Azure Confidential VMs 支援。
總之,今天的宣布給一般人如我的感覺就是超全面,但實際表現仍待預覽測試後的結果的 AI 解決方案,微軟已經都準備好了。就不知道宣告要將 20% 算力用於控管 AI 的 Superalignment 的 OpenAI,能不能從這些解決方案中獲得一些幫助了。
引用來源:Microsoft|經由:COMPUTER WORLD|