Meta 在本次的新品發布會中除了公開了自家首款 AR 眼鏡 Orion 以外,也向大家公布新多模態開源模型「Llama 3.2」。Llama 3.2 現在可以讀圖像資訊也讓它的實用度變的更高,能夠做到像 ChatGPT 一樣的圖像識別功能。大家可以前往閱讀有關 Llama 3.2 的視覺模型案例,這邊主要跟大家介紹 Meta 官方展示未來 Llama 3.2 運用在 Meta AI、Instagram、Facebook 的範例。
Meta 新多模態開源模型 Llama 3.2 開啟 AI 新紀元:Meta AI、Instagram、Facebook 實際運用
Meta 今日的新品發表會中除了推出因為製作成本太高,確定不會生產的首款 AR 眼鏡 Orion 以外,Meta 還向大家公布了一款能夠在 Meta AI、Llama、Ray-Ban 使用的新多模態開源模型「Llama 3.2」,新的 Llama 3.2 現在能夠讀取圖像資訊,意味著他能做到跟 GPT-4o 和 Apple Intelligence 一樣的實時回覆和視覺場景辨識。
Meta AI 語音模式
Meta AI 有了 Llama 3.2 之後終於能像 ChatGPT 進階語音模式一樣,擁有自己的語音模式。一樣能夠實時回答問題,打斷它講話也沒關係。你能在 Instagram、WhatsApp、Messenger、Facebook 中使用 Meta AI 語音模式。
Meta AI 使用 Llama 3.2 多模態模型後能夠看到圖像,讓 Meta AI 可以幫助用戶編輯照片,看是要移除、添加、更換東西都可以,不過目前該功能只在美國推出。
Meta AI 語音模式讓你可以跟 Meta AI 進行對話,經過網友實測聽說超級快速且對話自然並富有互動性。而且 Meta AI 還提供奧卡菲娜、克莉絲汀·貝爾、John Cena 等等的名人聲音選項可以選擇:
📣 You can now have a conversation with Meta AI using voice. It’s super fast, connected to the web, natural and conversational and even comes with celebrity voice options from Awkwafina, Kristen Bell, John Cena, and more. What voice speaks to you? (pun intended 😆) pic.twitter.com/qpfA0zybmu
— Ahmad Al-Dahle (@Ahmad_Al_Dahle) September 25, 2024
除了上述功能以外,現在 Meta 還為幫助 Reels 推出實驗階段的「Meta AI translation」功能,可以幫助創作者自動進行影片配音還能幫忙同步口型。目前從英文和西班牙文開始,其他語言還在努力中。
以上就是本次 Meta 新開源多模態模型「Llama 3.2」未來運用在 Meta AI、Instagram、Facebook 的範例分享,感覺這些功能好像似曾相似,OpneAI、Apple 都已經有類似的功能。現在真的就是看看到底誰能更早的讓所有消費者都體驗到。OpneAI 的語音功能目前已經開放給全世界的 ChatGPT Plus 和 Team 用戶,Apple 的 Apple Intelligence 目前則是只開放給美國地區。Meta 的語音功能則是將在接下來的一個月內在美國、加拿大、澳大利亞和紐西蘭推出。那麼究竟其他語系的用戶何時能使用就不知道了。有興趣瞭解 OpneAI 語音功能、Apple 的 Apple Intelligence 功能的朋友們可以點擊下方連結閱讀相關報導:
Apple Intelligence 前瞻整理懶人包,iPhone 16 相機控制讓 Apple Intelligence 更好用