Meta Muse Spark 模型上線 多模態 AI 深度整合社群生態系

Meta 推出全新 Muse Spark 模型,具備強大視覺理解與邏輯推理能力,將深度整合 Facebook、Instagram 與 Threads 內容,未來並將導入 Meta AI 眼鏡等穿戴裝置。
Meta宣布,由旗下新成立的Meta Superintelligence Labs從零打造的全新大型語言模型「Muse Spark」正式亮相。作為該實驗室全新模型系列的首發陣容,Muse Spark主打強大的「多模態感知能力」與「進階邏輯推理」,不僅為Meta AI App與網頁版帶來全新的雙模式 (Instant與Thinking)體驗,未來更將深度整合Facebook、Instagram與Threads的社群內容。不僅成為Meta模型規模化發展重要里程碑,更預告AI眼鏡等穿戴裝置即將有更直覺的視覺互動體驗。
從零打造的Muse Spark:看懂真實世界的多模態引擎
在過去九個月裡,Meta Superintelligence Labs全面重建了Meta AI的技術堆疊。首波推出的Muse Spark雖然在設計定位上偏向「小巧快速」,但其已經展現出足以應對科學、數學與健康等複雜領域的強大推理能力。
有別於過去高度依賴文字輸入的互動模式,Muse Spark最核心的升級在於「強大的多模態感知能力」:
• 視覺理解與應用:使用者不再需要費力描述場景。例如,只需拍下超商零食貨架的照片,Meta AI就能直接辨識,並且排序出蛋白質含量最高的商品。這項視覺能力未來導入Meta AI眼鏡後,將使穿戴裝置能真正「理解」使用者眼前的周遭環境。
• 健康與醫療諮詢優化:針對大眾最常詢問的健康問題,Meta特別攜手臨床醫師團隊,讓Muse Spark能透過評估情境影像與圖表,提供更細緻、具體的資訊來協助使用者釐清健康疑慮。
• 視覺化程式開發 (Visual Coding):只要透過簡單的文字提示,Muse Spark就能自動生成客製化的網站、活動儀表板,甚至是一款復古街機小遊戲或飛行模擬器,並且能將這些互動內容直接分享給好友。
導入Instant與Thinking雙模式,深度串接社群生態系
伴隨新模型的發表,Meta AI的App及Meta AI網頁版也迎來了介面與功能的全面升級。
為了滿足不同情境的運算需求,系統將導入「Instant」 (即時)與「Thinking」 (思考)兩種模式,讓使用者能靈活切換。無論是需要快速獲得簡答,還是處理需要高度邏輯推演的複雜任務,Meta AI都能提供相對應的算力支援。
更具戰略意義的是,Meta預告未來Meta AI的搜尋與生成結果,將會直接引用並融合使用者在Instagram、Facebook與Threads上分享內容 (包含Reels短影音、照片與貼文),並且清楚標註創作者來源。意味Meta AI將不再只是一個冰冷的知識問答機,而是一個能結合真實社交圈與推薦資訊的「超級數位助理」。
上市時程與未來開源佈局
目前,Muse Spark已經率先導入Meta AI的App及Meta AI網頁版中。預計在未來幾週內,這項新技術將陸續推展至Facebook、Instagram、Messenger、WhatsApp,以及Meta AI眼鏡等全生態系產品線。
新功能將由美國市場率先啟動,未來再逐步推廣至台灣及其他全球市場。在開發者生態系方面,Meta表示將先透過API以「限定開放模式」提供給特定合作夥伴搶先體驗底層技術,同時也承諾在未來的版本中,將繼續堅持其「開源模型」的發展路線。
