全球雙榜SOTA!明略科技專有大模型 Mano開啟GUI智能操作新時代
2025-09-28
明略科技的專有 GUI 大模型 Mano 在行業(yè)公認的 Mind2Web 和 OSWorld 兩大挑戰(zhàn)性基準測試中,均取得了創(chuàng)紀錄的 SOTA 成績。通過在線強化學習和訓練數(shù)據(jù)自動采集兩大核心創(chuàng)新,Mano 為整個 GUI 智能體領(lǐng)域提供了一套可擴展、可持續(xù)進化的新范式。
我們正在把越來越多的時間交給屏幕。有人算過,人一生中耗在手機上的時間接近 9 年;如果你的工作離不開電腦,這個數(shù)字只會更高。時間碎片化,注意力也被點擊、勾選、復制粘貼這些瑣碎操作蠶食。
如果,這些操作都能交給 Agent 呢?點開網(wǎng)頁、登錄賬號、抓取數(shù)據(jù)、填寫表單、提交流程,全程無人值守,你還有理由再手動點鼠標嗎?
這背后的市場熱度,早已撲面而來。無論是剛落幕的 2025 外灘大會,還是財新亞洲愿景論壇,Agent 都是全場最高頻的熱詞,不少觀點認為:
真正有用的 Agent,必須學會使用手機和電腦,像人一樣讀懂并操作?GUI。
畢竟,你不能靠一句簡短的指令就把所有消費記錄從大廠數(shù)據(jù)庫里提取出來。
也不能僅憑單一指令完成登錄支付寶、微信、淘寶下載賬單,并調(diào)用 Excel 進行數(shù)據(jù)清理,完成對過去一年消費習慣分析的操作。
一個只能給出口頭建議,卻不能替你登錄、獲取數(shù)據(jù)的助理,價值注定「骨折」。
在這場 GUI Agent 競賽中,中美巨頭紛紛下場,但成功率低下成了繞不過去的硬傷:眼花繚亂的界面、多變的交互邏輯,讓瀏覽器自動化操作,遠比生成一段流暢文字要難得多。
所以,當明略科技帶著擁有雙榜 SOTA(當前最先進)成績的 Mano 出場時,就顯得格外吸睛。這一成績不僅讓 Mano 成為通用 GUI 智能體的新范式,也意味著自動化邊界又被推遠了一大步。


值得一提的是,Mano 僅在一次運行中就取得了 OSWorld-Verified 榜單的 Foundation E2E GUI & Specialized Model 評測中 40.1% 的成功率,非常令人驚喜。

近日,明略科技推出的基于多模態(tài)基礎(chǔ)模型的網(wǎng)頁 GUI 智能體 Mano,憑借其強大的性能,在行業(yè)內(nèi)公認的兩大挑戰(zhàn)基準 ——Mind2Web 和 OSWorld 上同時刷新紀錄,取得當前最佳成績(SOTA)。
首先,在網(wǎng)頁端的 Mind2Web 上,Mano 展示出「看得準、做得成」的核心優(yōu)勢。
Mind2Web 覆蓋 137 個網(wǎng)站、2350+ 真實任務,從填寫表格到訂機票、再到在線購物,應有盡有,旨在考察智能體能否在復雜多變的 DOM 結(jié)構(gòu)里精準找到目標元素,并完成整個操作鏈。

技術(shù)報告顯示,Mano 在三個關(guān)鍵指標上,均表現(xiàn)不俗。

在元素精度 (Ele.Acc)和步驟成功率(Step SR)上遙遙領(lǐng)先 —— 兩項指標顯著超越了所有 SOTA 的方法。這表明它在準確識別和定位界面元素,以及成功執(zhí)行多步任務的能力上達到了新高度。
Mano 在操作 F1 (Op.F1) 指標上與此前頂尖模型持平甚至略高,這表明它的核心優(yōu)勢并非僅僅來自對操作類型的判斷能力,而是能夠真正將復雜任務轉(zhuǎn)化為成功的操作序列。
更難的挑戰(zhàn)來自桌面端。OSWorld-Verified 涵蓋了 369 個跨應用任務,覆蓋 10 類應用,包含瀏覽器,辦公軟件等多個類型,每一個操作都和真實桌面場景無縫對接,被認為是桌面智能體測評界的「珠峰」。

技術(shù)報告顯示,在 OSWorld-Verified 榜單的 Foundation E2E GUI & Specialized Model 評測中,Mano 直接把成功率拉到 41.6±0.7%,超過同表所列的 qwen、GUI-Owl、opencua 等模型。

在 Max Steps=100 的配置下(Mano Runs=2),其均值達到 41.6,標準差僅 ±0.7;而 UI-TARS-7B 為 27.4±2.2,opencua-32b 在 3 次 Runs 下為 34.8±0.8。
Mano 在均值上提升約 7 個百分點,整體任務通過率有顯著提升。
Mano 在 GUI 交互領(lǐng)域首次提出了在線強化學習的訓練范式,并推出訓練數(shù)據(jù)自動采集的「探索器」,這兩大核心創(chuàng)新為其實現(xiàn)前所未有的圖形界面交互性能,奠定了堅實基礎(chǔ)。

我們先來嘮嘮 Mano 制霸的決勝因素之一 ——?領(lǐng)域首創(chuàng)的在線強化學習。
自 DeepSeek 橫空出世以來,GRPO 已經(jīng)成為了強化學習黃金范式。這不僅限于大語言模型的范圍內(nèi),在多種任務領(lǐng)域的智能體模型的訓練中都已經(jīng)有了廣泛的應用。
現(xiàn)有的模型訓練大多局限在離線強化學習的范疇,在這種模式下,模型深度依賴于事先收集好的數(shù)據(jù)集進行訓練。通過離線強化學習,我們能夠充分利用大量歷史數(shù)據(jù)來訓練智能體,從而提高模型的推理決策能力,這也是 DeepSeek 驗證成功的技術(shù)模式。
回到 Mano 的技術(shù)框架,其優(yōu)化流程是一個漸進式的分布策略:
以上兩個階段已經(jīng)能夠?qū)崿F(xiàn)一個具有強大推理決策能力,具備高效交互能力的高質(zhì)量模型了。
但在 GUI 交互智能體領(lǐng)域,任務特性決定了模型任何形式的操作都需要與真實的系統(tǒng)交互環(huán)境緊密結(jié)合,最終都要應用在實際操作系統(tǒng)的真實環(huán)境里。
技術(shù)團隊在實際驗證過程中認為,僅通過以上兩個階段的訓練,仍然不足以達到具備足夠靈活性和適應性的要求。
為此,他們分享道,Mano 模型需要「真正的接入操作系統(tǒng)的真實環(huán)境里,需要通過不停地與環(huán)境交互,在交互過程中采樣到更豐富的真實軌跡來彌補離線訓練樣本的單一性和稀疏性」。
因此,在兩階段訓練的模型基礎(chǔ)上,他們在 GUI 領(lǐng)域里開創(chuàng)性的提出了在線強化學習的策略,構(gòu)建了 GUI 領(lǐng)域強化學習的新范式。
簡單來說,在線強化學習是強化學習的一種形式。智能體根據(jù)當前的狀態(tài)選擇一個行動,然后從環(huán)境中獲得相應的獎勵以及新的狀態(tài)。這些反饋會被用來更新智能體的策略。
在線學習的一個顯著特點是:智能體需要在每個時刻都依賴最新數(shù)據(jù)進行學習,同時不斷在探索(嘗試新的行動以獲取信息)和利用(基于已有知識采取最優(yōu)行動)之間尋找平衡。
大家是否還記得當年 OpenAI 開發(fā)的用來玩 Dota 2 的 AI 系統(tǒng) OpenAI Five ?

這個系統(tǒng)的訓練模式就是在真實游戲環(huán)境中采取自我對戰(zhàn)的模式進行在線學習,智能體不斷與自己或多個實例對戰(zhàn),產(chǎn)生新的游戲數(shù)據(jù)。每場對戰(zhàn)都會生成大量的經(jīng)驗,最終戰(zhàn)勝職業(yè)游戲選手。
這種訓練邏輯與 GUI 交互智能體的訓練邏輯有異曲同工之妙,Mano 也需要在真實的交互環(huán)境中進行不斷強化以提高適應性和靈活性。
為此,技術(shù)團隊建立了一個模擬環(huán)境池,讓模型能夠與真實環(huán)境交互,包括瀏覽器環(huán)境(BUA)和桌面環(huán)境(CUA)。通過模擬環(huán)境,模型能夠在「真實交互」中采集更多樣化的環(huán)境數(shù)據(jù),彌補離線軌跡分布稀疏的問題。
技術(shù)團隊自建模擬環(huán)境中部署的在線強化學習,同樣基于 GRPO,但使用了更注重實時適應性和動態(tài)探索的獎勵機制。
在此過程中,智能體通過在線試驗收集新的交互數(shù)據(jù),這些數(shù)據(jù)會被循環(huán)回流到離線訓練階段進行進一步優(yōu)化,實現(xiàn)持續(xù)改進和迭代更新。
最終得到的 Mano 模型在多樣化的 Web GUI 場景中展現(xiàn)出更強的魯棒性。
眾所周知,在線強化學習存在交互時間成本過高和缺乏靈活采樣的缺陷。為了降低成本,明略科技的技術(shù)團隊并沒有采用在線交互 + 即時更新的方式,而是采用在線采樣 + 離線過濾的方式:
先收集軌跡,再過濾噪聲數(shù)據(jù),可以動態(tài)調(diào)節(jié)任務難度分布,避免過多失敗軌跡導致的學習效率低下問題。

在完整的在線強化學習流程中,Mano 模型與多個并行的 Playwright 實例交互,每個實例對應一個獨立的 GUI 環(huán)境。
每一步中,模型會獲取環(huán)境狀態(tài)與截圖,進行推理生成「思考」與「行動」,并在對應環(huán)境中執(zhí)行該動作。該循環(huán)會持續(xù),直到任務完成。
同時,系統(tǒng)會記錄記憶軌跡,并將完整的交互軌跡導出,用于后續(xù)的訓練與分析。
消融實驗結(jié)果顯示,增加了在線強化學習的步驟后,模型在 OSWorld-Verified 數(shù)據(jù)集上的平均分數(shù)產(chǎn)生了一個顯著的飛躍,相比離線強化學習的模型結(jié)果提升了 7.9,達到 41.6。

同時,由 SFT 到離線強化學習,再到在線強化學習的三個階段可以迭代循環(huán),直到在驗證集上的性能提升趨于飽和。于是得到 Mano 最終模型。
要實現(xiàn)高質(zhì)量的在線強化學習訓練,不僅要求模型具備在真實環(huán)境中進行探索和交互的能力,還需要海量的交互軌跡數(shù)據(jù)作為支撐。Mano 第二大創(chuàng)新正是聚焦于模型數(shù)據(jù)獲取和軌跡采集。
大模型雖然能理解籠統(tǒng)的指令,但在需要復雜、多步驟操作的目標驅(qū)動型任務中,它往往無法獨立地將大目標分解為具體的執(zhí)行步驟:
你說:「幫我買一瓶礦泉水。」他反而會問:「我需要先打開哪個網(wǎng)站?然后要搜索什么?點擊哪個按鈕?」
這時,開發(fā)者必須像教小孩一樣,手把手地告訴模型每一步該怎么做,極大地增加了開發(fā)工作量。
因此,研發(fā)人員迫切需要為交互任務構(gòu)建專用的模型和智能體。而在這一過程中,海量的高質(zhì)量交互軌跡數(shù)據(jù)是不可或缺的。過去,這類數(shù)據(jù)往往需要通過人工構(gòu)建或標注,成本高、耗時長。明略的技術(shù)團隊則設(shè)計了訓練數(shù)據(jù)自動采集的方法,從根本上提升了數(shù)據(jù)收集的效率和準確性。
首先,技術(shù)團隊搭建了一個可擴展的虛擬環(huán)境集群,用于模擬多種交互場景。針對每個目標應用,無論是網(wǎng)頁 URL 還是桌面軟件模塊,團隊通過大語言模型自動生成目標清單,并對目標進行優(yōu)先級排序,過濾掉使用頻率極低的功能,為后續(xù)探索提供明確的上下文指導。
在元素提取方面,團隊為網(wǎng)頁環(huán)境定制了 Chrome 插件「Mano-C」,該插件能夠全面提取網(wǎng)頁中的交互元素,捕捉其空間坐標與語義屬性。
通過系統(tǒng)化的 DOM 樹遍歷,識別出網(wǎng)頁中的可交互元素,并設(shè)計了多層級過濾機制,排除視窗外的元素,檢查 CSS 屬性,剔除不可見元素,并過濾掉極小尺寸的隱形追蹤元素。
對于桌面環(huán)境,則采用 A11y Tree 解析與 OmniParseV2 協(xié)同過濾的方法,確保覆蓋更多交互元素,尤其是那些單一方法可能遺漏的元素。
在數(shù)據(jù)標注方面,技術(shù)團隊利用大語言模型為每個提取的元素生成語義標簽、功能描述及交互類別,形成結(jié)構(gòu)化的語義對齊數(shù)據(jù),為后續(xù)的訓練提供了有效的監(jiān)督信號。
為了讓數(shù)據(jù)采集更具智能性,他們設(shè)計了基于 Prompt 的探索模塊,用于智能選擇交互元素,并引入顯式約束,避免路徑循環(huán)和冗余分支。
探索過程中,采用深度優(yōu)先搜索(DFS)策略,最大深度設(shè)為 10 層,從而在探索覆蓋率和計算效率之間找到平衡。
每個探索狀態(tài)下,系統(tǒng)會截取截圖并保存帶注釋的交互數(shù)據(jù)。
完成探索后,團隊又設(shè)計了一套軌跡評估機制,以篩選出高質(zhì)量的交互序列。

簡而言之,這個自動化的工作流程如同一次網(wǎng)頁探索。
系統(tǒng)首先會打開不同的網(wǎng)址,識別可點擊或輸入的元素,并通過插件抓取網(wǎng)頁中的交互元素,同時收集該元素的描述及 DOM 信息,并利用大語言模型生成語義對齊數(shù)據(jù)。
接下來,系統(tǒng)會從這些候選元素中挑選目標,開始逐步探索。整個過程會不斷循環(huán),每一步都會檢查是否已達到最大探索深度,若未達到,則繼續(xù)進行探索。
通過這兩個核心創(chuàng)新,團隊實現(xiàn)了數(shù)據(jù)采集的循環(huán)更新。

隨著 2025 年 AI Agent 需求的爆發(fā),明略科技依托自研的大模型和獨有數(shù)據(jù)資產(chǎn),推出商業(yè)數(shù)據(jù)分析智能體?DeepMiner。
其核心亮點在于能夠獲取更完整、實時的數(shù)據(jù),為數(shù)據(jù)分析報告和深度研究提供更有力支持。而這一核心優(yōu)勢背后,正是 Mano 的技術(shù)支撐。
目前市面上大多數(shù) AI Agent(如 Manus、GenSpark)獲取數(shù)據(jù)的方式較為傳統(tǒng),通常依賴平臺開發(fā) API 或通過 MCP 協(xié)議直接抓取數(shù)據(jù),因此,數(shù)據(jù)來源缺乏獨特性和壁壘。
真正的競爭壁壘來自于那些既沒有開放 API,又沒有 MCP 協(xié)議的專業(yè)網(wǎng)站。一般來說,這些數(shù)據(jù)只能通過用戶手動登錄賬戶,設(shè)置條件后才能獲取。
例如,在亞馬遜后臺,用戶需要手動選擇最近 30 天的數(shù)據(jù)、輸入關(guān)鍵詞、根據(jù)流量趨勢進行排序,才能篩選出所需數(shù)據(jù)。
為了能夠訪問這些其他同類 Agent 無法觸及的數(shù)據(jù)源,Mano 應運而生,成為差異化競爭中的關(guān)鍵角色。
而這一通用 GUI 智能體的 SOTA 表現(xiàn),源于明略科技多年來在多模態(tài)大模型和數(shù)據(jù)智能領(lǐng)域的積淀。
幾年前,明略科技便開始構(gòu)建知識圖譜,將「事件」、「時間」、「空間」等要素融入其中,為多模態(tài)信息的深度關(guān)聯(lián)和邏輯推理打下了基礎(chǔ)。
接著,通過自然語言處理和機器學習,明略科技將企業(yè)數(shù)據(jù)轉(zhuǎn)化為可操作的商業(yè)洞察,涵蓋從營銷到運營管理等多個應用場景,推動技術(shù)與商業(yè)的深度融合。
2024 年,明略科技的超圖多模態(tài)大語言模型(HMLLM)和 Video-SME 數(shù)據(jù)集榮獲 ACM MM 2024 最佳論文提名,并在腦電圖、眼動等非標模態(tài)數(shù)據(jù)處理領(lǐng)域取得顯著突破。2025 年推出的 PRE-MAP 模型進一步推動了高分辨率個性化視覺預測。這些學術(shù)突破也為 Mano 在 GUI 智能體領(lǐng)域的出色表現(xiàn),提供了堅實的技術(shù)支撐。
作為平臺的自動化引擎,Mano 通過擬人化交互精準完成各類復雜網(wǎng)頁操作。其核心技術(shù)突破在于,通過持續(xù)強化學習,Mano 能夠自主適應和探索全新的平臺與業(yè)務流程。這種高度適應性使其能夠高效、智能地執(zhí)行網(wǎng)頁操作與數(shù)據(jù)采集任務,大幅降低傳統(tǒng)自動化方案在應對業(yè)務變更時的適配與維護成本。
未來,明略科技將繼續(xù)在數(shù)據(jù)采集、訓練推理整合、驗證碼處理等領(lǐng)域探索,推動 Mano 在真實應用和端側(cè)部署中的進一步優(yōu)化,為企業(yè)的智能化轉(zhuǎn)型提供強有力的支持。
本文來源于「機器之心」
信息填寫