微軟最新AI模型Fara-7B,強調本地端運行與資料隱私,企業可安心使用。Fara-7B具備卓越效能,透過視覺感知操作,完成複雜任務,展現AI模型的無限潛力。微軟於 11 月 24 日正式發表最新 AI 模型 Fara-7B,這款具備 70 億參數的模型被定位為「電腦使用代理」(Computer Use Agent, CUA),主打可直接在本地端運行、無需依賴雲端算力,同時兼顧高效能與資料隱私。 主打企業資料安全,支援「視覺感知」操作 Fara-7B 的設計核心在於滿足企業客戶對敏感資訊處理的隱私與合規需求。由於模型足夠精簡,可以在個人電腦上執行,不僅降低延遲,也避免資料上傳至雲端,有助於落實本地化自動化,例如用於內部帳號管理、機密文件處理等場景。 這款模型最大特色是採用「看螢幕操作」方式與網站互動——透過螢幕截圖讀取畫面排版,再預測滑鼠點擊、輸入或滾動等動作。與傳統依賴瀏覽器結構的方式不同,Fara-7B 完全基於像素級資料進行推理,因此即便是程式碼結構混亂的網站,也能正常運作。 微軟研究院產品經理 Yash Lara 表示,Fara-7B 透過本地端處理視覺輸入,實現所謂的「像素主權」,讓包括醫療、金融等高度監管產業也能安心使用。 實測效能超越 GPT-4o,小模型更高效 在 WebVoyager 測試基準中,Fara-7B 的任務完成率達 73.5%,高於 GPT-4o 的 65.1% 與 UI-TARS-1.5-7B 的 66.4%。此外,Fara-7B 完成任務平均僅需 16 步操作,明顯優於 UI-TARS-1.5-7B 的 41 步,在準確率與效率之間達成最佳平衡。 Fara-7B 同時引入「關鍵確認點」(critical checkpoints)機制,在遇到涉及用戶個資或不可逆操作(如發送信件、金錢轉移)時會自動暫停並請求確認,搭配「Magentic-UI」互動介面,提供人機協作的安全防線。 知識蒸餾與專家示範訓練,強化自主學習潛力 Fara-7B 採用「知識蒸餾」訓練方法,整合由多代理系統 Magentic-One 所產生的 14.5 萬筆成功導航範例,並壓縮至單一模型中學習。此外,底層模型基於 Qwen2.5-VL-7B,擁有最長 128,000 token 的上下文窗口,具備優異的圖文對齊能力,訓練過程以模仿人類專家操作為主。 微軟表示,未來不會盲目追求更大模型,而是致力於打造更「小而聰明、安全」的模型,並計畫引入強化學習(RL)於合成沙箱環境中進行自學訓練。 已開源上架,可自由測試商用但尚非正式產品 目前 Fara-7B 已透過 MIT 授權開源釋出,可在 Hugging Face 與微軟 Foundry 平台下載使用,允許用於商業應用。但微軟也提醒,該模型尚未達到生產環境部署標準,目前主要適合開發者用於原型測試與功能驗證。   延伸閱讀:Google 推 WeatherNext 2 新一代氣象預報 AI 模型,Pixel、搜尋、Gemini 搶先用 延伸閱讀:研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用 延伸閱讀:Anthropic 發表Claude Haiku 4.5 小型 AI 模型:僅 1/3 成本、效能對標 Sonnet 4,程式表現甚至小贏  加入T客邦Facebook粉絲團微軟最新AI模型Fara-7B,強調本地端運行與資料隱私,企業可安心使用。Fara-7B具備卓越效能,透過視覺感知操作,完成複雜任務,展現AI模型的無限潛力。微軟於 11 月 24 日正式發表最新 AI 模型 Fara-7B,這款具備 70 億參數的模型被定位為「電腦使用代理」(Computer Use Agent, CUA),主打可直接在本地端運行、無需依賴雲端算力,同時兼顧高效能與資料隱私。 主打企業資料安全,支援「視覺感知」操作 Fara-7B 的設計核心在於滿足企業客戶對敏感資訊處理的隱私與合規需求。由於模型足夠精簡,可以在個人電腦上執行,不僅降低延遲,也避免資料上傳至雲端,有助於落實本地化自動化,例如用於內部帳號管理、機密文件處理等場景。 這款模型最大特色是採用「看螢幕操作」方式與網站互動——透過螢幕截圖讀取畫面排版,再預測滑鼠點擊、輸入或滾動等動作。與傳統依賴瀏覽器結構的方式不同,Fara-7B 完全基於像素級資料進行推理,因此即便是程式碼結構混亂的網站,也能正常運作。 微軟研究院產品經理 Yash Lara 表示,Fara-7B 透過本地端處理視覺輸入,實現所謂的「像素主權」,讓包括醫療、金融等高度監管產業也能安心使用。 實測效能超越 GPT-4o,小模型更高效 在 WebVoyager 測試基準中,Fara-7B 的任務完成率達 73.5%,高於 GPT-4o 的 65.1% 與 UI-TARS-1.5-7B 的 66.4%。此外,Fara-7B 完成任務平均僅需 16 步操作,明顯優於 UI-TARS-1.5-7B 的 41 步,在準確率與效率之間達成最佳平衡。 Fara-7B 同時引入「關鍵確認點」(critical checkpoints)機制,在遇到涉及用戶個資或不可逆操作(如發送信件、金錢轉移)時會自動暫停並請求確認,搭配「Magentic-UI」互動介面,提供人機協作的安全防線。 知識蒸餾與專家示範訓練,強化自主學習潛力 Fara-7B 採用「知識蒸餾」訓練方法,整合由多代理系統 Magentic-One 所產生的 14.5 萬筆成功導航範例,並壓縮至單一模型中學習。此外,底層模型基於 Qwen2.5-VL-7B,擁有最長 128,000 token 的上下文窗口,具備優異的圖文對齊能力,訓練過程以模仿人類專家操作為主。 微軟表示,未來不會盲目追求更大模型,而是致力於打造更「小而聰明、安全」的模型,並計畫引入強化學習(RL)於合成沙箱環境中進行自學訓練。 已開源上架,可自由測試商用但尚非正式產品 目前 Fara-7B 已透過 MIT 授權開源釋出,可在 Hugging Face 與微軟 Foundry 平台下載使用,允許用於商業應用。但微軟也提醒,該模型尚未達到生產環境部署標準,目前主要適合開發者用於原型測試與功能驗證。   延伸閱讀:Google 推 WeatherNext 2 新一代氣象預報 AI 模型,Pixel、搜尋、Gemini 搶先用 延伸閱讀:研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用 延伸閱讀:Anthropic 發表Claude Haiku 4.5 小型 AI 模型:僅 1/3 成本、效能對標 Sonnet 4,程式表現甚至小贏  加入T客邦Facebook粉絲團

微軟推出 Fara-7B 小型 AI 模型,在地端直接執行、效能超越 GPT-4o

2025/11/28 13:30
5 min read
For feedback or concerns regarding this content, please contact us at crypto.news@mexc.com

微軟於 11 月 24 日正式發表最新 AI 模型 Fara-7B,這款具備 70 億參數的模型被定位為「電腦使用代理」(Computer Use Agent, CUA),主打可直接在本地端運行、無需依賴雲端算力,同時兼顧高效能與資料隱私。

主打企業資料安全,支援「視覺感知」操作

Fara-7B 的設計核心在於滿足企業客戶對敏感資訊處理的隱私與合規需求。由於模型足夠精簡,可以在個人電腦上執行,不僅降低延遲,也避免資料上傳至雲端,有助於落實本地化自動化,例如用於內部帳號管理、機密文件處理等場景。

這款模型最大特色是採用「看螢幕操作」方式與網站互動——透過螢幕截圖讀取畫面排版,再預測滑鼠點擊、輸入或滾動等動作。與傳統依賴瀏覽器結構的方式不同,Fara-7B 完全基於像素級資料進行推理,因此即便是程式碼結構混亂的網站,也能正常運作。

微軟研究院產品經理 Yash Lara 表示,Fara-7B 透過本地端處理視覺輸入,實現所謂的「像素主權」,讓包括醫療、金融等高度監管產業也能安心使用。

實測效能超越 GPT-4o,小模型更高效

在 WebVoyager 測試基準中,Fara-7B 的任務完成率達 73.5%,高於 GPT-4o 的 65.1% 與 UI-TARS-1.5-7B 的 66.4%。此外,Fara-7B 完成任務平均僅需 16 步操作,明顯優於 UI-TARS-1.5-7B 的 41 步,在準確率與效率之間達成最佳平衡。

Fara-7B 同時引入「關鍵確認點」(critical checkpoints)機制,在遇到涉及用戶個資或不可逆操作(如發送信件、金錢轉移)時會自動暫停並請求確認,搭配「Magentic-UI」互動介面,提供人機協作的安全防線。

知識蒸餾與專家示範訓練,強化自主學習潛力

Fara-7B 採用「知識蒸餾」訓練方法,整合由多代理系統 Magentic-One 所產生的 14.5 萬筆成功導航範例,並壓縮至單一模型中學習。此外,底層模型基於 Qwen2.5-VL-7B,擁有最長 128,000 token 的上下文窗口,具備優異的圖文對齊能力,訓練過程以模仿人類專家操作為主。

微軟表示,未來不會盲目追求更大模型,而是致力於打造更「小而聰明、安全」的模型,並計畫引入強化學習(RL)於合成沙箱環境中進行自學訓練。

已開源上架,可自由測試商用但尚非正式產品

目前 Fara-7B 已透過 MIT 授權開源釋出,可在 Hugging Face 與微軟 Foundry 平台下載使用,允許用於商業應用。但微軟也提醒,該模型尚未達到生產環境部署標準,目前主要適合開發者用於原型測試與功能驗證。

  • 延伸閱讀:Google 推 WeatherNext 2 新一代氣象預報 AI 模型,Pixel、搜尋、Gemini 搶先用
  • 延伸閱讀:研究者發現讓 AI 變得更有創意的懶人提問法,不論 ChatGPT、Gemini 等任何 AI 模型皆能適用
  • 延伸閱讀:Anthropic 發表Claude Haiku 4.5 小型 AI 模型:僅 1/3 成本、效能對標 Sonnet 4,程式表現甚至小贏
Market Opportunity
null Logo
null Price(null)
--
----
USD
null (null) Live Price Chart
Disclaimer: The articles reposted on this site are sourced from public platforms and are provided for informational purposes only. They do not necessarily reflect the views of MEXC. All rights remain with the original authors. If you believe any content infringes on third-party rights, please contact crypto.news@mexc.com for removal. MEXC makes no guarantees regarding the accuracy, completeness, or timeliness of the content and is not responsible for any actions taken based on the information provided. The content does not constitute financial, legal, or other professional advice, nor should it be considered a recommendation or endorsement by MEXC.

You May Also Like

Why It Could Outperform Pepe Coin And Tron With Over $7m Already Raised

Why It Could Outperform Pepe Coin And Tron With Over $7m Already Raised

The post Why It Could Outperform Pepe Coin And Tron With Over $7m Already Raised appeared on BitcoinEthereumNews.com. Crypto News 17 September 2025 | 20:26 While meme tokens like Pepe Coin and established networks such as Tron attract headlines, many investors are now searching for projects that combine innovation, revenue-sharing and real-world utility. BlockchainFX ($BFX), currently in presale at $0.024 ahead of an expected $0.05 launch, is quickly becoming one of the best cryptos to buy today. With $7m already secured and a unique model spanning multiple asset classes, it is positioning itself as a decentralised super app and a contender to surpass older altcoins. Early Presale Pricing Creates A Rare Entry Point BlockchainFX’s presale pricing structure has been designed to reward early participants. At $0.024, buyers secure a lower entry price than later rounds, locking in a cost basis more than 50% below the projected $0.05 launch price. As sales continue to climb beyond $7m, each new stage automatically increases the token price. This built-in mechanism creates a clear advantage for early investors and explains why the project is increasingly cited in “best presales to buy now” discussions across the crypto space. High-Yield Staking Model Shares Platform Revenue Beyond its presale appeal, BlockchainFX is creating a high-yield staking model that gives holders a direct share of platform revenue. Every time a trade occurs on its platform, 70% of trading fees flow back into the $BFX ecosystem: 50% of collected fees are automatically distributed to stakers in both BFX and USDT. 20% is allocated to daily buybacks of $BFX, adding demand and price support. Half of the bought-back tokens are permanently burned, steadily reducing supply. Rewards are based on the size of each member’s BFX holdings and capped at $25,000 USDT per day to ensure sustainability. This structure transforms token ownership from a speculative bet into an income-generating position, a rare feature among today’s altcoins. A Multi-Asset Platform…
Share
BitcoinEthereumNews2025/09/18 03:35
OceanPal, a US-listed company, disclosed in its financial report that it holds 51.3 million NEAR tokens.

OceanPal, a US-listed company, disclosed in its financial report that it holds 51.3 million NEAR tokens.

PANews reported on March 28 that OceanPal, a Nasdaq-listed digital asset management operator, released its annual financial report, which disclosed that its balance
Share
PANews2026/03/28 18:03
Shiba Inu Price Outlook as Shibarium Activity Surges

Shiba Inu Price Outlook as Shibarium Activity Surges

The post Shiba Inu Price Outlook as Shibarium Activity Surges appeared on BitcoinEthereumNews.com. Shibarium activity has accelerated sharply in recent days, drawing
Share
BitcoinEthereumNews2026/03/28 18:01