智慧眼鏡大混戰:科技巨頭戴上眼鏡,卡位下一代硬體入口!

2025年智慧眼鏡市場爆發,Meta 銷量成長 3倍、Apple 啟動 Project Atlas、Google 推Android XR 平台。為何大廠趨之若鶩?因為眼鏡是唯一能全天候採集第一視角數據的設備,是訓練世界模型的終極傳感器。本文拆解大廠策略、市場困境與供應鏈投資機會。

智慧眼鏡大混戰:科技巨頭戴上眼鏡,卡位下一代硬體入口!
主要科技公司紛紛推出自有智慧眼鏡產品

2025 年上半年,全球智慧眼鏡出貨量成長 110%,其中,Meta Ray-Ban 系列銷量成長 3 倍、產能規劃至年產 1,000 萬副;此外,Google 計畫於 2026 年推出語音助理型及顯示器型的智慧眼鏡;Apple 啟動 Project Atlas 內部研究。而在中國,智慧眼鏡更是有如雨後春筍冒出,包括阿里巴巴、小米、華為、理想汽車等品牌也都陸續推出智慧眼鏡。

這些公司不約而同地推出智慧眼鏡,是因為這是唯一能全天候、以第一視角採集使用者環境、行為與意圖的設備。而這些數據對於訓練理解並交互物理世界的世界模型至關重要。

這篇文章接下來將拆解四個關鍵問題:1) 為什麼是現在?為什麼是智慧眼鏡?2) 大廠如何破局?3) 供應鏈的投資機會在哪裡?4) 真正的智慧AI眼鏡何時到來?

為什麼 2025 年爆發?三重驅動力匯合

驅動一:生成式 AI 催生「隨時取用」需求

過去的 AI 模型是「被動反應」,你問一句,它答一句。現在 AI 正在轉向「主動判斷與建議」,根據環境、情境和使用者行為提前判斷需求並自動完成任務。

但想想看,手機的交互應用仍建立在使用者必須先發起動作的前提下:掏出手機、解鎖、打開 App、輸入內容。這種交互方式到了現在這個人工智慧時代顯得格格不入。

智慧眼鏡的優勢在於:

  • 貼近視野:與使用者視線同步,直接看到使用者看到的
  • 持續配戴:不需要「掏出手機與解鎖」動作
  • 解放雙手:語音與視覺輸入,無需觸控

生成式 AI 的快速發展催生出一種新的使用者需求:「我希望隨時隨地使用人工智慧,或讓他替我完成各種任務,但不想每次都掏出手機,點擊不同的應用程式。」

所以眼鏡,自然成為承載下一代人機交互的可能入口之一。

驅動二:Vision Pro驗證空間計算潛力

Apple Vision Pro、Meta Quest已經展示了空間計算的潛力:計算不必局限在一小塊手機螢幕裡,而能與真實世界融合交互。

儘管這些設備形態笨重( Vision Pro 重量超過 600 公克)、續航有限、價格昂貴,但它們像是下一個世代的原型機,讓整個行業燃起一種樂觀的信心:

如果 Vision Pro 能夠做到這麼沉浸,如果 Quest 已經能做基本的空間理解,那麼把這些能力濃縮到 40 公克的眼鏡形態,只是時間的問題?

想想看幾十年前的大哥大手機跟現在的智慧型手機?行業逐漸形成一個共識:頭戴式裝置驗證了技術可行性,但眼鏡才是真正能普及的形態。

驅動三:資本押注「下一個 iPhone」

自智慧型手機成為主流設備以來,在過去十年中,所有的行業玩家都在尋找下一個入口。但智慧手錶、耳機、折疊螢幕等應用,都還只是在手機生態內循環,沒有獨立入口價值。

直到生成式 AI 出現,大家開始思考下一個載體?是手機嗎?是別針嗎?還是一種新的設備形態?

而智慧眼鏡因為具備以下特徵,成為資本押注的重點:

  • 明確但未被佔領的品項
  • 與 AI 使用情境天然搭配
  • 想像空間接近 iPhone 誕生前的智慧型手機

於是在當下我們看到的所有現象,廣告、融資、創業潮、大廠跨界。並不是因為智慧眼鏡的想像已經兌現,而是整個行業正在爭奪對未來入口的敘事權。

為什麼是眼鏡?訓練世界模型的終極傳感器

智慧眼鏡是收集真實世界數據的最佳載體

如果只是為了「解放雙手」或「隨時使用 AI」,智慧手錶、耳機甚至植入晶片都能做到。但為什麼大廠們一致押注眼鏡形態?

核心原因在於:智慧眼鏡是唯一能全天候、以第一視角感知使用者所處環境、行為甚至意圖的設備。它能成為採集多維連續數據的終極傳感器,包括視覺、聲音、位置、注視點等。

這些數據對於訓練理解並交互物理世界的世界模型(World Model)至關重要。

設備 配戴時長 視角 數據連續性 環境感知能力
手機 間歇性 第三視角(需掏出) 斷續 弱(依賴主動觸發)
智慧手錶 全天候 無視覺輸入 連續 生理數據為主
智慧眼鏡 全天候 第一視角 連續 強(視覺+聲音+位置)

手機只能在使用者主動掏出時才能「看見」世界,而且是第三視角,它所能看到的並不是使用者看到的。智慧手錶雖然全天候配戴,但沒有視覺輸入,只能採集生理數據。

只有智慧眼鏡,與使用者的視線完全同步,持續採集使用者的第一視角數據。這種數據的價值,遠遠超過任何其他設備形態。

世界模型訓練的關鍵:端對端感知

什麼是世界模型?

世界模型(World Model)是人工智慧模型內建的物理世界理解能力。它不只是統計機率關聯,而是真正理解因果關係、物理法則和邏輯推演。

如果你想要更多理解世界模型,可以參考我之前寫過的文章

智慧眼鏡的價值就在於此:

1. 連續性學習
長時間採集使用者與環境的互動數據。AI 不只看到靜態場景,而是看到使用者如何與世界互動:

  • 你看向冰箱時打開門
  • 你注視紅綠燈後決定過馬路
  • 你盯著菜單思考時最終點了哪一道菜

這些持續的、第一視角的互動數據,是訓練 AI 理解「人類如何與物理世界互動」的最佳素材。

2. 情境理解
眼鏡知道使用者在看什麼、說什麼、做什麼,能夠建立完整的情境理解。這與手機「被動等待指令」的邏輯完全不同。

舉例來說,它可以透過攝影機「看見」你看到的世界,進行即時對話。當你看著一棵植物問「這是什麼」,它知道你在問眼前這棵植物,當你看向餐廳時自動顯示評分,當你看向海報時,自動辨識活動資訊並搜尋訂票系統等等。

3. 意圖預測
最終極的目標是:根據環境和歷史行為預判需求,而不是等使用者開口。

比如 AI 發現:

  • 你每天下午 3 點都看向咖啡機
  • 你每次看菜單超過 10 秒就會選第二個選項
  • 你在超市看到特定品牌會多停留 2 秒

這些行為模式,只有持續配戴的第一視角設備能捕捉。而手機永遠只能在你「掏出」那一刻才知道你在做什麼。

如果智慧眼鏡只是「螢幕 + 藍牙」,它永遠只是配件。只有當它成為持續蒐集環境數據、幫助 AI 理解物理世界的傳感器、更了解每一個使用者的行為模式,它才真正有資格成為「下一代計算入口」。

從訓練算力到推論算力:眼鏡的角色轉變

智慧眼鏡的另一個重要性在於,人工智慧模型從擴展時代走向了推理時代。

詳細內容可以參考過去的文章。但簡單來說,就是人工智慧模型在給出答案之前會先進行更多推論,而這些推論需要大量的訓練數據。

智慧眼鏡在這裡扮演什麼角色?

眼鏡提供大量真實場景的推論數據

  • 不是在實驗室裡訓練「看到杯子」
  • 而是在真實環境中學習「使用者拿起杯子、喝水、放下」的完整流程
  • 不是背誦「紅燈停、綠燈行」
  • 而是理解「使用者看到紅燈時停下、看到綠燈時前進」的因果關係

這些理解是可以遷移的:

  • 今天它理解了「使用者如何使用杯子」
  • 明天它就能用同樣的邏輯去理解「機器人如何抓取物體」
  • 後天它能理解「自駕車如何判斷行人意圖」

Tesla 的 FSD 訓練經驗可以遷移到 Optimus 機器人,Google 的視覺理解可以從文字生成遷移到空間計算。智慧眼鏡也是同樣邏輯,先在眼鏡上解決「純視覺環境理解」,未來就能遷移到任何需要視覺智慧的載體。

這就是為什麼這些公司願意投入資源在一個嶄新的硬體市場,持續押注智慧眼鏡。因為他們看到的不只是「一副眼鏡」,而是訓練下一代 AI 模型的終極數據來源

一個混亂的初創市場

無統一定義:從「顯示器」到「AI助手」都叫智慧眼鏡

2025 年的智慧眼鏡市場最大的問題是:沒有人知道什麼才算「智慧」。

在一個成熟的消費電子品類中,沒有人會把遊戲機當作個人電腦,沒有人會把功能型手機認成智慧型手機。但智慧眼鏡卻處在一個極度尷尬的階段:任何有鏡片、螢幕會顯示、能連藍牙的設備,都給自己貼上「AI」標籤。

市場上的產品大致可分為四類:

類型 核心能力 代表產品 價格帶(台幣) 重量
顯示型眼鏡 投影看片 + 藍牙連接 大量白牌產品 3,000-6,000 40-60g
可互動眼鏡 雲端AI + 語音助手 小米、華為、百度 6,000-9,000 40-50g
AI拍攝眼鏡 拍攝 + AI + 輕量 Meta Ray-Ban、理想Livis 5,100-6,000 35-49g
AI+AR眼鏡 顯示 + AI + 拍攝 夸克S1 12,000-27,000 50-70g

真正智慧眼鏡:五大能力缺一不可

然而,任何要被稱為「AI 智慧眼鏡」的設備,都必須同時具備五項基礎能力

  1. 本地計算能力(On-Device ML):能在設備端進行AI推論,不完全依賴雲端
  2. 空間理解能力(SLAM/Scene Understanding):理解三維空間、物體位置、遮擋關係
  3. 即時互動(Low-Latency Interaction):延遲低於50毫秒,使用者無感
  4. 續航與重量(Ergonomics/Power Efficiency):重量低於50公克、全天候配戴
  5. 多模態 AI(Vision+LLM+Multimodal):整合視覺、語言、情境的 AI 能力

用白話文來說,智慧眼鏡必須是一款能夠看見世界、理解世界、並隨時與你共用一個現實環境的人工智慧設備。

按這套標準看,現在市面上其實還沒有一款真正意義上的智慧眼鏡。

整個產業還停留在從原型機往輕量化探索的階段。

投資機會:供應鏈的黃金賽道

雖然智慧眼鏡想要成為主流產品,還有很長遠的路要走。畢竟像 google 就已經在這條路上走走停停好幾回。但在各國大廠爭相投入下,我認為還是有一些技術發展方向值得關注。

四大值得關注的技術方向

方向一:Micro-LED顯示技術

為什麼值得關注?

  • 技術優勢:超越 OLED 和 LCoS 的峰值亮度(600 尼特以上)、對比度、無烙印問題
  • 應用場景:特別適合戶外使用的 AR 眼鏡
  • 市場地位:AR 眼鏡顯示技術目前的唯一解,沒有替代方案

方向二:光波導光學技術

為什麼值得關注?

  • 成本占比:光學組件在 AI/AR 眼鏡物料清單中佔比 40-70%
  • 核心價值:決定視角、成像品質、眼鏡厚度
  • 技術壁壘:專利門檻高,技術集中度高
  • 差異化來源:不同光波導方案(繞射式、反射式、幾何式)決定產品競爭力

方向三:AI晶片與處理器

為什麼值得關注?

  • 產品核心:端側 AI 運算決定使用體驗
  • 差異化關鍵:AI 回應速度、電池續航、本地算力
  • 技術趨勢:從雲端 AI 轉向端側 AI,需要高效能低功耗晶片
  • 競爭優勢:ASIC 客製化晶片成為差異化競爭手段

未來展望:真正的智慧眼鏡何時到來?

當前困境:硬體與軟體的雙重瓶頸

硬體限制:

  • 算力vs重量:無法在 40 公克鏡框塞手機級晶片
  • 電池vs續航:微型電池無法支撐持續 AI 推論
  • 散熱vs配戴:發熱晶片不能貼近臉部

軟體瓶頸:

  • SLAM 技術永遠「慢半拍」(看到之後再處理)
  • 需要從「被動反應」升級為「主動預測」
  • 目前無廠商做到

所以,智慧眼鏡目前可能處於 L2-L3 過渡階段(智能輔助級→智能助理級),預計 2027 年才會進入 L4(真正的計算終端)。

序章而非終局

智慧眼鏡的風口是真實的,2025 年的熱潮背後有紮實支撐:AI 需要新入口、空間計算要落地、更重要的是,眼鏡是訓練世界模型的最佳傳感器

但真正的智慧眼鏡尚未出現,而現在的一切只是序章。就像 AirPods 花了 3-4 年才真正普及,智慧眼鏡也需要時間。但不同的是,這次的賭注更大。

誰能做出真正有用的智慧眼鏡,誰就掌握了下一個十年的計算入口。


數據來源與延伸閱讀

相關文章:

Read more