Magic Leap one正式發售,售價2296美元,提交訂單後120天內送達。但是據之前邀請體驗的媒體報道,對Magic Leap one的評價負面居多,請問如何評價這一產品?


聲明 聲明 聲明 重要的事情說三遍 ,觀點僅僅是個人觀點,僅為AR愛好者討論,不代表任何官方觀點。

我們Lab同事在灣區第一時間預定了magic leap one, 基本上是一分鐘之內(平時經常做鍛煉就是幹嘛嘛快 尤其是點滑鼠的右手),同時我們勾選了liftoff的服務,理解是包括送貨上門,安裝等,當時的順序號是36,37, 一共兩台機器,結果是上周六8月11號當天一個芝加哥的小哥飛過來直接送到家裡,安裝調試大概花了一個小時的時間,大概晚上7點的時候第一次體驗。

簡單的東西就過,大家都知道的三件套,手柄,眼鏡,和nvidia的腰間小電腦,同時有一個適配器用來充電。

Onboard的過程比較繁瑣,個人認為比Hololens繁雜的多,系統一直提示我去各個地面,牆和屋頂去掃描,有趣的是由於我們是灣區典型的車庫創業公司,有一個很高的屋頂,然後他就提醒我再離近一點,非常無語,我戴著你還能牛逼到上天啊,看圖片自己體會下絕望的心情。(覺得我們環境凌亂美的處女座們歡迎投簡歷 哈哈)

接下來我們就每個同學都體驗了一把,普遍的反應是顯示效果不錯,聲音效果奇好,奇怪的交互和略顯笨拙的設計是槽點最多的地方,聽到最多的一句就是:我靠 我TMD怎麼退出啊 ,可以理解因為是新的系統,需要一段時間去適應,還好Bill幾十年諄諄教導咱們不行就硬重啟,所以我們整個使用過程中在不停的硬重啟,幾乎換一個人就重啟,倒也是管用。還有就是開機大概十分鐘左右,眼鏡兩邊就會變得很燙,要注意不要接觸到皮膚的地方。

原生提供的app都比較簡單,功能不表,這個可以理解,想想iphone最開始的時候,畢竟這個只是個開始,隨著時間app的需求肯定都會解決掉。

下面說個人熟悉的光學的部分,眼睛看外界東西的遠近有兩個因素,一個是vergence cue(雙眼視差), 一個是accommodation cue(眼睛晶狀體調節), 現在無論是AR和VR,頭暈其中最大的一個問題是只能滿足vergence cue,而虛像只能處在某一個深度位置,ML聲稱就是能夠完美解決這麼些問題去拿了各種融資。

從讀過的專利,現在到手的產品,以及ML過去的新聞,歷史大概推了一下,從產品的角度,應該是幾個階段,原型機階段,多層波導階段,最後收斂到最終可產品化階段。 原型機應該是給VC們看過的版本,應該是真正的multi engine, multi waveguide etc, 現在離產品最近的專利,應該是US2017/0276948A1,有空的可以去再讀一下,有的地方寫的比較清楚,有的地方不清楚,沒有空的就看我這個縮略版本就好了,實現的原理基本上應該講清楚了。下面也會用圖片做驗證為什麼ML 發了很多專利,我們可以大致定下來最後他們選用的這個方法。

做為AR光學幾個Core components,波導,光機,照明, eye tracker(非必需)。下面剝離開講:

1 光波導方面

毋庸置疑,他們用了光波導,而且很可能是基於衍射的光波導,波導就是耦合,傳播,出光的器件,下面左邊的照片是從鏡片的外面拍出來,可以看到有大概5條綠色的leak的條紋,這些匹配專利裡面的grating的分布,基本上可以推斷是diffractive grating,而且效率並不是很好,從外面可以看出比較嚴重的漏光,顏色色差比較嚴重,不均勻,同時也可看到有藍色,紅色類似的條紋,所以光波導方面應該是衍射光柵,5層光柵,用來去模擬深度不同的5個面的內容。 然後再分三個顏色這樣,下面是對比圖。真的可以看出有5層。

2

光機的部分,應該是左邊右邊各1台 lcos,判斷的主要原因因為黑色的背景還是有很顯著的灰色,對比度不是太好,在吸光方面,普通的小型lcos做的不如dlp好,ML最後採用和Hololens類似的lcos panel做為display,這個可能性是比較大的。應該是從側面上方直接打出來expand再出射。另外分色嚴重也是分時lcos的一個特徵。

耦合到waveguide內部是傳統的稜鏡耦合,因為可以從邊角的鏡片看到很強的反射面。也就是眼角可以看到後面鏡面反射的物體。這種是最高的耦合效率,而且耦合到內部沒有必要用低效率的衍射元件。

3

光源

光源的部分,應該是三個窄帶RGB顏色,LED照明的可能性比較大,應該不是VCSEL激光,如果是的話可能就不是class1了,下面激光應該只是eyetracker上面。

4 eyetracker

類似激光加detecter 激光如下 class 1

這4個很醜的pins應該是做eye tracking,一般來說eye tracker有這麼幾個作用,a 局部渲染降低渲染需求 b 做為input device做交互

在今天其實這個eye tracker對於傳統的AR或者VR沒有太多作用,a 解析度不夠高 有點雞肋 b 反人性,太累,但是注意他們用的辦法是離不開這些eye tracker的,因為關聯到某個深度的渲染,就是a 狀況,只是局部渲染不是為了降低需求,而是界定不同的深度層。所以即便是這麼丑,也不能不放上面。

工作原理,

光學渲染計算原理

最開始需要用信用卡大致測瞳孔的相對的距離,然後eyetracking探測瞳孔的相對位置,調整圖像,實時完成的vergence accommodation的圖像軟體渲染處理,同時由瞳孔之間的距離變化測出雙眼看外部環境的距離,用這個距離反饋深度,實時提供不同深度的光學渲染,這時候兩者就統一了,用戶感受到的深度包含有單眼和雙眼的兩者匹配的深度信息。

硬體實現部分

一個lcos光機去illuminate全部的波導層,然後每個波導層有自己的開關,這樣每個波導層根據系統需求的響應來做出開關的動作,即可實現不同景深的效果,由於LCOS panel同時只能有一個圖像,那麼系統里應該同時只有一個深度層是打開的,或者相鄰的兩個可以一起打開,例如去simulate 3米的效果,可以打開1,3米的波導層。別的全部關閉。下面是一層開啟的效果,每一層去實現不同的深度信息。

那接下來的問題是 如何讓每層的信息不干擾。

重點來了,如何去選擇不同的波導層去響應不同層的渲染,這個和光柵一起應該是ML最核心的部件,下面給一個思路,如果在光機inject到波導的時候,光機覆蓋所有的波導,但是輸入到每一層做一個可以實現ON/OFF的開關,那麼就可以實時的去控制和光機sync的問題,決定哪個層開,哪個層關,例如去模擬一隻喵從近到遠,可以分時去打開每個波導的通道。 什麼樣的器件適合做這樣的事情呢,我可以想到的馬上或許可以用的有液晶shutter,響應速度足夠快,加上偏振後效率足夠高,結合cross用起來應該是不錯的candidate,另外ML也可以leverage通訊領域,發展了很多年,也有不同類型的光開關,例如電光,熱光,聲光碟機動的各種光開關,相信以ML有錢任性有時間,肯定是已經全部研究了一遍,最後找了個最恰當的來做開關吧。

綜上,光學方案上,magic leap在光學上做了不少工作,產品確實非常Impress,是beyond my expectations,例如多個波導的align,如何實現分時等等,給行業上了很好的一課:

講主要的幾點和承諾的不一致的東西:

1

沒有給出來原來承諾的實時光場,就是眼睛可以任意主觀的聚焦,同時在不同深度上成像的光學系統,做了工程化的很多妥協,即在同一時間,根據瞳孔距離,分開時間只渲染一個深度的內容(或者兩個近似深度相同內容),加上eye tracking,來實時的調整深度的距離,這樣的軟體負載會小很多,實際體驗也會比只有一個深度層的ar設備體驗好不少。

2

還有一個我認為是ML以前承諾但是沒有解的東西,就是如何去用虛像遮擋實像,廣告中是講能夠達到以假亂真的光場效果,這個是主要的虛像和實像的區別,例如一個機器人放置在桌子前面,應該把桌子完全遮擋住,這樣的效果目前應該是基本沒有的,這個也是業界基本上很難去解決的問題。 (實物的遮擋,因為AR設備只能發出光,不能做遮擋,如果不發光即為透明態,所以這個如何解決也是一個行業難題)

3

當然不是用光纖掃描了,不能說不可行,但至少用起來沒有lcos那麼方便。

價格方面,2000多的價格,bom來說應該是一定賠錢的,光波導,DOE這些都是cost driver, 不過現在能夠出貨對於ML比什麼都重要. 個人認為做為AR的標杆產品,magicleap one跟hololens相比,進步了非常多,佩戴舒服了很多,圖像質量,深度感等等都是其他AR產品現在很難達到的水準,但是slam根據同事反饋,不如hololens穩定,很多畫面有跳躍感,不平滑, 還需要做繼續優化, 不過這些應該都可以隨著時間去逐漸改善。

大環境的影響,我一直贊成大生態,對於AR產業,對大多數玩家肯定是好事,AR重新進入主流視野,或許可以讓人們從區塊鏈的熱度中發現還有其他更多的科技美,AR系統繼而繼續細化市場,應用,直到普及,也許還需要很長的時間,在這個階段一個產品或者一個公司的產品完全覆蓋全部的生態是幾乎沒有可能性的,接下來應該是AR的觸角會伸到更深多的地方,但是對於一些已經在市場上的同質化嚴重的產品,會造成一定的壓力,例如有些大視場原來 target取代顯示器的AR產品,在$1500的價格還是不是足夠有吸引力等等,這部分壓力也許可以轉化為新的動力,給這個市場帶來更多的一些思考。

另外,

我個人也是AI+AR的True Believer. 歡迎投條討論任何有關AI或者AR的話題。


這兩天拿到了剛出爐熱騰騰的Magic Leap One Creator Edition(以下簡稱ML) ,迅速把所有應用里里外外扒了一遍,覺得有些意思。加上自己在AR領域做設計,擺弄過一些頭顯設備,所以這篇分享主要從佩戴、視覺、交互三個角度談談ML的使用體驗:(所有內容僅代表個人觀點)

1.佩戴體驗

  • 重量

第一個逃不開的話題就是重量。對比其他AR頭顯: Google Glass 36g, 悉見166g,Meta 500g,HoloLens 579g,ML 360g的重量雖然不是最重的,但佩戴起來也絲毫不輕鬆。ML將頭顯命名為Lightwear,這個願望很輕盈,但現實卻很沉重。

  • 尺寸

ML根據不同的頭部尺寸將型號劃分為大小1、2號,用戶可以根據根據自己頭部尺寸選擇合適的型號。我猜測這是因為此版本的工業設計方案使得機身無法調整寬度,所以留給大眾這樣一道選擇題,不知道大頭兒子和小頭爸爸一家會作何選擇?

  • 佩戴

與HoloLens用頂部扣帶承壓的方式不同,ML採用兩段伸縮帶夾住頭部的佩戴方式,並配有5種尺寸的鼻托,主要由眼腿兩側和鼻托承重。部分佩戴過的朋友反映被夾住的兩側頭部會有不適感。而優點是,佩戴過程簡單,也不會破壞髮型。

另外,這個版本暫時沒有針對佩戴眼鏡的用戶提供可替換的醫學鏡片插片,所以近視的我忍著手酸全程舉著眼鏡在寫這篇測評。

  • 外觀設計

輿論一邊倒的情況下,我就不反覆強調ta有多醜了...

2.視覺體驗

接下來重點聊聊整體的視覺感受。ML的水平視場角為40度,垂直30度,比HoloLens大一點,卻還是無法達到虛擬與現實融合所要求的大視角沉浸。用戶得到的視覺感受更像是透過視野內的窗戶去看虛擬景象, 並不能擁有完整的視野,這意味用戶很難觀看過大的物體。

  • 追蹤與畫面

ML採用英偉達最新的Tegra X2 多核處理器,包含四核ARM A57 CPU,雙核Denver 2 CPU和基於NVIDIA Pascal的GPU,具有256個CUDA核心。頭顯上有多個攝像頭和深度攝像頭,其實現環境感知的方式應該與HoloLens類似。在強大的硬體支持下,渲染速度、追蹤效果通常很好,但物體偶爾會移動或抖動。當我四處走動時,顯示的圖像有時會分裂成紅色,綠色和藍色。

  • 視覺效果

ML光學用了光波導實現了兩個距離的動態聚焦,相較之前的AR頭顯, ML的顏色和清晰度都略有提升。40度水平視場角,30度垂直視場角,4:3的屏幕比例在當今的AR領域並沒有優勢,體驗過程中能明顯感覺到屏幕的邊界感。針對這樣的光學限制,ML採取了一記組合拳來優化視覺體驗,一是將界面元素零散化,削弱用戶在移動邊界時畫面的切割感。

二是大量運用「煙霧」效果作為文字背景,這樣可以避免出現大面積實體色塊,暴露邊界,同時又能保留z軸的層級效果。

  • 內容布局

在ML提供的所有13個Apps中,從內容上看有:5個系統應用,4個遊戲類應用,3個影像類應用,1個體育類應用。其中和紐西蘭特效工作室Weta Workshop合作的Dr. Grordbort』s Invaders顯示「coming soon」還未正式上線。這個陣營雖然不大,但基本涵蓋了所有支持的技術方案和交互方式,作為示範的開發版本足夠。

從體驗方式看,所有App分為兩種類型:景觀式應用(Landscape Apps)和沉浸式應用程序(Immersive Apps)。基於Linux的Lumin OS系統支持多任務操作,所以用戶可以同時打開多個景觀式應用,定位在空間中。此類的應用多為功能性App,想像一下一邊看著NBA球賽,轉頭就是一副巨大的蒙拉麗莎。而沉浸式應用多為遊戲類,用戶一次只能體驗一個App。

在空間定位兩個景觀式應用
  • 界面風格

在視覺風格上,Lumin OS沒有墨守陳規,並有一套相對完整的設計體系。以下分析兩點非常亮眼的設計嘗試:

- 3D+Parallax

ML用Unity搭建的界面里,所有元素都構建在3D場景中。景深的變化豐富了整個界面,給用戶帶來多一個緯度的感受。除此之外,ML也應用了大量Parallax視效(視差效果),有點蘇州園林中移步異景的意思(隨著人的立足點的變化,窗戶外的景物也隨之改變),讓原本豐富的界面更加細膩和真實。

3D+Parallax 視覺效果

- See Through

ML See Through的界面風格完全摒棄了大多數AR設備採用的 Holographic Frame風格。最大特點在於,所有文字信息沒有背景框,文字作為獨立的元素出現。See through的優勢在於傳遞信息的同時沒有大面積遮擋用戶視野,充分考慮到了虛擬與現實之間的遮擋關係。

我們正處在AR發展的初期階段,很多頭顯設備界面大多在復用和參考web, app或是TV界面的設計思路。這些設計缺乏對空間的想像、對使用場景的分析、對現實與虛擬關係的思考。ML這套視覺方案,是一個新的思路,在我看來也是目前行業里最貼合AR使用場景的一套UI。ML在界面設計方面的努力和探索非常珍貴,對行業標準的建立也很有幫助。同為設計師,要給這群在新平台上不斷探索設計邊界的設計師們鼓掌 。

3.交互體驗

  • 交互方式

ML宣稱支持七種輸入指令,分別為:頭部姿勢、眼球追蹤、手勢、語音、6DoF手柄、App輸入和藍牙鍵盤。頭顯配備了4個嵌入式麥克風,多個攝像頭和深度攝像頭追蹤穿戴者的位置。我測試了這幾種交互方式,整體體驗較為順暢。值得注意的是,語音輸入並沒有在開發者版本中得到實際應用。

  • 輸入

眾多輸入方式中,ML較為保守地選擇了手柄控制作為最常用的交互方式,甚至在App中也提供了虛擬手柄作為備用。可見眼動追蹤、語音、手勢等技術還未成熟。

文字輸入一直是AR/MR方面的老課題,ML在這一方面並沒有突破性創新。短文本輸入主要採用手柄加虛擬鍵盤的輸入方式,長文本輸入,則支持手機app輸入和藍牙鍵盤。虛擬鍵盤支持numeric、web-search、ascii三種類型的鍵盤。從下圖可以看出,幾種鍵盤的設計稍稍有些區別。

  • 輸出

輸出部分除了視覺上的反饋,ML還配備了小型揚聲器,在重視聽感受的遊戲中(如Tónandi),揚聲器的環繞音效果還是相當驚艷的。除此之外,頭顯、外置處理器和手柄均配有提示燈,手柄還有額外配有的震動反饋。在輸出方面做足文章,一方面是為了更好地引導用戶操作,另一方面也是吸引開發者創造出更加豐富細膩的內容。

  • 問題

在使用過程中,其實還是存在一些不順暢的地方。比如之前提到的閃屏,另外我們還發現ML容易進入無指示狀態,俗稱「丟了」。過長的載入時間和引導界面的缺失,讓用戶很難掌握機器運行的狀態,從而反覆重啟,這點還是有點崩潰的。

4.嘗鮮小結

可以看出ML在軟、硬體上都有一些創新和優化,相比現有的AR頭顯有所進步,但並沒有實現他們所宣傳的巨大飛躍。很明顯,產品水準與他們所獲得的資源並不相符。另外,ML的定位是打造消費級的AR頭顯,缺失優質應用和FOV的局限可能是未來將面臨的巨大挑戰。

最後來閑話家常吧,我是一個在AR領域摸黑滾打的UX設計師。目前,設計在AR領域還存在很多空白和未知,這個看似高科技的新平台其實需要很多想像力來推動。在這裡發聲和分享,很大的原因是希望能有機會能跟同在探索AR+AI Design的大家聊聊,歡迎私信


便於直觀的理解,先闡述兩個觀點:

  1. Magic Leap在對標HoloLens,也實實在在想去彌補其不足,確實也優化了一些不足,更發揚了HoloLens的優點;
  2. 關於AR,其實可以劃分為輕量級的AR體驗和科幻式的MR體驗,這次讓大家深刻的認識到科幻式的MR體驗尚需努力,甚至說需要革命;但是也不能否定輕量級的AR體驗,因為它已經開始深入生活中了。

針對第一點:

Magic Leap優化的HoloLens備受詬病的部分:

  • 硬體性能與續航 - 分體式(但是是犧牲用戶體驗換來的)
  • 手勢控制 - 外設手柄(雖然犧牲酷炫的用戶體驗,但是確實更加實用了)
  • 視場角(少量的優化,但還是讓人是失望的)
  • 渲染的畫面 - 光學工程的優化和硬體性能的提升(HoloLens顯示畫面太通透,鋸齒感太強)

Magic Leap發揚的HoloLens的優點:

  • HoloLens為下一代人機交互體驗做了交互方式上的探索,包括SLAM、手勢、語音、頭部姿態;Magic Leap又新增了眼球追蹤、6DoF手柄、App輸入、藍牙鍵盤(有新技術的整合,但也有用戶體驗上的妥協與考量)
  • HoloLens為下一代人機交互體驗做了交互設計上的探索(尤其是後面發布的流暢設計,不得不承認雖然最終做成功的不一定是微軟,但是在想法探索上是走在前沿的),Magic Leap繼承這些優點並新增了更多的創新,未來在設計行業,XR Design要成為設計師們的基礎技能。

Magic Leap增強的HoloLens功能部分:

  • 引入了Web平台Helio,以便於開發者製作輕量級的MR內容場景;
  • 引入了可視化的編輯器,以便於開發者製作和預覽MR場景(但是編輯器真的很難用,期待更新吧);
  • 光場部分,憑藉著自己物理出身,當年詳細的去了解了一下Magic Leap所謂的光場技術,然後斷定其初代甚至初期的產品應該都不能真正實現;現在看來確實做了很多工程化的妥協,從Magic Leap吹牛逼的態度上來說,應該罵;但是從AR行業來說,這些進步也是值得鼓勵的;
  • 引入Persistent Coordinate Frames,類似於ARCore的Cloud Anchors API和ARKit的AR World Sharing and Persistence.(老實說如果此功能沒有,那我是要真的罵他了)

以上之外,關於硬體部分,有這樣的補充:

由於之前對NVIDIA非常關注,加上此次Magic Leap One剛好使用了NVIDIA Parker SoC,所以便對其格外關注。對比HoloLens,我們知道其選用了Intel Atom處理器(我覺得是微軟的無奈之舉,當時Windows僅支持x86系列處理器,並且非分體式的ID設計,就要求其必須選用低功耗的Intel Atom SoC,再搭配HPU 1.0【Customized Tensilica processors in the ASIC】),而Magic Leap選用了NVIDIA的成熟SoC,應該是目前最明智之舉。

NVIDIA Parker其實就是NVIDIA Tegra X2,早在之前國外的AR眼鏡Atheer便選用了NVIDIA Tegra K1。此次Magic Leap選用了Tegra X2,我認為應該是看重了NVIDIA在CV和AI上超高的軟硬體以及生態積累。畢竟NVIDIA的嵌入式AI計算平台Jetson TX2便是是採用NVIDIA Tegra X2。(比較好奇的是NVIDIA官網沒有Tegra X2的介紹,Magic Leap採用他們的晶元竟然也沒有PR一下)

關於Hololens與Magic Leap的性能,為了便於直觀的了解,需要先了解下性能單位TFLOPS,如下方比較:

  • NVIDIA GTX 1060 3GB(絕地求生基礎配置):單精度浮點運算(3470 GFLOPS,約為3.5 TFLOPS)

來源:

GeForce 10 series?

en.wikipedia.org圖標
  • Apple A9(iPhone 6S,ARKit限定的最低配置):單精度浮點運算(172.8 GFLOPS,約為0.17 TFLOPS)

來源:

GPU GFLOPS?

gflops.surge.sh圖標

Hololens HPU 1.0:1 TFLOPS(每秒一萬億次的浮點運算),但是不清楚是指半精度浮點運算還是指單精度浮點運算;

來源:

Microsoft reveals secret HoloLens processor specs?

www.theverge.com圖標

Magic Leap NVIDIA Tegra X2:單精度浮點運算(750 GFLOPS,約為0.75 TFLOPS,約為GTX 1060 3GB的1/5,約為Apple A9的4.3倍,)

來源:

Tegra - Wikipedia?

en.wikipedia.org圖標

至此,我們會發現,儘管NVIDIA Parker SoC比較強,但是面對應對CV強大的運算量,還是顯得有些不足,但是Magic Leap早已考慮到這一點,又採用了Intel? Movidius? Myriad? VPU 2(就像HoloLens的HPU,話說微軟的HPU 2.0別搞了,直接買Myriad X就完事了),如下圖,我們能發現Myriad 2能提供1TFLOPS。

來源:

https://movidius-uploads.s3.amazonaws.com/1532512604-1503680554-2016-12-12_VPU_ProductBrief.pdf?

movidius-uploads.s3.amazonaws.com


但是,這個方面沒有實現,我是感到很意外且失望的。

光估測(來自Google ARCore的描述)

檢測其環境光線的相關信息,並為您提供給定攝像頭圖像的平均光強度和色彩校正。 此信息讓您能夠使用與周圍環境相同的光照來照亮您的虛擬物體,提升它們的真實感。


針對第二點:

為什麼需要劃分為輕量級的AR體驗和科幻式的MR體驗?我覺得是對AR行業的清晰認識吧。不能因為科幻式的MR體驗讓大家失望了,就覺得AR行業不行了。關於輕量級的AR體驗,反而覺得現在開始深入生活了。關於這一點,可以參考我之前的文章:

彌知科技:XR, 新的生活與生產方式?

zhuanlan.zhihu.com圖標

譬如目前最火的AR濾鏡,可以發現只要是相機APP,甚至是帶有相機功能APP,誰家不接入AR技術呢?(微信:呵呵,我就不接)

更為關鍵的是早在幾年前,AR便已經是Snapchat產品線中重要的環節了,如下圖,我們能發現:2013年「數據濾鏡」便已經是AR的試水了,這是一種極為輕量的AR體驗,讓人開始認識到,相機軟體不僅僅是拍照;之後的「社區地理濾鏡」可以理解為是LBS的AR體驗;再然後2015年,「鏡頭」功能便可謂是正式將AR廣泛的推出;後面更是加大力度,無論是AR的玩法創新還是AR內容製作工具的開發。

但是,使用過Snapchat或者其它AR APP我們就會發現,體驗起來及其費電,並且用戶體驗沒能達到用戶期望值(也可以說是C端普及的必要體驗值),而如今這一現狀,已經在改善,並且是從最底層的改善。

  1. 各種基礎感測器已經成為標配,更為關鍵的是Apple帶頭的TrueDepth Camera,激發了國內外Android廠商的廣泛嘗試,相信不久的將來深度攝像頭會像陀螺儀感測器一樣普及;另一方面移動廠商開始為攝像頭搭載更加高性能的專屬晶元,如ISP(圖像信號處理器)和DSP(數字信號處理器);
  2. 嵌入式AI晶元的發展,迄今為止包括Apple(A11 Bionic)在內的HUAWEI(Hisilicon Kirin【寒武紀IP】)、Qualcomm(Snapdragon 850 Mobile Compute Platform、Qualcomm Vision Intelligence Platform(QCS605、QCS603)、Snapdragon 845 Mobile Platform)、Intel(Myriad VPUs)、Google(Pixel Visual Core【IPU】)、Imagination(PowerVR Series2NX Neural Network Accelerator)、MediaTek(MediaTek Helio X【VPU】)、NVIDIA(Jetson TX1、Jetson TX2、Jetson Xavier)、Cadence(Tensilica DSP)等眾多公司紛紛發布嵌入式AI晶元,這些AI晶元能充分卸載CPU計算,並且是以很低的功耗;
  3. 異構並行計算的興起,Android RenderScript、Apple Accelerate、Apple Metal Performance Shaders;
  4. 機器學習(尤其是深度學習)的廣泛發展,為CV的發展帶來了新機遇;並且眾多深度學習框架開始支持移動端(TensorFlow Lite、TensorFlow Mobile、Caffe2、NCNN等);操作系統層面提供為構建和訓練神經網路的更高級別機器學習框架提供基本功能層,如Android Neural Networks API、Apple Core ML);AI晶元層面也提供各種SDK以加速深度學習,如MediaTek NeuroPilot SDK、Arm NN、Qualcomm Neural Processing Unit SDK、Qualcomm Hexagon Neural Network、HUAWEI HiAI Foundation API、Intel OpenVINO toolkit、Movidius Myriad Development Kit等
  5. 新一代圖形和計算API逐漸支持(Vulkan、Metal),以加速高品質3D展示;
  6. 底層SDK的發展,尤其是ARKit與ARCore的發布。

反而當前急需的是如何讓相關的應用場景落地,來逐步改變人們的使用習慣。


至於科幻式的MR體驗,現在應該認清現實,穩步發展。用Magic Leap官網上面一張圖來說,其定義了三個人機交互體驗的時代,從第一個時代發展到第二個時代花費了30年,那麼從第二個時代發展到第三個時代,我相信也不是一蹴而就的,而輕量式的AR體驗只能算是第二個時代的擴展,最多可以算作是第二時代到第三時代的過渡。

本作品採用知識共享 署名-非商業性使用-禁止演繹 4.0 國際 許可協議進行許可。


對了,我們將在深圳、北京、上海、成都舉辦Magic Leap One的真機體驗日,歡迎大家來參加。

第一站首先是深圳(為啥它是第一站,因為它距離HK近,然後大家都懂得),識別下圖中二維碼關注公眾號「彌知科技」,開始報名吧。


當年magic leap CEO Abovitz吹出那麼大的牛,從投資人那裡取得巨額資金,也通過宣稱真正的原型產品(後來被爆料只是後期製作的特效視頻)擠兌死了N多潛在競爭者,憑什麼到了他自己這裡就說要別人冷靜點,讓他喘口氣?要我說,他要麼拿出跟他吹牛時一樣優秀的產品出來,要麼就狗帶,沒錯,就是讓他狗帶!絕對不能讓他喘半口氣!

為什麼要這麼「刻薄」?因為他品行不端。容忍這樣的人、這樣的公司存在,是對其他創業者的不公,如果他不狗帶,那麼死的就是整個創業大環境。以後投資人還怎麼能相信創業者的各種承諾?創業團隊又怎麼還能有心思去專註於自己的研發和營銷?

所以,各個媒體雖然沒有明說,但對magic leap one的負面評價會居多。與其說是對magic leap one的負面評價,不如說是對magic leap這家公司的負面評價。它挑戰了普世價值觀,所以整個社會自然而然地排斥他,僅此而已。

**********************************************

看來有同感的人不少嘛。

我不反對創業團隊拿效果圖出來,向公眾和投資者解釋自己的項目創意,但請誠實告知這是效果圖!請不要拿5~10年之後才有可能(僅僅是有可能)的臆想,吹噓成自己的成果。比這更惡劣的就是,同樣的行為再來一次!嗯嗯,ML就是這樣的,他發布了好幾次震撼人心的「真實」視頻。

小勝在智,大勝在德。偉大的企業必須要有足以支撐它的脊梁骨。


靜心設計的光學引擎是主要的噱頭,沒想到反過來限制了視角


推薦閱讀:
查看原文 >>
相关文章