風雲正起的AIoT商業化江湖,誰能問鼎?

中新經緯7月19日電 如今的AIoT江湖,群雄競逐,風雲正起。

3月,宇視科技釋出2021年度報告時以“智慧物聯”代替之前著重發力的“安防”;4月,海康威視第一次在年報裡修改有關未來業務的表述,明確現在的業務領域為“智慧物聯AIoT”;同月,大華股份緊隨其後強調“智慧物聯”成為新的業務核心。

這些IoT物聯網巨頭向著AIoT的戰略大調整,是IoT與AI融合的趨勢照進現實最明顯的體現。

回頭看,轉變與關注不止發生在IoT物聯網巨頭間,AI勢力早已身入AIoT江湖。“脫實向虛”的IoT物聯網邊界不斷擴張,“脫虛向實”的AI技術不斷髮展,兩者交匯於“AIoT”,看起來是科技創新領域發展迎來的絕佳機遇。

7月15日,曠視科技在北京舉辦的2022曠視技術開放日(MegTech 2022)上表示,將繼續錨定AIoT戰略,堅定構建由以“基礎演算法科研”“規模演算法量產”為兩大核心的AI技術體系和以“計算攝影學”為核心的“演算法定義硬體”IoT技術體系(包括AI感測器和AI機器人)組成的“2+1”的核心技術科研體系。

正當時:戰略瞄準AIoT

2016年,人們見證了AlphaGo打敗世界冠軍棋手李世石,“機器人究竟可以在什麼程度上取代人”這類的問題引發了全球範圍內的研討。這背後,是普通大眾開始對走向臺前的AI產生的強烈好奇和關注。

四年後,相同的一批人又共同迎來了一個新的歷史時刻:全球物聯網的連線數首次超過非物聯網的連線數。這意味著,“物超人”的時代正式來臨。

此時再往回看,人們意識到,伴隨著世界範圍內深度學習的興起和演算法能力的突飛猛進,以計算機視覺為核心的中國人工智慧產業也在國內網際網路發展的三波浪潮下取得了飛躍式的發展。

在第一波浪潮中,網際網路的基礎設施被構建完成,人們可以透過PC及移動端連線入網;之後,人們在爆發式出現的網際網路應用裡更加自如地享受網際網路的便捷服務,此時社交平臺、電商集中發展;如今,我們正處於第三波網際網路浪潮中,AIoT智慧物聯網時代已經開啟。

激盪的時代浪潮造就偉大的人和先進的技術,人類社會的這一歷史發展規律同樣完全適用於現在這個時代。這表現在,早有一批人和企業站在時代風口,開始了關於AIoT的探索之路。

這其中就包括了已經成立了11年的曠視,其始終深耕AI主航道,AIoT也一直是曠視發展最核心的主旋律。

關於“AIoT”,曠視在實踐中對其形成了一套創新定義,即“AIoT=AI+IoT+空間”。其中,AI是不斷演進的演算法能力,如今越來越多的演算法正在各行各業發揮核心的價值;IoT是軟硬結合的裝置載體,透過特定的載體,AI才能真正在能夠規模化落地的場景裡面最大限度地釋放價值。基於此,曠視認為,AI和IoT相輔相成,核心相關。

在對AIoT的理解上,曠視還創新性地加了一層“空間”,理解成應用場景的閉環。曠視認為,網際網路、5G、AR、VR等技術的不斷演進似乎只使虛擬世界產生了翻天覆地的變化,並沒有在根本上作用於物理世界的改造。因此,“Make the Physical World Better”才應該是AIoT從業者未來努力追求的方向。

如果說選定AIoT賽道是佔得了行業先機,那麼如何能以核心競爭力守住領先優勢,才是曠視未來很長一段時間內真正面臨的考驗。

為此,曠視特別構建了“2+1”的科研戰略體系,即以“基礎演算法科研”和“規模演算法量產”為兩大核心的AI技術體系,和以“計算攝影學”為核心的“演算法定義硬體”IoT技術體系(包括AI感測器和AI機器人)。

曠視聯合創始人、CEO印奇堅定認為,“2+1”的AIoT核心技術科研體系,是支撐曠視未來不斷走向AIoT商業化成功的重要基石。

風雲正起的AIoT商業化江湖,誰能問鼎?

曠視聯合創始人、CEO印奇介紹曠視的AIoT科研體系

造價值:演算法量產與AIS平臺

實現演算法的全場景植入,可以被理解成是AIoT最具標誌性的成果。從這個意義出發,演算法量產、落地實用便是演算法價值的最終檢驗標準。

當在很多應用場景和環境中,一個具體需求的落地需要將幾個演算法串在一起構建一整個演算法的流程才能實現,曠視的演算法生產也經歷了從點到線再到面的演進過程。

曠視研究院演算法量產負責人周而進在開放日上總結曠視過去十多年在演算法生產和應用落地過程中的實踐經驗指出,演算法生產的主要困難集中在整個生產環節的複雜性。具體來說,主要體現在資料生產的複雜性、整個演算法模型在生產過程中的不確定性,以及硬體平臺的多樣性。

比如,從生產場景中獲得的各式各樣的原始資料本身並不乾淨,會夾雜各種不一樣的資料噪聲,那麼該如何在生產環節就剔除這些內容?模型作為“AI的大腦”,如何在數不勝數的模型中選擇最合適的,如何使它適應各式各樣的硬體平臺載體上面,進一步地,又有哪些手段可以用於迭代、調優、提升模型?還有面對針對不一樣的硬體平臺需要設計不一樣的演算法邏輯的問題,AI生產人員如何才能寫出高效的程式碼?

面對不同應用場景落地中遇到的種種複雜的挑戰,曠視在2022技術開放日上正式推出了自研的演算法生產平臺AIS(AI Service),從資料到模型訓練,到效能分析調優,到推理部署測試,功能涵蓋演算法生產全鏈路,演算法量產可能真正成為現實。

標準化是曠視在演算法生產流程中的核心優勢,標準化能力也是AIS面向所有人提供的核心能力。這個能力透過提供標準化的資料處理過程,以及標準化的硬體部署工具鏈來展現。使用者可以依託平臺完成從資料清洗到模型推薦及系統診斷,再到硬體推理的整個流程,大幅降低了演算法生產的門檻,提升了演算法生產效率。

從本次技術開放日展示的兩個具體DEMO中,可以看出AIS平臺的優越性。一是曠視運動猿小剛產品,自研模型可以快速精準地檢測超過30個人體骨骼點,從而準確描述人體運動過程中的各個動作姿態,完成高精度的測距、測速和計數;二是動態智慧貨櫃,只需安裝 1-2 個攝像頭,這類智慧櫃即可快速準確地識別出上千種SKU的商品資訊,這背後的動態視覺識別演算法方案就產自於AIS平臺。

風雲正起的AIoT商業化江湖,誰能問鼎?

曠視運動猿小剛DEMO展示

風雲正起的AIoT商業化江湖,誰能問鼎?

動態智慧貨櫃DEMO展示

據瞭解,目前,AIS平臺已經能夠支援100多種業務模型訓練,最快2小時即可完成,而且模型產出精度指標遠高於業界平均水平。經驗證,演算法研發人員使用曠視的Brain++和AIS平臺,可以實現智慧標註平均加速30倍,自動學習訓練加速4至20倍。

新思路:“演算法定義硬體”

2021年的相關資料顯示,目前AI在全場景的滲透率僅有4%。這意味著,約96%的場景還沒有被AI滲透,因此未來發展潛力仍然巨大。

業內分析認為,這些沒有被滲透到的場景,基本對應資料採集困難、演算法複用度低的大量碎片化場景。而在碎片化場景裡,“硬體+適配性演算法”的傳統方案不足以彌合落地效果與真實場景需求之間的鴻溝。

因此,曠視獨創性地強調其“演算法定義硬體”理念為核心的新型IoT硬體技術體系,以解決AIoT現階段特殊化的場景需求和發展困難。

當不斷改造升級的海量應用對演算法提出越來越多的需求時,演算法在感測器與應用間承上啟下的橋樑作用也越來越明顯。一方面,演算法能夠明白應用想知道什麼,需要知道什麼,什麼有價值;另一方面,演算法也知道使用者對於感測器的需求是什麼,使用者想收集什麼樣的原始資訊。因此,演算法也具備了向感測器需要提供的資訊和輸入提出要求的能力,甚至本質性地改造了感測器的形態以及樣式。

曠視研究院計算攝影負責人範浩強在開放日上分享的“AI定義感測器”便是“演算法定義硬體”的核心單元體現。

那麼,一個新思考又就此形成:如何實現“演算法定義硬體”?

曠視認為,全鏈路的整合能力是做演算法定義感測器硬體的核心。範浩強解釋:“在感測器上,我們需要能夠有光學、模組、電子學的設計能力;在演算法上,需要搞定深度學習,對感測器的物理建模以及相關的一些演算法技術等等;更重要的是在應用層,我們需要懂需求,需要知道在哪個維度上影像以及感測能力是需要被增強的,哪些維度上是可以進行取捨的。”

令人欣喜的是,曠視作為AIoT行業的新勢力,已經可以實現以上所有能力的整合,由此夯實了曠視參與“AI定義感測器”事業的最大信心和底氣。

據瞭解,曠視已經和合作夥伴一同實現了千萬顆級別的指紋感測器出貨能力,推出的產品擁有目前業界最小的尺寸以及最快的識別速度,計算延遲被控制在10個毫秒以內。不僅如此,使曠視定義的AI光學指紋擁有超聲波的速度和電容的安全性,在今年也已經實現。

曠視對於“AI定義感測器”的探索也並非止步於此。範浩強同時釋出了兩個新技術願景:從畫質的維度上講,提出走向16K AI極超高畫質的AI畫質,希望透過AI、感測和顯示的三者聯動,打造真正身臨其境的影像體驗;從 IoT的感測角度上講,將推動感測器往更加極致的小型化、低功耗方向發展,深化和每個人自身及生活的深度結合。

領未來:基礎科研與全行業同頻共振

在印奇看來,AI和IoT並不是並列關係,AI是曠視一直堅持的核心能力, IoT是核心載體。在IoT裡,需要不斷定義更能夠匹配核心的AI大腦的感測器以及機器人,而在AI裡,推動演算法量產,真正實現演算法價值的前提是好的基礎模型科研創新。

2012年,“大型的深度卷積神經網路”AlexNet的成功推動了深度學習的興起。之後,AI便隨著CNN、Transformer等一系列經典模型的現世大踏步前進。這是AI行業基調往前的10年,也是曠視與行業同頻共振的10年。

時間發展至2022年,AI視覺的效能一定程度上已經可以與人類比肩,曠視基礎科研的腳步也已漸深至遠。

過去一年,曠視推出的專門用於點雲和自動駕駛場景3D檢測任務的動態卷積神經網路Focal Sparse CNN展現了當下最好的效能;NAFNet網路也可以更好地利用和保持影象原有的資訊,對於影象畫質恢復、DeNoise、SR等視覺重建任務具有更好的效能。

面向未來,曠視研究院基礎科研負責人張祥雨指出“大”和“統一”已經成為視覺AI基礎研究的最新趨勢。

前者主要指AI大模型,即利用大資料、大算力和大引數量,提高模型的表達能力,使得AI模型能夠適用於多種任務、多種資料和多種應用場景。後者指由AI視覺研究領域涵蓋的多個領域裡的每一個研究路徑衍生的一系列演算法,正在底層走向統一。

從“大”和“統一”這兩大觀點出發,曠視未來基礎模型科研著重發力通用影象大模型、影片理解大模型、計算攝影大模型,以及自動駕駛感知大模型。

以自動駕駛感知大模型為例,曠視構造的新網路PETR已經可以極大地簡化基於自動駕駛的視覺AI系統的設計,並且減少人工的先驗,能讓工程師更好地從資料中學習到真正網路需要的知識。

於AIoT的入局者而言,他們正經歷一場未有之技術大變局,且應該意識到,這將是一段漫長的征程。儘管業內預測AIoT將迎來它輝煌的黃金十年,但未來終歸屬於未知,頗具變數。基於此,破局的眼光、視野與雄心不可少,選擇的路徑更不能錯。

誰將問鼎AIoT江湖或許短期內難有令人信服的預測,但以“基礎模型科研”提升內功,以“演算法量產”補充實戰經驗,以“演算法定義硬體”作稱手兵器,曠視無疑正走在一條充滿希望的路上。

TAG: AI曠視演算法AIoTIoT