雖然這篇inference深度學習鄉民發文沒有被收入到精華區:在inference深度學習這個話題中,我們另外找到其它相關的精選爆讚文章
在 inference深度學習產品中有8篇Facebook貼文,粉絲數超過2,646的網紅國立陽明交通大學電子工程學系及電子研究所,也在其Facebook貼文中提到, 提供完善AI建模工具 陽明交大讓自駕車辨識更精準 訊息來源 https://www.digitimes.com.tw/iot/article.asp?cat=130&cat1=40&id=0000607775_SPR8I9Y662CLUO66K07LI 陽明交通大學電機學院副院長暨嵌入式人工...
同時也有1部Youtube影片,追蹤數超過5,870的網紅珊蒂微AI,也在其Youtube影片中提到,上個月中的時候做了「Jetson Nano」的開箱影片,得到了不錯的迴響! 非常謝謝大家的回饋與支持!不知道大家有沒有發現,在那支影片當中,來賓提到「AI訓練、AI 推論 Inference」這兩個名詞。 除此之外,Google I/O開發者大會熱鬧展開!雖然沒能到現場(淚),但光看網路上發布的現...
-
inference深度學習 在 珊蒂微AI Youtube 的精選貼文
2019-05-14 16:14:04上個月中的時候做了「Jetson Nano」的開箱影片,得到了不錯的迴響! 非常謝謝大家的回饋與支持!不知道大家有沒有發現,在那支影片當中,來賓提到「AI訓練、AI 推論 Inference」這兩個名詞。
除此之外,Google I/O開發者大會熱鬧展開!雖然沒能到現場(淚),但光看網路上發布的現場影片也夠讓人流口水惹。科技巨頭在發布新產品與服務的時候,果然沒有要讓你停止說wow的意思啊!這些新科技產品+服務也都是經過「AI訓練」與「AI推論」才能實現在我們生活周遭的呦!
所以這支影片就來簡單地聊聊「AI訓練」與「AI推論」的概念吧!
inference深度學習 在 國立陽明交通大學電子工程學系及電子研究所 Facebook 的精選貼文
提供完善AI建模工具 陽明交大讓自駕車辨識更精準
訊息來源
https://www.digitimes.com.tw/iot/article.asp?cat=130&cat1=40&id=0000607775_SPR8I9Y662CLUO66K07LI
陽明交通大學電機學院副院長暨嵌入式人工智慧研究中心主任郭峻因。
嵌入式AI技術的應用漸廣,其中深度學習是目前最常用的演算法之一,此演算法需建立完整精確的訓練模型,推論(Inference)端才能順利發揮效益,在此次論壇中,陽明交通大學電機學院副院長暨嵌入式人工智慧研究中心主任郭峻因就以「嵌入式AI深度學習運算模型之建構與應用」為題,發表精采演說。
陽明交大的智慧視覺系統設計實驗室(NYCU iVS Lab),聚焦於各種智慧視覺研究,自駕車也是其中一環。郭峻因表示,自駕車已成全球汽車與科技兩大產業的共同趨勢,NYCU iVS Lab在此領域的研究包括各種ADAS所需的功能與相關技術,在感測器部分,除了視覺感測器外,其研究內容也包括光達(LiDAR)。他指出,影像辨識目前是AI的主流發展方向,在車用領域,AI也可應用於LiDAR,進行物件偵測與分析。
對於AI的導入建議,他表示開發者必須先行掌握圖資與軟硬體核心技術,再進行AI建模,在此環節郭峻因特別強調,建模時必須採用定點而非浮點運算,方能符合自駕車系統需求。針對目前AI設計趨勢與挑戰,郭峻因則以近期的某電動車事故為例點出問題癥結。日前台灣高速公路發生一起車禍,駕駛人放手讓電動車行駛,電動車卻直接撞擊前方道路上一輛倒臥的貨櫃車,在一般正常狀態下,該品牌電動車可偵測前方車輛,過近就會自動剎車,但在這次事件中,AI無法辨識靜止且呈倒臥姿態的貨櫃車是否為車輛,再加上白色車身影響了其視覺判斷,最終釀成車禍。
從這次事件可以看出目前AI在自駕車上的幾個問題,像是攝影機無法偵測車道車輛、霧與強光會干擾系統識別白色汽車、雷達有可能忽略靜態車輛、相機與雷達兩大感測器整合方式有待改進等,現在NYCU iVS Lab就致力於解決上述問題。
郭峻因緊接著談到嵌入式AI感應核心技術與應用。他指出標準的嵌入式深度學習開發,必須先設定與標示資料、再建構訓練模型。NYCU iVS Lab已針對上述環節推出不同平台,讓AI開發者在不同環節均有快速簡易的工具,協助業者縮短開發時程。
郭峻因表示,NYCU iVS Lab所推出的工具都經過測試,具有高度實用性,以資料的設定與標示為例,NYCU iVS Lab在此部分提供的ezLabel工具,只需要前後兩幀畫面,即可標記整段影像中的物件,大幅減少人工標記工時;ezLabel是網路開放平台,可讓全球各地深度學習專家與一般民眾使用,目前ezLabel 2.3版已累積有超過610位使用者。
模型建構部分,NYCU iVS Lab建構SSD輕量化模型與MTSAN(Multi-Task Semantic Attention Network;多任務語義注意網路)。SSD輕量化模型解決了過去此類模型因錨點(Anchor)密度不足,難以偵測瘦長物品的痛點,NYCU iVS Lab在加入CSPNet後,不僅強化運算速度與準確度,同時運算量與參數量也減少了一半。至於MTSAN則是結合物件偵測技術,利用畫素分割場域,並藉此強化物件特徵,郭峻因指出,光是此動作就可提升4.5%的準確度(mAP)。
自駕車導入可分割場域的MTSAN後,可與前車防碰撞(FCWS)或車道偏移系統(LDWS)整合,精準判斷車道,在山路上行駛時,可以識別彎曲車道線,另外也可加入2D與3D的卷積(Convolution)行為分析技術,用來預測後端車輛的超車方向與可能性。
演講最後郭峻因引述美國未來20年發展AI的藍圖做總結。他表示未來的AI必須與情境整合,同時打造開放性知識場域,集結眾人之力,讓AI可了解人類的智能與反應,以進行有意義的互動,此外AI也必須能自我學習,整合周邊環境的各種資訊,培養應對困難挑戰的能力。
至於自駕車的AI應用,他則指出需強化研發各種感知技術,讓車輛可以精準識別路上各類型物件與其移動的意向,將是未來產學研的重點,透過這些研發,車禍事故發生機率將可大幅降低,進而建構安全可靠的交通場域。
inference深度學習 在 網路資訊雜誌 Facebook 的最佳貼文
#Nvidia 與 #哈佛大學 研究人員利用原本用於電腦視覺的 #神經網路,發展出一個能協助科學家研究罕見細胞型態的深度學習工具,稱為 #AtacWorks。
AtacWorks過去在32個CPU核心的系統上完成整個基因組的推論(inference)需要15小時,而跑在Nvidia Tensor Core GPU的系統上,只需不用30分鐘即可完成。
inference深度學習 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
AI 時代的摩爾定律?黃氏定律靠的是自身技術力將 AI 性能年年加倍
作者 雷鋒網 | 發布日期 2020 年 12 月 16 日 8:45
1965 年,時任快捷半導體公司工程師,也是後來英特爾(Intel)的創始人之一的戈登·摩爾(Gordon Moore)提出了摩爾定律(Moore’s law),預測積體電路上可以容納的晶體管數目大約每經過 24 個月便會增加 1 倍。
後來廣為人知的每 18 個月晶片性能將提高 1 倍的說法是由 Intel CEO 大衛·豪斯(David House)提出。過去的半個多世紀,半導體行業按照摩爾定律發展,並驅動了一系列的科技創新。
有意思的是,在摩爾定律放緩的當下,以全球另一大晶片公司 NVIDIA 創始黃仁勳(Jensen Huang)名字命名的定律——「黃氏定律(Huang’s Law)」對 AI 性能的提升作出預測,預測 GPU 將推動 AI 性能實現逐年翻倍。
Intel 提出了摩爾定律,也是過去幾十年最成功的晶片公司之一。NVIDIA 作為當下最炙手可熱的 AI 晶片公司之一,提出黃氏定律是否也意味著其將引領未來幾十年晶片行業的發展?
AI 性能將逐年翻倍
受疫情影響,一年一度展示 NVIDIA 最新技術、產品和中國合作夥伴成果的 GTC China 改為線上舉行,黃仁勳缺席今年的主題演講,由 NVIDIA 首席科學家兼研究院副總裁 Bill Dally 進行分享。Bill Dally 是全球著名的電腦科學家,擁有 120 多項專利,在 2009 年加入 NVIDIA 之前,曾任史丹佛大學電腦科學系主任。加入 NVIDIA 之後,Dally 曾負責 NVIDIA 在 AI、光線追蹤和高速互連領域的相關研究。
在 GTC China 2020 演講中,Dally 稱:「如果我們真想提高電腦性能,黃氏定律就是一項重要指標,且在可預見的未來都將一直適用。」
Dally 用三個項目說明黃氏定律將如何得以實現。首先是為了實現超高能效加速器的 MAGNet 工具。NVIDIA 稱,MAGNet 生成的 AI 推理加速器在模擬測試中,能夠達到每瓦 100 tera ops 的推理能力,比目前的商用晶片高出一個數量級。
之所以能夠實現數量級的性能提升,主要是因為 MAGNet 採用了一系列新技術來協調並控制通過設備的訊息流,最大限度地減少數據傳輸。數據搬運是 AI 晶片最耗能的環節已經是當今業界的共識,這一研究模型以模組化實現能夠實現靈活擴展。
Dally 帶領的 200 人的研究團隊的另一個研究項目目標是以更快速的光鏈路取代現有系統內的電氣鏈路。Dally 說:「我們可以將連接 GPU 的 NVLink 速度提高一倍,也許還會再翻番,但電信號最終會消耗殆盡。」
這個項目是 NVIDIA 與哥倫比亞大學的研究團隊合作,探討如何利用電信供應商在其核心網絡中所採用的技術,通過一條光纖來傳輸數十路信號。據悉,這種名為「密集波分複用」的技術,有望在僅一毫米大小的晶片上實現 Tb/s 級數據的傳輸,是如今連網密度的 10 倍以上。
Dally 在演講中舉例展示了一個未來將搭載 160 多個 GPU 的 NVIDIA DGX 系統模型。這意味著,利用「密集波分複用」技術,不僅可以實現更大的吞吐量,光鏈路也有助於打造更為密集的系統。
想要發揮光鏈路的全部潛能,還需要相應的軟件,這也是 Dally 分享的第三個項目——全新程式語言系統原型 Legate。Legate 將一種新的編程速記融入了加速軟件庫和高級運行時環境 Legion,借助 Legate,開發者可在任何規模的系統上運行針對單一 GPU 編寫的程序——甚至適用於諸如 Selene 等搭載數千個 GPU 的巨型超級電腦。
Dally 稱 Legate 正在美國國家實驗室接受測試。
MAGNet、以光鏈路取代現有系統內的電氣鏈路以及 Legate 是成功實現黃氏定律的關鍵,但 GPU 的成功才是基礎。因此,GPU 當下的成功以及未來的演進都尤其重要。
GPU 是黃氏定律的基礎
今年 5 月,NVIDIA 發布了面積高達 826 平方毫米,整合了 540 億個晶體管的 7 奈米全新安培(Ampere)架構 GPU A100。相比 Volta 架構的 GPU 能夠實現 20 倍的性能提升,並可以同時滿足 AI 訓練和推理的需求。
憑藉更高精度的第三代 Tensor Core 核心,A100 GPU AI 性能相比上一代有明顯提升,此前報導,在 7 月的第三個版本 MLPerf Training v0.7 基準測試(Benchmark)結果中,NVIDIA 的 DGX SuperPOD 系統在性能上開創了 8 個全新里程碑,共打破 16 項紀錄。
另外,在 10 月出爐的 MLPerf Inference v0.7 結果中,A100 Tensor Core GPU 在雲端推理的基準測試性能是最先進 Intel CPU 的 237 倍。
更強大的 A100 GPU 迅速被多個大客戶採用,迄今為止,阿里雲、百度智能雲、滴滴雲、騰訊雲等眾多中國雲服務提供商推出搭載了 NVIDIA A100 的多款雲服務及 GPU 實例,包括圖像辨識、語音辨識,以及計算流體動力學、計算金融學、分子動力學等快速增長的高性能計算場景。
另外,新華三、浪潮、聯想、寧暢等系統製造商等也選擇了最新發布的 A100 PCIe 版本以及 NVIDIA A100 80GB GPU,為超大數據中心提供兼具超強性能與靈活的 AI 加速系統。
Dally 在演講中提到:「經過幾代人的努力,NVIDIA 的產品將通過基於物理渲染的路徑追蹤技術,即時生成令人驚豔的圖像,並能夠借助 AI 構建整個場景。」
與光鏈路取代現有系統內的電氣鏈路需要軟硬體的匹配一樣,NVIDIA GPU 軟硬體的結合才能應對更多 AI 應用場景苛刻的挑戰。
Dally 在此次的 GTC China上首次公開展示了 NVIDIA 對話式 AI 框架 Jarvis 與 GauGAN 的組合。GauGAN 利用生成式對抗網路,只需簡略構圖,就能創建美麗的風景圖。演示中,用戶可通過語音指令,即時生成像照片一樣栩栩如生的畫作。
GPU 是黃氏定律的基礎,而能否實現並延續黃氏定律,僅靠少數的大公司顯然不夠,還需要眾多的合作夥伴激發對 AI 算力的需求和更多創新。
黃氏定律能帶來什麼?
NVIDIA 已經在構建 AI 生態,並在 GTC China 上展示了 NVIDIA 初創加速計劃從 100 多家 AI 初創公司中脫穎而出的 12 家公司,這些公司涵蓋會話人工智慧、智慧醫療 / 零售、消費者網路 / 行業應用、深度學習應用 / 加速數據科學、自主機器 / IoT / 工業製造、自動駕駛汽車。
智慧語音正在改變我們的生活。會話人工智慧的深思維提供的是離線智慧語音解決方案,在佔有很少空間的前提下實現智慧交互,語音合成和語音辨識保證毫秒級響應。深聲科技基於 NVIDIA 的產品研發高質量中英文語音合成、聲音定制、聲音複製等語音 AI 技術。
對於行業應用而言,星雲 Clustar 利用 NVIDIA GPU 和 DGX 工作站,能夠大幅提升模型預測精確度以及解決方案處理性能,讓傳統行業的 AI 升級成本更低、效率更高。
摩爾定律的成功帶來了新的時代,黃氏定律能否成功仍需時間給我們答案。但這一定律的提出對 AI 性能的提升給出了明確的預測,並且 NVIDIA 正在通過硬體、軟體的提升和創新,努力實現黃氏定律,同時藉生態的打造想要更深遠的影響 AI 發展。
黃氏定律值得我們期待。
附圖:▲ NVIDIA GPU 助推 AI 推理性能每年提升 1 倍以上。(Source:影片截圖)
▲NVIDIA 首席科學家兼研究院副總裁 Bill Dally。
▲ 搭載 160 多個 GPU 的 NVIDIA DGX 系統模型。
資料來源:https://technews.tw/2020/12/16/huang-law-predicts-that-ai-performance-will-double-every-year/?fbclid=IwAR1vXHWAGt_b8nDRW6VUqzpAINX_n_DzJ0KwJvdBnl18s8Q1A3Thk7hgBoI