雖然這篇nn加速器鄉民發文沒有被收入到精華區:在nn加速器這個話題中,我們另外找到其它相關的精選爆讚文章
在 nn加速器產品中有2篇Facebook貼文,粉絲數超過2萬的網紅COMPOTECHAsia電子與電腦 - 陸克文化,也在其Facebook貼文中提到, #汽車電子 #人工智慧AI #先進駕駛輔助系統ADAS #車載資訊娛樂系統IVI #車聯網V2X #神經網路加速器NNA #圖形處理器GPU #感測器融合SensorFusion 【GPU+NNA,挑動汽車視神經】 因為自動駕駛汽車和先進駕駛輔助系統 (ADAS) 的泛在利益,汽車...
nn加速器 在 COMPOTECHAsia電子與電腦 - 陸克文化 Facebook 的最佳解答
#汽車電子 #人工智慧AI #先進駕駛輔助系統ADAS #車載資訊娛樂系統IVI #車聯網V2X #神經網路加速器NNA #圖形處理器GPU #感測器融合SensorFusion
【GPU+NNA,挑動汽車視神經】
因為自動駕駛汽車和先進駕駛輔助系統 (ADAS) 的泛在利益,汽車行業已成推動人工智慧 (AI) 發展的重要行業之一;儘管業界還在討論實現全自動化所需的理想技術組合,但有一點是明確的,那就是:AI、尤其是神經網路 (NN) 將發揮重要作用,執行對於傳統視覺或模式識別系統來說具有挑戰性的任務,並針對特定任務進行設計,以便更高效、精確地執行。
所有神經網路的組織模式都是在多個層面上多次處理資料。因此,神經網路可在不同的輸入模式下運行十到二十次,而不是用一組特定的參數只運行一次操作;透過不同路徑,選擇的數量就會增加。當到了需做出決策時,它已從輸入中提取了所有資訊。在路標識別示例中,第一層可能正在尋找一個標識的角形狀,然後是顏色等各步驟依序執行,直到它非常確信地說這是一個路標並說明其含義。
這樣做的好處在於無需對每一個步驟都進行程式設計。神經網路將會自己完成,並隨時間推移而不斷學習。該演算法知道它需要識別的內容,將嘗試不同方法直到實現目標,並在過程中不斷學習。一旦神經網路經過培訓,它便可在實際應用中發揮作用。這意味著工程師不必花費數小時來微調複雜的演算法,只需向神經網路展示它需要發現的內容並讓其自學完成。
這些技術已在車輛中被廣泛用於目標檢測、分類和分析,駕駛員監測、存取控制及語音和手勢識別也可利用不同類型的神經網路。此外,將傳統視覺與神經網路結合的 AI 方法,可用於行人路徑分析和環繞視圖等應用場景,它將同時依賴於圖形處理器 (GPU) 和神經網路加速器 (NNA)。在從感測器到電子控制單元 (ECU) 整個鏈路中也可使用神經網路,在預處理、中間處理和無人車後處理使用的各種技術將 AI 引入其中。
此外,車聯網 (V2X) 將主要使用自動駕駛汽車作為傳感載體,為各種智慧城市和智慧交通場景提供資料和資訊。同樣,這些進展將依賴於採用 GPU 和 NNA 的方法實現人工智慧,以支持來自越來越大的輸入集的各種分析和計算。自動駕駛和高度自動化的車輛將嚴重依賴各種類型的感測器,包括攝像頭、熱成像、雷達、光達 (LiDAR) 等。所有這些感測器傳出的訊號都需要進行解讀和融合,以便全面瞭解車輛內部和外部發生的情況。感測器融合對於自動駕駛至關重要。
延伸閱讀:
《助力汽車自我思考》
http://compotechasia.com/a/tech_application/2020/0120/43855.html
(點擊內文標題即可閱讀全文)
#ImaginationTechnologies
nn加速器 在 COMPOTECHAsia電子與電腦 - 陸克文化 Facebook 的最佳貼文
#電源設計 #數位訊號處理器DSP #IP核心 #卷積神經網路CNN
【硬體加速器非萬靈丹!執行效率與功耗是兩大瓶頸】
網路直播的浪濤泉湧,數千人同時在線上閱聽影音內容已屬司空見慣,行動終端的運算能力亦須跟上時代,視覺串流的處理尤其備受關注;加上監控和穿戴式裝置以全年無休的「不斷線」(always-on) 為發展職志,若無法壓低功耗,電力恐撐沒多久就玩完了。一般保全監控視訊、汽車光達 (LiDAR)/雷達、無人機和感測器融合等應用的視覺系統需要兩種優化運算:首先,運用傳統運算攝影/成像演算法對來自攝影機的輸入進行強化,其次,由神經網路的辨識演算法執行物體偵測和辨識。為達極致省電目的,從「IP 核心」根本革新有其必要性。
神經網路 (NN) 已成深度學習顯學,但運算極具挑戰。一般常見的作法是將影像數位訊號處理器 (DSP) 綑綁「NN 硬體加速器」(accelerator),但這種 DSP+NN 引擎的架構,乃將神經網路編碼分割處理,不斷在 DSP 的網路層與加速器的卷積層之間加載、卸載,而將其他層級的運算工作全數丟給主要 DSP / CPU / GPU 一肩獨攬。如此一來,不僅執行效率不佳、且會造成不必要的耗電,如果 NN 架構的神經元 (Neurons) 數量增加,其間鍵結也會隨之平方增加;若利用硬體加速 NN 的運算速度,所需硬體結構複雜度將大幅增加而變得不容易實現。
卷積神經網路 (CNN) 演算法有三大發展趨勢:1. 近來不到四年的時間,運算需求狂增十六倍;2. 網路架構趨於規律化,層次分明——例如,AlexNet 適用於規模較大的卷積運算、ResNet 適用於規模較小者,以及線性 (Linear) 或分支 (branch)運算;3.新應用層出不窮,遍及汽車、伺服器、家庭語音助理、手機及監控等。「非卷積演算」因鏈結關係相對簡單,運算次序無傷大雅,硬體加速器尚可應付;但若是具有綿密而複雜的對應關係、須步步為營的 CNN,邏輯一旦錯位,這些次序不明確且無法判讀意義的資料會讓網路混淆。
一種被稱為「獨立自含式」的 DSP IP,是業界首款真正專為 NN 獨立運作而生;所建構的「通用型」神經網路 DSP,可加速所有神經網路運算架構,包括:卷積 (Convolutional)、全連接 (Fully connected)、池化/取樣 (Pooling) 及標準化 (Normalization),以精算「型態辨識」(Pattern recognition) 與相鄰資料間的關係;藉由消除神經網路 DSP 與主要視覺/影像 DSP 之間的外來資料移動,提供較 NN 加速器、GPU 和 CPU 更低功耗及簡單的 NN 編程模型。至於「視覺處理器」(VPU) 變種產品,恐須用更多硬體才能實現同等效能,將會導致整體功耗變高。
延伸閱讀:
《捨棄加速器!Tensilica 獨立自含式 DSP IP 更有效率》
http://compotechasia.com/a/____/2017/0615/35753.html
(點擊內文標題即可閱讀全文)
#益華電腦Cadence #Tensilica #Vision C5
★★【智慧應用開發論壇】(FB 不公開社團:https://www.facebook.com/groups/smart.application/) 誠邀各界擁有工程專業或實作經驗的好手參與討論,採「實名制」入社。申請加入前請至 https://goo.gl/forms/829J9rWjR3lVJ67S2 填寫基本資料,以利規劃議題方向;未留資料者恕不受理。★★