雖然這篇cnn卷積層鄉民發文沒有被收入到精華區:在cnn卷積層這個話題中,我們另外找到其它相關的精選爆讚文章
在 cnn卷積層產品中有2篇Facebook貼文,粉絲數超過1萬的網紅國研院科政中心,也在其Facebook貼文中提到, #導入語料庫訓練說方言也難不倒 🔺英語語系🔺 2016年10月,微軟運用卷積神經網路(CNN)及長短時記憶模型(LSTM)訓練的語音識別系統,在標準口語資料庫Switchboard上測試的詞錯率(WER)已降至5.9%,樹立機器語音辨識準確率超越人類專業速記員的里程碑;在自然語言理解方面...
cnn卷積層 在 國研院科政中心 Facebook 的最佳解答
#導入語料庫訓練說方言也難不倒
🔺英語語系🔺
2016年10月,微軟運用卷積神經網路(CNN)及長短時記憶模型(LSTM)訓練的語音識別系統,在標準口語資料庫Switchboard上測試的詞錯率(WER)已降至5.9%,樹立機器語音辨識準確率超越人類專業速記員的里程碑;在自然語言理解方面,2018年1月初,在業內被譽為機器閱讀理解界的頂級賽事,由史丹福大學發起的SQuAD機器閱讀理解挑戰賽上,微軟亞洲研究院開發的r-net+模型及阿里巴巴iDST開發的SLQA+模型前後刷新紀錄,其模型在閱讀理解文章後,可完全正確或部分正確回答問題的評分超越人類能夠達到的水準,不僅是自然語言處理領域的一大進展,結合AI語音技術亦能進一步開拓智慧客服、教育領域、新聞媒體及搜尋引擎等領域之應用,但值得注意的是這兩項標準測試都是採用標準文本或在無干擾的單純環境下進行,在真實情境下的運用還需要演算法、數據和模型上的創新與精進。
🔺中文語系🔺
百度發表的深度語音識別系統 Deep Speech 2對中文語音的識別準確率可達到97%,音訊轉寫的速度較人工速記快1.67倍,MIT科技評論遴選其為2016年十大突破技術之一,轉寫逐字稿可為人類省下四成工時。科大訊飛在MIT於2017年發表「全球最聰明的50家企業」中名列全球第6,其以眾包方式採集22種方言的語料庫,運用大量的卷積層對語音信號進行模型建構,訊飛輸入法可識別包括粵語、湖南語、客家語…等多種方言口音。
全文網址:https://goo.gl/CmJnA8
cnn卷積層 在 COMPOTECHAsia電子與電腦 - 陸克文化 Facebook 的最佳貼文
#電源設計 #數位訊號處理器DSP #IP核心 #卷積神經網路CNN
【硬體加速器非萬靈丹!執行效率與功耗是兩大瓶頸】
網路直播的浪濤泉湧,數千人同時在線上閱聽影音內容已屬司空見慣,行動終端的運算能力亦須跟上時代,視覺串流的處理尤其備受關注;加上監控和穿戴式裝置以全年無休的「不斷線」(always-on) 為發展職志,若無法壓低功耗,電力恐撐沒多久就玩完了。一般保全監控視訊、汽車光達 (LiDAR)/雷達、無人機和感測器融合等應用的視覺系統需要兩種優化運算:首先,運用傳統運算攝影/成像演算法對來自攝影機的輸入進行強化,其次,由神經網路的辨識演算法執行物體偵測和辨識。為達極致省電目的,從「IP 核心」根本革新有其必要性。
神經網路 (NN) 已成深度學習顯學,但運算極具挑戰。一般常見的作法是將影像數位訊號處理器 (DSP) 綑綁「NN 硬體加速器」(accelerator),但這種 DSP+NN 引擎的架構,乃將神經網路編碼分割處理,不斷在 DSP 的網路層與加速器的卷積層之間加載、卸載,而將其他層級的運算工作全數丟給主要 DSP / CPU / GPU 一肩獨攬。如此一來,不僅執行效率不佳、且會造成不必要的耗電,如果 NN 架構的神經元 (Neurons) 數量增加,其間鍵結也會隨之平方增加;若利用硬體加速 NN 的運算速度,所需硬體結構複雜度將大幅增加而變得不容易實現。
卷積神經網路 (CNN) 演算法有三大發展趨勢:1. 近來不到四年的時間,運算需求狂增十六倍;2. 網路架構趨於規律化,層次分明——例如,AlexNet 適用於規模較大的卷積運算、ResNet 適用於規模較小者,以及線性 (Linear) 或分支 (branch)運算;3.新應用層出不窮,遍及汽車、伺服器、家庭語音助理、手機及監控等。「非卷積演算」因鏈結關係相對簡單,運算次序無傷大雅,硬體加速器尚可應付;但若是具有綿密而複雜的對應關係、須步步為營的 CNN,邏輯一旦錯位,這些次序不明確且無法判讀意義的資料會讓網路混淆。
一種被稱為「獨立自含式」的 DSP IP,是業界首款真正專為 NN 獨立運作而生;所建構的「通用型」神經網路 DSP,可加速所有神經網路運算架構,包括:卷積 (Convolutional)、全連接 (Fully connected)、池化/取樣 (Pooling) 及標準化 (Normalization),以精算「型態辨識」(Pattern recognition) 與相鄰資料間的關係;藉由消除神經網路 DSP 與主要視覺/影像 DSP 之間的外來資料移動,提供較 NN 加速器、GPU 和 CPU 更低功耗及簡單的 NN 編程模型。至於「視覺處理器」(VPU) 變種產品,恐須用更多硬體才能實現同等效能,將會導致整體功耗變高。
延伸閱讀:
《捨棄加速器!Tensilica 獨立自含式 DSP IP 更有效率》
http://compotechasia.com/a/____/2017/0615/35753.html
(點擊內文標題即可閱讀全文)
#益華電腦Cadence #Tensilica #Vision C5
★★【智慧應用開發論壇】(FB 不公開社團:https://www.facebook.com/groups/smart.application/) 誠邀各界擁有工程專業或實作經驗的好手參與討論,採「實名制」入社。申請加入前請至 https://goo.gl/forms/829J9rWjR3lVJ67S2 填寫基本資料,以利規劃議題方向;未留資料者恕不受理。★★