[爆卦]Resnet20 pytorch是什麼?優點缺點精華區懶人包

雖然這篇Resnet20 pytorch鄉民發文沒有被收入到精華區:在Resnet20 pytorch這個話題中,我們另外找到其它相關的精選爆讚文章

在 resnet20產品中有3篇Facebook貼文,粉絲數超過2萬的網紅雷司紀的小道投資,也在其Facebook貼文中提到, #Adobe 財報優於預期,ARR(annualized recurring revenue)增加4.6億美金,同比增長24%,盤後大漲 2% 以上,股價突破到 510 美金。 👉https://rayskyinvest.org.in/ADBE-2020財報 - 自從看了 2018 年的 Sne...

  • resnet20 在 雷司紀的小道投資 Facebook 的精選貼文

    2020-09-16 16:10:31
    有 81 人按讚

    #Adobe 財報優於預期,ARR(annualized recurring revenue)增加4.6億美金,同比增長24%,盤後大漲 2% 以上,股價突破到 510 美金。
    👉https://rayskyinvest.org.in/ADBE-2020財報

    -

    自從看了 2018 年的 Sneak Peeks 發表會後,我決定開始關注 #Adobe ,理由很簡單,當時正好研究所就是在做 AI ,同時對這間公司所掌握的 AI 技術產生極大的興趣,因此就一邊蒐集資料、一邊研讀相關論文,不知不覺兩年就過去了......

    2019 年 11 月,我在分享自己關注並投資 #ADBE 的理由,當時股價才 280 左右,如今已經上漲到 510 了!

    記得不少人當時說想等它跌下來再進場,也有人說已經漲到 380 了下次再關注,但像這種具有強大護城河、擁有技術城牆的公司來說,長期來看只會繼續突破新高,大多數人所期待的「回跌再買」這件事往往很難實踐。

    最近看到很多人開始討論 Adobe,因此就把之前整理的資料分享出來,主要都是和 AI 技術有關的,有興趣的人可以自行拿去參考!

    也歡迎大家在下面留言分享,你對 Adobe 這支股票的看法及心得囉!

    -

    【Adobe 擁有的 AI 技術 (蒐集時間:2018-2020)】

    「回溯 PS 後的圖片技術」:也就是把修過的圖片,還原成本來狀態(技術上,是將 ResNet 做變型) https://buzzorange.com/techorange/2019/06/20/ai-reverse-photoshop/

    「研發出 CNN 的平行不變性」:簡單說,CNN是AI在圖片處理上一個很重要的技術,主要是過去有「只要圖像一平移,CNN就認不出來了」的問題,如今已被解決!
    https://bangqu.com/49Shk9.html

    「2D 圖轉換成 3D圖技術」:這是由一位實習生(現已任職Google)開發,使用了Mask R-CNN 的模型做變化,最後做出相當了不起的應用!
    https://bangqu.com/ow6411.html

    「精細截圖技術」:如果說你今天有一張狗狗的照片,你要如何將狗狗的身形從照片中擷取下來呢,並且連毛髮都精細截圖?
    https://bangqu.com/y2Cvud.html

    「修圖、影像剪輯上的應用」
    https://www.uisdc.com/adobe-new-technology
    https://technews.tw/2019/09/17/adobe-premiere-pro-auto-reframe/

    「在 AR 上的應用,拿既有素材製作成AR影像並發表」
    https://www.adobe.com/tw/products/aero.html

    「打擊不實合成圖! Adobe發表AI工具 可偵測出「修圖」痕跡」
    https://newtalk.tw/news/view/2019-11-07/322702

    -

    【加入Telegram 與 Line 群】
    漫談美股吃鮪魚
    👉https://t.me/joinchat/L9lTJRvlVybefGlNDHDd3w
    雷司紀小道投資免費訂閱
    👉https://t.me/rayskyinvestment
    漫談美股群(美股、ETF交流)
    💪 https://rayskyinvest.org.in/Line漫談美股群

  • resnet20 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳貼文

    2019-04-17 08:00:00
    有 2 人按讚


    【AI浪潮席捲醫療業】透視5大類醫療影像辨識的AI應用場景

    常見的醫療影像包括了X光、超音波、CT、MRI,以及近年興起的數位病理。由於拍攝技術不同,決定了影像性質和張數多寡,更影響了AI模型訓練的難易度和應用場景

    文/王若樸 | 2019-04-16發表

    醫療影像一直是窺視人體內部結構與組成的方法,其種類包括了X光攝影、超音波影像、電腦斷層掃描(Computed Tomography,CT)、核磁共振造影(Magnetic Resonance Imaging,MRI)、心血管造影和伽瑪射線等等。

    其中,X光攝影、超音波攝影、CT、MRI,以及近來興起的數位病理,都是目前用來打造醫療影像AI常見的類型。這幾種影像因為拍攝技術不同,決定了影像性質和張數多寡,也影響了打造AI模型的難易度和應用場景。

    就影像性質來說,臺北榮總放射線部主任郭萬祐表示,X光片、CT、MRI等影像的切片厚度(即每隔多少身體厚度拍攝1張斷層影像的距離)分別是0.16毫米、0.625毫米以及1~2毫米,與數位病理切片的0.11微米相比,解析度相對低,因此從硬體需求角度來看,是醫療影像AI的入門首選。

    常見醫療影像AI的類型與應用場景

    在這些醫學影像中,「X光和超音波屬於初階檢查,」中國附醫人工智慧醫學診斷中心主任黃宗祺表示,這兩類檢查的拍攝門檻不高,因此累積出大量、各式各樣的影像資料,滿足訓練AI模型的先決條件。

    X光攝影是利用X光對不同密度物質的穿透性來成像,密度越高,X光穿透性就越低,在底片上的成像就越白,反之越黑。不過,臺大生醫電資研究所所長張瑞峰指出,「X光攝影將原本立體的多張橫切面影像疊壓為一張平面影像,」因此,一張X光影像中涵蓋了龐雜的訊息,不僅病灶可能會被組織、器官重疊處擋住,小於1公分的腫瘤也難以檢測出,得靠CT進一步檢查才行。

    而超音波攝影,則是利用超高頻率的聲波來穿透人體,將不同組織反射回來的聲波轉換為畫面,來呈現體內組織或器官構造。超音波的好處是沒有輻射,但黃宗祺指出,超音波影像雜訊高,難以偵測初期病徵。就乳房腫瘤檢測來說,需要不斷追蹤,才能確定疾病狀況,但也可能因此錯過即早治療的時機。

    因此,就X光和超音波來說,AI的應用場景,主要是協助醫生快速從訊息含量大的影像中,找出肉眼難以發現或容易忽略的初期病徵。在2年前,AI權威吳恩達的團隊所設計的CheXNet模型,以121層卷積神經網路(CNN)架構和美國國衛院釋出的胸腔X光資料集訓練而成,就可以做到早期偵測來輔助醫生診斷。

    或像中國附醫所開發的乳癌超音波AI輔助分類系統,利用4萬多筆超音波影像和深度學習Xception架構打造而成,能在人眼難以判斷的初期階段,就偵測出腫瘤,「甚至早3、5年就發現了。」黃宗祺強調。

    至於CT和MRI,「屬於進階檢查。」黃宗祺表示,兩者專門用來檢查腦、心、肺、腹部臟器等重要器官,門檻較X光和超音波高,成像也較清晰、細緻。但有別於X光片和超音波影像,CT屬於3D影像,透過X光來掃描人體,經電腦重組,以多張橫切面影像來呈現立體的檢查部位,並根據每張橫切面影像的間隔,分為厚切與細切,間隔越小,越能呈現完整的器官。單一次CT掃描可產生數百張影像,也才有機會能夠發現1公分以下的小型腫瘤。

    MRI同樣也是一種3D影像,其原理是利用強大的磁場與人體內的氫質子產生共振,再透過電腦處理共振訊號後成像,可以清楚呈現出軟組織和重要器官的結構,像是腦、心、腹部臟器和骨骼關節等部位。MRI掃描一次可產生數百甚至數千張影像,畫質比CT更好。

    要進行CT影像和MRI的影像辨識時,雖然醫生容易從清晰的影像中找到病灶,但這兩者每次掃描動輒就產生數百張影像,要從中尋找病灶,不管是標註還是診斷病情,都相當耗時。

    臺北醫學大學副校長暨北醫附醫影像部主任陳震宇以肺結節CT掃描來說明,一次拍攝會產生500張影像,而醫生至少得花20分鐘,才能找出肺結節的位置。病人數量一多,醫生不僅要花更多時間來檢驗,準確率也會因長時間作業而下降。

    不過,也因為人工判別CT和MRI相當費時,正是醫療影像AI擅長的的應用場景。這也是為何北醫附醫正計畫建置一套肺結節AI輔助偵測系統的緣故,就是為了縮短看片時間,讓醫生有更多時間在病人身上。

    吳恩達研究團隊利用美國國衛院釋出的胸部X光資料集,打造出CheXNet模型,可辨別肺部14種疾病,並以熱成像圖來顯示病灶位置。

    醫療影像AI新挑戰:數位病理切片

    數位病理是醫界近幾年的新浪潮,可以將原本只能在顯微鏡下察看的病理切片,改成直接在電腦上進行。它的出現,是醫療影像AI的新方向,卻也是一個高難度的挑戰,因為數位病理的製作複雜,需經過組織處理、染色切片,以顯微鏡觀察、再掃描至電腦儲存,仰賴醫生專業經驗與時間。

    不只如此,數位病理的檔案容量還相當大。與CT、MRI不同,數位病理和X光片一樣都是平面影像,但單一張影像的解析度卻比X光片、CT和MRI高上1,000倍,可達1GB至2GB。因此要拿來訓練AI,不只資料儲存是一大挑戰,訓練模型的時間也需要更久。以數位病理起家的臺灣AI醫療影像新創雲象科技就提到,曾有一次要用一個100層的殘差網路ResNet來訓練每張解析度高達1萬×1萬的影像,得靠GPU搭配600GB系統記憶體才能運算。

    不過,臺灣在數位病理的AI應用已經起步了,林口長庚醫院就找來雲象科技開發了一套準確率高達97%的鼻咽癌偵測模組。北醫附醫已經開始將上千片肺癌數位病理交由放射科醫生,要展開部分標註的工作。臺北榮總今年也計畫投資數位病理。

    然而,不管是哪種影像類型,在打造AI系統時,都會面臨資料收集的挑戰。也因此,科技部2年前特別發起醫療影像計畫,聯合國內3家大型醫學中心,要利用國人的醫療影像資料,來建置一個大型AI醫療影像資料庫,推動醫療影像AI的發展。

    臺北醫學大學附設醫院自去年起,找來了10名擁有2年經驗以上的主治醫生,著手建置肺結節AI醫療影像資料庫,目前已完成1,500例的影像標註和語意標註,今年還要再新增2,000例。

    附圖:【超音波影像AI實例】中國附醫旗下子公司長佳智能,開發一套乳癌超音波AI輔助分類系統,可以辨識乳房腫瘤及其良、惡性程度。目前,腫瘤辨識率達9成以上,而腫瘤良、惡性辨識率則約7成左右。(攝影/李宗翰)
    X光影像AI實例
    MR影像AI實例
    臺北榮總與臺灣人工智慧實驗室以6個月的時間,打造出一套能在30秒內就揪出腦轉移瘤的AI系統DeepMets。今年4月份最新結果顯示,DeepMets準確率已達95%。 (攝影/洪政偉)
    CT影像AI實例
    數位病理影像AI實例
    林口長庚醫院與雲象科技共同打造一套鼻咽癌AI偵測系統,由醫院提供數位病理切片資料,雲象負責進行模型訓練,經過2年優化,目前準確率達97%。 (圖片來源/雲象科技)

    資料來源:https://ithome.com.tw/news/129973…

  • resnet20 在 工研院巨量資訊科技中心 - ITRI Facebook 的最佳解答

    2017-10-23 15:43:20
    有 5 人按讚


    DeepMind 從完全 Zero Knowledge (零知識) 訓練出史上最強的圍棋程式 AlphaGo Zero, 真的是非常偉大的成就, 絕對是歷史性的. 試想若很多應用問題也可以是從 "零" 開始呢? 這至少開啟了一頁新的研究領域.

    不過這裡, 我想來探討一個大眾比較沒有關注到的問題, 甚至常常被 misleading 的問題, 那就是 AlphaGo Zero 背後的計算資源問題. 雖然 AlphaGo Zero 已經比 AlphaGo Lee 版本乾淨俐落, 效率高, 但是其計算量實際上仍是非常驚人,

    我們的估計至少用了千顆 TPU!!!

    附上的兩個連結, 他們也估計 AlphaGo Zero 大約用了數千顆 TPU.
    https://groups.google.com/forum/…
    https://www.reddit.com/…/alphago_zero_learning_fr…/dokj1uz/…

    許多媒體報導(包括 搜狐, 鏡報, ...) 「AlphaGo Zero在三天的時間用4個TPU,和自己對打490萬場棋,最後以100比0擊敗了他的哥哥AlphaGo;但AlphaGo用48個TPU,花了數個月時間學習3,000萬場棋局,才打敗人類。」 這似乎是說用 4 個TPU和自己對打490萬場棋, 就可以了. 這與我們的了解差距很大.

    那千顆 TPU以上 是甚麼概念呢?

    由於TPU一般人尚無法使用到, 我就用大家比較熟悉且CP值非常高的 GPU, GTX 1080 Ti, 來比較, 這也是我們 CGI 使用的 GPU, 我們的估算是:

    約等同於使用萬顆1080Ti以上.

    首先, 這裡透露一下, AlphaGo Zero 用的 resnet 與 我們 CGI 用的幾乎一樣, 因此我們可以從我們的數據推估:
    DeepMind 用的 20-block, 模擬一個盤面約 2.2毫秒 (2.2 ms / simulation)
    DeepMind 用的 40-block, 模擬一個盤面約 4.4毫秒 (4.4 ms / simulation)

    依據論文, 整個訓練最主要的 bottleneck 在於自我對弈的計算, 總計算量如下:
    * 20-block版本對弈了490萬盤 (4.9M game), 40-block版本對弈了2900萬盤 (29M game)
    * 每盤棋保守假設平均200手 (200 moves/game)
    * 每一手棋需要模擬1600次 (1600 simulations/move)
    * 每次模擬時間: 2.2 ms (20-block版本), 4.4 ms (40-block版本) 如上.

    其實大家簡單換算一下就可以得到以下數據:

    AlphaGo Zero 的 20-block 版本:
    若用一顆 1080 Ti, 總時間是 4.9M*200*1600*2.2/1000 ~= 34億秒 ~= 40000天 ~= 109年
    若用100顆, 需要約 1.1年
    若用1000顆, 需要約 40天

    AlphaGo Zero 的 40-block 版本:
    若用一顆 1080 Ti, 總時間是 29M*200*1600*4.4/1000 ~= 409億秒 ~= 470000天 ~= 1294年
    若用100顆, 需要 13年
    若用1000顆, 需要 15月 (466天)

    從上述分析, 也可以得到以下結論:

    1. 從另外一個角度看, DeepMind 僅40天就可以把 40-block 版本練起來, 換算一下, DeepMind 等於用了約12000顆 1080 Ti.

    2. 若以上的分析沒有錯誤, 我們預計在今年 12 月的圍棋比賽(只剩下50天左右), 騰訊的絕藝幾乎是絕對的贏家, 因我們相信除了騰訊以外, 似乎沒有其他參賽者能擁有這麼多的GPU (DeepZenGo雖不少, 但也沒有這麼多). 因此, 除非有人發想出更好的 optimization 演算法或除非有其他大公司冒出來, 騰訊的絕藝必然奪冠, 不太有懸念!

    以上若有任何錯誤, 歡迎指正. 謝謝!

    吳毅成

你可能也想看看

搜尋相關網站