[爆卦]深度學習的數學地圖 PDF是什麼?優點缺點精華區懶人包

為什麼這篇深度學習的數學地圖 PDF鄉民發文收入到精華區:因為在深度學習的數學地圖 PDF這個討論話題中,有許多相關的文章在討論,這篇最有參考價值!作者beaprayguy (小羊快跑啊)看板Soft_Job標題[請益] deep learning...


最近被deepmind的AI震驚

AI最核心部分是deep learning

閱讀文獻得知,deep learning

是透過artificial neural network

透過一層一層neuron堆疊,得到一個output

目前解決方法是找到gradient descent

或者現今有比他更好的方式?

透過和標準答案的loss,取得最低點。

但過多層可能導致Vanishing Gradient

都是最低點,可能要透過調整達成

若想自學要從哪一方面進入,若相關職缺基礎門檻是什麼。

今年30歲,想做一個人工智慧夢。

請問有可能的掛嗎

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 39.9.65.232
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1501324410.A.616.html
Kazimir: 如果你英文還可以的話 MOOC有不少 07/29 18:42
Kazimir: CS231n很有名 不過我還沒看過所以不太確定對初學者好不好 07/29 18:46
cybermeow: 拿個現成的framework來用小學生也會寫deep learning 07/29 19:11
NCUking: 當興趣可以 但要當職業就非常難了 07/29 19:13
abc0922001: https://zhuanlan.zhihu.com/mathNote 07/29 19:21
abc0922001: 這個可以先看看 07/29 19:21
kyodaisuki: reinforcement learning 07/29 19:28
MonkeyCL: 人機大戰的時候,圍棋板很多人在教深度學習 07/29 19:37
kingrobber: 沒有數學底子都只能在表面繞 07/29 19:50
kingrobber: 我看了三門MOOC之後的感想 07/29 19:51
ckp4131025: 要自己弄model 數學要不錯 07/29 20:08
ckp4131025: ML AI DL有很多線上課程 07/29 20:08
Morphee: 就學深一點阿 你之前學的太淺了 07/29 20:10
dddddd67: 博士班簽下去啊 07/29 20:20
TERRYB: 真的,資工到後面就是都在算數學.... 07/29 20:27
ice80712: 網路上很多Sample code可以先玩一玩 07/29 20:27
askia: 先問問自己幾個問題:你數學強嗎?有興趣嗎? 07/29 20:42
askia: 再考慮要不要學。要學表面很快就能上手,要玩深入很難 07/29 20:43
askia: 如果你只是跟風的話,等你學會熱潮大概也過了 07/29 20:43
Murasaki0110: 數學先弄好 07/29 20:46
vu04y94: 本小弟我以前也覺得dl很潮 後來發現玩DL用套件國中生都會 07/29 20:48
vu04y94: 甚至比學C++簡單 如果要深入還是數學要好 CS到最後精華 07/29 20:48
vu04y94: 還是在數學 07/29 20:48
vu04y94: 我認為隨著越來越多非本科的投入 像一些數學背景的大師 07/29 20:50
vu04y94: 應該能有更驚人的成長 07/29 20:50
eva19452002: 電腦界的大師們同時都有另一個稱號就是數學家 07/29 21:06
Sunal: 純數的領域其實很虛無飄渺的..其他領域都只能摸點邊 07/29 21:43
Ommm5566: 是要問幾次 去youtube林軒田 07/29 22:32
Mchord: 英文寫作很重要,DL paper特色之一就是唬爛 07/29 22:47
paul800526: 把網路上一堆資料丟到你的腦袋裡面training,如果你 07/29 23:27
paul800526: 學不會,這就代表你的model建壞了,也就是說,你的neu 07/29 23:27
paul800526: ron不夠多,你就知道你不適合了,因為你train壞的問題 07/29 23:27
paul800526: 是先天的 07/29 23:27
cybermeow: 認真說 DL的paper很多不會DL也看的懂 數學不好沒關係 07/29 23:57
cybermeow: 反正結構改一改有不同的構想也能做出新東西 背後數學 07/29 23:57
cybermeow: 的理論我覺得主要是stat跟proba (至少ml整體是這樣) 07/29 23:57
cybermeow: 然後那些東西感覺主修數學唸到碩博士大概都不一定夠 07/29 23:57
cybermeow: 了 07/29 23:57
hsnuyi: 套一句某數學大師的話 懂基礎的實分析就可以做研究了 要是 07/30 00:23
hsnuyi: 要搞懂過去某個領域用過的所有數學才能開始 那當代人就不 07/30 00:23
hsnuyi: 用創新了 07/30 00:23
f496328mm: 樓上這樣講還不錯 真的要搞懂 數學系也很多都不懂 07/30 00:38
f496328mm: 我們站在巨人的肩膀上就好了 07/30 00:38
f496328mm: keras 也是設計的平易近人 07/30 00:39
f496328mm: 先有實作經驗 久了就會主動去了解背後的原理 07/30 00:40
Telemio: 我也覺得樓上有些人誇大 DL現在這麼火紅其實也是站在巨人 07/30 00:47
Telemio: 的肩膀上吧 說數學要多神也還好吧? 很多paper也都著重 07/30 00:47
Telemio: 理論創新 但還是比較強調實驗吧 07/30 00:48
hsnuyi: 我是說有一定的基礎 就可以開始研究... 07/30 01:10
Kazimir: 我真的覺得DL的數學沒有那麼多&難 除非你的目標就是數學 07/30 02:53
Kazimir: 舉GANs當例子,如果你打算從數學的角度搞清楚為什麼 07/30 02:54
Kazimir: 那會很複雜 到目前為止應該還沒有真的搞清楚 只有定性 07/30 02:55
Kazimir: 可是實際上的操作就只是用D多產生一個loss給G而已 07/30 02:56
Kazimir: 其他比較多數學的部分是找更好的loss & 找更多正規化手段 07/30 03:03
stitchris: XXXXXXXXD 推paul 07/30 03:17
Morphee: 不念到實分析是不夠資格做DL的 07/30 03:19
steve1012: 其實一堆人跳下去前都沒修過實分析啊xD 07/30 08:21
johnny94: 基本上認識真正懂DL 沒有一個人強調數學要多好才可以研 07/30 12:31
johnny94: 究的,大概只要有大一的微積分就可以玩了 07/30 12:31
zi62007: 三樓說小學生可以玩,又有人說要微基分,好亂啊 07/30 13:08
vu04y94: 我是以發paper的角度來看啦 做product當然是另一回事 我 07/30 14:12
vu04y94: 覺得那些人不強調數學要很好 是因為他們本身就很強 強到 07/30 14:12
vu04y94: 以為大家都會.. 07/30 14:12
vu04y94: 不過就像上面說的 都是邊做邊學 不然永遠追不上新的技術 07/30 14:17
hsnuyi: 正規化方法很多就是從多變量統計出來的 要亂try也可啊 只 07/30 16:20
hsnuyi: 不過無法解釋罷了 上面就看到幾個數學很強的啊 整天掛在嘴 07/30 16:20
hsnuyi: 上說數學不重要 是怕人搶出路喔 www 07/30 16:20
hsnuyi: 看paper最難的 不是演算法如何重現 而是數學看不懂 不知為 07/30 16:24
hsnuyi: 啥要這樣做 07/30 16:24
wilson85771: 先把李宏毅老師的課程錄影通通看懂吧 07/30 19:22
Kazimir: 一個領域有很多面向 沒有做凝態先去學弦論的道理 07/30 20:51
prag222: 真的要有能力也要花好幾年培養吧,培養出來也頂多在本地 07/30 21:44
prag222: 在本地又會哭台灣薪水,出去有跟不了別人菁英競爭 除非 07/30 21:44
prag222: 你很神~~~ 07/30 21:45
red0210: 有人可以舉個幾篇要實分析才看懂的 paper 嗎? 07/30 21:45
cybermeow: anFree.pdf 07/30 22:19
cybermeow: 這種應該算有些數學在裡面的 07/30 22:20
cybermeow: 然後我自己也沒有詳細讀不要來電我 07/30 22:21
meteor260: 玩跟有能力改進, 如何train出好model是兩碼子事啊 07/31 17:11
meteor260: 玩確實小學生可以玩啊XD, 要弄到好現在很多領域都還要 07/31 17:12
meteor260: 花時間追論文呢 07/31 17:12
meteor260: 啥都不懂頂多就加更多層, 然後就Vanishing Gradient 07/31 17:14
meteor260: 然後就兩手一攤 07/31 17:14
meteor260: 就是個知其然很容易, 知其所以然很難的領域 07/31 17:16
BlackMatrix: Vanishing Gradient在目前一般常用的ReLU不會發生 07/31 22:04
BlackMatrix: 所以之前版上有個Kaggle冠軍就是Vgg+一千層(?)Dense 07/31 22:05
Murasaki0110: 不會發生,那ResNet或今年CVPR的DenseNet是在做啥 07/31 22:09
BlackMatrix: 看了一下, 可以在GPU裡面放更大的Model 07/31 22:20
BlackMatrix: 通過某種Weights/Bias Sharing 07/31 22:20
BlackMatrix: Vanishing Gradient也不會發生 07/31 23:05
BlackMatrix: 就如同LSTM/GRU也不會發生Vanishing Gradient 07/31 23:19
gachen: Cs231n非常不錯,我各人很推薦。 08/01 15:02
jimshadow: 實分析是指高微嗎? 08/02 16:44
leoloveivy: 老實說適不適合就看你寫程式會不會留參數 如果你很喜 08/08 01:03
leoloveivy: 歡這些參數可以透過一些方法自動算出來 而不是再那tun 08/08 01:03
leoloveivy: e那麼我覺得這樣特質很適合ml ai 08/08 01:03
ccmite: 算法 資料 GPU 12/21 11:46

你可能也想看看

搜尋相關網站