為什麼這篇成本分析重點鄉民發文收入到精華區:因為在成本分析重點這個討論話題中,有許多相關的文章在討論,這篇最有參考價值!作者deepdish (Keep The Faith)看板Stock標題Re: [請益] AI伺服器...
成本分析重點 在 Janice Lam 林汛珈 Instagram 的最讚貼文
2021-09-15 23:56:00
🌟《角蛋白美睫課程》🌟 --------------✨ 現時做化妝師競爭愈來愈大,除了懂得化妝和髮型之外,懂做半永久化妝,植眼睫毛等也是家常便飯,需要不停地增值自己去進修或學不同技能提升自己的競爭力⬆️ ✨今次我們推出了全新的角蛋白美睫課程,課程時間日期彈性選擇,一天就能學完,當中會教授如何...
覺得大家好像都看錯重點吧
以前伺服器需要大量記憶體
是因為要維持即時服務非常多人的需求
就像 PTT 可以有十萬人一起上站嘛
如果無法做到
就很像是被 DDOS 攻擊
網站就連不上惹
但一到深夜 PTT 根本沒啥活人在線上惹
然後現在是資料爆量的時代
譬如以抖音來說
甚至可以用 AI 去做人臉的影像分析
人臉影像分析可以在伺服器內部做的
那根本不需要做到即時分析
伺服器有空閒餘裕的時候再做就好
所以成本可以降低沒錯阿
※ 引述《mooto (退出會比較好, 就退出)》之銘言:
: ※ 引述《neone (neone)》之銘言:
: : 剛看到半導體產業分析機構semianalysis的這篇新文章:
: : https://www.semianalysis.com/p/ai-server-cost-analysis-memory-is
: : 雖然沒付費只能看到部分
: : bing摘要:
: : 這篇文章的核心內容是分析人工智能伺服器的成本。文章指出,隨著數據中心建設的瘋狂
: : ,市場也隨之瘋狂。但是,有許多公司並不應該因此而受益。文章還提到,IT預算有限,
: : 因此Nvidia銷售額的增長主要來自於購買較少的非GPU伺服器。文章中還提供了一個標準
: : CPU伺服器的成本分解,顯示內存佔伺服器成本的近40%。文章最後指出,在人工智能時代
: : ,普通伺服器的百分比將會下降,並且在數據中心轉向加速計算時,各組件的成本分配也
: : 會發生重大變化。
: 老黃今天展示的那櫃 Grace Hooper
: 就用了144TB GPU Memory 透過NVLink共享
: (NVLink是他們自研的SERDES
: 簡單來說就是PCIe更快的介面)
: 所以重點只是高速 共享
: 記憶體還是存在的
: 還有也不用擔心大家嫌貴不買啦
: 老黃今天不就列了1600家要做AI的公司
: 挖不挖得到金礦又不關他的事
: 只要鏟子賣得出去就好了
: 這種時候大家都爭搶先當第一個啦
: 有機會變成AI界的m$, adobe誰不幹
: 在那邊省小錢 到時候就看別人鼠錢
: 反正新創花的也不是自己錢
: 燒光當然是再繼續吹
: 話說老黃真的值得領那個錢
: 美國人訓練不是蓋的
: 相比之下今天下午發哥找他來蹭
: 那些高層講話的台風 投影片的格局 真的差好多喔
--
Q 人類基本需求2.0 ◢◣ █ 自我實現 創意.問題解決.真偽.自發性
S ◢██◣ █ 尊重需求 自尊.自信.成就感
W ◢████◣ █ 社交需求
E ◢██████◣ █ 安全需求
E ◢████████◣ █ 生存需求 空氣.水.食物.住所
T ▄▄▄▄▄▄▄▄▄▄▄▄ █ WiFi█ 電池
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.216.247 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1685379970.A.A98.html