[爆卦]外部量子效率定義是什麼?優點缺點精華區懶人包

雖然這篇外部量子效率定義鄉民發文沒有被收入到精華區:在外部量子效率定義這個話題中,我們另外找到其它相關的精選爆讚文章

在 外部量子效率定義產品中有2篇Facebook貼文,粉絲數超過3,992的網紅台灣物聯網實驗室 IOT Labs,也在其Facebook貼文中提到, 摩爾定律放緩 靠啥提升AI晶片運算力? 作者 : 黃燁鋒,EE Times China 2021-07-26 對於電子科技革命的即將終結的說法,一般認為即是指摩爾定律的終結——摩爾定律一旦無法延續,也就意味著資訊技術的整棟大樓建造都將出現停滯,那麼第三次科技革命也就正式結束了。這種聲音似乎...

  • 外部量子效率定義 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文

    2021-07-27 11:56:34
    有 1 人按讚

    摩爾定律放緩 靠啥提升AI晶片運算力?

    作者 : 黃燁鋒,EE Times China
    2021-07-26

    對於電子科技革命的即將終結的說法,一般認為即是指摩爾定律的終結——摩爾定律一旦無法延續,也就意味著資訊技術的整棟大樓建造都將出現停滯,那麼第三次科技革命也就正式結束了。這種聲音似乎是從十多年前就有的,但這波革命始終也沒有結束。AI技術本質上仍然是第三次科技革命的延續……

    人工智慧(AI)的技術發展,被很多人形容為第四次科技革命。前三次科技革命,分別是蒸汽、電氣、資訊技術(電子科技)革命。彷彿這“第四次”有很多種說辭,比如有人說第四次科技革命是生物技術革命,還有人說是量子技術革命。但既然AI也是第四次科技革命之一的候選技術,而且作為資訊技術的組成部分,卻又獨立於資訊技術,即表示它有獨到之處。

    電子科技革命的即將終結,一般認為即是指摩爾定律的終結——摩爾定律一旦無法延續,也就意味著資訊技術的整棟大樓建造都將出現停滯,那麼第三次科技革命也就正式結束了。這種聲音似乎是從十多年前就有,但這波革命始終也沒有結束。

    AI技術本質上仍然是第三次科技革命的延續,它的發展也依託於幾十年來半導體科技的進步。這些年出現了不少專門的AI晶片——而且市場參與者相眾多。當某一個類別的技術發展到出現一種專門的處理器為之服務的程度,那麼這個領域自然就不可小覷,就像當年GPU出現專門為圖形運算服務一樣。

    所以AI晶片被形容為CPU、GPU之後的第三大類電腦處理器。AI專用處理器的出現,很大程度上也是因為摩爾定律的發展進入緩慢期:電晶體的尺寸縮減速度,已經無法滿足需求,所以就必須有某種專用架構(DSA)出現,以快速提升晶片效率,也才有了專門的AI晶片。

    另一方面,摩爾定律的延緩也成為AI晶片發展的桎梏。在摩爾定律和登納德縮放比例定律(Dennard Scaling)發展的前期,電晶體製程進步為晶片帶來了相當大的助益,那是「happy scaling down」的時代——CPU、GPU都是這個時代受益,不過Dennard Scaling早在45nm時期就失效了。

    AI晶片作為第三大類處理器,在這波發展中沒有趕上happy scaling down的好時機。與此同時,AI應用對運算力的需求越來越貪婪。今年WAIC晶片論壇圓桌討論環節,燧原科技創始人暨CEO趙立東說:「現在訓練的GPT-3模型有1750億參數,接近人腦神經元數量,我以為這是最大的模型了,要千張Nvidia的GPU卡才能做。談到AI運算力需求、模型大小的問題,說最大模型超過萬億參數,又是10倍。」

    英特爾(Intel)研究院副總裁、中國研究院院長宋繼強說:「前兩年用GPU訓練一個大規模的深度學習模型,其碳排放量相當於5台美式車整個生命週期產生的碳排量。」這也說明了AI運算力需求的貪婪,以及提供運算力的AI晶片不夠高效。

    不過作為產業的底層驅動力,半導體製造技術仍源源不斷地為AI發展提供推力。本文將討論WAIC晶片論壇上聽到,針對這個問題的一些前瞻性解決方案——有些已經實現,有些則可能有待時代驗證。

    XPU、摩爾定律和異質整合

    「電腦產業中的貝爾定律,是說能效每提高1,000倍,就會衍生出一種新的運算形態。」中科院院士劉明在論壇上說,「若每瓦功耗只能支撐1KOPS的運算,當時的這種運算形態是超算;到了智慧型手機時代,能效就提高到每瓦1TOPS;未來的智慧終端我們要達到每瓦1POPS。 這對IC提出了非常高的要求,如果依然沿著CMOS這條路去走,當然可以,但會比較艱辛。」

    針對性能和效率提升,除了尺寸微縮,半導體產業比較常見的思路是電晶體結構、晶片結構、材料等方面的最佳化,以及處理架構的革新。

    (1)AI晶片本身其實就是對處理器架構的革新,從運算架構的層面來看,針對不同的應用方向造不同架構的處理器是常規,更專用的處理器能促成效率和性能的成倍增長,而不需要依賴於電晶體尺寸的微縮。比如GPU、神經網路處理器(NPU,即AI處理器),乃至更專用的ASIC出現,都是這類思路。

    CPU、GPU、NPU、FPGA等不同類型的晶片各司其職,Intel這兩年一直在推行所謂的「XPU」策略就是用不同類型的處理器去做不同的事情,「整合起來各取所需,用組合拳會好過用一種武器去解決所有問題。」宋繼強說。Intel的晶片產品就涵蓋了幾個大類,Core CPU、Xe GPU,以及透過收購獲得的AI晶片Habana等。

    另外針對不同類型的晶片,可能還有更具體的最佳化方案。如當代CPU普遍加入AVX512指令,本質上是特別針對深度學習做加強。「專用」的不一定是處理器,也可以是處理器內的某些特定單元,甚至固定功能單元,就好像GPU中加入專用的光線追蹤單元一樣,這是當代處理器普遍都在做的一件事。

    (2)從電晶體、晶片結構層面來看,電晶體的尺寸現在仍然在縮減過程中,只不過縮減幅度相比過去變小了——而且為緩解電晶體性能的下降,需要有各種不同的技術來輔助尺寸變小。比如說在22nm節點之後,電晶體變為FinFET結構,在3nm之後,電晶體即將演變為Gate All Around FET結構。最終會演化為互補FET (CFET),其本質都是電晶體本身充分利用Z軸,來實現微縮性能的提升。

    劉明認為,「除了基礎元件的變革,IC現在的發展還是比較多元化,包括新材料的引進、元件結構革新,也包括微影技術。長期賴以微縮的基本手段,現在也在發生巨大的變化,特別是未來3D的異質整合。這些多元技術的協同發展,都為晶片整體性能提升帶來了很好的增益。」

    他並指出,「從電晶體級、到晶圓級,再到晶片堆疊、引線接合(lead bonding),精準度從毫米向奈米演進,互連密度大大提升。」從晶圓/裸晶的層面來看,則是眾所周知的朝more than moore’s law這樣的路線發展,比如把兩片裸晶疊起來。現在很熱門的chiplet技術就是比較典型的並不依賴於傳統電晶體尺寸微縮,來彈性擴展性能的方案。

    台積電和Intel這兩年都在大推將不同類型的裸晶,異質整合的技術。2.5D封裝方案典型如台積電的CoWoS,Intel的EMIB,而在3D堆疊上,Intel的Core LakeField晶片就是用3D Foveros方案,將不同的裸晶疊在一起,甚至可以實現兩片運算裸晶的堆疊、互連。

    之前的文章也提到過AMD剛發佈的3D V-Cache,將CPU的L3 cache裸晶疊在運算裸晶上方,將處理器的L3 cache大小增大至192MB,對儲存敏感延遲應用的性能提升。相比Intel,台積電這項技術的獨特之處在於裸晶間是以混合接合(hybrid bonding)的方式互連,而不是micro-bump,做到更小的打線間距,以及晶片之間數十倍通訊性能和效率提升。

    這些方案也不直接依賴傳統的電晶體微縮方案。這裡實際上還有一個方面,即新材料的導入專家們沒有在論壇上多說,本文也略過不談。

    1,000倍的性能提升

    劉明談到,當電晶體微縮的空間沒有那麼大的時候,產業界傾向於採用新的策略來評價技術——「PPACt」——即Powe r(功耗)、Performance (性能)、Cost/Area-Time (成本/面積-時間)。t指的具體是time-to-market,理論上應該也屬於成本的一部分。

    電晶體微縮方案失效以後,「多元化的技術變革,依然會讓IC性能得到進一步的提升。」劉明說,「根據預測,這些技術即使不再做尺寸微縮,也會讓IC的晶片性能做到500~1,000倍的提升,到2035年實現Zetta Flops的系統性能水準。且超算的發展還可以一如既往地前進;單裸晶儲存容量變得越來越大,IC依然會為產業發展提供基礎。」

    500~1,000倍的預測來自DARPA,感覺有些過於樂觀。因為其中的不少技術存在比較大的邊際遞減效應,而且有更實際的工程問題待解決,比如運算裸晶疊層的散熱問題——即便業界對於這類工程問題的探討也始終在持續。

    不過1,000倍的性能提升,的確說明摩爾定律的終結並不能代表第三次科技革命的終結,而且還有相當大的發展空間。尤其本文談的主要是AI晶片,而不是更具通用性的CPU。

    矽光、記憶體內運算和神經型態運算

    在非傳統發展路線上(以上內容都屬於半導體製造的常規思路),WAIC晶片論壇上宋繼強和劉明都提到了一些頗具代表性的技術方向(雖然這可能與他們自己的業務方向或研究方向有很大的關係)。這些技術可能尚未大規模推廣,或者仍在商業化的極早期。

    (1)近記憶體運算和記憶體內運算:處理器性能和效率如今面臨的瓶頸,很大程度並不在單純的運算階段,而在資料傳輸和儲存方面——這也是共識。所以提升資料的傳輸和存取效率,可能是提升整體系統性能時,一個非常靠譜的思路。

    這兩年市場上的處理器產品用「近記憶體運算」(near-memory computing)思路的,應該不在少數。所謂的近記憶體運算,就是讓儲存(如cache、memory)單元更靠近運算單元。CPU的多層cache結構(L1、L2、L3),以及電腦處理器cache、記憶體、硬碟這種多層儲存結構是常規。而「近記憶體運算」主要在於究竟有多「近」,cache記憶體有利於隱藏當代電腦架構中延遲和頻寬的局限性。

    這兩年在近記憶體運算方面比較有代表性的,一是AMD——比如前文提到3D V-cache增大處理器的cache容量,還有其GPU不僅在裸晶內導入了Infinity Cache這種類似L3 cache的結構,也更早應用了HBM2記憶體方案。這些實踐都表明,儲存方面的革新的確能帶來性能的提升。

    另外一個例子則是Graphcore的IPU處理器:IPU的特點之一是在裸晶內堆了相當多的cache資源,cache容量遠大於一般的GPU和AI晶片——也就避免了頻繁的訪問外部儲存資源的操作,極大提升頻寬、降低延遲和功耗。

    近記憶體運算的本質仍然是馮紐曼架構(Von Neumann architecture)的延續。「在做處理的過程中,多層級的儲存結構,資料的搬運不僅僅在處理和儲存之間,還在不同的儲存層級之間。這樣頻繁的資料搬運帶來了頻寬延遲、功耗的問題。也就有了我們經常說的運算體系內的儲存牆的問題。」劉明說。

    構建非馮(non-von Neumann)架構,把傳統的、以運算為中心的馮氏架構,變換一種新的運算範式。把部分運算力下推到儲存。這便是記憶體內運算(in-memory computing)的概念。

    記憶體內運算的就現在看來還是比較新,也有稱其為「存算一體」。通常理解為在記憶體中嵌入演算法,儲存單元本身就有運算能力,理論上消除資料存取的延遲和功耗。記憶體內運算這個概念似乎這在資料爆炸時代格外醒目,畢竟可極大減少海量資料的移動操作。

    其實記憶體內運算的概念都還沒有非常明確的定義。現階段它可能的內涵至少涉及到在儲記憶體內部,部分執行資料處理工作;主要應用於神經網路(因為非常契合神經網路的工作方式),以及這類晶片具體的工作方法上,可能更傾向於神經型態運算(neuromorphic computing)。

    對於AI晶片而言,記憶體內運算的確是很好的思路。一般的GPU和AI晶片執行AI負載時,有比較頻繁的資料存取操作,這對性能和功耗都有影響。不過記憶體內運算的具體實施方案,在市場上也是五花八門,早期比較具有代表性的Mythic導入了一種矩陣乘的儲存架構,用40nm嵌入式NOR,在儲記憶體內部執行運算,不過替換掉了數位週邊電路,改用類比的方式。在陣列內部進行模擬運算。這家公司之前得到過美國國防部的資金支援。

    劉明列舉了近記憶體運算和記憶體內運算兩種方案的例子。其中,近記憶體運算的這個方案應該和AMD的3D V-cache比較類似,把儲存裸晶和運算裸晶疊起來。

    劉明指出,「這是我們最近的一個工作,採用hybrid bonding的技術,與矽通孔(TSV)做比較,hybrid bonding功耗是0.8pJ/bit,而TSV是4pJ/bit。延遲方面,hybrid bonding只有0.5ns,而TSV方案是3ns。」台積電在3D堆疊方面的領先優勢其實也體現在hybrid bonding混合鍵合上,前文也提到了它具備更高的互連密度和效率。

    另外這套方案還將DRAM刷新頻率提高了一倍,從64ms提高至128ms,以降低功耗。「應對刷新率變慢出現拖尾bit,我們引入RRAM TCAM索引這些tail bits」劉明說。

    記憶體內運算方面,「傳統運算是用布林邏輯,一個4位元的乘法需要用到幾百個電晶體,這個過程中需要進行資料來回的移動。記憶體內運算是利用單一元件的歐姆定律來完成一次乘法,然後利用基爾霍夫定律完成列的累加。」劉明表示,「這對於今天深度學習的矩陣乘非常有利。它是原位的運算和儲存,沒有資料搬運。」這是記憶體內運算的常規思路。

    「無論是基於SRAM,還是基於新型記憶體,相比近記憶體運算都有明顯優勢,」劉明認為。下圖是記憶體內運算和近記憶體運算,精準度、能效等方面的對比,記憶體內運算架構對於低精準度運算有價值。

    下圖則總結了業內主要的一些記憶體內運算研究,在精確度和能效方面的對應關係。劉明表示,「需要高精確度、高運算力的情況下,近記憶體運算目前還是有優勢。不過記憶體內運算是更新的技術,這幾年的進步也非常快。」

    去年阿里達摩院發佈2020年十大科技趨勢中,有一個就是存算一體突破AI算力瓶頸。不過記憶體內運算面臨的商用挑戰也一點都不小。記憶體內運算的通常思路都是類比電路的運算方式,這對記憶體、運算單元設計都需要做工程上的考量。與此同時這樣的晶片究竟由誰來造也是個問題:是記憶體廠商,還是數文書處理器廠商?(三星推過記憶體內運算晶片,三星、Intel垂直整合型企業似乎很適合做記憶體內運算…)

    (2)神經型態運算:神經型態運算和記憶體內運算一樣,也是新興技術的熱門話題,這項技術有時也叫作compute in memory,可以認為它是記憶體內運算的某種發展方向。神經型態和一般神經網路AI晶片的差異是,這種結構更偏「類人腦」。

    進行神經型態研究的企業現在也逐漸變得多起來,劉明也提到了AI晶片「最終的理想是在結構層次模仿腦,元件層次逼近腦,功能層次超越人腦」的「類腦運算」。Intel是比較早關注神經型態運算研究的企業之一。

    傳說中的Intel Loihi就是比較典型存算一體的架構,「這片裸晶裡面包含128個小核心,每個核心用於模擬1,024個神經元的運算結構。」宋繼強說,「這樣一塊晶片大概可以類比13萬個神經元。我們做到的是把768個晶片再連起來,構成接近1億神經元的系統,讓學術界的夥伴去試用。」

    「它和深度學習加速器相比,沒有任何浮點運算——就像人腦裡面沒有乘加器。所以其學習和訓練方法是採用一種名為spike neutral network的路線,功耗很低,也可以訓練出做視覺辨識、語言辨識和其他種類的模型。」宋繼強認為,不採用同步時脈,「刺激的時候就是一個非同步電動勢,只有工作部分耗電,功耗是現在深度學習加速晶片的千分之一。」

    「而且未來我們可以對不同區域做劃分,比如這兒是視覺區、那兒是語言區、那兒是觸覺區,同時進行多模態訓練,互相之間產生關聯。這是現在的深度學習模型無法比擬的。」宋繼強說。這種神經型態運算晶片,似乎也是Intel在XPU方向上探索不同架構運算的方向之一。

    (2)微型化矽光:這個技術方向可能在層級上更偏高了一些,不再晶片架構層級,不過仍然值得一提。去年Intel在Labs Day上特別談到了自己在矽光(Silicon Photonics)的一些技術進展。其實矽光技術在連接資料中心的交換機方面,已有應用了,發出資料時,連接埠處會有個收發器把電訊號轉為光訊號,透過光纖來傳輸資料,另一端光訊號再轉為電訊號。不過傳統的光收發器成本都比較高,內部元件數量大,尺寸也就比較大。

    Intel在整合化的矽光(IIIV族monolithic的光學整合化方案)方面應該是商業化走在比較前列的,就是把光和電子相關的組成部分高度整合到晶片上,用IC製造技術。未來的光通訊不只是資料中心機架到機架之間,也可以下沉到板級——就跟現在傳統的電I/O一樣。電互連的主要問題是功耗太大,也就是所謂的I/O功耗牆,這是這類微型化矽光元件存在的重要價值。

    這其中存在的技術挑戰還是比較多,如做資料的光訊號調變的調變器調變器,據說Intel的技術使其實現了1,000倍的縮小;還有在接收端需要有個探測器(detector)轉換光訊號,用所謂的全矽微環(micro-ring)結構,實現矽對光的檢測能力;波分複用技術實現頻寬倍增,以及把矽光和CMOS晶片做整合等。

    Intel認為,把矽光模組與運算資源整合,就能打破必須帶更多I/O接腳做更大尺寸處理器的這種趨勢。矽光能夠實現的是更低的功耗、更大的頻寬、更小的接腳數量和尺寸。在跨處理器、跨伺服器節點之間的資料互動上,這類技術還是頗具前景,Intel此前說目標是實現每根光纖1Tbps的速率,並且能效在1pJ/bit,最遠距離1km,這在非本地傳輸上是很理想的數字。

    還有軟體…

    除了AI晶片本身,從整個生態的角度,包括AI感知到運算的整個鏈條上的其他組成部分,都有促成性能和效率提升的餘地。比如這兩年Nvidia從軟體層面,針對AI運算的中間層、庫做了大量最佳化。相同的底層硬體,透過軟體最佳化就能實現幾倍的性能提升。

    宋繼強說,「我們發現軟體最佳化與否,在同一個硬體上可以達到百倍的性能差距。」這其中的餘量還是比較大。

    在AI開發生態上,雖然Nvidia是最具發言權的;但從戰略角度來看,像Intel這種研發CPU、GPU、FPGA、ASIC,甚至還有神經型態運算處理器的企業而言,不同處理器統一開發生態可能更具前瞻性。Intel有個稱oneAPI的軟體平台,用一套API實現不同硬體性能埠的對接。這類策略對廠商的軟體框架構建能力是非常大的考驗——也極大程度關乎底層晶片的執行效率。

    在摩爾定律放緩、電晶體尺寸微縮變慢甚至不縮小的前提下,處理器架構革新、異質整合與2.5D/3D封裝技術依然可以達成1,000倍的性能提升;而一些新的技術方向,包括近記憶體運算、記憶體內運算和微型矽光,能夠在資料訪存、傳輸方面產生新的價值;神經型態運算這種類腦運算方式,是實現AI運算的目標;軟體層面的最佳化,也能夠帶動AI性能的成倍增長。所以即便摩爾定律嚴重放緩,AI晶片的性能、效率提升在上面提到的這麼多方案加持下,終將在未來很長一段時間內持續飛越。這第三(四)次科技革命恐怕還很難停歇。

    資料來源:https://www.eettaiwan.com/20210726nt61-ai-computing/?fbclid=IwAR3BaorLm9rL2s1ff6cNkL6Z7dK8Q96XulQPzuMQ_Yky9H_EmLsBpjBOsWg

  • 外部量子效率定義 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳解答

    2020-11-15 18:39:26
    有 0 人按讚

    德勤發佈2020技術趨勢報告:五個新趨勢可引發顛覆性變革

    北京新浪網 10-26 18:12
    來源:產業智能官

    「2020 年的趨勢將顛覆整個行業,並在未來十年重新定義業務,即使數字創新已成為各種規模企業的常規行為。」德勤管理諮詢新興技術研究總監兼政府及公共服務首席技術官 Scott Buchholz 在一份報告中如是說。

    近日,《德勤 2020 技術趨勢報告》(中文版)正式發佈(以下簡稱《報告》),報告指出了五個可能在短期內引發顛覆性變革的關鍵新興趨勢:「數字孿生:連結現實與數字世界」;「架構覺醒」;「技術道德與信任」;「人感體驗平台」;「財務與 IT 的未來」。

    值得注意的是,這是德勤第十一年發佈技術趨勢年度報告。今年的技術趨勢報告繼續在開篇回顧了 11 年來的技術趨勢發展,展示了技術趨勢隨時間推移的演進全過程以及最新宏觀科技力量作為業務轉型基礎帶來的共生效益和不久的未來的新興科技力量。與此同時,《報告》還指出,未來三大顛覆性技術(即環境體驗、指數智能和量子技術)正蓄勢待發,我們將在本世紀20年代末開始感受到它們的影響。

    一、九大宏觀科技力量

    隨著以技術為驅動的創新的空前擴張,一場高風險的「打地鼠」的競爭遊戲由此展開,企業利用技術保持先進的能力將決定其生死存亡。

    過去十年內,數字化體驗、分析技術和雲技術為各項技術賦能,展現了他們自身的價值,已然成為眾多企業有效地推進戰略和新商業模式的核心基礎。接下來十年中,數字現實、認知技術和區塊鏈將成為企業變革的顛覆性驅動力。它們的應用範圍將越來越廣,各行各業的案例成倍增加。技術業務、 風險和核心系統現代化是驅動企業變革和創新的基礎技術,它們需要保持穩定、強勁、可持續發展。

    基於此框架下討論新興技術,可以簡化技術進步對企業所造成的顛覆性影響。同時,圍繞九大宏觀科技力量衍生更多細分領域和更加細化的技術創新點和趨勢點。

    十年前我們首次探索數字化體驗、分析技術和雲技術之時,只能看到其中的可能性,並不能確切地估測 它們的影響。現如今,這些技術已經為大家所熟知,並在對業務、運營模式和市場造成了顛覆性影響之 后,發展勢頭依舊迅猛。

    (1)數字化體驗

    數字化體驗依然是企業變革的重要驅動因素。實際上,在德勤 2018 年全球 CIO 調查報告 中,64% 的參與者表示接下來的三年裡,數字化技術將對他們的業務造成影響。在去年的超越營銷:體驗重塑中,我們已經審視了這一趨勢,企業正逐漸摒棄傳統意義上以獲客為核心的營銷模式,轉而致力於創造更多以人為本的互動——包括與其員工和商業夥伴的互動。

    (2)分析技術

    分析技術包括能夠提供深刻洞察的基本技術和工具。數據管理、數據治理以及數據運營體系這些重要因素不僅僅是人工智慧項目的核心基礎。同時,鑒於企業內對數據儲存、數據隱私和數據使用的嚴格要求,這些重要因素也是必須面對和考慮的重大策略點。

    60%的首席信息官(CIO)表示,在未來的三年內, 數據和分析技術將對他們業務帶來影響。但這個問題正變得更具挑戰性。「靜止的數據」 和「使用的數據」這兩個久經考驗的概念被「動態數據」所連接,藉助工具和平台動態數據進而支持數據流、數據攝取、數據分類、儲存和訪問。值得欣喜的是,雲技術、核心系統重塑、認知技術和其它技術正在為異常複雜的挑戰帶來全新的解決方案。

    (3)雲技術

    雲技術已經全面深入企業。90% 的企業在使用基於雲技術的服務,並且這一比例有增無減。實際上,就信息技術領域的投資預算來看,接下來三年內對雲技術的投資會翻倍。正如我們 2017 年所預計的那樣,雲技術已經不僅僅只是作為基礎應用,它帶來了 「一切即服務」 的藍海,使任何 IT 能力都可以變成基於雲的服務供企業使用。在眾多企業當中,少數超大規模企業主宰了公有雲和雲技術服務市場,在雲技術的賦能下,為其它宏觀力量的進一步創新提供基礎和平台,例如分析技術、雲技術、區塊鏈、數字現實,以及未來的量子技術。

    雲技術還驅動我們思考並重塑一些陳舊的企業管理和業務職能。

    當今的顛覆性驅動力(即數字現實、認知技術和區塊鏈)都是由體驗、分析技術和雲技術發展而來。未 來十年,這些新的趨勢雖然不再新鮮,但它們將和過往的重大趨勢一樣,在人們持續深刻的理解和應用 中,推動重要的變革。

    (4)數字現實

    數字現實技術,包括 AR/VR 、混合現實、語音交互、語音識別、普適計算、360°全方位攝像和沉浸式技術等,幫助用戶突破鍵盤和屏幕的禁錮,與用戶感知無縫銜接,用戶可更加自然地參與互動。數字現實的目的是打破傳統的空間界限,讓人與底層技術進行自然、本能、甚至下意識的互動。

    (5)認知技術

    機器學習、神經網路、機器人流程自動化、機器人程序、自然語言處理、以及更廣泛的人工智慧領域等認知技術可能推動所有產業變革。這些技術將人機互動個性化、場景化,通過 定製化語言或圖像信息,驅動業務流程,實現無人值守。

    企業對認知技術的需求大幅增長一一互聯網數據中心(IDC)預測 2022 年 企業此項支出將達 776 億美元,與此同時,信任和技術道德問題也迫在眉睫。

    (6)區塊鏈

    德勤 2019 年全球區塊鏈調查報告中,超過半數的參與者表示區塊鏈技術至關重要,較前一 年增長了 10% 。83% 的人能夠明確構思區塊鏈技術的實際應用,較前一年增長了 9% 。調查結果顯示,2019 年,企業已經不再討論「區塊鏈是否可行?」,轉而關注「我們該如何利用區塊鏈?」

    金融服務和金融科技公司持續領航區塊鏈技術的發展,但其它領域也開始推行區塊鏈技術, 尤其是政府、生命科學與醫療健康、科技、媒體、通訊等領域。

    再提技術業務、風險和核心系統重塑似乎有些枯燥無味,但不可否認,它們是業務的核心所在。企業在這些已經發展很成熟的領域,依然繼續進行著可觀的投資。綜合來看,正是因為它們不僅為數字化轉型、創新與增長提供了可靠的、可規模化的基礎,也是在分析技術、認知技術、區塊鏈等顛覆性技術成功投資的必要條件。

    (7) 技術業務

    隨著技術應用與業務戰略的融合,技術業務也在不斷發展。隨著企業更多地通過重塑 IT 來實現運營效率提升和與業務部門合作者一起進行價值創造,很多 IT 團隊通過實施促進跨業務協作的開發體系(如敏捷和 DevOps ),逐漸將傳統的項目制交付調整為產品化運營。

    強大的技術功能讓企業更敏捷地響應技術驅動的市場和業務的變化。一隻強大的數字化技術運營團隊能夠幫助企業迅速回應技術對市場的影響以及相關業務挑戰。

    (8)風險

    在以創新為驅動力的時代,企業面臨的風險遠遠超越了傳統的網路風險、監管風險、運營風險及財務威。2019 年的 CEO 和風險管理調查報告指出,企業最大的風險廣泛涉及新顛覆性技術、創新、生態系統合作夥伴、企業品牌及名譽、文化等。對此,很多公司清楚地意識到他們還未對此類風險做好準備,或沒有想法在管理此類風險方面進行投資。

    除合規和安全的必要要求,企業還面臨新興技術對產品、服務和商業目標的潛在影響,這些使得企業正在把更為廣泛的信任作為企業戰略。

    (9)核心系統現代化

    核心系統現代化體現了數字化轉型、用戶期望及數據密集型演算法給核心系統的前台、中台和後台帶來的持續性壓力。無論是在財務數字化、實時供應鏈,還是在客戶關係管理系統,核心系統都承載了關鍵業務流程。

    在如今這個即時、持續和定製交互的時代,企業需要降低整體的技術負債。實現核心系統 現代化的成熟舉措,比如重塑現有的遺留系統,更新 ERP 系統及重寫其他系統,這些目前來講尤為重要。

    二、未來三大顛覆性技術

    隨著三大顛覆性技術(即數字現實、認知技術和區塊鏈)崛起,並準備在未來十年為業務做出重大貢獻 的同時,未來三大技術發展和創新的新星(環境體驗、指數型智能和量子技術)正蓄勢待發。我們將在 本世紀 20 年代末開始感受到它們的影響。

    a:環境體驗

    環境體驗展望了這樣一個構想:在未來,技術只是環境的一部分。計算設備的功率不斷增加,體積不斷縮小。這些越來越小的設備將我們的輸入從非自然的(指向、點擊和滑動) 演變為自然的(說話、手勢和思考),它們與我們的交互從被動的(回答問題)變成主動的(提出意料之外的建議)。

    隨著設備變得無縫和無處不在,它們和我們越來越密不可分。想像未來的世界,一些微小的,已連接的,內容感知的設備被嵌入辦公室、家中或者其他地方,成為背景活動的一部分。例如,你如果在腦海中想「我要在一個小時之內出發去機場」,就能觸發一系列背景活動,包括安排航班值機,準備可供生物特徵識別的虛擬登機牌,將無人駕駛汽車目的地設置為正確的航站樓,將家中的智能系統狀態調為「離開」,以及暫停出差期間的快遞服務等等。

    b:指數智能

    指數智能建立在當今認知技術能力上。如今,機器智能能夠發現數據中蘊藏的規律,但是無法判斷這些規律是否有內在的意義。同時,它目前還缺乏識別和響應人類互動和情感的細微差別的能力。而且,機器智能的認知能力還非常有限,比如機器能夠打敗國際象棋大師,卻不能理解房間發生了火災需要逃跑。

    未來有無限可能。隨著對語義和符號識別的理解,機器逐漸能從假想的相關中梳理出真實的因果關係。藉助來自人感訥驗平台的技術組合,我們的虛擬助手將越來越能夠識別並適應我們的情緒。隨著研究人員開發出更廣義的智能,指數智能將超越統計和計算的層面。我們敢說,最終,這將導致更有能力的人工智慧誕生。

    c:量子技術

    量子技術利用亞原子微粒的反直覺特性處理信息,進行新型計算,實現「不可非法侵入式」 交流,技術微型化等等。量子計算中,這些量子比特(或量子位)的特殊屬性有可能發生 指數型變化。通過操縱單個粒子,量子計算機將能夠解決某些高度複雜的問題,這些問題 對於目前的超級計算機來說,太大,太雜亂,包括從數據科學到材料科學。

    隨著研究者們不斷突破技術限制,量子計算機將逐漸取代傳統的計算機。數據科學家將能 夠處理前所未有宏大的數據量,並從中獲取相關性信息。材料科學家利用量子比特模擬原 子,這是無法在傳統計算機上實現的。同時,在通訊、物流、安全、密碼學、能量等不同領域,我們都能預見無限可能。

    為了幫助大家更好的理解各類前沿技術動態,基於宏觀科技力量及其可被預期的時間範圍,報告歸納整理了一張完整的統一化視圖。

    三、五大關鍵新興趨勢

    一)技術道德與信任

    技術變革常態化的同時,贏得全方位的信任變得更具挑戰——但也充滿機遇。

    隨著數字技術的出現,企業要用戶以新的更深層次的方式信任他們,過去是獲取用戶個人信息,現在則是通過數字痕迹追蹤用戶的線上行為。同時,技術引起的問題也經常成為新聞頭條,例如安全漏洞、不當或非法監視、個人信息濫用、虛假信息傳播、演算法歧視、缺乏透明度等等。這些事件導致利益相關方之間不信任(包括客戶、僱員、合作 夥伴、投資者和管理者),嚴重損害企業聲譽。的確,消費者對商家的信任正在逐漸下降,人們對公共機構的態度也越來越謹慎,員工則要求企業明確闡述其核心價值觀。

    德勤 2020 年全球市場趨勢報告中提到,當今時代,品牌信任對企業來講尤為重要,關係到企業的方方面面。無論是客戶、監管機構,還是媒體,都期望品牌商在其開展業務的各個領域都是開放、誠信和始終如一,從產品生產、促銷活動、到員工文化和合作夥伴關係維護等。

    被技術顛覆的企業,它的每一個方面都意味著可以贏得或失去任何一個客戶、員工、合作夥伴、投資者和/或監管機構信任的機會。如果領導者能夠充分貫徹企業價值觀和技術道德觀,努力履行「做好事」的承諾,企業就能夠與利益相關者建立長期牢固的信任關係。在這種情況下,信任就變成了一個全方位的 承諾,並且確保信任是企業的技術,流程,人員都在共同努力維護的基礎。

    技術道德這一術語指的是不局限於或側重於任何 一項技術的綜合價值觀,這個價值觀是指導企業對技術使用的整體方法及通過部署這些技術驅動業務戰略和運營企業應考慮主動評估如何以符合公司宗旨和核心價值觀的方式使用技術。

    在數字時代,信任是個複雜的議題,企業面臨著無數的生存威脅。雖然顛覆性技術通常會給企業帶來指數型增長,但僅憑技術卻無法建立長期信任。因此,領先企業們正在通過全方位的維持利益相關者所期望的高度信任。領先企業們正在嘗 試通過各種方式,來維持利益相關者所期望的高度信任。

    人工智慧、機器學習、區塊鏈、數字現實和其它 新興技術正以前所未有的速度和深度融入我們的 曰常生活。企業該如何通過客戶、合作夥伴和員工使用這些技術來構建信任呢?

    解讀企業價值觀。

    如今,技術根植於業務,機器學習也驅動著業務決策和行為,因此,必須先了解企業的技術解決方案,才能進一步解讀和評價企業價值觀。數字化系統可以被設計用來減少偏差,讓企業能夠遵循自己的原則運 營。

    保障措施可以防止用戶以不健康或不負責任的方式使用技術,從而幫助提高利益相關者的利益。例如,一家公司對可能成癮的遊戲強制限定遊戲時間和遊戲花費一個內容提供商提醒用戶關注信息來源的準確性;雲計算提供商在 戶超出其預算之前自動發出警報。

    建立強大的數據基礎。

    如果不能系統性地、統一地追蹤數據內容及來源,並確定可訪問數據的人員,就沒有辦法營造良好的信任環境。強大的數據基礎讓利益相關者擁有共同的願景, 為數據負責,採用安全的技術手段實現有效的數據管理。管理者需要讓利益相關者了解他們提供的數據將如何運用,此外,除非為了法律或監管的目的,在利益相關者要求時須刪除相關數據。

    強化防護措施。

    德勤 2019 年未來網路調查報告顯示,管理者為網路問題花費的時間越來越多,網路防禦體系意味著您要 保護您的客戶、員工和商業合作夥伴,讓他們遠離與他們——或者說你們——的價值觀不同的群體。從最開始就需要建立並實施網路安全風險策略略,並將其貫穿於商業運營和政策制定的全過程,這絕不僅僅是信息技術部門的問題。企業領導者應當與信息技術部門一起制定全面的數字安全風險策略,考慮安全、隱私、 誠信和保密等各方面,增強利益相關者的信任,提高企業競爭力和優勢。因此,需要評估企業的風險容忍度,明確弱點所在,並判斷企業最具價值的數據和系統,制定風險緩解策略和恢復計劃。

    二)財務與 IT 的未來

    IT 和財務領導者共同努力為創新融資尋找靈活的途徑。

    德勤的研究發現,56% 的首席信息官(CIO)期望應用 Agile, DevOps 或類似的靈活 IT 交付模式,來提高 IT 的響應能力並激發更廣泛的創新的雄心。

    但目前有些難以克服的障礙阻礙這些努力:資金的來源和分配。IT 的運營和開發流程正變得越來越靈活,更加側重產品,而財務部門仍舊按照過去數十年的方式來制定預算、融資和財報。結果顯而易見:IT 需求與財務流程之間的矛盾。若這個問題得不到解決,那麼它可能會破壞首席信息官(CIO)的創新計劃,乃至整個企業的戰略目標。

    IT 對資金的需求與財務的漫長流程之間的矛盾並非形成於一夜之間。而是在過去十年中曰漸累積。雲技術和平台技術一步步地顛覆了傳統運營模式,迫使財務部門不得不重新評估財務管理方法。

    《報告》指出這種變革體現在三方面:

    從資本支出轉向運營支出

    從在現場轉型到基於雲的系統,涉及大量的支出從資本支出轉移到運營支出。事實上,團隊一直都有一些資本支出和運營支出。新的準則是「誰開發誰管理」。從會計的角度而言,短期運營支出增長會影響季度財報。

    衡量難以捉摸的投資回報率。

    技術創新舉措通常是難以達到內部收益率預期的嘗試,可能產生正回報也可能不會。在財務及短期收益上, 創新投資通常不具備傳統 IT 項目的信心水平, 因此這類投資往往也很難通過標準管理流程獲得有力支持。在某些情況下,這會導致財務部門難以建立精確的流程,來跟蹤長期投資回報率。例如,對於無限期重複使用的平台這類的固定預算投資,跟蹤其投資回報率更是難上加難。

    計算交付價值。

    根據德勤《 2018 年全球首席信息官(CIO)調查報 告》,65% 的受訪者表示他們在評估 IT 投資時, 通常採用具體案例具體分析的方法,而不是遵循常規財報流程。顯然,在評估 IT 帶來的價值這件事上,首席信息官 (CIO )與首席財務官 (CFO)不在同一立場。

    作為財務與未來的T趨勢的一部分,我們預計有更多首席信息官(CIO)、首席財務官(CFO)以及他們各自的團隊,將會積極探索解決這些及其他在融資、會計與財報上所面臨的挑戰的方法。

    三)數字孿生技術

    利用下一代數字攣生技術助力企業設計、優化和轉型。

    當下,企業正以多種方式使用數字彎生技術。在汽車和飛機製造領域,數字彎生技術逐漸成為優化整個製造價值鏈和創新產品的重要工具;在能源領域,油田服務運營商通過獲取和分析大量井內數據,建立數字模型,實時指導鑽井作業在醫療保健領域,心血管研究人員正在為臨床診斷、教育、培訓,創造高模擬的人類心臟的數字彎生體;作為智慧城市管理的典型案例, 新加坡使用詳細的虛擬城市模型,用於城市規劃、維護和災害預警項目。

    數字彎生可以模擬物理對象或流程的各個方面。它們可以展現新 產品的工程圖和尺寸,也可以展現從設計到消費者整個供應鏈中 所有子部件和相應環節——即」已建成「數字彎生,也可採用 「即維護」模式——生產車間設備的實物展現。模擬模型可以捕獲 設備如何操作,工程師如何維護,甚至該設備生產的產品如何與客戶關聯。數字彎生可以有多種形式,但它們無一例外都在捕獲和利用現實世界的數據。

    數字孿生髮展勢頭迅猛,得益於快速發展的模擬和建模能力、更好的互操作性和物聯網感測器, 以及更多可用的工具和計算的基礎架構等。因此, 各領域內的大小型企業都可以更多地接觸到數字孿生技術。IDC 預測,到 2022 年,40% 的物聯網平台供應商將集成模擬平台、系統和功能來創建數字孿生,70% 的製造商將使用該技術進行流程模擬和場景評估。

    與此同時,通過訪問大量數據,使得創建比以往更為詳細、更為動態化的模擬成為可能。對於數字孿生的長期用戶而言,這就好比從模糊的黑白快照過渡到彩色高清數碼照片一樣,從數字源中獲取的信息越多,最後呈現的照片就越生動逼真。

    長期來看,若想要實現數字孿生技術的全部潛力, 可能需要集成整個生態圈內的系統和數據。創建 一個完整的客戶生命周期或供應鏈(囊括了一線供應商和其自身的供應商)的數字化模擬,可以提供富有洞察力的宏觀運營觀點,但仍然需要將外部實體整合到內部數字化生態系統內。直至今曰,大多數企業仍對點對點連接之外的外部集成感到不滿意。克服這種猶豫可能是一個長期挑戰, 但最終,所有的付出都將是值得的。未來,期望企業會利用區塊鏈打破信息孤島,繼而驗證信息並將其輸入數字孿生體中。這可以釋放先前無法訪問的大量數據,從而使模擬更加細節化、動態化、更具潛在價值。

    四)人感體驗平台

    通過Al、神經科學、人本設計重塑人機聯接。

    人感體驗平台趨勢顛覆了傳統的設計方法,它首先確定我們想要實現的人性化和情感體驗,而後決定使用何種情感和 AI 技術組合能夠達成這一效果。企業將面臨的一大挑戰是,如何針對不同的客戶群體、員工群體和其它利益相關者,確定能引起他們共鳴和引發他們情緒的具體響應或行為,並進一步開發情感技術,使其能夠識別和複製某一段體驗中的特質。

    在不久的未來,我們將會看到人們對人性化的技術需求曰益增長。在數字化革命進程中,我們目前進入到一個階段,就是每個人之間未必有 接,但每個人一定都與技術有聯結。我們正在消除流程和交互,直接與機器互動。因此,我們渴望我們正在迅速失去的東西:有意義的聯結。為此,我們期望技術能夠用更 加人性化,更人道化的方式跟我們互動。設計能夠滿足這一期望的技術需要對人的行為有更深刻的洞察,並不斷創新,以提高我們預測和響應人們需求的能力。不久的將來,人感體驗很有可能會帶來長久的、可持續的競爭優勢。

    五)架構覺醒

    演進架構師角色,從而轉變系統架構並支持業務 發展的速度。

    越來越多的技術領導層和高管們逐漸意識到,如今,技術架構領域的科學在戰略上比以往任何時候都更加重要。事實上,為了在技術創新顛覆的市場中保持競爭力,已成立的企業需要不斷演 他們的架構一一這一過程可以從改變技術架構師在企業內扮演的角色開始。

    這種轉變的目的非常明確:把經驗最豐富的架構師安排到最需要他們的地方——即加入到設計複雜技術的軟體開發團隊中。一旦這些架構師被重新部署和賦能,他們便可幫助簡化技術棧, 提升技術敏捷性,從而為新興企業獲得市場優勢。另外,他們還可以直接負責實現業務成果,解決架構難題。

    此外,擁抱架構覺醒這一趨勢的企業將開始重新定義架構師角色,使其更具協作性、創新性,並能對利益相關者的需求做出回應。具有全局觀的架構師可能會發現,自己正在多部 門混合的項目團隊中,與專注於應用程序的架構師 以及來自 1T 和業務部門的同事共同作戰。未來,他們的使命將不僅是利用傳統的架構組件,還要利用顛覆性力量(如區塊鏈、AI、及機器學習)大胆創新。

    資料來源:https://m.news.sina.com.tw/article/20201026/36690918.html

你可能也想看看

搜尋相關網站