[爆卦]xai應用是什麼?優點缺點精華區懶人包

雖然這篇xai應用鄉民發文沒有被收入到精華區:在xai應用這個話題中,我們另外找到其它相關的精選爆讚文章

在 xai應用產品中有6篇Facebook貼文,粉絲數超過2萬的網紅COMPOTECHAsia電子與電腦 - 陸克文化,也在其Facebook貼文中提到, #物聯網IoT #人工智慧AI #嵌入式系統 #擴增實境AR 【過猶不及=>「可解釋 AI」】 隨著 COVID-19 病毒陸續席捲全球,保持社交距離、強制佩戴口罩、居家令等一系列法規相繼在各地實施,人們的生活方式在短時間內發生了巨大改變,一方面大量的應用和需求湧入互聯網和雲端服務,另一方...

  • xai應用 在 COMPOTECHAsia電子與電腦 - 陸克文化 Facebook 的最佳貼文

    2020-08-26 14:30:01
    有 53 人按讚

    #物聯網IoT #人工智慧AI #嵌入式系統 #擴增實境AR

    【過猶不及=>「可解釋 AI」】

    隨著 COVID-19 病毒陸續席捲全球,保持社交距離、強制佩戴口罩、居家令等一系列法規相繼在各地實施,人們的生活方式在短時間內發生了巨大改變,一方面大量的應用和需求湧入互聯網和雲端服務,另一方面,嵌入式人工智慧 (AI) 應用在許多領域落嶄露頭角。

    AI 通常被視為一個「黑盒子」,我們都不知道演算法是如何運作,但這也是它特別有效的部分原因;AI 並不仰賴人類的想法來建立演算法邏輯。但是當 AI 無法正常工作時,我們就需要獲得一定程度的可解釋性,瞭解該如何妥善修正模型。基本上,認知不確定性是可以降低的,用戶可以透過提高運算複雜度,增加更多的訓練層數,從而降低模型的不確定性,但要注意避免「過度擬合」(over-fit)。

    對於輸入不確定性,神經網路只能報告輸入有問題,因此應對輸出保持謹慎態度。因此,有業者提出「可解釋 AI」(explainable AI, xAI) 概念——希望神經網路能夠識別這種局限,最後由人類決定是否需要品質更好的輸入、或完全拒絕輸出。例如,透過適當培訓的 xAI 模型來處理電腦斷層 (CT) 和 X 光影像,能區分未感染肺炎 vs. 感染病例,協助臨床人員確定下一步治療方案。

    簡言之,xAI 能在涉及不確定性的情況下,作出更接近人類的反應,為基於機率的決策分類增加了確定性和可行度。此外,市面上出現一款量測體溫專用的擴增實境 (AR) 眼鏡,最多可同時對 10 人進行動態測溫、一分鐘最高可檢測近千人,便搭載了 AI 人臉識別和多點均值擬合測溫技術,使精準測溫時間不超過 0.2 秒;依託先進的嵌入式 AI 視覺處理技術,其測溫識別功能可實現離線工作,無需將資料上傳雲端處理,被評為 AR 殺手級應用之一。

    延伸閱讀:
    《戰鬥在疫情前線的嵌入式 AI》
    http://compotechasia.com/a/feature/2020/0812/45486.html

    #恩智浦NXP #雲鏡Rokid #安謀Arm #研揚科技 #DarwinAI #GenSynth #COVID-Net

  • xai應用 在 國立臺灣大學 National Taiwan University Facebook 的最讚貼文

    2020-05-21 09:07:01
    有 272 人按讚

    【口罩阻礙人臉辨識 臺大AI新技術有解】


    開學以來,你我外表最大的不同就是當起「蒙面客」,戴口罩的好處是力行防疫,還可趁機偷懶不用刮鬍子、化妝也只需畫眼妝就好…不過,麻煩之處就是使用手機時,人臉辨識解鎖無法運作,得重複摘下戴上口罩…


    還好,這樣的窘境未來可能有解了。臺大資訊工程學系教授徐宏民( Winston Hsu ),率領其在臺大AI中心(轄下的團隊,發表「可解釋性人工智慧( Explainable AI ,XAI)模組xCos」,除了具備高辨識率的人臉辨識能力外,還可有條理的解釋AI產出結果的原因。這項技術不僅可協助業者開發AI辨識技術,更可協助開發人員探究及檢視系統的運作機制,進而理解AI決策建議背後的理由,提升人類對於AI的信任度。


    徐教授解釋,例如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置,這些XAI的應用,都可強化人民對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便以改善與強化AI模型,進而促進國內外AI技術與相關產業進展。


    徐教授團隊自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等。2018年在全球三大電腦視覺頂尖會議之一的CVPR偽裝人臉辨識競賽( Disguised Faces in the Wild )奪下全球冠軍,為辨識率唯一超過9成的團隊。


    徐教授表示,產學合作的過程中,除了貢獻研究者對未來技術的洞察力之外,研究者也時常從合作過程中去挖掘出未來的需要。他希望將其理念拓展至其他AI深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的AI決策系統,像是醫療與能源方面。


    團隊已將此技術以Open Source方式供產學研單位使用:https://github.com/ntubiolin/xcos


    延伸閱讀

    iThome「AI為何這樣辨識人臉?臺大徐宏民團隊首創可解釋AI新技術,正嘗試擴大應用到金融和醫療AI」:
    https://www.ithome.com.tw/news/137541?fbclid=IwAR24ljMhAu5tn4-4Drl1Q6-gFXLl-I7gqzlgZe_1KIQdymiHqL_mxY68ZeQ


    自由時報「不解人工智慧決策理由 台大團隊AI研究取得新進展」:
    https://news.ltn.com.tw/news/life/breakingnews/3161898


    科技部新聞資料「打破AI黑盒子-可解釋性的人臉辨識模組」:
    https://www.most.gov.tw/folksonomy/detail/906337b9-1d19-4e06-ad71-322b12531971


    #解決問題
    #大學社會責任
    #USR
    #臺大資訊工程學系
    #徐宏民
    #終於不用再一直穿脫口罩用手機

  • xai應用 在 台灣物聯網實驗室 IOT Labs Facebook 的精選貼文

    2020-05-12 17:34:48
    有 2 人按讚

    打開 AI 黑盒子,台大找到 AI 決策關鍵並開源各界使用

    作者 中央廣播電台 | 發布日期 2020 年 05 月 11 日 16:02

    科技部 11 日舉辦記者會,邀請台灣大學 AI 中心分享「可解釋性人工智慧」,除了具備高辨識率的人臉辨識能力,還可以有條理的解釋 AI 產出結果的原因,有效提升人類使用 AI 的信任度。

    近年來 AI 臉部辨識已進步到深度學習等類神經網路,由電腦自己訂規則,憑著數以千計的條件,產出高精準度的答案,不但可辨認出真假金正恩,還可以在低解析度或刻意喬裝的情況下辨識,甚至超越人類辨識能力。

    台大資工系教授徐宏民指出,過去人們不了解 AI 做決策的過程及原因,讓人駐足不前,因此,台大人工智慧技術暨全幅健康照護聯合研究中心(台大 AI 中心)在科技部支持下,打造出「可解釋性人工智慧」(Explainable AI,XAI),猶如打開「AI 黑盒子」,確認 AI 決策的合理性。「我們能解釋過去跟現在小豬哪邊不一樣,像是髮型不太一樣,下巴變得比較尖,能解釋這裡不太一樣,但鼻子、眼睛周遭還是非常像,所以專注這裡,最後判斷這是小豬。」

    科技部長陳良基也指出,科技部去年 9 月公布人工智慧科研發展指引,強調 AI 的「透明性與可追溯性」及「可解釋性」,期盼讓普世大眾對 AI 感到信賴與安心。「這非常重要,AI 不應該是黑盒子,必須告訴我,現在幫我決定能不能進門、能不能得到補助,不能算完卻不能解釋,必須解釋清楚。」

    徐宏民也提到,為加速技術擴散與落地應用,此 AI 模組 xCos 可與其他臉部辨識系統相互搭配,並將這項技術開源供國內外產學研單位使用,希望將相關理念拓展至其他深度學習相關應用。

    資料來源:https://technews.tw/2020/05/11/xcos-an-explainable-cosine-metric-for-face-verification-task/?fbclid=IwAR3H40BjkgNplbxd66lG5afqqUqxRM_I5Kml2uTEpyt0Q2dKdd2wvRwYvSM

你可能也想看看

搜尋相關網站