[爆卦]自動閱卷系統是什麼?優點缺點精華區懶人包

雖然這篇自動閱卷系統鄉民發文沒有被收入到精華區:在自動閱卷系統這個話題中,我們另外找到其它相關的精選爆讚文章

在 自動閱卷系統產品中有2篇Facebook貼文,粉絲數超過44萬的網紅李開復 Kai-Fu Lee,也在其Facebook貼文中提到, 前方記者李開復:達沃斯聚焦6大AI議題,中國AI+教育全球領先 2018冬季世界經濟論壇依然在瑞士達沃斯進行。 在參加達沃斯經濟論壇的WEF Generation AI panel環節时,我和Kay Firth-Butterfield(AI-Austin公司執行董事)、Ronald Dahl ...

  • 自動閱卷系統 在 李開復 Kai-Fu Lee Facebook 的精選貼文

    2018-01-29 19:58:05
    有 170 人按讚


    前方記者李開復:達沃斯聚焦6大AI議題,中國AI+教育全球領先
    2018冬季世界經濟論壇依然在瑞士達沃斯進行。
    在參加達沃斯經濟論壇的WEF Generation AI panel環節时,我和Kay Firth-Butterfield(AI-Austin公司執行董事)、Ronald Dahl (加州大學伯克利分校人類發展研究所所長)、Erica Kochi (聯合國兒童基金會聯合創始人)、Matt Hancock(英國數字文化媒體和體育部長)等嘉賓討論,關於AI教育和AI道德公平偏見有幾個有意思的觀點跟大家分享。
    我的觀點是中國在AI和教育的結合方面,更勇敢超前,美國的EdTech太理想主義。
    中國教育和AI技術結合更超前
    這個月我和一些創業公司拜訪哥倫比亞大學,接待我們每一個老師,無論是Jeanette Wing, Mary Boyce還是Merit Janow,是從心裏熱愛他們做的每一個技術,即使已經是60多歲,依然對技術癡迷。這種教育精神,是非常棒的學習榜樣。
    但針對AI+教育的未來,我的觀點是美國的EdTech(教育科技)太多理想,太多修辭,不夠務實。同時對學生數據隱私過於糾結,沒有看到應有的進度。中國在AI技術和教育的結合方面,走的更超前。
    我跟大家描述中國AI教育的迅速發展。每個學生都有完整教育畫像,畫像數據來自:遠程教育視頻和學習記錄(如 VipKid),雙師教師視頻和學習記錄(如高思),考試自動修正和錯誤記錄(如七天),自動軟體練習(如盒子魚)。這幾個公司覆蓋了接近百萬付費家長,數千萬學生。
    在這幾個領域創新工場投資的幾家教育公司,已經驗證這些邏輯,正在改寫未來教育。比如VipKid可以透過一對一視頻學習鏈接北美老師和中國孩子,強大的後臺系統可以將整個教學過程數位化,回饋給老師,不斷優化教學效果。創業公司“聯幫線上”推動雙師課堂,把優質師資通過網路帶進偏遠學校,當地老師做個性化課後輔導。創業公司“七天網路”提供AI智能閱卷,減輕老師重複性工作。
    老師不會被AI取代
    在未來的10-30年裏,這些工作將會慢慢消失,這種局面我們很難去改變。很多人都在擔心自己的工作會被AI取代,具備以下四種特質的工作很難被AI取代:精緻、複雜、創意、愛心。
    所以,學校老師的角色未來不可能被AI取代,AI反而能減輕教師工作中重複機械化的任務(比如閱卷、點名),讓老師們真正釋放出來關注學生、教學互動。
    但我們需要改變教育,為孩子們開設發掘天賦和才能的課程,讓更多的孩子接受更好的教育,還需要增強職業道德培訓。
    未來,人類也許一周工作30個小時(4天)就可以了,將來會有更多的機器人替我們工作,我們也有更多的財富,這也會削弱我們的工作動機。但我們需要匹配的教育方式培養對應的人才。
    AI的道德偏差AI公司應負責
    AI的智能水準依賴數據。一旦數據樣本不全面,就會造成結果和判斷的偏差。一些研究已經顯示,隨著機器越來越接近於掌握人類的語言能力,它們也在吸收隱藏於語言中的根深蒂固的偏見。通俗地說,因為人類的語言帶有偏見,電腦通過對人類語言的大量學習,也學會了偏見。例如,當一臺電腦在搜尋電腦程式員時,會將“程式員”與男性聯繫在一起,男性的簡歷將會到達最頂部。
    對於AI 道德公平偏見問題,UNICEF 創新負責人Erica Kochi 發表了比較有意思的觀點。
    1)如果AI數據不完整,可能導致各種問題。比如說在非洲用手機通話數據訓練的小額貸款就無法貸款給比較貧窮沒有手機貨很少使用手機的人,還有墨西哥有些保險公司會預測人未來生病的概率,如果很高就大幅度漲保險月費。
    2)AI公司在解決道德上有四個責任:數據的完整性和代表性、演算法的公平性、用戶對於演算法和決策的知情權,用戶投訴管道。
    3)如何執行這樣對於大AI公司的監督呢,Erica建議採取財務審計的模式,來檢視演算法、數據、透明度、政策等方面。可以從最危險的領域(比如說無人駕駛)開始,逐漸完善審計制度。審計可以來自內部或外部。公司因為自律審計,對公司聲譽會有所提升。如果是外部審計,則可以給公司機會回應整改。這些觀點在國內從來不會聽到,雖然不一定是最好的方案。
    這些觀點雖然不一定是最好的方案,我也不見得同意她的觀點,但是他們研究更深,且基於不同文化背景,可彼此參考切磋。
    李開復總結:2018達沃斯聚焦AI對人類的六大挑戰
    2018年冬季達沃斯的主題是“在分化的世界中加強合作”,人工智慧出現在全球各界領袖的討論議題當中。從我的感受來看,全球的各界領袖對AI對人類的挑戰尤為關注,主要聚焦在以下六個話題裏:
    1) 安全性:無人駕駛汽車可以被駭客變成武器,如何避免?
    2) 隱私:個人隱私如何保護,如何讓每個人掌控自己的數據,或至少避免AI公司濫用個人數據(如出售等)?
    3) 工作:15年內50%的工作任務將被取代,4-8億人需要重新訓練,人類如何度過這個歷史性的挑戰?
    4) 貧富不均:AI創造的富豪和被AI取代的重複性工作者,這兩者的差距可能是有史以來最大。如何避免富人淩虐窮人?
    5) 數據的偏見:如果數據不完整或標注有偏見,可能帶來對一些用戶的歧視,如何監督避免這方面問題?
    6)大公司的壟斷:巨頭公司擁有大量用戶數據,可以靠此優化產品,增加收入,花大錢雇傭AI科學家買機器,再累積更多數據,源源不斷維護壟斷。AI時代的壟斷,因為有數據累積作用,可能比任何過去時候的壟斷都反競爭,應該怎麼辦?

  • 自動閱卷系統 在 李開復 Kai-Fu Lee Facebook 的精選貼文

    2018-01-29 13:21:17
    有 175 人按讚


    李開復2018達沃斯見聞 VII :美國EdTech太理想主義

    1月23日至26日,第48屆世界經濟論壇年會在瑞士達沃斯召開,主題為“在分化的世界中打造共同命運”。

    作為多年參會的資深“記者”,看到聽到了很多有趣的見聞。今天是這一系列的第七篇。

    以下内容来自創新工場微信公众号:

    …………………………………………

    在參加達沃斯經濟論壇的WEF Generation AI panel環節,我和Kay Firth-Butterfield(AI-Austin公司執行董事)、Ronald Dahl (加州大學伯克利分校人類發展研究所所長)、Erica Kochi (聯合國兒童基金會聯合創始人)、Matt Hancock(英國數字文化媒體和體育部長)等嘉賓討論,關於AI教育和AI道德公平偏見有幾個有意思的觀點跟大家分享。

    我的觀點是中國在AI和教育的結合方面,更勇敢超前,美國的EdTech太理想主義。

    ▌中國教育和AI技術結合更超前

    這個月我和一些創業公司拜訪哥倫比亞大學,接待我們每一個老師,無論是Jeanette Wing, Mary Boyce還是Merit Janow,是從心裏熱愛他們做的每一個技術,即使已經是60多歲,依然對技術癡迷。這種教育精神,是非常棒的學習榜樣。

    但針對AI+教育的未來,我的觀點是美國的EdTech(教育科技)太多理想,太多修辭,不夠務實。同時對學生數據隱私過於糾結,沒有看到應有的進度。中國在AI技術和教育的結合方面,走的更超前。

    我跟大家描述中國AI教育的迅速發展:每個學生都有完整教育畫像,畫像數據來自:遠程教育視頻和學習記錄(如 VipKid),雙師教師視頻和學習記錄(如高思),考試自動修正和錯誤記錄(如七天),自動軟體練習(如盒子魚)。這幾個公司覆蓋了接近百萬付費家長,數千萬學生。

    在這幾個領域創新工廠投資的幾家教育公司,已經驗證這些邏輯,正在改寫未來教育。比如VipKid可以透過一對一視頻學習鏈接北美老師和中國孩子,強大的後臺系統可以將整個教學過程數位化,回饋給老師,不斷優化教學效果。創業公司“聯幫線上”推動雙師課堂,把優質師資通過網路帶進偏遠學校,當地老師做個性化課後輔導。創業公司“七天網路”提供AI智能閱卷,減輕老師重複性工作。

    ▌老師不會被AI取代

    在未來的10-30年裏,這些工作將會慢慢消失,這種局面我們很難去改變。很多人都在擔心自己的工作會被AI取代,具備以下四種特質的工作很難被AI取代:精緻、複雜、創意、愛心。

    所以,學校老師的角色未來不可能被AI取代,AI反而能減輕教師工作中重複機械化的任務(比如閱卷、點名),讓老師們真正釋放出來關注學生、教學互動。

    但我們需要改變教育,為孩子們開設發掘天賦和才能的課程,讓更多的孩子接受更好的教育,還需要增強職業道德培訓。

    未來,人類也許一周工作30個小時(4天)就可以了,將來會有更多的機器人替我們工作,我們也有更多的財富,這也會削弱我們的工作動機。但我們需要匹配的教育方式培養對應的人才。

    ▌AI的道德偏差AI公司應負責

    AI的智能水準依賴數據。一旦數據樣本不全面,就會造成結果和判斷的偏差。一些研究已經顯示,隨著機器越來越接近於掌握人類的語言能力,它們也在吸收隱藏於語言中的根深蒂固的偏見。通俗地說,因為人類的語言帶有偏見,電腦通過對人類語言的大量學習,也學會了偏見。例如,當一臺電腦在搜尋電腦程式員時,會將“程式員”與男性聯繫在一起,男性的簡歷將會到達最頂部。

    對於AI 道德公平偏見問題,UNICEF 創新負責人Erica Kochi 發表了比較有意思的觀點。

    1)如果AI數據不完整,可能導致各種問題。比如說在非洲用手機通話數據訓練的小額貸款就無法貸款給比較貧窮沒有手機貨很少使用手機的人,還有墨西哥有些保險公司會預測人未來生病的概率,如果很高就大幅度漲保險月費。

    2)AI公司在解決道德上有四個責任:數據的完整性和代表性、演算法的公平性、用戶對於演算法和決策的知情權,用戶投訴管道。

    3)如何執行這樣對於大AI公司的監督呢,Erica建議採取財務審計的模式,來檢視演算法、數據、透明度、政策等方面。可以從最危險的領域(比如說無人駕駛)開始,逐漸完善審計制度。審計可以來自內部或外部。公司因為自律審計,對公司聲譽會有所提升。如果是外部審計,則可以給公司機會回應整改。這些觀點在國內從來不會聽到,雖然不一定是最好的方案。

    這些觀點雖然不一定是最好的方案,我也不見得同意她的觀點,但是他們研究更深,且基於不同文化背景,可彼此參考切磋。

你可能也想看看

搜尋相關網站