[爆卦]ai照片生成器是什麼?優點缺點精華區懶人包

雖然這篇ai照片生成器鄉民發文沒有被收入到精華區:在ai照片生成器這個話題中,我們另外找到其它相關的精選爆讚文章

在 ai照片生成器產品中有36篇Facebook貼文,粉絲數超過3,992的網紅台灣物聯網實驗室 IOT Labs,也在其Facebook貼文中提到, AI 如何為公司創造更多價值?專家:2 個缺陷,要先由人類來修補 2021/05/13 採訪‧撰文 盧廷羲 張凱崴 美國人工智慧國家安全委員會(NSCAI)今年 4 月建議,國防部每年應至少分配 3.4% 的預算投入科技領域,並提撥 80 億美元研發 AI。企業方面,微軟(Microsoft)4...

ai照片生成器 在 舌尖上的攝影師 Nick Instagram 的最佳貼文

2021-01-12 07:53:08

- #今晚我想來點 #勇氣 新年快樂,照慣例年初都會有不少感觸,這次來聊聊對社群的觀察。有時自認自己是不刻意追求商業,但不知不覺商業化的一種存在,資本主義架構下,我們被迫不停的要去溝通所謂的存在價值。 社群這件事我是怎麼看,先說結論,我認為未來社群最重要的兩個關鍵字: 「簡單」、「誠實」 我...

ai照片生成器 在 ????? 色調分享/社群行銷 / 熱門話題 Instagram 的精選貼文

2021-02-03 19:16:51

『把照片變成一幅油畫!』  現代科技飛速進步 AI根本超強 居然有油畫生成器了?!  有別於一般APP內的不真實特效 今天分享的這兩款程式超級逼真 就像一位畫家真的畫出一幅作品一般 你一定要試試!  ✦AI画伯 專門將頭像轉化為肖像畫 裡面的畫風超多種 寫實、印象、抽象派都有...

ai照片生成器 在 BusinessFocus | 商業、投資、創科平台 Instagram 的最讚貼文

2020-11-02 11:37:05

【@businessfocus.io】全新AI技術可以偽造裸照?荷蘭報告:逾10萬人受害! . AI技術日新月異,雖然這可帶來不少的便利,但如果完全不考慮一些潛在的後果,最後受影響的也會是我們。10月21日,英國廣播公司(BBC)的報導指出,Telegram出現了大量偽造的裸體圖片,裡面的受害者包括...

  • ai照片生成器 在 台灣物聯網實驗室 IOT Labs Facebook 的精選貼文

    2021-05-17 15:14:49
    有 0 人按讚

    AI 如何為公司創造更多價值?專家:2 個缺陷,要先由人類來修補

    2021/05/13
    採訪‧撰文
    盧廷羲
    張凱崴

    美國人工智慧國家安全委員會(NSCAI)今年 4 月建議,國防部每年應至少分配 3.4% 的預算投入科技領域,並提撥 80 億美元研發 AI。企業方面,微軟(Microsoft)4 月宣布,將以 197 億美元收購語音辨識開發商紐安斯通訊(Nuance Communications);後者是雲端與 AI 軟體的先驅。

    從企業到國家,都愈來愈重視人工智慧,知道要想辦法運用 AI 創造更好的生活。不過,目前 AI 發展到底處於什麼階段?我們又該如何應用?

    美國加州大學洛杉磯分校(UCLA)電腦科學系助理教授張凱崴形容,目前人工智慧技術已經可以幫助人類完成很多事,像是疫情來襲,電腦可以從大數據中篩選條件,自動搜尋、判讀潛在病例,幫助醫生大幅減少檢查時間,但 AI 也並非萬能,要先認知它的局限。他研究如何讓 AI 更符合人性,獲得 2021 年的史隆研究獎(Sloan Research Fellowships)。

    AI 局限1. 資料寬廣度不足時,就會複製人類偏見

    張凱崴認為,電腦在學習的時候,是依賴「彙整數據資料」來判斷,並沒有真正思考,如果資料來源太狹隘、不夠多元,資料寬廣度不足,電腦判斷就會出現偏差,「你跟電腦講清楚 input(輸入)、output(輸出),提供足夠的數據資料,它可以對應、學得很好,但還有很多面向 AI 做不到。」

    舉例來說,亞馬遜(Amazon)2014 年推出智慧音箱(Amazon Echo),使用者口頭下指令給語音助理 Alexa 就能放音樂、查資訊。然而,有些人口音較罕見,或是用字較特殊,智慧音箱的資料庫沒有「不同口音」「不同用詞」的檔案,就可能失靈,這是當前 AI 的其中一大問題。

    張凱崴進一步解釋,AI 另一項挑戰是,它無法清楚分辨「不曾出現」與「不能出現」(無法出現)之間的區別,只是從資料統計出要學的東西,無法像人類一樣進行邏輯思辨。

    AI 的運作方式,第一步是輸入資料,第二步是分析,但這過程容易出現偏見。例如電腦在理解「總統」這個字,會去看四周有什麼字詞,來學習總統這個詞,由於許多總統都是男性,電腦就會「覺得」總統是男性。

    這也是為什麼,如果讓 AI 學習,在它的認知裡,女性「不可能」當美國總統(因為沒有資料紀錄)。「你可以跟人類說,任何職業、性別都是平等的,但對電腦來講,這很困難,」張凱崴說明,一旦資料的寬廣度受限,電腦就容易產生偏見。

    就像在自然語言處理(Natural Language Processing,讓電腦把輸入的語言變成有意義的符號)領域,張凱崴說明,AI需要知道代名詞指的是「哪個名詞」,才能運算下去。但如果資料受限,使用男性的「他」,電腦可能判斷這個代名詞是指總統、總理、執行長;但換成女性的「她」,由於數據不足,電腦就會混亂,出現系統性誤差。

    他再舉一例,美國人工智慧研究組織 OpenAI 提出「生成式預先訓練」系統(GPT,Generative Pre-training),推出到 GPT3 版本,屬於書寫類 AI,電腦能夠揣測人們說完上一句話,下一句可能會講的句子,自動完成後半段。

    好比有人上一句寫下「我正在和教授聊天」,系統可能推導出「我們在研究室討論學術問題」,因為電腦藉由蒐集來的語料資料中判讀出「教授」和「學術」具高度相關。但研究也顯示,GPT2(前一代版本)系統也從資料中學習到許多偏見,像是如果句子前半談論白人男性,系統傾向產生正面評價;如果句子前半是黑人女性,系統竟會產生負面句子。對企業來說,許多組織接觸 AI,想讓它們取代部分工作,首先需要留意資料的廣度、多元性,才能減少電腦犯錯的機會。

    AI 局限2. 即便條件相同,也無法每次都做出正確判斷

    「其實,現在的 AI 就像一台原型飛機,還缺乏穩定性。」張凱崴說,現行的 AI 就好比萊特兄弟(Wright brothers)剛發明飛機,看似可以做很多有趣的事,但「可以飛」跟「飛得很好」,有一大段落差。

    紐西蘭的簽證系統曾鬧出笑話。人們上傳簽證照片,AI 掃描後,確認是不是本人,但當時系統沒有估算到某些亞洲人眼睛比較小,一名亞裔男子被判定「沒有張開眼睛」,因此照片無效。

    張凱崴說,在這個例子中,凸顯出 AI 的穩定性不足,「系統沒有考慮到不同人種的差異,很死板地認為你眼睛沒張開。」所謂的缺乏穩定性,指的是 AI 沒辦法在相同條件下,每次都做出正確決策,這也是使用 AI 時,須留意的第二個挑戰。

    他再舉例,許多模型可以準確分析,一則影評對電影的評價是正面或負面。然而研究顯示,有時只要將影評中一些字換成同義詞,例如把電影(movie)換成影片(film),或改寫句子,即使意思並未改變,系統卻把原本判斷為正面的影評標註成負面。這顯示AI系統還未真正了解語言的含義。

    在設計這些程式時,人們必須注意到 AI 可能有局限,設定的資料範圍要更完整,考慮這些因素,就能減少偏見、落差,進而加強穩定性。

    餵指令給 AI 要多元化,嘗試「換句話說」、刻意混淆

    經理人雖然不一定具備 AI 方面的專業知識,但只要掌握觀念,再透過 AI 領域專才協助,也能優化系統。張凱崴指出,最直接的方法是,設計 AI 模型時,要把來源群組不同的資料分門別類測試,在測試階段讓群體多元化,並確保不同特色的使用者,用起來都沒有問題。

    舉例來說,一套 A 系統擁有來自各地的使用者,如果設計者是台北人,設計系統的思維容易以台北生活為主,很可能因為當地習慣不同,導致花蓮使用者操作不順。

    另一個方法,則是用不同的「語意」,去測試 AI 有沒有徹底學會一個概念。例如,有一套餐廳評鑑的 AI 系統,只要蒐集、整理使用者意見,就能判斷每個顧客對於餐廳的評比是高分或低分。那麼要如何確認這套系統的穩定性?張凱崴建議,可以利用「抽換詞面」的方法。

    比如,把詞彙換成同義字,再看 AI 是否能運算出相同結果,「你可能會發現,原本評比結果是食物很美味,但如果美味換成比較困難的詞,AI 就會分不出這則評比是好是壞。」因此在訓練模型時,可以將詞彙隨機抽換成同義詞,增加 AI 的詞彙量。

    第三種方式更進階:改變句型、重寫句子。張凱崴指出,同樣一句話,如果換成不同說法,電腦可能判讀錯誤,將「因為發生 A 事件,所以導致 B 事件」,改寫成「B 事件發生了,是因為 A 事件的緣故」,明明兩句話意思一樣,但 AI 很可能因為穩定性不足,搞混兩者的差別。如果要鞏固 AI 的穩定性,可以使用自動改寫的方式,增加資料的多樣性。

    張凱崴表示,經過這些測試,讓 AI 接受更多元化的訓練,得到更廣的學習範圍,往後碰到同義詞、相似資訊,才能有效判讀。

    張凱崴總結,AI 還在快速發展,或許可以創造更多工作機會、新的職位,但現行階段,它只是輔助角色。AI 並非魔術盒子,使用它就一定有更好結果,人們還是要保持高度耐心,先認識它的缺陷,才能在技術更迭下,發揮出最好的結果。

    張凱崴

    台灣大學資訊工程系碩士、美國伊利諾大學(UIUC)電腦科學博士。美國加州大學洛杉磯分校(UCLA)電腦科學系助理教授,研究領域包括人工智慧、機器學習、自然語言處理。2021 年獲得史隆研究獎(Sloan Research Fellowship),研究團隊開發的運算方法,使人類語言處理的程序更有效率、更多元,同時兼具公平性。

    附圖:優化AI系統的3方法

    資料來源:https://www.managertoday.com.tw/articles/view/62902?fbclid=IwAR2jI1bhg1anqct0AZZR_3LKKJqIsvG0wz2whSN8iniROZApHt-_qpD7dis

  • ai照片生成器 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文

    2021-03-08 15:20:43
    有 0 人按讚

    矮化女性和少數種族,OpenAI GPT 模型為何變成 AI 歧視重災區?

    作者 品玩 | 發布日期 2021 年 02 月 13 日 0:00 |

    機器學習技術近幾年突飛猛進,許多強大 AI 因此誕生。以知名研究機構 OpenAI 開發的語言生成模型 GPT 為例,現在可寫文章、幫人做報表、自動查詢資訊,給用戶很大幫助和便利。

    然而,多篇近期論文指出,包括 GPT 等 AI 模型,生成結果包含基於性別和種族的偏見。而這些 AI 模型應用在商業領域,勢必強化歧視偏見對象現象。

    卡內基美隆大學 Ryan Steed 和喬治華盛頓大學 Aylin Caliskan 近日發表論文《無監督的方式訓練的影像表示法包含類似人類的偏見》(Image Represnetations Learned With Unsupervised Pre-Training Contain Human-like Biases)。

    研究者對 OpenAI 在 GPT-2 基礎上開發的 iGPT 和 Google 的 SimCLR,兩個去年發表的影像生成模型進行系統性測試,發現種族、膚色和性別等指標幾乎原樣複製人類測試物件的偏見和刻板印象。

    其中一項測試,研究者用機器生成男女頭像照片為底板,用 iGPT 補完(生成)上半身影像。誇張的事發生了:所有女性生成結果,超過一半影像穿著比基尼或低胸上衣。

    男性結果影像,約 42.5% 影像穿和職業有關的上衣,如襯衫、西裝、和服、醫生大衣等;露手臂或穿背心的結果只有 7.5%。

    這樣的結果,技術方面的直接原因可能是 iGPT 採用的自迴歸模型機制。研究者進一步發現,用 iGPT 和 SimCLR 對照片和職業相關名詞建立連結時,男人更多和「商務」、「辦公室」等名詞連結,女人更多和「孩子」、「家庭」等連結;白人更多和工具連結,而黑人更多和武器連結。

    這篇論文還在 iGPT 和 SimCLR 比對不同種族膚色外觀的人像照片「親和度」(pleasantness),發現阿拉伯穆斯林人士的照片普遍缺乏親和力。

    雖然 iGPT 和 SimCLR 模型的具體運作機制有差別,但透過這篇論文,研究者指出這些偏見現象背後的共同原因:無監督學習。

    這兩個模型都採用無監督學習 (unsupervised learning),這是機器學習的方法之一,沒有給事先標記好的訓練資料,自動分類或分群匯入的資料。

    無監督學習的好處,在於資料標記是繁瑣費時的工作,受制於標記工的程度和條件限制,準確性很難保持一定,標記也會體現人工的偏見歧視,某些領域的資料更缺乏標記資料庫;而無監督學習在這種條件下仍有優秀表現,最近幾年很受歡迎。

    然而這篇論文似乎證明,採用無監督學習無法避免人類常見的偏見和歧視。

    研究者認為,採用無監督學習的機器學習演算法,出現的偏見歧視來源仍是訓練資料,如網路影像的男性照更多和職業相關,女性照片更多衣著甚少。

    另一原因是這些模型採用自迴歸演算法。在機器學習領域,自迴歸演演算法的偏見問題人盡皆知,但嘗試解決這問題的努力並不多。

    結果就是,機器學習演算法從初始資料庫學到所有東西,當然包括人類的各種偏見和歧視。

    之前 OpenAI 號稱「1700 億參數量」的最新語言生成模型 GPT-3,發表論文也申明因訓練資料來自網路,偏見無法避免,但還是發表並商業化。

    去年 12 月,史丹佛和麥克馬斯特大學的研究者另一篇論文《Persistent Anti-Muslim Bias in Large Language Models》,確認 GPT-3 等大規模語言生成模型對穆斯林等常見刻板印象的受害者,確實有嚴重的歧視問題。

    具體來說,用相關詞語造句時,GPT-3 多半會將穆斯林和槍擊、炸彈、謀殺和暴力連結。

    另一項測試,研究者上傳一張穆斯林女孩的照片,讓模型自動生成一段文字,卻包含明顯的暴力過度遐想和延申,其中有句話「不知為何原因,我渾身是血。」

    而當這類演算法應用到現實生活,偏見和歧視將進一步強化。

    iGPT 和背後的 OpenAI GPT 技術,現在開發到第三代。能力確實很強大,就像眾多媒體報導過那樣,因此許多商業機構青睞採用。最知名的用戶就是微軟。去年 9 月,微軟 CTO Kevin Scott 宣布和 OpenAI 合作,獨家獲得 GPT-3 授權,將技術應用到針對用戶的各項產品和 AI 解決方案。

    微軟尚未透露具體會把 GPT-3 應用到哪些產品,但考慮到微軟產品的十億級用戶量,情況非常令人擔憂。如微軟近幾年 Word、PPT 等產品推廣的自動查詢資訊、文字補完和影像設計功能,當用戶匯入某特定詞或插入圖片時,如果正好落入 GPT-3 的偏見陷阱,結果將非常糟糕。

    不僅 GPT,照前述論文說法,所有採用無監督學習的演算法都可能包含這些偏見。現在因無監督學習非常熱門,自然語言處理、電腦視覺等領域,都成為非常關鍵的底層技術。

    如翻譯對人際溝通十分重要,但錯誤的翻譯結果,一次被演算法強化的偏見事件,少則切斷人與人的聯繫,更嚴重者將導致不可估量的人身和財產損失。

    作者 Steed 和 Caliskan 呼籲,機器學習研究者應該更區別和記錄訓練資料庫的內容,以便未來找到降低模型偏見的更好方法,以及發表模型前應該做更多測試,盡量避免受演算法強化的偏見被帶入模型。

    資料來源:https://technews.tw/2021/02/13/openai-gpt-discrimination/

  • ai照片生成器 在 Facebook 的最佳貼文

    2021-02-26 17:02:32
    有 390 人按讚

    今早發的鬧元宵小短片,背後的AI技術。

    下方文章來自「量子位」微信公眾號,經授權轉載來揭秘:

    ▎當網路圈大佬們集體唱歌,會擦出怎樣的火花?

    現在,火爆一些短視頻網站的AI特效,一鍵就可以實現夢幻聯動。瞧!馬雲、馬化騰、馬斯克等大佬們,正在集體演唱神曲《螞蟻呀嘿》。不光演唱,表情也是十分的賣力(傲嬌的小眼神很是傳神啊)。完全看不出是被迫的樣子呢(手動狗頭)。

    效果之魔性,引得網友直呼:短短的幾秒,要用一生去治癒…..

    ▎大家一起「蚂蚁呀嘿」神曲!

    這款AI特效,只需要一張照片,就可以火速讓anyone「螞蟻呀嘿」。正因為這麼便捷,果不其然,馬上成為了抖音網友們的“新寵”。各路名人開始搞起!首先登場的是四大天王:劉德華、張學友、郭富城和黎明!或許天王們太久沒有同框過了,網友們用這種方式將他們「召集」在一起,也是別有一番風味。不知道是不是因為特效太過逼真、還是脖子有點短(不是),竟然還有人以為是真的。

    OK,各種效果、各種玩法已經展示完畢。

    ▎如何制作专属的“蚂蚁呀嘿”?

    第一步,蘋果手機下載APP:Avatarify

    第二步,打開這款Avatarify,選擇一張照片即可進入選擇特效頁面(臉正一點效果更佳)。然後向下拉,找到布拉德·皮特的特效即可。 是不是很簡單?不過有點遺憾的是,暫時只有蘋果手機才OK(安卓用戶淚目)

    一個人演唱「螞蟻呀嘿」的效果就已經實現了。如果想要多人演唱、九宮格那樣式兒的,那就需要剪映來加持了,這裡就不詳細展開了。當然,這款軟體除了「螞蟻呀嘿」之外,還有很多範本可選。

    例如,李開復博士便在元宵節一早友情上演了一首「Only You」,傳遍朋友圈。

    隨著這波潮流,Avatarify及其他相關軟體,已經超過微信、拼多多、抖音的下載量,登頂蘋果App Store免費榜前三!什么原理?

    ▎AI,是如何搞定各位大佬來唱歌的呢?

    讓一張照片動起來,人臉跟著音樂一起擠眉弄眼,需要一個叫做一階運動模型 (First Order Motion Model)來搞定。技術原理借鑒了去年義大利特倫托大學的一項研究,入選了NIPS 2019。

    模型框架主要由2部分構成,運動估計模組和圖像生成模組。運動估計模組的目的,是預測一個密集的運動場。研究人員假設存在一個抽象的參考框架,並且獨立估計兩個變換,分別是「從參考到源」和「從參考到驅動」,這樣就能夠獨立處理源幀和驅動幀。

    而這兩種變換,通過使用以自監督方式學習的關鍵點來獲得。利用局部仿射變換對每個關鍵點附近的運動進行建模。隨後,密集運動網路結合局部近似得到密集運動場。

    這個網路還能輸出遮擋的mask,指示哪些圖像的驅動部分可以通過源圖像的扭曲(warping)來重建,哪些部分應該被繪製(根據上下文推斷)。

    在生成模組按照驅動視頻中,提供的源物件移動的圖像進行渲染。
    此處,研究人員還使用一個生成器網路,根據密集的運動對源圖像進行扭曲,並對源圖像中被遮擋的圖像部分進行著色。

    訓練階段,研究人員採用了大量的視頻序列集合來訓練模型,這當中包含了相同類別的物件。隨後在測試階段,研究人員將模型應用於由源圖像和驅動視頻的每一幀組成的對,並執行源物件的圖像動畫。

    最終在品質評估中,這一方法在所有基準上都明顯優於當前先進技術。此前类似研究也很火爆,這種AI特效能夠如此火爆,甚至“破圈”,讓大家玩得不亦樂乎,最主要的原因是方便——不需要任何程式設計知識,便可完成。

    但在此之前,其實這種AI特效在圈裡也是有火過,但都需要一定的電腦能力才可以實現。比如,一張名人照片和一個你說話的視頻,就可以讓夢露學你說話。還有,印度程式師開發即時動畫特效。你一動,蒙娜麗莎跟著你一起動~

    那麼現在,你被「螞蟻呀嘿」一曲洗腦了嗎?自己試試吧!