雖然這篇word複製到另一個word鄉民發文沒有被收入到精華區:在word複製到另一個word這個話題中,我們另外找到其它相關的精選爆讚文章
在 word複製到另一個word產品中有29篇Facebook貼文,粉絲數超過0的網紅,也在其Facebook貼文中提到, 2021 美國傳達藝術年度獎-插畫類 獲獎 Communication Arts Illustration Annual 62 -Award of Excellence 今年共有4074件作品參賽,最終選出128件作品獲獎。本次有10位專業評審,得到3張選票即可進入決選,而在最終決選需要獲得7張評...
「word複製到另一個word」的推薦目錄
word複製到另一個word 在 JobUs職場小旅行 Instagram 的最佳解答
2021-07-06 07:11:20
我們在找尋資料或要做報告時,總會從網路上下手,複製一些線上的文獻資料與圖片,但有時候在未來要翻找的時候便找不到網頁了😅!而就算只是隨意瀏覽,有時候看到自己想要保存的內容,使用書籤一下子就被淹沒了一點也不好找到😢,這樣該怎麼辦呢? 因此我們今天就是要推薦給大家6款一鍵擷取網頁資訊的插件,教大家除...
word複製到另一個word 在 Little Oil Art/小油画 Instagram 的最讚貼文
2021-05-09 09:30:48
. 2021 美國傳達藝術年度獎-插畫類 獲獎 Communication Arts Illustration Annual 62 -Award of Excellence . 今年共有4074件作品參賽,最終選出128件作品獲獎。本次有10位專業評審,得到3張選票即可進入決選,而在最終決選需要獲得...
word複製到另一個word 在 JobUs職場小旅行 Instagram 的最佳解答
2021-04-04 14:16:47
📌 你會不會很討厭要把會議紀錄😡,或是上課抄的筆記😭,再打成電子檔交功課呢?如果你也是那種懶的抄筆記的人📝,現在不用煩惱了,只要用相機拍成照片透過「OCR文字辨識」的方式,幾秒鐘之內就能把圖片上的文字辨識擷取出來,這對上班族或是學生來說超實用的👍,大大節省了打字輸入的時間。 📌 還不會使用...
word複製到另一個word 在 Facebook 的最佳貼文
2021 美國傳達藝術年度獎-插畫類 獲獎
Communication Arts Illustration Annual 62
-Award of Excellence
今年共有4074件作品參賽,最終選出128件作品獲獎。本次有10位專業評審,得到3張選票即可進入決選,而在最終決選需要獲得7張評審票才能獲獎,因此每年獲獎人數都不同。
——————
《睡前,說句悄悄話好嗎?》
-bedtime word between you and me
這次我參賽的作品是之前在 Pain de mie 胖多米 展覽的畫作畫冊,首次參加CA就獲得肯定,還可以跟武政諒和清水裕子那樣等級的大師們收錄在同一本雜誌裡真的超級榮幸和幸運!能獲得評審們的選擇票我也是非常驚喜。我其實並沒有抱什麼期望,因為不覺得自己的風格長得是那種很好得獎的樣子,所以之前也很少報名比賽,往往看到比賽也已經發布賽果了,這次一切都是剛剛好~
非常感謝Rose當初熱情盛邀,讓萬分懶散的我在短時間內爆發了一系列作品,我果然就是個欠逼的人😌,也很謝謝當時在展覽熱烈購買我複製畫跟畫冊的人們,可能是因為這樣我覺得我可以試看看參加比賽,被支持的力量真的很強大啊🥺
早在2月多就知道自己獲獎了,但因為線上網站直到最近才連同這期CA雜誌一起發布,我才有實感,是真的得獎了,還拿到質感超好,上面有刻著我本名跟藝名(?)的獎座,重量硬度足以防身😆
本來想順著這股力量,完成新畫冊,但畫冊進度⋯非常堪憂😵
最後
由衷感謝評審灌溉我微小的靈魂
還有一路上教導我幫助我的貴人們❤️
以及不吝按讚留言分享的大家🥺
另附上今年獲獎作品連結
https://reurl.cc/9Z89ZV
作品順序約兩天會更動一次順序,蠻好的!
word複製到另一個word 在 台灣物聯網實驗室 IOT Labs Facebook 的最讚貼文
矮化女性和少數種族,OpenAI GPT 模型為何變成 AI 歧視重災區?
作者 品玩 | 發布日期 2021 年 02 月 13 日 0:00 |
機器學習技術近幾年突飛猛進,許多強大 AI 因此誕生。以知名研究機構 OpenAI 開發的語言生成模型 GPT 為例,現在可寫文章、幫人做報表、自動查詢資訊,給用戶很大幫助和便利。
然而,多篇近期論文指出,包括 GPT 等 AI 模型,生成結果包含基於性別和種族的偏見。而這些 AI 模型應用在商業領域,勢必強化歧視偏見對象現象。
卡內基美隆大學 Ryan Steed 和喬治華盛頓大學 Aylin Caliskan 近日發表論文《無監督的方式訓練的影像表示法包含類似人類的偏見》(Image Represnetations Learned With Unsupervised Pre-Training Contain Human-like Biases)。
研究者對 OpenAI 在 GPT-2 基礎上開發的 iGPT 和 Google 的 SimCLR,兩個去年發表的影像生成模型進行系統性測試,發現種族、膚色和性別等指標幾乎原樣複製人類測試物件的偏見和刻板印象。
其中一項測試,研究者用機器生成男女頭像照片為底板,用 iGPT 補完(生成)上半身影像。誇張的事發生了:所有女性生成結果,超過一半影像穿著比基尼或低胸上衣。
男性結果影像,約 42.5% 影像穿和職業有關的上衣,如襯衫、西裝、和服、醫生大衣等;露手臂或穿背心的結果只有 7.5%。
這樣的結果,技術方面的直接原因可能是 iGPT 採用的自迴歸模型機制。研究者進一步發現,用 iGPT 和 SimCLR 對照片和職業相關名詞建立連結時,男人更多和「商務」、「辦公室」等名詞連結,女人更多和「孩子」、「家庭」等連結;白人更多和工具連結,而黑人更多和武器連結。
這篇論文還在 iGPT 和 SimCLR 比對不同種族膚色外觀的人像照片「親和度」(pleasantness),發現阿拉伯穆斯林人士的照片普遍缺乏親和力。
雖然 iGPT 和 SimCLR 模型的具體運作機制有差別,但透過這篇論文,研究者指出這些偏見現象背後的共同原因:無監督學習。
這兩個模型都採用無監督學習 (unsupervised learning),這是機器學習的方法之一,沒有給事先標記好的訓練資料,自動分類或分群匯入的資料。
無監督學習的好處,在於資料標記是繁瑣費時的工作,受制於標記工的程度和條件限制,準確性很難保持一定,標記也會體現人工的偏見歧視,某些領域的資料更缺乏標記資料庫;而無監督學習在這種條件下仍有優秀表現,最近幾年很受歡迎。
然而這篇論文似乎證明,採用無監督學習無法避免人類常見的偏見和歧視。
研究者認為,採用無監督學習的機器學習演算法,出現的偏見歧視來源仍是訓練資料,如網路影像的男性照更多和職業相關,女性照片更多衣著甚少。
另一原因是這些模型採用自迴歸演算法。在機器學習領域,自迴歸演演算法的偏見問題人盡皆知,但嘗試解決這問題的努力並不多。
結果就是,機器學習演算法從初始資料庫學到所有東西,當然包括人類的各種偏見和歧視。
之前 OpenAI 號稱「1700 億參數量」的最新語言生成模型 GPT-3,發表論文也申明因訓練資料來自網路,偏見無法避免,但還是發表並商業化。
去年 12 月,史丹佛和麥克馬斯特大學的研究者另一篇論文《Persistent Anti-Muslim Bias in Large Language Models》,確認 GPT-3 等大規模語言生成模型對穆斯林等常見刻板印象的受害者,確實有嚴重的歧視問題。
具體來說,用相關詞語造句時,GPT-3 多半會將穆斯林和槍擊、炸彈、謀殺和暴力連結。
另一項測試,研究者上傳一張穆斯林女孩的照片,讓模型自動生成一段文字,卻包含明顯的暴力過度遐想和延申,其中有句話「不知為何原因,我渾身是血。」
而當這類演算法應用到現實生活,偏見和歧視將進一步強化。
iGPT 和背後的 OpenAI GPT 技術,現在開發到第三代。能力確實很強大,就像眾多媒體報導過那樣,因此許多商業機構青睞採用。最知名的用戶就是微軟。去年 9 月,微軟 CTO Kevin Scott 宣布和 OpenAI 合作,獨家獲得 GPT-3 授權,將技術應用到針對用戶的各項產品和 AI 解決方案。
微軟尚未透露具體會把 GPT-3 應用到哪些產品,但考慮到微軟產品的十億級用戶量,情況非常令人擔憂。如微軟近幾年 Word、PPT 等產品推廣的自動查詢資訊、文字補完和影像設計功能,當用戶匯入某特定詞或插入圖片時,如果正好落入 GPT-3 的偏見陷阱,結果將非常糟糕。
不僅 GPT,照前述論文說法,所有採用無監督學習的演算法都可能包含這些偏見。現在因無監督學習非常熱門,自然語言處理、電腦視覺等領域,都成為非常關鍵的底層技術。
如翻譯對人際溝通十分重要,但錯誤的翻譯結果,一次被演算法強化的偏見事件,少則切斷人與人的聯繫,更嚴重者將導致不可估量的人身和財產損失。
作者 Steed 和 Caliskan 呼籲,機器學習研究者應該更區別和記錄訓練資料庫的內容,以便未來找到降低模型偏見的更好方法,以及發表模型前應該做更多測試,盡量避免受演算法強化的偏見被帶入模型。
資料來源:https://technews.tw/2021/02/13/openai-gpt-discrimination/
word複製到另一個word 在 北歐心科學 NordicHearts Facebook 的最佳解答
《qPCR檢測的私隱問題》
PCR是複製DNA的方法,過程需要稱為「引物」(primer)的物質。簡單說,引物是一個引子,包含了指定序列,你可以當是Microsoft Word裡的Find功能,一般是有一對,簡稱F和R,分別代表從何開始,從何結束。PCR,就是由起始引子相應的序列,複製到結束引子相應的序列。打個比方,起始引子是「我們在天上的父」,結束引子是「直到永遠,阿門。」,PCR就會把整段《主禱文》複製出來。
檢測武漢病毒的qPCR,一般進行兩到三組,各有一對primer,分別對應武漢病毒的不同基因。理論上,如果這Find功能找到了武漢病毒的基因,就會將其複製倍化,過程發出螢光訊號。觀察螢光,就可以估計有否倍化。而為了確保樣本有人類基因以及PCR過程順利,以減低假陰性機會,最理想是同時用對應人類基因的primer,因為理論上如果樣本沒問題,一定會有人類基因。(這又稱作內部對照組/internal control)
實驗設計上,這是非常合理的。然而從私隱層面上,政府或公司有權倍化人類的基因嗎?本來的primer設計,是從你的電腦文件中複製《主禱文》,但只要將primer換成「全澳門最大」和「上線啦」,就可以複製出《賭場廣告》,便知道你有沒有看AV了。誰授權政府,可以用這primer,不可以用那primer呢?
用特定primer組合來找出器官匹配度相關資訊,這種隨便想都能想到的方法,當然有人做了,而且廿幾年前已經做了。這說明單單用檢測武漢病毒同樣的檢測平台,足以找出你各樣基因資訊。
當然,現在有更多更先進的方法,不用靠PCR。我們系統性地交出人類樣本,中間有什麼人處理,拿來做過什麼實驗,更無人知曉。
然而,政府並無公開他們用什麼primer組合,什麼實驗設計,什麼準則判定陽性,更遑論樣本的處理過程(之前就發生了公司交叉感染樣本的情況。)。另邊廂,我們也從不討論這技術必然會引伸的私隱問題。
很多本業就是做人類基因定序的公司,得了這麼大量的人類樣本,難道不會偷偷看一眼?難道陳冠希叫你幫他修電腦,你不會看一眼?
(用PCR找出你器官匹配度的方法:
https://link.springer.com/protocol/10.1007%2F978-1-62703-493-7_8)