:
春到福到,家裡的好運也來到。
進入高度清冰箱階段,之前買的紅色千張還沒用完,拿來煎蛋餅,鋪上厚厚的起司、灑上肉鬆以及爸爸牌蔥花一大把,把千張四角包起來再翻面,放上海苔排成字(本來想用剪紙技法的但是海苔一直脆裂實在讓我快要哭粗乃,只好放棄),就完成了簡單但是份量很足的春聯風千張蛋餅了。
有創意...
:
春到福到,家裡的好運也來到。
進入高度清冰箱階段,之前買的紅色千張還沒用完,拿來煎蛋餅,鋪上厚厚的起司、灑上肉鬆以及爸爸牌蔥花一大把,把千張四角包起來再翻面,放上海苔排成字(本來想用剪紙技法的但是海苔一直脆裂實在讓我快要哭粗乃,只好放棄),就完成了簡單但是份量很足的春聯風千張蛋餅了。
有創意吧?科科,但是我的年節應景花招這一篇就用罄了,接下來看大家各顯神通。
昨天講到職業、職稱,有幾個漏掉的在此補充一下:
fireman 消防員 => fire fighter
fisherman 漁夫 => fisher
有趣的是,當媒體自發性的採用政治正確的"fisher"來稱呼漁民時,卻有女性的漁夫表示這樣的稱呼實在太過頭了,她們認為這個職稱千百年來就是固定的用法,只因某人感到被冒犯而被改稱fisher,反而讓她們感冒。
或許漁夫在海上拚搏,見慣了風浪,稱謂對他們/她們而言根本就是旁枝末節的小事情,太過小題大作搞得講話也要小心翼翼,反而不符合他們/她們豁達不羈的性格。
今天的政治正確用語,要講的是敏感的膚色。
人種大致上可以用顏色來分類;英文中有好多顏色可以代指某個血統的人種,但是也只能粗略的分類,隨著種族平等的思潮,顏色的代名詞越來越讓人感到不舒服,因而衍生出膚色、人種方面的政治正確用語。
先來講原本的顏色分類:
white 不用想,就是白人
black 不用想,就是黑人
yellow 不用想,就是亞洲人;具體一些指的是黃種人(漢民族),還記得龍的傳人嗎? 黑頭髮、黑眼睛、黃皮膚。
brown 蛤? 咖啡色人? 應該還是黑人吧? 錯! 棕色人種,泛指中東、印度、巴基斯坦和斯里蘭卡等國家的人。
red 蛤? 紅色人是關公吧? 還是指老闆的愛將、公司的紅人? 錯! 紅色人種,泛指美國原住民,也就是印地安人。
上述這五種說法,從現在開始,它們只能代表顏色,請不要用來形容人種,小心會挨揍的。
那要怎麼說呢?
white,請用caucasian代替,意指高加索人,就是白皮膚高鼻子的類型。
其實白人並沒有那麼介意被稱為white,那是因為其他顏色的人種不喜歡被用顏色代稱,所以乾脆全部都改掉才公平。
那,白人都沒有介意的用語嗎? 當然有。
whitey、honky,都是對白人不禮貌的講法。
redneck指美國南部農村地區偏執的鄉巴佬,農民,不知道是不是經常大聲吵架吵得臉紅脖子粗?或者是務農的關係,全身包緊緊但是脖子沒有遮到所以曬得紅通通的,所以才用紅脖子嘲笑他們。
北方人笑南方人,南方人當然也會笑北方人;yank就是美國南方人用來罵美國北方人的字,「北方佬」的意思。就像我們習慣稱台北人「天龍國人」差不多。 “No offense,台北人。” 請不要介意嘿,我是為了舉例。這時候麻煩請回我一句: “None taken.” 沒關係,我沒生氣,只是不爽而已。
然後pom,是澳洲人蔑稱「英國佬」的意思,主要在澳洲使用。
其實白人之間也是互相笑來笑去的嘛,誰說只有我們有族群對立。
black,請用African American代替,指的是非裔美人。
這個格式是固定的,將人種的起源地放在前面,後面加國名;意思就是他/她祖先是XX地方來的,但是他/她是在當地土生土長的。
幸好台灣沒有這麼麻煩,不然我要改稱為江蘇山東台灣人,有點累。
雖然現在大家慢慢接受用black這個字代指黑人了,黑人聽到這個字也不像早期那麼感到嚴重的歧視,但是還是要小心使用這個字,尤其是當你的上下文聽起來是在譏諷他/她時。
至於稱頌的事情,用black是不會有人介意的;例如當歐巴馬當選美國總統時,全球各大媒體都用斗大標題說"The first black President of USA",black反而在這個情境下成了烘托歷史性時刻的強烈字眼,black讓所有的非裔美人都感到熱血沸騰、驕傲萬分。
不知道大家有沒有察覺,現在在美國的黑人,看起來似乎都沒那麼黑了。經過百年來的人種融合,有些黑白混血、再混血好幾代之後的非裔美人,膚色像柔和的拿鐵,文太覺得他們/她們黝黑但發亮的肌膚很漂亮。
ebony,就是用黑檀木來代稱膚色黝黑的黑珍珠、黑美人;而swarthy,則是形容皮膚黝黑發亮,甚至可以指頭髮的烏黑亮麗。這兩個字都不帶有負面意味,可以放心使用。
補充一下跟黑人相關的特徵用字:Afro,就是黑人特有的小捲捲頭,長長以後會像青花菜一樣圓圓的一蓬,個人覺得非常可愛。"Afro-"則是泛指所有跟黑人文化、非洲相關的字首,很好記。
重點來了。
有些字眼比black更能激怒非裔美人的,請務必放在心上:negro、nigger,意指黑鬼,絕對不要用,這已經是屬於常識等級的禁忌字眼了,不要用、不要用、不要用。
人種的眉角真的很多,今天先講黑白雙雄,剩下的請讓我明天再續。
#自己煮早餐
#在家吃早餐
#早餐吃什麼
#早餐日記
#文科太太
#文科太太的廚房
#文科太太的早餐英文教學
#文科太太的早餐英語教學
#eatathome
#homecooking
#breakfast
#breakfastideas
#healthyfood
#healthymeals
#food
#fooddiary
#foodphoto
白人英文caucasian 在 多益達人 林立英文 Facebook 的精選貼文
Software To Recognize Faces Is Found To Be Biased
The majority ( )of commercial facial-recognition systems exhibit bias ( ), according to a study from a federal agency released recently, underscoring ( )questions about a technology increasingly used by police departments and federal agencies to identify suspected criminals.
The systems falsely identified African American and Asian faces 10 times to 100 times more than Caucasian faces, the National Institute of Standards and Technology reported. Among a database of photos used by law enforcement ( )agencies in the United States, the highest error rates came in identifying Native Americans, the study found.
The technology also had more difficulty identifying women than men. And it falsely identified older adults up to 10 times more than middle-aged adults.
The new report comes at a time of mounting ( )concern from lawmakers and civil rights groups over the proliferation ( )of facial recognition. Proponents ( ) view it as ( )an important tool for catching criminals and tracking terrorists. Tech companies market it as a convenience that can be used to help identify people in photos or in lieu of ( )a password to unlock smartphones.
Civil liberties experts, however, warn that the technology — which can be used to track people at a distance without their knowledge — has the potential to lead to ubiquitous ( ) surveillance ( ), chilling freedom of movement and speech. Last year, San Francisco, Oakland and Berkeley in California and the Massachusetts communities of Somerville and Brookline banned government use of the technology.
“One false match can lead to missed flights, lengthy interrogations ( ), watch list placements, tense police encounters, false arrests or worse,” Jay Stanley, a policy analyst at the American Civil Liberties Union, said in a statement. “Government agencies including the FBI, Customs ( )and Border Protection and local law enforcement must immediately halt ( )the deployment ( )of this dystopian ( )technology.”
The federal report is one of the largest studies of its kind. The researchers had access ( )to more than 18 million photos of about 8.5 million people from American mug shots ( ), visa applications and border-crossing databases.
The National Institute of Standards and Technology tested 189 facial-recognition algorithms ( )from 99 developers, representing the majority of commercial developers. They included systems from Microsoft, biometric ( )technology companies like Cognitec, and Megvii, an artificial intelligence company in China.
The federal report confirms earlier studies from MIT that reported that facial-recognition systems from some large tech companies had much lower accuracy ( )rates in identifying the female and darker-skinned faces than the white male faces.
臉部辨識系統 有種族性別「偏見」
根據美國聯邦機構新近發表的研究結果,多數商用臉部辨識系統存在偏差,凸顯出這種科技的問題,而警察部門和聯邦機構使用這項科技辨識可疑罪犯的程度正不斷增高。
國家標準及科技研究所指出,比起白人臉孔,這些系統錯誤辨識非裔美國人和亞洲臉孔的機率高出10至100倍。研究發現,在美國執法單位使用的照片資料庫中,辨識美國原住民的錯誤率最高。
這項科技辨識女性也比男性更困難,而且辨識老人的錯誤率高達中年人的10倍。
這份新報告發表之際,國會議員和公民運動團體對臉部辨識的普及正日益感到憂慮。支持者視它為抓捕罪犯和追蹤恐怖分子的重要工具,科技公司將它行銷成方便好用的東西,可辨識照片中的人或作為密碼解鎖智慧手機。
然而,公民自由專家警告,這項科技能在人們不知情的狀況下從一定距離外追蹤他們,有可能導致無所不在的監控,壓抑行動和言論自由。去年,加州的舊金山、奧克蘭和柏克萊,以及麻州的薩默維爾和布魯克萊恩等社區,皆明令禁止政府使用此一科技。
「一個錯誤的比對,就可能導致錯過班機、冗長的訊問、列入觀察名單、與警察緊張的遭遇、錯誤逮捕甚至更糟的狀況。」美國公民自由聯盟的政策分析師傑.史丹利在聲明中這麼說。「包括聯邦調查局、海關及邊境保護局和地方執法單位等政府機構,必須立即停止部署這項反烏托邦科技。」
這份聯邦報告是同類報告中規模最大者之一。研究人員取用來自美國嫌犯大頭照、簽證申請及跨越邊境資料庫中,約850萬人的1800萬張以上的照片。
國家標準及科技研究所測試來自99個開發商的189個臉部辨識演算程式,涵蓋大多數商用開發商,包括微軟系統,生物科技公司如Cognitec,以及中國人工智慧公司曠視科技。
這份聯邦報告證實麻省理工學院先前的研究結果,一些大型科技公司的臉部辨識系統,辨識女性和較深膚色臉孔的正確率,比辨識白人男性低得多。
#高雄人 #學習英文 請找 #多益達人林立英文
#高中英文 #成人英文
#多益家教班 #商用英文
#國立大學外國語文學系講師
#新聞英文