雖然這篇一般研究倫理規範的行為鄉民發文沒有被收入到精華區:在一般研究倫理規範的行為這個話題中,我們另外找到其它相關的精選爆讚文章
在 一般研究倫理規範的行為產品中有24篇Facebook貼文,粉絲數超過767的網紅政經八百,也在其Facebook貼文中提到, #八百回合經濟談 〔#現實版的魷魚遊戲 #一場測試人性之惡的實驗〕 壯士們應該都有看到,這禮拜在社群媒體上,《魷魚遊戲》這部影集迅速竄紅,甚至擠上全球排行榜第二名! 在《魷魚遊戲》影集中,我們看到角色們為了讓自己生存下去,不惜泯滅人性,羞辱、欺騙、背叛、甚至拿起刀相互廝殺,展現潛藏...
一般研究倫理規範的行為 在 一天一Google / 知識型instagram Instagram 的精選貼文
2020-05-31 09:27:34
#agad589 #20200524 您們也不用擔心,一般具有健全人格的人是不會真的把衝動付諸行動的😮或者是付諸相對比較不具侵略性的行動,例如研究可愛侵略性的實驗手法;給受試者觀看可愛的圖像,同時發給他們 #泡泡紙 ,觀察各種程度的可愛會讓受試者捏爆幾顆泡泡🤏 每個人對於「可愛」的定義不...
一般研究倫理規範的行為 在 如履的電影筆記 Instagram 的最佳貼文
2020-05-09 13:41:00
《#仲夏魘》由群體所助長的邪惡 (8.2/10) ⠀ 全文太長分兩篇,到 @looryfilmnotes 主頁部落格會是最好的選擇 (Part2)———————以下可能有雷—————— ⠀ 接續上篇文章 ⠀ 我認為丹妮會成為「五月皇后」是早有計畫的,先不論村里會歡迎外人的原因就是為了「增加族群遺傳...
一般研究倫理規範的行為 在 政經八百 Facebook 的最佳解答
#八百回合經濟談
〔#現實版的魷魚遊戲 #一場測試人性之惡的實驗〕
壯士們應該都有看到,這禮拜在社群媒體上,《魷魚遊戲》這部影集迅速竄紅,甚至擠上全球排行榜第二名!
在《魷魚遊戲》影集中,我們看到角色們為了讓自己生存下去,不惜泯滅人性,羞辱、欺騙、背叛、甚至拿起刀相互廝殺,展現潛藏在他們心中「惡的一面」。
但在遊戲開始前,大部分的參賽者其實都是一般的市井小民,背著難以負擔的債務,在社會的夾縫中掙扎,也許稱不上善良,但絕對沒有在遊戲中展現地那麼「惡」。
於是,今天想來跟壯士們聊聊,一場和測試「人性的惡」有關的實驗。
▌ 米爾格倫實驗
1961 年,猶太裔的美國心理學家 Stanley Milgram 提出了一個問題:「如果希特勒要求你電刑一個素未謀面的陌生人,你會執行命令嗎?」
於是,他找了 1000 位 20-50 歲的男性受試者,告訴他們:這是一項關於「體罰對於學習行為的效用」的實驗。
並請受試者扮演「老師」的角色,以教導隔壁房間的另一位受試者——「學生」,然而學生其實是由實驗人員假冒的。
在實驗過程,學生會被綁在電擊儀器上,而實驗負責人(權威角色)會告訴「老師」說:你的任務是教導隔壁的學生認識單字。
如果學生答對了,老師要繼續測驗其他單字;但如果答錯了,就要施以電擊。
第一次答錯的懲罰是 15 伏特的電擊,基本上人體感覺不到。但隨著錯誤題數變多,電擊的伏特數也會隨之提升,最高是 450 伏特,且在 375 伏特會標示「警告,危險電擊」
電壓越高,「學生」的反應也會越來越激烈,從尖叫、敲打牆壁、到哭喊表示患有心臟疾病。最後當伏特數提升到 330 伏特以上後,學生會突然保持沉默,並停止所有反應(上述反應皆為錄音機預先錄製好的)。
在這過程中,許多受試者都希望暫停實驗以檢查學生的狀況。此時實驗人員會嘗試說服受試者,並告知他們「不會有任何責任歸咎」。
如果經過四次回覆的慫恿後,受試者仍然希望停止,那實驗便會停止。否則,實驗將繼續進行,直到按了 3 次 450 伏特的按鈕。
▌ 米爾格倫實驗的結果
壯士們猜猜,最後有多少人按到 450 伏特?
Stanley Milgram 問了 40 位精神科醫師,他們預估只有 1% 的美國人會按到 450 伏特,因為那是虐待狂般的行為,而全美約有 1% 人口有類似傾向。
但實驗結果和精神科醫師的預期大相逕庭,雖然所有的受試者都表示感到不舒服,並質疑這項實驗的目的,但最終有 62.5% 的受試者按到 450 伏特、且沒有參與者在到達 300 伏特之前堅持停止!
後來 Stanley Milgram 自己,以及許多全世界的心理學家都做了類似的實驗,但都得到差不多的結果。
馬里蘭大學的 Thomas Blass,在重複進行了多次實驗後也發現:無論實驗的時間和地點,每次實驗都有約 61% 至 66% 的參與者願意施加致命的伏特數。
▌ 米爾格倫實驗的啟示與爭議
這個實驗想測試的是,人們在面對權威者下達違背良心、傷害他人的命令時,人性所能發揮的拒絕力量到底有多少。
Milgram 在文章《服從的危險》(1974)中寫道:「這個實驗是為了測試一個普通的市民,只因一位輔助實驗的科學家所下達的命令,會願意在另一個人身上加諸多少的痛苦。
當主導實驗的權威者命令參與者傷害另一個人,更加上隔壁傳來的痛苦尖叫聲,即使受到如此強烈的道德不安,多數情況下權威者仍然得以繼續命令他。
實驗顯示了成年人對於權力者有多麼大的服從意願,去做出幾乎任何尺度的行為。」
然而,它不可避免地引起一些爭議。
因為這項實驗對受試者施加了極度強烈的情感壓力,雖然這種壓力是由受試者的自由操作所造成的,但許多當代科學家將這類實驗視為是違反實驗倫理。
▌ 匿名有多危險
另一個今天想介紹的研究,是在探討「戰士穿著統一服裝以達匿名性,對於戰場的表現是否有影響?」
在眾多文明中,戰士們穿著統一服裝以達到匿名性,美國人類學家 John B. Watson 就在 23 組文明中找到兩組變因,比較他們是否更換制服(15 個是;8 個否),與他們是否殺戮、折磨、殘害(13 個是,10 個否)之間的關係
結果發現,如果該文明的戰士不更換制服,8 個文明只有 1 個文明有殺戮、殘害;但如果穿著制服,13 個文明中有 12 個都會表現出殺戮等殘暴行為,也就是說,一旦匿名之後,有 90% 的文明都會展現殘暴行為。
▌ 《魷魚遊戲》中的惡
今天介紹的兩個研究,各自代表了「盲目服從權威」及「匿名性」,是如何驅使人們展現那些泯滅人性的行為。而這兩點,似乎可以和影集《魷魚遊戲》的部分情節有異曲同工之妙。
首先,當簽下同意書,加入遊戲開始之後,身穿紅色制服的面具人們,就成為玩家盲目服從的絕對權威者。
而「匿名性」,則可以從穿著桃紅色衣服的工人身上體現。頭戴面具不許脫下、身穿制服、沒有名字,這樣「對自我去個體化」的規範,讓每一個人都與其他人無異,完完全全地統一,降低了執行殺人指令的罪惡感,也模糊化「惡行」的界限。
(小結放留言!)
一般研究倫理規範的行為 在 政經八百 Facebook 的最佳解答
#八百回合經濟談
〔#現實版的魷魚遊戲 #一場測試人性之惡的實驗〕
壯士們應該都有看到,這禮拜在社群媒體上,《魷魚遊戲》這部影集迅速竄紅,甚至擠上全球排行榜第二名!
在《魷魚遊戲》影集中,我們看到角色們為了讓自己生存下去,不惜泯滅人性,羞辱、欺騙、背叛、甚至拿起刀相互廝殺,展現潛藏在他們心中「惡的一面」。
但在遊戲開始前,大部分的參賽者其實都是一般的市井小民,背著難以負擔的債務,在社會的夾縫中掙扎,也許稱不上善良,但絕對沒有在遊戲中展現地那麼「惡」。
於是,今天想來跟壯士們聊聊,一場和測試「人性的惡」有關的實驗。
▌ 米爾格倫實驗
1961 年,猶太裔的美國心理學家 Stanley Milgram 提出了一個問題:「如果希特勒要求你電刑一個素未謀面的陌生人,你會執行命令嗎?」
於是,他找了 1000 位 20-50 歲的男性受試者,告訴他們:這是一項關於「體罰對於學習行為的效用」的實驗。
並請受試者扮演「老師」的角色,以教導隔壁房間的另一位受試者——「學生」,然而學生其實是由實驗人員假冒的。
在實驗過程,學生會被綁在電擊儀器上,而實驗負責人(權威角色)會告訴「老師」說:你的任務是教導隔壁的學生認識單字。
如果學生答對了,老師要繼續測驗其他單字;但如果答錯了,就要施以電擊。
第一次答錯的懲罰是 15 伏特的電擊,基本上人體感覺不到。但隨著錯誤題數變多,電擊的伏特數也會隨之提升,最高是 450 伏特,且在 375 伏特會標示「警告,危險電擊」
電壓越高,「學生」的反應也會越來越激烈,從尖叫、敲打牆壁、到哭喊表示患有心臟疾病。最後當伏特數提升到 330 伏特以上後,學生會突然保持沉默,並停止所有反應(上述反應皆為錄音機預先錄製好的)。
在這過程中,許多受試者都希望暫停實驗以檢查學生的狀況。此時實驗人員會嘗試說服受試者,並告知他們「不會有任何責任歸咎」。
如果經過四次回覆的慫恿後,受試者仍然希望停止,那實驗便會停止。否則,實驗將繼續進行,直到按了 3 次 450 伏特的按鈕。
▌ 米爾格倫實驗的結果
壯士們猜猜,最後有多少人按到 450 伏特?
Stanley Milgram 問了 40 位精神科醫師,他們預估只有 1% 的美國人會按到 450 伏特,因為那是虐待狂般的行為,而全美約有 1% 人口有類似傾向。
但實驗結果和精神科醫師的預期大相逕庭,雖然所有的受試者都表示感到不舒服,並質疑這項實驗的目的,但最終有 62.5% 的受試者按到 450 伏特、且沒有參與者在到達 300 伏特之前堅持停止!
後來 Stanley Milgram 自己,以及許多全世界的心理學家都做了類似的實驗,但都得到差不多的結果。
馬里蘭大學的 Thomas Blass,在重複進行了多次實驗後也發現:無論實驗的時間和地點,每次實驗都有約 61% 至 66% 的參與者願意施加致命的伏特數。
▌ 米爾格倫實驗的啟示與爭議
這個實驗想測試的是,人們在面對權威者下達違背良心、傷害他人的命令時,人性所能發揮的拒絕力量到底有多少。
Milgram 在文章《服從的危險》(1974)中寫道:「這個實驗是為了測試一個普通的市民,只因一位輔助實驗的科學家所下達的命令,會願意在另一個人身上加諸多少的痛苦。
當主導實驗的權威者命令參與者傷害另一個人,更加上隔壁傳來的痛苦尖叫聲,即使受到如此強烈的道德不安,多數情況下權威者仍然得以繼續命令他。
實驗顯示了成年人對於權力者有多麼大的服從意願,去做出幾乎任何尺度的行為。」
然而,它不可避免地引起一些爭議。
因為這項實驗對受試者施加了極度強烈的情感壓力,雖然這種壓力是由受試者的自由操作所造成的,但許多當代科學家將這類實驗視為是違反實驗倫理。
▌ 匿名有多危險
另一個今天想介紹的研究,是在探討「戰士穿著統一服裝以達匿名性,對於戰場的表現是否有影響?」
在眾多文明中,戰士們穿著統一服裝以達到匿名性,美國人類學家 John B. Watson 就在 23 組文明中找到兩組變因,比較他們是否更換制服(15 個是;8 個否),與他們是否殺戮、折磨、殘害(13 個是,10 個否)之間的關係
結果發現,如果該文明的戰士不更換制服,8 個文明只有 1 個文明有殺戮、殘害;但如果穿著制服,13 個文明中有 12 個都會表現出殺戮等殘暴行為,也就是說,一旦匿名之後,有 90% 的文明都會展現殘暴行為。
▌ 《魷魚遊戲》中的惡
今天介紹的兩個研究,各自代表了「盲目服從權威」及「匿名性」,是如何驅使人們展現那些泯滅人性的行為。而這兩點,似乎可以和影集《魷魚遊戲》的部分情節有異曲同工之妙。
首先,當簽下同意書,加入遊戲開始之後,身穿紅色制服的面具人們,就成為玩家盲目服從的絕對權威者。
而「匿名性」,則可以從穿著桃紅色衣服的工人身上體現。頭戴面具不許脫下、身穿制服、沒有名字,這樣「對自我去個體化」的規範,讓每一個人都與其他人無異,完完全全地統一,降低了執行殺人指令的罪惡感,也模糊化「惡行」的界限。
▌ 小結
獨編第一次看到這兩個研究時,只覺得當下毛骨悚然,但並沒有留下太多後續的感觸。
直到這幾天追完《魷魚遊戲》,看見人性在瀕臨絕望時刻的細膩刻劃,再回頭看米爾格倫實驗,才意識到,原來普通人也「很可能」在整個社會體制的作用下,成為他人眼中的惡人。
一般研究倫理規範的行為 在 台灣物聯網實驗室 IOT Labs Facebook 的精選貼文
AI 助陣醫學、防疫,個人隱私難兩全?
2021/06/09 研之有物
規範不完備是臺灣個資保護的一大隱憂,《個資法》問世遠早於 AI 時代、去識別化定義不清、缺乏獨立專責監管機構,都是當前課題。
評論
本篇來自合作媒體研之有物,作者周玉文、黃曉君,INSIDE 經授權轉載。
AI 醫療、科技防疫的人權爭議
健康大數據、人工智慧(AI)已經成為醫療研發的新聖杯,新冠肺炎(COVID-19)更將 AI 技術推上防疫舞臺,各國紛紛串聯大數據監控足跡或採用電子圍籬。但當科技防疫介入公衛醫療,我們是否在不知不覺中讓渡了個人隱私?
中研院歐美研究所副研究員何之行認為,規範不完備是臺灣個資保護的一大隱憂,《個資法》問世遠早於 AI 時代、去識別化定義不清、缺乏獨立專責監管機構,都是當前課題。
「天網」恢恢,公衛醫療的新利器
自 2020 年新冠疫情大爆發,全世界為了因應危機展開大規模協作,從即時統計看板、預測病毒蛋白質結構、電子監控等,大數據與 AI 技術不約而同派上用場。但當數位科技介入公共衛生與醫療健康體系,也引發人權隱私的兩難爭議。
2020 年的最後一夜,臺灣再次出現本土案例。中央流行疫情指揮中心警告,居家隔離、居家檢疫、自主健康管理的民眾,都不應參加大型跨年活動。而且,千萬別心存僥倖,因為「天網」恢恢,「我們能找得到您」!有天網之稱的電子圍籬 2.0 出手,許多人拍手叫好,但也挑起國家進行隱私監控的敏感神經。
隱私爭議不只在防疫戰場,另一個例子是近年正夯的精準醫療。2021 年 1 月,《經濟學人》(The Economist)發布亞太區「個人化精準醫療發展指標」(Personalised-health-index)。臺灣勇奪亞軍,主要歸功於健全的健保、癌症資料庫及尖端資訊科技。
國際按讚,國內反應卻很兩極。早前曾有人質疑「個人生物資料」的隱私保障,擔憂是否會成為藥廠大數據;但另一方面,部分醫療研究者卻埋怨《個人資料保護法》(簡稱《個資法》)很嚴、很卡,大大阻擋了醫學研發。為何國內反應如此分歧?
中研院歐美所副研究員何之行認為,原因之一是,
《個資法》早在 2012 年就實施,跑在 AI 時代之前,若僅僅仰賴現行規範,對於新興科技的因應恐怕不合時宜。
健保資料庫爭議:誰能再利用我們的病歷資料?
來看看曾喧騰一時的「健保資料庫訴訟案」。
2012 年,臺灣人權促進會與民間團體提出行政訴訟,質疑政府沒有取得人民同意、缺少法律授權,逕自將健保資料提供給醫療研究單位。這意味,一般人完全不知道自己的病例被加值運用,侵害了資訊自主權。案件雖在 2017 年敗訴,但已進入大法官釋憲。
民間團體批評,根據《個資法》,如果是原始蒐集目的之外的再利用,應該取得當事人同意。而健保資料原初蒐集是為了稽核保費,並非是提供醫學研究。
但支持者則認為,健保資料庫是珍貴的健康大數據,若能串接提供學術與醫療研究,更符合公共利益。此外,如果過往的數據資料都必須重新尋求全國人民再同意,相關研發恐怕得被迫踩剎車。
種種爭議,讓醫學研究和資訊隱私之間的紅線,顯得模糊而舉棋不定。何之行指出,「個人權利」與「公共利益」之間的權衡拉鋸,不僅是長久以來政治哲學家所關心的課題,也反映了現代公共衛生倫理思辨的核心。
我們有權拒絕提供資料給醫療研究嗎?當精準醫療的腳步飛也似向前奔去,我們要如何推進醫學科技,又不棄守個人的隱私權利呢?
「精準醫療」與「精準健康」是近年醫學發展的重要趨勢,透過健康大數據來評估個人健康狀況,對症下藥。但健康資料涉及個人隱私,如何兼顧隱私與自主權,成為另一重要議題。
去識別化爭點:個資應該「馬賽克」到什麼程度?
何之行認為,「健保資料庫爭議」短期可以從幾項原則著手,確立資料使用標準,包括:允許退出權(opt-out)、定義去識別化(de-identification)。
「去識別化」是一道安全防護措施。簡單來說:讓資料不會連結、辨識出背後真正的那個人。何之行特別分享 Google 旗下人工智慧研發公司 DeepMind 的慘痛教訓。
2017 年,DeepMind 與英國皇家醫院(Royal Free)的協定曝光,DeepMind 從後者取得 160 萬筆病歷資料,用來研發診斷急性腎衰竭的健康 APP。聽來立意良善的計畫,卻引發軒然大波。原因是,資料分享不僅未取得病患同意,也完全沒有將資料去識別化,每個人的病史、用藥、就醫隱私全被看光光!這起爭議無疑是一大教訓,重創英國社會對於開放資料的信任。
回到臺灣脈絡。去識別化指的是以代碼、匿名、隱藏部分個資或其他方式,無從辨識特定個人。但要達到什麼樣的隱匿保護程度,才算是無從識別特定個人?
何之行指出,個資法中的定義不甚清楚,混用匿名化(anonymous)、假名化(pseudonymised)、去連結(delink)等規範程度不一的概念。臺灣也沒有明確定義去識別化標準,成為爭點。
現行法令留下了模糊空間,那麼他山之石是否能提供參考?
以美國《健康照護可攜法案》(HIPAA)為例,法案訂出了去除 18 項個人識別碼,作為去識別化的基準;歐盟《一般資料保護規則》則直接說明,假名化的個資仍然是個人資料。
退出權:保留人民 say NO 的權利
另一個消解爭議的方向是:允許退出權,讓個人保有退出資料庫的權利。即使健保資料並沒有取得民眾事前(opt-in)的同意,但仍可以提供事後的退出選項,民眾便有機會決定,是否提供健康資料做學術研究或商業運用。
何之行再舉英國國民健保署 NHS 做法為例:英國民眾有兩階段選擇退出中央資料庫 (NHS Digital)的機會,一是在一開始就拒絕家庭醫師將自己的醫病資料上傳到 NHS Digital,二是資料上傳後,仍然可以在資料分享給第三方使用時說不。畢竟有人願意為公益、學術目的提供個人健康數據,對商業用途敬謝不敏;也有人覺得只要無法辨識個人即可。
近年,英國政府很努力和大眾溝通,希望民眾認知到資料分享的共善,也說明退出所帶來的社會成本,鼓勵人們留在資料庫內,享受精準醫療帶給個人的好處。可以看到英國政府藉由公眾溝通,努力建立社會信任。
參照英國經驗,目前選擇退出的比率約為 2.6%。保留民眾某種程度的退出權,但善盡公眾溝通,應是平衡集體利益與個人隱私的一種做法。
歐盟 GDPR 個資保護的四大原則
健保資料庫只是案例之一,當 AI 成為大數據浪潮下的加速器,最周全之策仍然是針對 AI 時代的資料運用另立規範。 歐盟 2018 年實施的《一般資料保護規則》(General Data Protection Regulation,以下簡稱 GDPR),便是大數據 AI 時代個資保護的重要指標。
因應 AI、大數據時代的變化,歐盟在 2016 年通過 GDPR,2018 年正式上路,被稱為「史上最嚴格的個資保護法」。包括行動裝置 ID、宗教、生物特徵、性傾向都列入被保護的個人資料範疇。
歐盟在法令制定階段已將 AI 運用納入考量,設定出個資保護四大原則:目的特定原則、資料最小化、透明性與課責性原則。
其中,「目的特定」與「資料最小化」都是要求資料的蒐集、處理、利用,應在特定目的的必要範圍內,也就是只提供「絕對必要」的資料。
然而,這與大數據運用需仰賴大量資料的特質,明顯衝突!
大數據分析的過程,往往會大幅、甚至沒有「特定目的」的廣蒐資料;資料分析後的應用範圍,也可能超出原本設定的目標。因此,如何具體界定「特定目的」以及後續利用的「兼容性判斷」,便相當重要。這也突顯出「透明性」原則強調的自我揭露(self-disclosure)義務。當蒐集方成為主要的資料控制者,就有義務更進一步解釋那些仰賴純粹自動化的決策,究竟是如何形成的。
「透明性原則的用意是為了建立信任感。」何之行補充。她舉例,中國阿里巴巴集團旗下的芝麻信用,將演算法自動化決策的應用發揮得淋漓盡致,就連歐盟發放申根簽證都會參考。然而,所有被納入評分系統的人民,卻無從得知這個龐大的演算法系統如何運作,也無法知道為何自己的信用評等如此。
芝麻信用表示,系統會依照身分特質、信用歷史、人脈關係、行為偏好、履約能力等五類資料,進行每個人的信用評分,分數介於 350-950。看似為電商系統的信用評等,實則影響個人信貸、租車、訂房、簽證,甚至是求職。
這同時涉及「課責性」(accountability)原則 ── 出了問題,可以找誰負責。以醫療場域來講,無論診斷過程中動用了多少 AI 工具作為輔助,最終仍須仰賴真人醫師做最後的專業判斷,這不僅是尊重醫病關係,也是避免病患求助無門的問責體現。
科技防疫:無所遁形的日常與數位足跡
當新冠疫情爆發,全球人心惶惶、對未知病毒充滿恐懼不安,科技防疫一躍成為國家利器。但公共衛生與人權隱私的論辯,也再次浮上檯面。
2020 年 4 月,挪威的國家公共衛生機構推出一款接觸追蹤軟體,能監控足跡、提出曾接觸確診者的示警。但兩個月後,這款挪威版的「社交距離 APP」卻遭到挪威個資主管機關(NDPA)宣告禁用!
挪威開發了「Smittestopp」,可透過 GPS 與藍牙定位來追蹤用戶足跡,提出與感染者曾接觸過的示警,定位資訊也會上傳到中央伺服器儲存。然而,挪威資料保護主管機關(NDPA)宣告,程式對個人隱私造成不必要的侵害,政府應停止使用並刪除資料。
為何挪威資料保護機關會做出這個決定?大體來說,仍與歐盟 GDPR 四大原則有關。
首先,NDPA 認為挪威政府沒有善盡公眾溝通責任,目的不清。人民不知道這款 APP 是為了疫調?或者為研究分析而持續蒐集資料?而且,上傳的資料包含非確診者個案,違反了特定目的與資料最小蒐集原則。
此外,即便為了防疫,政府也應該採用更小侵害的手段(如:僅從藍牙確認距離資訊),而不是直接由 GPS 掌控個人定位軌跡,這可能造成國家全面監控個人行蹤的風險。
最後 NDPA 認為,蒐集足跡資料原初是為了即時防疫,但當資料被轉作後續的研究分析,政府應主動說明為什麼資料可以被二次利用?又將如何去識別化,以確保個資安全?
換言之,面對疫情的高度挑戰,挪威個資保護機關仍然認為若沒有足夠的必要性,不應輕易打開潘朵拉的盒子,國家採用「Smittestopp」這款接觸追蹤軟體,有違反比例原則之虞。
「有效的疫情控制,並不代表必然需要在隱私和個資保護上讓步。反而當決策者以防疫之名進行科技監控,一個數位監控國家的誕生,所妥協的將會是成熟公民社會所賴以維繫的公眾信任與共善。」何之行進一步分析:
數位監控所帶來的威脅,並不僅只於表象上對於個人隱私的侵害,更深層的危機在於,掌握「數位足跡」(digital footprint) 後對於特定當事人的描繪與剖析。
當監控者透過長時間、多方面的資訊蒐集,對於個人的「深描與剖繪」(profiling)遠遠超過想像──任何人的移動軌跡、生活習慣、興趣偏好、人脈網絡、政治傾向,都可能全面被掌握!
AI 時代需要新法規與管理者
不論是醫藥研發或疫情防控,數位監控已成為當代社會的新挑戰。參照各國科技防疫的爭論、歐盟 GDPR 規範,何之行認為,除了一套 AI 時代的個資保護規範,實踐層面上歐盟也有值得學習之處。
例如,對隱私風險的脈絡化評估、將隱私預先納入產品或服務的設計理念(privacy by design),「未來照護機器人可能走入家家戶戶,我們卻常忽略機器人 24 小時都在蒐集個資,隱私保護在產品設計的最初階段就要納入考量。」
另外最關鍵的是:設置獨立的個資監管機構,也就是所謂的資料保護官(data protection officer,DPO),專責監控公、私營部門是否遵循法規。直白地說,就是「個資警察局」。何之行比喻,
如果家中遭竊,我們會向警察局報案,但現況是「個資的侵害不知道可以找誰」。財稅資料歸財政部管,健康資料歸衛福部管,界定不清楚的就變成三不管地帶。
綜觀臺灣現狀,她一語點出問題:「我們不是沒有法規,只是現有的法令不完備,也已不合時宜。」
過往許多人擔心,「個資保護」與「科技創新」是兩難悖論,但何之行強調法令規範不是絆腳石。路開好、交通號誌與指引完善,車才可能跑得快。「GDPR 非常嚴格,但它並沒有阻礙科學研究,仍然允許了科學例外條款的空間。」
「資料是新石油」(data is the new oil),臺灣擁有世界數一數二最完整的健康資料,唯有完善明確的法規範才能減少疑慮,找出資料二次利用與科技創新的平衡點,也建立對於資料二次利用的社會信任。
資料來源:https://www.inside.com.tw/article/23814-ai-privacy-medical?fbclid=IwAR0ATcNjDPwTsZ4lkQpYjvys3NcXpDaqsmE_gELBl_UNu4FcAjBlscxMwss