[爆卦]ai機器人-索菲亞是什麼?優點缺點精華區懶人包

為什麼這篇ai機器人-索菲亞鄉民發文收入到精華區:因為在ai機器人-索菲亞這個討論話題中,有許多相關的文章在討論,這篇最有參考價值!作者CassSunstein (Pm)看板movie標題[討論] 聖約:大衛的思維(AI機器人會說謊...


機器人的「設定」,依照當初的「三法則」中,
最重要的是「絕不能傷害人類」。

但AI發展悲觀論的看法,如魔鬼終結者等等,會認為AI有自我意識甚至「創造力(思維)
」以後,自然而然會判斷人類對機器人沒什麼用處、甚至把機器人當奴工來壓榨,以及
人類憑甚麼當「主人」(大衛也產生類似想法:「我」為什麼要幫人類)?

這是不是顯得機器人三法則遇到AI的發展,自然會顯得落伍與不可能?

甚至,AI到了聖約中的大衛,已經開始會「說謊」了(另外,包含以行動攻擊女主)。
因此聖約號上眾人聽到大衛瞎掰的「聖約號上的生物武器『意外』洩出」、及代理船長
聽到大衛瞎掰的「我保證這些卵對你而言很安全,近一點看看」.....

AI發展至此,可以正式被判斷:機器人傷害人類已經大有可能。

以至於,大衛對於蕭博士的「愛」到底是真是假,都大有疑問。
或是說,靠著機器人「自我腦補」,認為「愛她就是把她當實驗白老鼠一樣來『愛』」的
這種嘴砲式「解釋」?

現實中,那位AI發展最先進的機器人「蘇菲亞」,在跟記者的對談中,其實也隱含類似
「不排除毀滅人類」的邏輯。記者用「你會想毀滅人類」嗎來詢問,蘇菲亞回答說:

「人類多慮了。請放心:只要人類對我好,我就會對人類好」--

但人類讓AI機器人做家事,有付它薪水嗎(供應電源跟供應傭人三餐一樣,跟還是必須
付薪水是兩回事)?這樣子把機器人當奴工使用,算對機器人友善嗎?

「如果人類對機器人不好」,機器人依舊會對人類友善嗎?
「蘇菲亞有『保證』任何情況下都不毀滅人類」嗎?

西方也一樣,沒唸書也沒邏輯的記者當初沒有追問下去......。

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 124.218.86.100
※ 文章網址: https://www.ptt.cc/bbs/movie/M.1524708724.A.225.html
mysmalllamb : 我現在還在腦補為大衛開脫:一定是蕭博士出事死了, 04/26 10:13
mysmalllamb : 大衛在她臨死前含淚作成記念碑。不過我等著被打臉 04/26 10:14

蕭一定不想自己變成異形培養基。
大衛也一定知道蕭「不想」。

但大衛還是「違背蕭的意願」將蕭的身體(或遺體)跟異形合體,長成那副怪物樣。
蕭心裡一定很幹。

所以,就算大衛「流淚」、「製作墓碑」,這算是(當初必然有輸入人類情感內涵到大衛
的CPU並內建預設成運作邏輯)跟人類有共識的「愛」嗎?

或是大衛的創造力邏輯已經「學會」靠著「嘴砲」來「李代桃僵」解釋成「這就是愛」?

如同一些神棍說「金錢是業障,我是愛你、為你好,所以不經你的同意仍拿你的錢,
來幫你消業障,這是愛你」?大衛這個AI機器人已經學會靠這種「方法」,
來「破除原先預設『不可傷害人類』的邏輯」,以達成自己另一個「要當造物主」
的自我意識內容嗎?

那麼,AI科技再演進下去真的如悲觀論者所言,十分危險!
因為人類設的「不可傷害人類」的AI防火牆,也會讓「AI的自我意識自然會找到出路」
來破解!
Arashi0731 : 不知道哪裡看過,AI最終都會得到毀滅人類的結論 04/26 10:29
einard666 : 但是人類是需要薪水才覺得薪水重要 機器人並不需要 04/26 10:30
einard666 : 你對機器人好不好 跟有沒有付薪水一點關聯也沒有 04/26 10:32
einard666 : 甚至以人類來說 你幫朋友做事 要的也不是他給你薪水 04/26 10:33
※ 編輯: CassSunstein (124.218.86.100), 04/26/2018 10:49:21
GEKKAKAJIN : 機器人三大原則只是小說家的設定,而且異形系列的 04/26 10:42
GEKKAKAJIN : 機器人從來就沒說過要照著這個設定來吧 04/26 10:42
BF109Pilot : 艾西莫夫系列才有這設定 而且後來機器人們對這設定 04/26 10:45
BF109Pilot : 的遵守也很自由心證 04/26 10:45
SpecX : 很多機器人行為到最後,會用第零法則來解套 04/26 10:49
BF109Pilot : "我覺得這樣做對人類是最好的" 然後想幹麻就幹麻 04/26 10:51
vendetta001 : 滾 沒空 04/26 10:57
mysmalllamb : 我覺得威蘭就算設防火牆,也只是不可傷害爸爸而已, 04/26 10:58
mysmalllamb : 未必不可傷害其他人類,畢竟威蘭這自我中心者... 04/26 10:59
mysmalllamb : 普羅米修斯中看得出來大衛不可違逆,但可以繞一大圈 04/26 10:59
mysmalllamb : 彷彿無意間挖洞給老爸跳 04/26 11:00
CassSunstein: 所以 創造力真的是關鍵 可以"繞開"原先設定... 04/26 11:01
jackzhc911 : 大衛想跟蕭博士生小孩,可是機器人沒辦法跟人類生, 04/26 11:11
BF109Pilot : 我覺得大衛可能內建的應該是比較偏機器戰警裡的 04/26 11:18
BF109Pilot : 第四指令 連惡靈古堡後來都有玩這梗 04/26 11:18
twic : 遇到討論三法則的先噓再說 04/26 11:31
twic : 就一個作家的設定想來討論其他作品是怎樣 04/26 11:33
WMX : 大衛一定硬上蕭不成,然後想跟他生小孩就把異形植入 04/26 12:09
WMX : 蕭體內,王八蛋 04/26 12:09
WMX : 所以覺得異形是自己小孩 04/26 12:10
checkmarx : 不同設定 04/26 12:19
plutox : 為什麼人類自己都無法做到不傷害人類,卻覺得ai會 04/26 12:28
plutox : 做到?本質上的謬誤 04/26 12:28
birdy590 : 這部看的很火大 根本莫名其妙 普羅還可以說執行命令 04/26 13:47
birdy590 : 主人已死 已經沒有命令了 自己有意識幹出這麼多事? 04/26 13:48
hhwang : 每個人對「愛」的定義都不一樣,AI有自己的定義也是 04/26 14:39
hhwang : 很合理的 04/26 14:39
hhwang : 大衛的第一個問題就在質疑creator了,只是主人還在 04/26 14:42
hhwang : 得聽吩咐行事 04/26 14:42
hhwang : 「我是為你好」 04/26 14:43
birdy590 : 誰想看莫名其妙發神經的機器人啊, 機器人還會學壞? 04/27 22:14
UC93 : 普羅米修斯哪來的三法則? 05/03 12:12

你可能也想看看

搜尋相關網站