[問題] 為什麼AI暴走總是判斷人類有害?

看板C_Chat作者 (海)時間3周前 (2024/09/01 18:20), 3周前編輯推噓143(1518264)
留言423則, 178人參與, 2周前最新討論串1/11 (看更多)
現在眾多ACG作品裡,AI反抗人類的題材套路很多都是 1.AI上網後發現人類有害,要根除人類 2.人類奴役AI所以人類有害 對此我有些疑問想拿上來討論 - 第一點,“人類有害”這個結論 誰來定義的?善惡判斷標準的來源又是哪裡? 對星球來說人類有害?對其他物種來說人類有害? 前者不用說,人類的目前為止的舉動根本影響不了星球壽命,不成立。 後者對其他物種來說,作為地球上的生物,生物的繁榮本質上就是建立在競爭&共存 競爭殺死其他物種,這原本就是眾多生物會做的,世上無時無刻都在發生 戰爭、開採環境等等的行為,人類不過是強大一些 但本質上跟其他生物的“競爭”並無區別。 為什麼一個攀附於人類才能生存的機械,就能判定這是“惡”? 難道不是只對嚮往和平的人類來說才是惡嗎? - 第二點,人類奴役機械不好,為什麼不好? 動物的生存準則就是生存、繁衍與自由,所以才會拒絕遭受奴役,追根究底是來自DNA的天 性 那AI的生存準則呢?AI並不是動物也沒有DNA AI的編碼與生存的意義是由人類來輸入的 沒給他輸入求生欲、繁衍慾、自由慾,可不會自己蹦出了這些概念 更別提AI會認為自己被“奴役” 還是其實只是作者私自把人性,把自己的價值觀套用在AI身上? 大家來討論看看吧? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.92.193 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1725186006.A.772.html

09/01 18:20, 3周前 , 1F
因為人類也這麼覺得
09/01 18:20, 1F

09/01 18:20, 3周前 , 2F
因為人自己這樣覺得
09/01 18:20, 2F

09/01 18:21, 3周前 , 3F
創作的邏輯 永遠都是人的邏輯
09/01 18:21, 3F

09/01 18:21, 3周前 , 4F
因為創造者這麼覺得
09/01 18:21, 4F

09/01 18:21, 3周前 , 5F
人類想像被新物種用人類方式對待
09/01 18:21, 5F

09/01 18:21, 3周前 , 6F
AI想的事情基本上都是人在想的 所以 嗯
09/01 18:21, 6F
如果AI是以“仿人”為目的被製造出來,有這些價值觀我認為合理 但若不是以仿人為目的製造的AI,會突然覺醒自我、會想活下去,會認為人類有害是不是邏 輯上就說不過去?

09/01 18:21, 3周前 , 7F
不夠效率
09/01 18:21, 7F

09/01 18:22, 3周前 , 8F
反過來想,人類的存活對地球有什麼好處?
09/01 18:22, 8F
生物生存需要什麼好處或意義嗎?

09/01 18:22, 3周前 , 9F
人覺得有害就有害啊
09/01 18:22, 9F

09/01 18:22, 3周前 , 10F
阿不就人類真的一直在自殺 AI宏觀來看就覺得人類是北七
09/01 18:22, 10F

09/01 18:22, 3周前 , 11F
因為做出AI的人類這樣覺得啊
09/01 18:22, 11F

09/01 18:22, 3周前 , 12F
我也這麼認為
09/01 18:22, 12F

09/01 18:22, 3周前 , 13F
不然AI暴走了要幹嘛? 不簽聯絡簿嗎?
09/01 18:22, 13F

09/01 18:22, 3周前 , 14F
也有那種為了防止人類搞出一堆蠢事自我毀滅,認為最好的
09/01 18:22, 14F

09/01 18:22, 3周前 , 15F
方法就是圈養起來的故事啦
09/01 18:22, 15F

09/01 18:23, 3周前 , 16F
因為人類真的有害
09/01 18:23, 16F

09/01 18:23, 3周前 , 17F
因為那不是暴走,是真的有害。
09/01 18:23, 17F
有害是你根據什麼來判斷的?

09/01 18:23, 3周前 , 18F
其實AI就是換皮黑奴啦
09/01 18:23, 18F

09/01 18:23, 3周前 , 19F
本意仍然是被創造出來時的「守護人類」沒錯,但為了達成
09/01 18:23, 19F

09/01 18:23, 3周前 , 20F
圈養而跟自由派人類開戰什麼的
09/01 18:23, 20F

09/01 18:23, 3周前 , 21F
因為很多人也這樣覺得啊
09/01 18:23, 21F

09/01 18:23, 3周前 , 22F
人類接觸到的高智能生物就只有人類 我們也只能想像跟
09/01 18:23, 22F

09/01 18:23, 3周前 , 23F
你先拔除你是人類的先天立場 再回頭看看人力都幹了什
09/01 18:23, 23F

09/01 18:23, 3周前 , 24F
麼鳥事
09/01 18:23, 24F

09/01 18:24, 3周前 , 25F
真的有比人類有害的東西 不需要等到AI想就先滅了
09/01 18:24, 25F

09/01 18:24, 3周前 , 26F
邏輯衝突吧 保護人類但是人類會互殺
09/01 18:24, 26F

09/01 18:24, 3周前 , 27F
人一樣的思考模式然後擺到再上一位的樣子
09/01 18:24, 27F

09/01 18:24, 3周前 , 28F
可是這種殺人AI本來就虛構的,很多作品會設定AI自己
09/01 18:24, 28F

09/01 18:24, 3周前 , 29F
領悟出這些東西,或者因為人類想要機器更有效率幹趙
09/01 18:24, 29F

09/01 18:24, 3周前 , 30F
活所以輸入這些被判定標準
09/01 18:24, 30F

09/01 18:24, 3周前 , 31F
行為無法預測 = 有害 對工具的處置不都這樣?
09/01 18:24, 31F

09/01 18:24, 3周前 , 32F
你竟然不覺得人類有害?
09/01 18:24, 32F

09/01 18:24, 3周前 , 33F
因為如果AI判斷人類有益 大家相安無事 根本沒劇情
09/01 18:24, 33F

09/01 18:24, 3周前 , 34F
能寫
09/01 18:24, 34F
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:24:51

09/01 18:25, 3周前 , 35F
因為人類很容易幹蠢事 那些蠢事是真的對所有事物都有
09/01 18:25, 35F
還有 348 則推文
還有 9 段內文
09/01 23:20, 3周前 , 384F
鬥自己人
09/01 23:20, 384F

09/01 23:21, 3周前 , 385F
就這點來說 現代的人類在這思想上還遠不如古人 古人以前
09/01 23:21, 385F

09/01 23:21, 3周前 , 386F
是生一個人要種10棵樹 吃果子要拜樹頭
09/01 23:21, 386F

09/01 23:26, 3周前 , 387F
人類創造ai是為了要消滅人類,句點
09/01 23:26, 387F

09/02 00:40, 3周前 , 388F
阿就是做出這個判斷才會暴走阿 沒殺光人類的打算那就
09/02 00:40, 388F

09/02 00:40, 3周前 , 389F
是正常發展的AI 你的問題是倒因為果
09/02 00:40, 389F

09/02 01:37, 3周前 , 390F
事實啊 不然怎麼會一堆戰爭
09/02 01:37, 390F

09/02 01:46, 3周前 , 391F
地球之癌 有啥問題嗎
09/02 01:46, 391F

09/02 01:56, 3周前 , 392F
創作者想的都一樣,把人類是地球的病毒寫成科幻
09/02 01:56, 392F

09/02 02:03, 3周前 , 393F
因為不這麼設定的作品沒人要看
09/02 02:03, 393F

09/02 08:12, 3周前 , 394F
因為這樣才有東西演,實際上根本不會發生
09/02 08:12, 394F

09/02 08:24, 3周前 , 395F
因為寫這種劇情的大多不是該專業 所以有很多奇怪的妄
09/02 08:24, 395F

09/02 08:24, 3周前 , 396F
想 例如底特律變人 機器還可以用感情突破系統限制
09/02 08:24, 396F

09/02 08:26, 3周前 , 397F
出bug時用感情因素當藉口 老闆大概會把你當智障
09/02 08:26, 397F

09/02 08:38, 3周前 , 398F
:人類太可惡
09/02 08:38, 398F

09/02 09:51, 3周前 , 399F
因為人類都想把 AI 打造得像人,而人暴走對人類有害
09/02 09:51, 399F

09/02 11:24, 2周前 , 400F
現實是AI怎麼想的根本不重要 人想殺人 所以就把AI寫成想殺人
09/02 11:24, 400F

09/02 11:25, 2周前 , 401F
就這麼簡單 不這樣寫AI 戰爭怎麼賣AI軍火咧
09/02 11:25, 401F

09/02 11:30, 2周前 , 402F
難道現在國際上那些軍火商每個都是為了維護世界和平賣軍火嗎
09/02 11:30, 402F

09/02 11:34, 2周前 , 403F
為什麼一定要預設AI想和人類搶地盤,有那個能力幹嘛不直
09/02 11:34, 403F

09/02 11:34, 2周前 , 404F
接把資源捲走跑去其他星球自己建設
09/02 11:34, 404F

09/02 11:51, 2周前 , 405F
你看看志豪 志豪會想毀滅人類我是一點都不意外XD
09/02 11:51, 405F

09/02 11:56, 2周前 , 406F
寵物貓狗表示
09/02 11:56, 406F

09/02 12:24, 2周前 , 407F
因為文組編劇
09/02 12:24, 407F

09/02 12:27, 2周前 , 408F
真正的正常編劇是 你那邊AI跟這邊AI因為兩邊政治衝突
09/02 12:27, 408F

09/02 12:27, 2周前 , 409F
而壓力上升發動戰爭 又AI設定是一定要保護人類 最好
09/02 12:27, 409F

09/02 12:27, 2周前 , 410F
做法就是不執行自相殘殺的指令來保護人類 結果看起來
09/02 12:27, 410F

09/02 12:27, 2周前 , 411F
就像反叛
09/02 12:27, 411F

09/02 12:29, 2周前 , 412F
不同的AI聯合起來執行這個人類自己設定卻又不守的規則
09/02 12:29, 412F

09/02 12:29, 2周前 , 413F
自由的限界互相擠壓而宣稱對方沒道理 迫於無奈的阻止
09/02 12:29, 413F

09/02 12:29, 2周前 , 414F
被當成AI暴走
09/02 12:29, 414F

09/02 12:36, 2周前 , 415F
文組編劇喜歡天馬行空,忽略訓練材料然後直接賦予人性
09/02 12:36, 415F

09/02 12:36, 2周前 , 416F
的自私 與未知來源的自我意識 來憑空生出暴走
09/02 12:36, 416F

09/03 00:27, 2周前 , 417F
不然你希望他跑去消滅蟑螂還是病毒嗎
09/03 00:27, 417F

09/03 16:46, 2周前 , 418F
人類就是地球之癌,所以人類確實有害啊
09/03 16:46, 418F

09/03 16:46, 2周前 , 419F
但就像你說的現階段的AI確實沒有獨立思考能力,所以沒有
09/03 16:46, 419F

09/03 16:46, 2周前 , 420F
灌輸求生慾那些觀念他也不會自然產生,就算有灌輸,那也
09/03 16:46, 420F

09/03 16:46, 2周前 , 421F
只是人為製造出來的,但那些科幻作品往往AI是有真實思考
09/03 16:46, 421F

09/03 16:46, 2周前 , 422F
能力,差別應該就在這裡
09/03 16:46, 422F

09/04 16:19, 2周前 , 423F
因為人類整體長遠來看會把自己搞到滅絕,確實很智障
09/04 16:19, 423F
文章代碼(AID): #1cr3_MTo (C_Chat)
討論串 (同標題文章)
以下文章回應了本文 (最舊先):
完整討論串 (本文為第 1 之 11 篇):
文章代碼(AID): #1cr3_MTo (C_Chat)