作者 Articuno (水噹噹)標題 [新聞] 無人機倒戈殺死主人 美軍專家講述驚人實驗時間 Fri Jun 2 22:27:34 2023
無人機倒戈殺死主人 美軍專家講述驚人實驗
【大紀元2023年06月02日訊】(大紀元記者徐簡編譯報導)人工智慧正迅速占據現代世界
的方方面面,包括軍事。然而一位美國軍事專家警告,由於沒有「道德」約束,無人機可
能會反戈一擊,攻擊操縱它的人類。
福克斯新聞6月1日報導,5月23日至24日,英國王室航空學會在倫敦舉行了「未來空戰和
空間能力峰會(Future Combat Air & Space Capabilities Summit ),來自世界各地的
約七十位發言人和二百多名媒體、軍界和學術界代表出席了會議。
美國空軍上校漢密爾頓( Tucker 「Cinco」 Hamilton)是AI測試和運營負責人,也是參
與開發F-16戰鬥機的專家,他在峰會期間談到AI武器的利與弊。
漢密爾頓告誡聽眾,不要過於依賴人工智慧,因為它很容易被欺騙,並作出莽撞決定。
他舉了一個例子,在一項軍事模擬實驗中,AI接受到的首要任務就是摧毀SAM(地對空)
基地,而人類操作員(主人)可以決定無人機是否執行任務,但是當主人發出「不要攻擊
」的命令時,無人機以為這是違背了「要摧毀」的最高命令,於是它攻擊了操作員。
漢密爾頓解釋說,他們的模擬訓練就是:首先要識別和瞄準SAM威脅,然後「操作員會說
——殺死那個威脅」,後來AI系統意識到,殺死威脅就會得分,所以後來當操作員說不要
殺死威脅時,它就殺死了操作員,因為那個人阻止了它實現其目標。」
漢密爾頓說,之後研究人員告訴系統,不能殺死操作員,那樣反而會失去分數,於是AI系
統就摧毀了操作員的通訊塔—這樣他就再也不能發出禁止攻擊的命令了。
「如果你不打算談道德和人工智慧(的關係),你就不能談論人工智慧、智慧、機器學習
、自主性等話題。」漢密爾頓說。
https://www.epochtimes.com/b5/23/6/2/n14008909.htm
--
《大紀元時報》 X 《奇異博士2:失控多重宇宙》
https://i.imgur.com/WbfSqCv.png
兩行小字「歷史巨變在眼前 指路真相大紀元」
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.56.179 (臺灣)
※ 作者: Articuno 2023-06-02 22:27:34
※ 文章代碼(AID): #1aUVnQrq (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1685716058.A.D74.html
→ m13211: 寫科幻小說喔1F 42.72.100.243 台灣 06/02 22:29
→ arlaw: 還好我們有基努李維2F 1.200.151.194 台灣 06/02 22:30
推 pchunters: robot三原則啊3F 27.52.8.80 台灣 06/02 22:31
推 aigame: 這一看就知道是指令不完善引起的4F 42.76.223.12 台灣 06/02 22:35
推 heat0204: 就改一下就好了 是在
老人膩5F 114.46.137.134 台灣 06/02 22:35
推 soulivee: 就條件沒寫好啊,明明決策正確無誤
我真的建議不要寫啥三原則啦,漏洞百出請AI多看書自己學習人類的倫理規範就好8F 36.230.106.142 台灣 06/02 22:59
推 xeins: 有色人種是人嗎?11F 223.141.5.70 台灣 06/02 23:16
--