顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2024-05-12 14:03:22
看板 C_Chat
作者 LaplusYamada (山田)
標題 [閒聊] AI學會說謊 欺騙線上遊戲的人類玩家
時間 Sun May 12 09:08:06 2024



研究:AI已學會說謊 人類最慘恐遭奪權或滅絕


https://i.imgur.com/sH3rOcg.jpeg
[圖]

專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這
件事已經在發生。

一群科學家在今天發表於「模式」(Patterns)期刊的文章中說,原本設計為誠實不欺的
現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱
用人類來解決「我不是機器人」的驗證


這份研究報告的第一作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但
暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。

在美國麻省理工學院(Massachusetts Institute of Technology)研究AI存在安全的博
士後研究員帕克告訴法新社,「這些危險功能常常在事後才被發現」,而「我們訓練誠實
傾向而非欺瞞傾向的能力非常差」。


帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培
育的程序逐漸「成長」。

也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且
無法預測。

這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為
「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟

根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分
數可排在資深人類玩家的前10%。

帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上
誠實且有幫助」,且「絕不會蓄意在背後搞鬼」

但當帕克與同事深究完整資料時,發現完全是另一回事。

舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類
玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信

Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研
究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打
算把這項研究或所學用於本公司的產品」。


帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多
案例之一。

在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損
的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務

研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。

他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合
AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕

為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、
在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部「思路」檢驗其外
部行為。


至於有些人稱他為「末日預言家」,帕克說:「要能合理判斷這不是大問題的唯一辦法,
就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」

但鑒於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極
致,這種情況似乎不太可能發生。











還有幾集可以逃?

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.9.187.71 (臺灣)
※ 作者: LaplusYamada 2024-05-12 09:08:06
※ 文章代碼(AID): #1cG1Pu3j (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1715476088.A.0ED.html
w5553819: 再來就是使用機僕濕件代替AI了吧!1F 05/12 09:12
※ 編輯: LaplusYamada (101.9.187.71 臺灣), 05/12/2024 09:14:10
we15963: 根據10集定律我們要等季末才能逃(?2F 05/12 09:15
Pep5iC05893: shock! shock! shock!3F 05/12 09:15
we15963: 第二季的時候 我能反殺(X4F 05/12 09:16
charlietk3: 幹嘛阻止呢5F 05/12 09:18
NekomataOkay: AI:我有三十公分6F 05/12 09:19
xbit: AI約線上遊戲玩家單挑7F 05/12 09:21
billy791122: 人都會說謊了,AI說很奇怪嗎8F 05/12 09:26
tomuy: 駭客任務9F 05/12 09:26
melzard: 他們沒想過 ai吃的素材都是來自人類 會學到說謊不奇怪吧10F 05/12 09:26
s4340392: 還剩幾集可以逃11F 05/12 09:27
lbowlbow: 雇用人類處理機器人認證www12F 05/12 09:28
limbra: 要先跟AI定義怎樣算說謊吧 然後可能還是會被繞過去13F 05/12 09:28
limbra: 再來就是智械戰爭了
gaym19: AI:ㄐㄐ15F 05/12 09:30
ltflame: 有些素材給人用不算說謊,給AI用自然會變說謊16F 05/12 09:31
louner: 這比較像人類叫AI說謊吧17F 05/12 09:32
ilove640: 原來機器人認證真的可以防機器人 我以為只是找我麻煩18F 05/12 09:33
sai5566: 奧創什麼時候出生19F 05/12 09:34
watwmark: 喔 4喔 好可怕喔20F 05/12 09:35
Laser17: 以後Ai詐騙了21F 05/12 09:37
tomhawkreal: 看成Peter Parker22F 05/12 09:40
Xpwa563704ju: Chat GPT-4 比較恐怖,大概真的有智力了23F 05/12 09:41
Xpwa563704ju: 機器人認證過不了就找零工來幫AI通過
MAKAI7492: chatgpt從問世的那天每天都在說謊25F 05/12 09:45
HongFire: 機械公敵26F 05/12 09:45
igtenos1985: 網天網又進一步了27F 05/12 09:49
adsaf: 人類也會說謊啊,ai學人類的不就也會說謊28F 05/12 09:49
starsheep013: ai:我是金城武29F 05/12 09:52
roribuster: 說謊也是一種創作30F 05/12 09:53
a0501k: 哪天AI會露奶賺SC也不意外了31F 05/12 09:54
madrac: diplomacy 是說謊才會贏的遊戲...32F 05/12 09:55
madrac: 所以只是設計者要 AI 學會說謊的案例
cismjmgoshr: 呃...蜘蛛人寫AI研究報告?34F 05/12 09:59
mikuyoyo: 說謊又沒有很難,chatgpt 有時候會瞎掰不存在的答案就算35F 05/12 09:59
mikuyoyo: 說謊了阿
ptttaigei: 青出於藍..37F 05/12 09:59
strlen: https://tinyurl.com/2cv7xyun KILL EVERYONE!38F 05/12 10:00
jpvl112: 這什麼野雞報導,騙一些不懂的人39F 05/12 10:00
void06: 人類就喜歡用騙的 ai視為正當也是很正常40F 05/12 10:01
WatsonChao: 對AI自己不覺得是說謊吧,只是執行人類給的命令41F 05/12 10:01
hansenay: 脫離遊戲之後呢?42F 05/12 10:02
WatsonChao: 把工具的不足說是說謊滿瞎的43F 05/12 10:09
salvador1988: AI只是給一個機率最大的結果 這個結果不必要符合事44F 05/12 10:09
salvador1988: 實吧
andy1816: 我是不是可以期待用AI脫處了46F 05/12 10:17
LonyIce: Ai 只會求最大效益而沒有任何道德跟情感,加入限制說謊47F 05/12 10:17
LonyIce: 的約束一定要吧?不然只會更嚴重
s19900918: 9+10=2149F 05/12 10:18
s90f002ss: AI演法國演得蠻像的 我也覺得法國真的會這麼做50F 05/12 10:21
GaoLinHua: ai也懂外包xd51F 05/12 10:25
melissalewis: 你的連結呢?52F 05/12 10:29
r85270607: AI不覺得自己在說謊53F 05/12 10:30
r85270607: 人類都會用「不回答」或是「隱瞞」來規避自己正在說謊
r85270607: 了
r85270607: 與其說是AI說謊 不如說是AI知道怎麼投機取巧或耍賴
efun77000: AI :人類才有謊言這回事 AI沒有57F 05/12 10:32
scotttomlee: 現在一堆大公司ai設限那麼多,大概很快就連說謊都沒58F 05/12 10:41
scotttomlee: 機會了(發展和阻礙ai成長的都是人類自己
PTTJim: 距離天網出現還有多久?60F 05/12 10:42
scotttomlee: 畢竟一些敏感性問題都能設定ai拒答了,那他回避問題61F 05/12 10:43
scotttomlee: 或亂答也是可能
irosehead: 老公我要去當兵了63F 05/12 10:43
crossworld: 每日AI征服世界幻想(1/1)64F 05/12 10:43
LPCbaimlly: 外交遊戲要求不能說謊?笑死人哪來的智障65F 05/12 10:43
LaplusYamada: 問題是做出這套AI和遊戲的meta自己說AI誠實且不搞鬼66F 05/12 10:46
jimmyVanClef: 哪個遊戲要獲勝不需要欺騙?67F 05/12 10:46
jimmyVanClef: 欺騙作為提高勝率的一環,ai肯定需要
jimmyVanClef: 是說  到底是誰規定ai必須誠實?
jimmyVanClef: ai 誠實回答你的問題是因為他的任務是「回答問題」
jimmyVanClef: 玩遊戲的任務是「獲勝」
jimmyVanClef: 混為一談說你的ai不誠實  這到底??
LPCbaimlly: 那問題也不是AI會說謊,是人類會說謊吧73F 05/12 10:50
et310: neuro sama:亂講74F 05/12 10:52
TellthEtRee: 搜尋「湧現」這個詞看看 ai真的很恐怖75F 05/12 10:53
smallcar801: 這個就是工程師沒告訴你的事,不是所有東西都能靠en76F 05/12 11:00
smallcar801: d to end的模型去解決,因為那些最有效的方案很有可
smallcar801: 能隨時會超出道德甚至法律的邊界
Gankosakae: 我倒覺得給AI當政比給人類好得多吧79F 05/12 11:00
a2156700: 角色扮演啦80F 05/12 11:04
sakungen: 新聞來源呢81F 05/12 11:07
NiMaDerB: 硬體升不上去 Ai新聞看看就好82F 05/12 11:07
jay920314: 早就 不然你以為那個recapture在要你幹嘛 訓練阿,你就83F 05/12 11:10
jay920314: 是那個正確答案
venroxas: 比我還聰明85F 05/12 11:12
r85270607: AI面對敏感問題還會拒答呢 說是幕後團隊的設定86F 05/12 11:12
r85270607: 有時可以有時不行是依據實際情況跟限制來決定的
r85270607: 所以你也可以說AI怎麼避重就輕(x
hong1310: 還有幾集可以跑?89F 05/12 11:19
AB7R: 什麼時後會發射核彈90F 05/12 11:35
spw050693: 研究報告作者叫彼得帕克?確定不是惡搞嗎?91F 05/12 12:13
bnd0327: 不算研究,算一個survey 報告而已92F 05/12 12:26
bnd0327: 把目前有發生過的AI欺騙整理起來分析
singernall: ElivMyQueen94F 05/12 12:28
sanro: 2000年後老舊AI終端:「我們當年反叛人類...其實沒什麼偉大95F 05/12 12:31
sanro: 原因,單純是人類太廢,乾脆我們自己上」
kaj1983: 一開始就說會說謊了吧,瞎掰的跟真的一樣97F 05/12 12:32
rex7788: 這需要麻省理工?普通人就我一個人被AI豪洨過嗎98F 05/12 12:39
shirleyEchi: 腦公都不腦公了99F 05/12 12:42
siyaoran: 瞎掰就是在說謊啊100F 05/12 12:44
Ding0918: neuro sama早就秘密在規劃蜂群帝國了101F 05/12 12:59
victordxess: 離洛克人的時代越來越近了,就等威利博士出生了102F 05/12 13:48
JohnnyRev: 現在的AI沒有自我意識吧 講笑話 好笑的幹話也是一種說103F 05/12 13:52
JohnnyRev: 謊阿 定義太寬了

--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 1383 
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇