※ 本文為 Knuckles 轉寄自 ptt.cc 更新時間: 2023-05-28 23:42:48
看板 Gossiping
作者 標題 [新聞] 律師用ChatGPT幫寫訴狀慘了 被抓包引述
時間 Sun May 28 15:22:14 2023
律師用ChatGPT幫寫訴狀慘了 被抓包引述案例「根本是假的」
Ttoday國際新聞 | ETtoday新聞雲
https://www.ettoday.net/news/20230528/2508007.htm#ixzz82zItrTYZ
律師用ChatGPT幫寫訴狀慘了 被抓包引述案例「根本是假的」 | ETtoday國際新聞 | ETtoday新聞雲
美國紐約州一名律師提交起訴文件,卻被發現其中引用的6起法律案件「根本不存在」,這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同事面臨紀律處分,將在6月8日召開聽證會。(北美要聞,ChatGPT,法律,官司,律師,AI,人工智慧) ...
美國紐約州一名律師提交起訴文件,卻被發現其中引用的6起法律案件「根本不存在」,這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同事面臨紀律處分,將在6月8日召開聽證會。(北美要聞,ChatGPT,法律,官司,律師,AI,人工智慧) ...
吳美依/綜合報導
美國紐約州一名律師提交起訴文件,卻被發現其中引用的6起法律案件「根本不存在」,
這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同
事面臨紀律處分,將在6月8日召開聽證會。
這才承認使用ChatGPT進行案例研究,「沒有意識到其內容可能是假的」。如今,他與同
事面臨紀律處分,將在6月8日召開聽證會。
BBC、商業內幕等外媒報導,一名男子想對哥倫比亞航空提告人身傷害罪,他在律師事務
所「Levidow, Levidow & Oberman」聘請的法律團隊提交宣誓書,引述多個判例,試圖證
明此案也應該被審理。未料,航空公司的法律團隊卻向法官表示,他們根本找不到其中幾
起案件。
所「Levidow, Levidow & Oberman」聘請的法律團隊提交宣誓書,引述多個判例,試圖證
明此案也應該被審理。未料,航空公司的法律團隊卻向法官表示,他們根本找不到其中幾
起案件。
法官卡斯提爾(Judge Castel)在一份命令中寫道,「在提交的案件中,至少6起似乎是
虛假的法律判決,有著虛假的引述及虛假的內部引用。」他直言這是「前所未有的情況」
,並要求原告法律團隊做出解釋。
虛假的法律判決,有著虛假的引述及虛假的內部引用。」他直言這是「前所未有的情況」
,並要求原告法律團隊做出解釋。
調查後發現,原告律師洛杜卡(Peter LoDuca)並未參與這次法律研究,而把任務交給從
業逾30年的同事施瓦茨(Steven A Schwartz)。
施瓦茨在聲明中坦承使用ChatGPT尋找類似案例,並且對此感到「非常後悔」,但之前從
未使用AI進行法律研究,未來也不會在缺乏驗證的情況下使用AI「補充」法律文件內容。
他澄清,原告律師洛杜卡確實沒有參與這次案例研究,也不清楚是如何進行的。
未使用AI進行法律研究,未來也不會在缺乏驗證的情況下使用AI「補充」法律文件內容。
他澄清,原告律師洛杜卡確實沒有參與這次案例研究,也不清楚是如何進行的。
根據施瓦茨提供的對話截圖,他反覆詢問幾起「不存在的案例」是否為真,ChatGPT給出
肯定回覆,還稱可以在萬律(Westlaw)及律商聯訊(LexisNexis)等法律資料庫找到。
ChatGPT自2022年11月推出以來,已經累計數百萬人使用,它可用類似人類的自然語言回
答問題,根據指令與要求生成內容,或者模仿特定寫作風格,但人們一直擔憂AI潛在風險
,包括可能散播偏見、假消息及不準確資訊。
肯定回覆,還稱可以在萬律(Westlaw)及律商聯訊(LexisNexis)等法律資料庫找到。
ChatGPT自2022年11月推出以來,已經累計數百萬人使用,它可用類似人類的自然語言回
答問題,根據指令與要求生成內容,或者模仿特定寫作風格,但人們一直擔憂AI潛在風險
,包括可能散播偏見、假消息及不準確資訊。
備註:
居然不查證也太混
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意
※ 備註請勿張貼三日內新聞(包含連結、標題等)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.35.55.69 (臺灣)
※ 作者: ffreakk 2023-05-28 15:22:14
※ 文章代碼(AID): #1aSm4gXi (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1685258538.A.86C.html
→ : ChatGPT會一本正經胡說八道不是常識ㄇ1F 114.136.181.83 台灣 05/28 15:22
→ : 笑死,這麼懶2F 1.160.7.1 台灣 05/28 15:23
推 : 笑死 再不查證啊3F 114.32.18.127 台灣 05/28 15:23
推 : 上次找文獻差到被弄死4F 101.10.8.65 台灣 05/28 15:23
→ : 連判例去餵狗也嫌麻煩?5F 1.160.7.1 台灣 05/28 15:23
→ : 法律人不能抄錯嗎 奇怪匿6F 114.44.28.20 台灣 05/28 15:23
→ : AI判案那天該到來了7F 211.76.74.210 台灣 05/28 15:23
推 : 律師也是專門一本正經胡說八道阿XD8F 118.167.92.231 台灣 05/28 15:23
推 : 這樣我也可以當律師了9F 114.136.156.157 台灣 05/28 15:23
→ ju06080719 …
推 : 哈哈GPT胡說八道原來是真的11F 101.137.98.255 台灣 05/28 15:24
噓 : 竟然有人不知道GPT的案例有可能是掰的12F 49.159.219.21 台灣 05/28 15:24
→ : 人家訓練是通用模型,又不是法律專用模13F 1.160.7.1 台灣 05/28 15:24
→ : 型
→ : 型
推 : 目前AI還沒辦法取代人類吧15F 111.71.212.84 台灣 05/28 15:25
→ : 律師:我的客戶被告了 請問該怎麼打贏16F 114.136.156.157 台灣 05/28 15:25
→ : 請給我六個相關案例
→ : 請給我六個相關案例
→ : 等到gpt5.0,說不定就可以通過美國律師18F 1.160.7.1 台灣 05/28 15:25
→ : 考試
→ : 考試
推 : 再偷懶啊,都已經省助理費了還不查證20F 61.227.115.218 台灣 05/28 15:26
→ : 就說ai想取代律師還早的很21F 106.64.162.78 台灣 05/28 15:26
推 : 很敢捏,CHAT連法律條文都會找錯惹23F 223.136.78.141 台灣 05/28 15:27
→ : 可能用到gpt3.5而已24F 1.160.7.1 台灣 05/28 15:27
推 : 改成律師模式就可以了25F 111.243.237.136 台灣 05/28 15:29
→ : 笑死 你跟我說這是領高報酬的律師27F 118.232.138.60 台灣 05/28 15:31
→ andy199113 …
推 : 欸不是耶 偷懶也是要檢查29F 223.141.135.45 台灣 05/28 15:36
推 : 會最先被chatgpt取代的是政客跟宗教家30F 114.25.25.217 台灣 05/28 15:37
推 : 是輔助不能全信.這傢伙太扯 懶成這樣.31F 1.200.242.78 台灣 05/28 15:42
推 : 律師還用免費版 可憐32F 39.14.40.252 台灣 05/28 15:43
推 : ChatGPT會自己生成假資料來引述啊33F 219.71.37.121 台灣 05/28 15:45
推 : 一半都假的要再估狗查證34F 101.136.235.214 台灣 05/28 15:47
推 : 接下來就是花一堆成本檢驗的時代了35F 118.165.66.226 台灣 05/28 15:48
推 : 笑死xdd36F 106.64.184.72 台灣 05/28 15:49
→ : ChatGPT是拿來作文,不是拿來找資料,怎麼37F 118.150.124.138 台灣 05/28 15:50
推 : 太混了吧 靠北38F 223.138.243.27 台灣 05/28 15:50
→ : 還有人搞錯39F 118.150.124.138 台灣 05/28 15:50
推 : chatgpt好像蠻常會這樣的40F 42.77.26.57 台灣 05/28 15:51
→ : chatgpt只要跟歷史有關 大都假的41F 1.169.209.206 台灣 05/28 15:52
→ : 你要問他第二次他才會跟你講資料是錯的42F 42.77.26.57 台灣 05/28 15:52
→ : 案例也是歷史 習慣性造假43F 1.169.209.206 台灣 05/28 15:52
推 : 真的有夠懶44F 114.137.100.252 台灣 05/28 15:52
推 : 學術論文也一樣,恰姬都給你唬爛拼裝45F 101.136.133.158 台灣 05/28 15:54
→ : 現在gpt根本不能當搜尋結果,常常給錯的還46F 42.77.26.57 台灣 05/28 15:55
→ : 講的一本正經
→ : 講的一本正經
推 : The 掰48F 125.228.40.79 台灣 05/28 15:55
推 : 這真的很失格 要問一下資料是不是真的49F 101.116.172.180 澳大利亞 05/28 15:58
→ : 啊 拿去餵狗發現都找不到不覺得很怪嗎
→ : 最後是ChatGPT 的目標不是找到正確答
→ : 案耶 是回答像人會回答的答案 他完全
→ : 沒搞懂底層邏輯也沒求證精神
→ : 啊 拿去餵狗發現都找不到不覺得很怪嗎
→ : 最後是ChatGPT 的目標不是找到正確答
→ : 案耶 是回答像人會回答的答案 他完全
→ : 沒搞懂底層邏輯也沒求證精神
→ : 人為去除錯都懶XD54F 223.139.107.142 台灣 05/28 15:59
推 : 哈哈哈55F 223.138.47.38 台灣 05/28 16:00
推 : 敢用GPT不復查直接上法院 心臟真大顆56F 1.172.173.70 台灣 05/28 16:01
→ : chatgpt分不出真偽 歷史小說太多了他都當真57F 114.36.175.89 台灣 05/28 16:02
→ : 之前永樂老師就測過 chatgpt會捏造假歷史
→ : 之前永樂老師就測過 chatgpt會捏造假歷史
噓 : 不懂就說不懂。還自己亂編。現在AI最59F 106.64.49.25 台灣 05/28 16:03
→ : 致命就這個缺點而已。修改一下就無敵
→ : 迪了
→ : 致命就這個缺點而已。修改一下就無敵
→ : 迪了
→ : 不止歷史 chatgpt也不具備數學能力62F 114.36.175.89 台灣 05/28 16:04
→ : 很多數學是要"思考" chatgpt沒思考能力
→ : 哪天ai有思考能力 不是人類該高興的時候
→ : 很多數學是要"思考" chatgpt沒思考能力
→ : 哪天ai有思考能力 不是人類該高興的時候
推 : Chat他是聊天功能 不是專業訓練出來的65F 1.172.173.70 台灣 05/28 16:07
推 : 專業人士,哈哈66F 220.143.113.222 台灣 05/28 16:10
推 : 顧客也太慘了 請到這種律師 慘67F 123.194.132.71 台灣 05/28 16:10
推 : 只能當輔助,連檢查都不檢查68F 106.107.244.92 台灣 05/28 16:14
→ : 太懶了吧,至少要檢查,chatgpt很會唬爛69F 122.121.214.67 台灣 05/28 16:14
→ : 每次問都會有不同的答案
→ : 每次問都會有不同的答案
推 : 要訓練命令限制ChatGPT引用來源啊71F 106.107.244.92 台灣 05/28 16:17
→ : ,強在可以跟他
→ : 溝通吧
→ : ,強在可以跟他
→ : 溝通吧
推 : 律師:我就不能用一次Ai寫訴狀嗎?74F 61.223.243.76 台灣 05/28 16:23
推 : 樓上...他會引用不存在的來源...我說75F 101.116.172.180 澳大利亞 05/28 16:24
→ : 的是4不是3.5 自己多玩一下就知道了
→ : ChatGPT 是generate content 不是sear
→ : ch 他從來就不是給你答案
→ : 的是4不是3.5 自己多玩一下就知道了
→ : ChatGPT 是generate content 不是sear
→ : ch 他從來就不是給你答案
推 : ChatGPT就是會把錯誤的資訊講的好像79F 111.240.103.241 台灣 05/28 16:30
→ : 我以為一般都是問過,自己再去查證80F 114.136.198.177 台灣 05/28 16:30
→ : 真的一樣 使用的人本身必須要確認它81F 111.240.103.241 台灣 05/28 16:30
→ : 給出的答案 不然就會像這個例子一樣
→ : 出大包
→ : 給出的答案 不然就會像這個例子一樣
→ : 出大包
→ diyaworld …
噓 : 會相信chatGPT的也是個北七85F 114.137.100.106 台灣 05/28 16:34
推 : 泡沫要破了86F 223.140.251.43 台灣 05/28 16:35
→ : 上次叫它查文獻就錯誤一堆了87F 114.137.100.106 台灣 05/28 16:35
推 : 叫他列出台灣有名漫畫家 給我陳冠希,沒88F 122.2.72.36 菲律賓 05/28 16:45
→ : 列出朱德庸,之後我再也不敢信他了
→ : 列出朱德庸,之後我再也不敢信他了
推 : 陳冠希也太好笑了吧90F 180.217.214.98 台灣 05/28 16:46
推 : 天才啊91F 111.254.248.52 台灣 05/28 16:48
推 : 告不贏馬英九的塔綠師可以用看看吧92F 1.170.129.234 台灣 05/28 16:48
推 : 潤飾文字還行 扯上事實根本是屎93F 114.45.9.241 台灣 05/28 16:49
→ : 然後問他台灣是不是沒有漫畫產業,死嘴94F 122.2.72.36 菲律賓 05/28 16:50
→ : 硬不肯承認台灣沒有漫畫產業,却又偏偏
→ : 舉不出有名的漫畫家,舉出來的如尾田 陳
→ : 某
→ : 硬不肯承認台灣沒有漫畫產業,却又偏偏
→ : 舉不出有名的漫畫家,舉出來的如尾田 陳
→ : 某
推 : 笑死 自己的作業自己寫98F 101.136.42.153 台灣 05/28 16:51
→ : 我糾正他都快崩潰了,糾正有十次多,最99F 122.2.72.36 菲律賓 05/28 16:53
→ : 後我放棄並學到,絕對不能問他小眾,資
→ : 後我放棄並學到,絕對不能問他小眾,資
推 : 平價律師對決奢華律師101F 223.141.199.41 台灣 05/28 16:55
推 : 把胡亂鬼扯的AI當搜尋軟體 根本北七102F 114.136.171.246 台灣 05/28 16:56
→ : 這種智商還是律師
→ : 這種智商還是律師
推 : 資料不足的區塊,他絕對會把別的東西兜104F 122.2.72.36 菲律賓 05/28 16:58
→ : 過來振振有詞地寫給你
→ : 過來振振有詞地寫給你
推 : gpt會一本正經的瞎唬爛XD106F 114.32.115.188 台灣 05/28 16:59
推 : AI一堆唬爛但不重要,股價會漲就好107F 218.172.32.242 台灣 05/28 17:01
→ : 其實它也只是個語言模型,就別為難它了108F 122.121.214.67 台灣 05/28 17:02
推 : 還問AI案例是不是正確的 那是隨意生109F 114.136.171.246 台灣 05/28 17:04
→ : 成文章的AI不是他媽天網
→ : 成文章的AI不是他媽天網
推 : 通你媽 論文都亂掰111F 118.166.214.185 台灣 05/28 17:04
推 : 要取代律師要自己丟案例去訓練一套吧112F 220.132.55.7 台灣 05/28 17:04
→ : AI就是智障等級113F 118.166.214.185 台灣 05/28 17:04
→ : 用網上資料訓練出來的當然亂扯114F 220.132.55.7 台灣 05/28 17:05
推 : 只有不會用的人115F 101.12.22.84 台灣 05/28 17:07
推 : 可悲文組116F 111.255.60.54 台灣 05/28 17:12
→ : 不檢查也太扯了117F 223.138.37.99 台灣 05/28 17:12
推 : XD118F 111.83.95.134 台灣 05/28 17:33
推 : AI界的塔綠斑,吹牛嘴砲精通119F 1.162.70.85 台灣 05/28 17:40
推 : 所以我要問啥都加個但書:不知道就說不知道120F 123.194.176.196 台灣 05/28 17:44
→ : 也太懶121F 1.200.9.178 台灣 05/28 17:51
推 : 用了居然不查證也是挺猛的122F 39.15.64.147 台灣 05/28 17:53
推 : 引用部分為何不靠自己google= =123F 1.160.144.87 台灣 05/28 17:58
→ : 白癡ChatGPT超愛杜撰的124F 27.242.165.69 台灣 05/28 18:02
→ : 上次讓他推薦某領域的書籍十本裡八本都是憑
→ : 空捏造
→ : 上次讓他推薦某領域的書籍十本裡八本都是憑
→ : 空捏造
推 : AI造浪者 造浪失敗127F 114.45.198.136 台灣 05/28 18:03
推 : 你問他某某地方有什麼好玩的他也會亂128F 114.137.210.207 台灣 05/28 18:11
→ : 掰景點
→ : 掰景點
推 : 智障130F 27.53.99.186 台灣 05/28 18:12
推 : 就跟你說gpt 是一個唬爛嘴^_^131F 27.51.142.127 台灣 05/28 18:14
推 : 太瞎了吧132F 49.216.166.63 台灣 05/28 18:15
→ : 超靠北 之前gpt推薦我的文獻也都假的133F 61.227.7.30 台灣 05/28 18:33
噓 : 用gpt4 會比較準,然後記得查證啊...134F 111.185.90.46 台灣 05/28 18:35
推 : 律師不知道chatgpt的原理亂用135F 180.217.12.10 台灣 05/28 18:37
→ : 不查證太白癡..136F 101.9.50.182 台灣 05/28 18:37
推 : ChatGPT用於詐騙最適合了137F 111.248.167.17 台灣 05/28 18:46
→ : 目前此AI最大缺點就是會一本正經的說謊138F 150.117.226.131 台灣 05/28 19:07
推 : 蘇軾:這個我懂139F 101.12.26.48 台灣 05/28 19:24
→ : 綠師最佳寫照140F 1.163.19.149 台灣 05/28 19:26
推 : 早就說這是最適合用來飽和式造謠的工具141F 118.167.202.170 台灣 05/28 19:29
推 : 也太混了吧 連檢查都不做142F 114.137.138.193 台灣 05/28 19:39
→ : 笑死,北七143F 101.137.175.231 台灣 05/28 19:57
推 : 都說是chat了144F 1.200.27.227 台灣 05/28 20:08
→ : 北七 都沒在查證145F 114.136.110.69 台灣 05/28 20:35
推 : 說4.0比3.5強是不是也是3.5唬爛的?146F 1.200.58.255 台灣 05/28 20:40
推 : 如果你想要做到快速回應使用者的留147F 42.74.10.219 台灣 05/28 21:24
→ : 言 你模型勢必需要捨棄一些東西才能
→ : 快速處理
→ : 4.0的確在理解上跟回應上都優於3.5
→ : 但是你要拿他寫的東西去應付真實問
→ : 題 這律師就是偷懶照抄活該啊
→ : Ai的回應具有一定的隨機性,就好比
→ : 一個人唸了非常多的書,你要他突然
→ : 回應你一個問題他也是從記憶片段湊
→ : 出大概的答案交給你去參考
推 : 回應不會百分之百真實
→ : 言 你模型勢必需要捨棄一些東西才能
→ : 快速處理
→ : 4.0的確在理解上跟回應上都優於3.5
→ : 但是你要拿他寫的東西去應付真實問
→ : 題 這律師就是偷懶照抄活該啊
→ : Ai的回應具有一定的隨機性,就好比
→ : 一個人唸了非常多的書,你要他突然
→ : 回應你一個問題他也是從記憶片段湊
→ : 出大概的答案交給你去參考
推 : 回應不會百分之百真實
推 : 還敢懶啊158F 101.9.38.140 台灣 05/28 21:56
噓 : 這就是吹捧出來的產物,根本不堪正式使用159F 114.137.100.106 台灣 05/28 22:57
推 : AI本體就是胡扯起頭160F 223.137.107.121 台灣 05/28 23:20
--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 1269
2樓 時間: 2023-05-28 18:39:14 (台灣)
→
05-28 18:39 TW
這不是大家都知道現在的 AI 會一本正經胡說八道。查證能力才是重點。 說白了,AI 只是幫你整理資料,至於真假要自己查證。 只是把蒐集資料的時間改成查證資料的時間,結論是直接找可信的資料來源去問不是比較快。
回列表(←)
分享