※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2022-06-11 09:24:17
看板 Gossiping
作者 標題 [新聞] AI藏種族歧視因子 清大跨國團隊揭醫學倫
時間 Fri Jun 10 22:26:12 2022
備註請放最後面 違者新聞文章刪除
1.媒體來源:
※ 例如蘋果日報、自由時報(請參考版規下方的核准媒體名單)
※ Yahoo、MSN、LINE等非直接官方新聞連結不被允許
中央社
2.記者署名:
※ 若新聞沒有記者名字或編輯名字,請勿張貼,否則會被水桶14天
※ 外電至少要有來源或編輯 如:法新社
郭宣彣
3.完整新聞標題:
※ 標題沒有完整寫出來 ---> 依照板規刪除文章
AI藏種族歧視因子 清大跨國團隊揭醫學倫理隱憂
4.完整新聞內文:
※ 社論特稿都不能貼!違者刪除(政治類水桶3個月),貼廣告也會被刪除喔!可詳看版規
https://imgur.com/HMAndDX
清大資工系助理教授郭柏志(左)與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學
等學校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發
現人工智慧有「歧視」問題,相關研究成果登上國際頂尖期刊「刺胳針數位健康」(
等學校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發
現人工智慧有「歧視」問題,相關研究成果登上國際頂尖期刊「刺胳針數位健康」(
Lancet Digital Health)。(清華大學提供)中央社記者郭宣彣傳真 111年6月9日
清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光
片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧
視。
片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧
視。
清華大學今天發布新聞稿指出,郭柏志與麻省理工學院、哈佛大學、史丹佛大學、多倫多
大學等校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,
發現人工智慧有「歧視」的問題。此研究成果日前登上國際頂尖期刊「刺胳針數位健康」
(The Lancet Digital Health),吸引外媒報導。
大學等校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,
發現人工智慧有「歧視」的問題。此研究成果日前登上國際頂尖期刊「刺胳針數位健康」
(The Lancet Digital Health),吸引外媒報導。
郭柏志指出,透過AI人工智慧協助診療發現,白人的醫學影像有問題卻沒被檢查出來的誤
判率是17%,黑人的誤判率卻達28%。醫學影像的誤判,會影響急診、醫療給付等資源分配
。
判率是17%,黑人的誤判率卻達28%。醫學影像的誤判,會影響急診、醫療給付等資源分配
。
郭柏志說,醫界近年大量引進人工智慧,透過智慧診療及醫學影像識別技術等有助於醫生
更準確診斷,原是造福病患的好事,但這項研究揭露隱憂,提醒應注意醫療倫理,避免人
工智慧產生的醫療不平等現象。
更準確診斷,原是造福病患的好事,但這項研究揭露隱憂,提醒應注意醫療倫理,避免人
工智慧產生的醫療不平等現象。
郭柏志表示,未來要如何去除歧視,讓各族群醫學影像判讀都有一致的準確率,為下一階
段努力的目標。
5.完整新聞連結 (或短網址)需放媒體原始連結,不可用轉載媒體連結:
※ 當新聞連結過長時,需提供短網址方便網友點擊
https://www.cna.com.tw/news/ahel/202206090331.aspx
AI藏種族歧視因子 清大跨國團隊揭醫學倫理隱憂 | 科技 | 中央社 CNA
清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧視。 ...
清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧視。 ...
6.備註:
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請注意
※ 備註請勿張貼三日內新聞(包含連結、標題等)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.48.145 (臺灣)
※ 文章代碼(AID): #1YerI7NN (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1654871175.A.5D7.html
→ : XDDDDDDDDDDDDDDDDDDDD1F 49.158.78.174 台灣 06/10 22:26
→ : 黑人的誤判率卻達28%2F 223.138.98.215 台灣 06/10 22:26
推 : 人工智慧也會種族歧視?3F 223.138.212.225 台灣 06/10 22:26
→ : 幻想AI能讓世界和平的可以醒醒了4F 114.44.29.28 台灣 06/10 22:26
→ : ai就是人類意志的延申
→ : ai就是人類意志的延申
噓 : 那麼黑怎麼讀 靠北喔 不要為難機器6F 49.216.41.176 台灣 06/10 22:27
→ : 黑人==猩猩 AI說的不是我7F 123.240.217.177 台灣 06/10 22:27
推 : 怎麼訓練到AI會出現歧視啊?8F 118.167.193.213 台灣 06/10 22:27
→ : 不過應該是體質也有種族差異ㄅ9F 223.138.212.225 台灣 06/10 22:27
推 : 網路充滿歧視 AI學會精髓10F 39.11.134.29 台灣 06/10 22:27
推 : AI真的屌,學到人類最精華的部分,11F 42.73.170.151 台灣 06/10 22:28
→ : 而非表面上的假掰政治正確
→ : 而非表面上的假掰政治正確
推 : 尼哥不意外13F 106.1.226.63 台灣 06/10 22:28
推 : 白癡,那麼歧視就是真理14F 36.230.107.247 台灣 06/10 22:28
噓 : 阿就很黑很難分辨陰影啊 你們人類真的毛15F 64.129.1.44 美國 06/10 22:29
→ : 很多
→ : 很多
→ : 感覺只是不準而已17F 223.136.97.82 台灣 06/10 22:29
推 : 可能黑人身體結構某些地方和白人不同?18F 114.27.198.114 台灣 06/10 22:29
推 : 人發明就有歧視19F 111.250.194.184 台灣 06/10 22:30
→ : 很明顯 這是你訓練資料中 黑人病例太少20F 123.194.136.130 台灣 06/10 22:31
→ : ....丟給阿狗再訓練個幾兆次會怎樣??21F 36.224.152.15 台灣 06/10 22:32
推 : 阿不就數據不足22F 112.78.68.252 台灣 06/10 22:32
→ : 這AI是看斷層掃描訓練跟網路有什麼關係23F 36.227.191.231 台灣 06/10 22:33
→ : 喂的資料修正一下啊,嘻嘻24F 125.231.117.157 台灣 06/10 22:33
推 : 這也太歧視了25F 1.161.3.47 台灣 06/10 22:33
推 : AI:甲甲容易中ADSL SJW:這是7426F 111.250.48.76 台灣 06/10 22:34
推 : 黃種人AI連看都不看27F 111.241.185.249 台灣 06/10 22:39
→ : 把人類科技瓶頸怪給AI歧視 我也是笑了XD28F 111.246.215.32 台灣 06/10 22:39
→ : 科學研究者們的高級迷信和自大 沒話說
→ : 科學研究者們的高級迷信和自大 沒話說
推 : 就黑人誤診多,AI也是被training data帶30F 1.163.83.49 台灣 06/10 22:41
→ : 就算AI診不出來 也比人類醫生準確率高啊31F 111.246.215.32 台灣 06/10 22:41
推 : 難道是因為黑人的許多身體組織對於x光這32F 101.137.151.50 台灣 06/10 22:42
→ : 個波段的吸收率有比較高嗎?
→ : 難道說會有人特地寫一個ai先分辨黑人,然
→ : 後就在數據裡頭增加亂數影響正確率嗎?那
→ : 是怎麼先分辨黑人的?
→ : 個波段的吸收率有比較高嗎?
→ : 難道說會有人特地寫一個ai先分辨黑人,然
→ : 後就在數據裡頭增加亂數影響正確率嗎?那
→ : 是怎麼先分辨黑人的?
→ : 機器一定先掃黑啊37F 49.216.41.176 台灣 06/10 22:44
推 : 厲害38F 101.12.18.111 台灣 06/10 22:45
噓 : 黑人沒錢看醫生沒data當然不準39F 114.43.73.197 台灣 06/10 22:45
→ : 資料的問題40F 114.34.36.252 台灣 06/10 22:46
→ : 是 raw data 有問題還是?41F 114.34.98.173 台灣 06/10 22:46
→ : 不是AI歧視 是AI判讀造成資源分配歧視42F 123.194.136.130 台灣 06/10 22:48
噓 : 誤判而言 怎麼叫歧視?43F 219.70.199.110 台灣 06/10 22:48
推 : 是喂的資料有問題嗎 x光片和膚色沒關係啊46F 1.170.36.85 台灣 06/10 22:49
推 : 結果黃猴子連數據都沒有(x48F 101.10.14.164 台灣 06/10 22:51
→ : 怪AI囉?49F 114.26.187.62 台灣 06/10 22:54
推 : 阿不就資料集是白人病例多而已,講這麼聳50F 220.137.131.194 台灣 06/10 23:22
→ : 動幹嘛
→ : 動幹嘛
推 : 可能黑人iso拉太高噪點影響判讀52F 223.137.241.128 台灣 06/10 23:23
推 : 是看不清楚吧 大猩猩也無法分辨歐尼53F 101.12.45.170 台灣 06/10 23:24
→ : 爾跟牠們的差別
→ : 爾跟牠們的差別
推 : 可提告?55F 1.200.186.250 台灣 06/10 23:30
→ : 哇靠 AI不知道主流是黑人跟LGBT嗎56F 27.53.48.48 台灣 06/10 23:32
噓 : 根本亂寫 這不叫歧視57F 98.229.57.77 美國 06/10 23:43
噓 : 什麼東西都扯到歧視 在那叫什麼58F 39.8.5.74 台灣 06/10 23:49
推 : 這真的有智慧了59F 114.136.134.55 台灣 06/11 00:12
→ : 怎麼感覺像是黑人比較難判定啊60F 114.137.129.64 台灣 06/11 00:21
噓 : 因為資料集就幾乎都是白人的不是ai歧61F 36.229.134.138 台灣 06/11 00:48
→ : 視 是資料本身就帶偏見了好嗎
→ : 視 是資料本身就帶偏見了好嗎
推 : garbage in garbage out63F 125.224.212.109 台灣 06/11 00:54
→ : 資料本身就是偏見結果+164F 27.52.129.177 台灣 06/11 03:30
→ : 記者亂寫吧?很難相信資工系教授提出ai會65F 36.234.4.190 台灣 06/11 04:14
→ : 種族歧視這種不專業的內容。
→ : 種族歧視這種不專業的內容。
推 : 是人類本身的歧視才造成工具的歧視 因果要67F 140.114.226.125 台灣 06/11 05:04
→ : 搞清楚欸
→ : 搞清楚欸
推 : 黃猴子的誤判率是多少?怎麼沒寫?69F 223.137.106.10 台灣 06/11 05:52
→ : 學術界也在搞這種左膠破政治正確 可憐70F 115.43.146.10 台灣 06/11 09:14
--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 141
作者 ccugoo 的最新發文:
- 12F 7推
- 學校邀請穀豐宮神農大帝參加運動會,並第一位進場。(圖/民視新聞) 嘉義中正大學舉辦35周年校慶運動會,第一位進場的校方的榮譽博士,不過他是一尊穀豐宮神農大帝神像,因為廟方在35年前捐地,讓中正大學順 …47F 25推 4噓
- 胡歌二度代表《繁花》上台領獎。(圖/澤東提供) 胡歌代表《繁花》劇組出席釜山國際電影節2024亞洲內容大獎和全球流媒體大獎,二度上台抱回最佳劇集獎、最佳男主角獎。接受媒體採訪時,被問到釜山紅毯上能否 …3F 1噓
點此顯示更多發文記錄
回列表(←)
分享