※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2019-09-30 10:13:53
看板 Gossiping
作者 標題 Re: [問卦] Google翻譯是不是進步的有點太快了
時間 Sun Sep 29 23:40:41 2019
※ 引述《IMCENTER (Grom)》之銘言:
: 如題阿
: 我記得幾年前用Google翻譯段落式文章
: 通常都翻的有點顛三倒四
: 但這一兩年翻段落式的(大概三到四句)都可以說的上還算通順可理解
: Google翻譯是不是進步的有點太快了?
:
AI做NLP有兩種
一個是BERT之前的作法
一個是BERT誕生後的作法
基本上現在你看到NLP做比較成熟的應用
他的pretrained model
都是拿BERT或後續衍生模型再接幾層layer的
所以說現在做AI真的很幸福
一個頂級商業化應用的模型都可以直接開源給你用
根本不用一層層搭seq2seq 或attention model了
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.83.155.239 (臺灣)
※ 文章代碼(AID): #1TaD1xJ8 (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1569771643.A.4C8.html
推 : 嗯嗯 說的沒錯1F 114.24.21.227 台灣 09/29 23:41
推 : 嗯嗯 我也這樣覺得2F 220.135.61.84 台灣 09/29 23:42
推 : 跟我想的差不多3F 180.217.153.171 台灣 09/29 23:42
推 : 呃 我剛正要發文解釋4F 123.192.0.245 台灣 09/29 23:43
推 : 嗯嗯不錯5F 118.150.173.231 台灣 09/29 23:44
推 : 同意你的說法6F 124.155.187.37 台灣 09/29 23:46
推 : 我agree你的says7F 223.137.135.44 台灣 09/29 23:47
推 : 的確8F 180.218.219.230 台灣 09/29 23:47
→ : 我們英雄所見略同9F 101.14.166.216 台灣 09/29 23:47
推 : AI這個領域非常開源,不過美國專利局也正10F 140.112.53.213 台灣 09/29 23:48
→ : 提出12個有關AI發明專利的問題
→ : 提出12個有關AI發明專利的問題
推 : 我也這麼think的12F 122.117.149.117 台灣 09/29 23:50
→ : 蛤?13F 180.177.142.62 台灣 09/29 23:51
推 : 我白天student 晚上在American gay cl14F 39.12.102.186 台灣 09/29 23:52
→ : ub上班
→ : ub上班
推 : 跟我疊出來的87%TRUE16F 140.117.196.55 台灣 09/29 23:52
推 : 嗯嗯 我也是這樣想17F 123.195.56.92 台灣 09/29 23:53
推 : 原本想回文,被你說走了18F 111.254.90.69 台灣 09/29 23:54
推 : 這些都是很基本的觀念19F 110.28.193.134 台灣 09/29 23:57
真的看來板上做DL的真的沒想像中多
→ : 差得遠了好嗎20F 219.68.109.52 台灣 09/29 23:58
→ : 還不是靠芝麻街21F 114.44.219.124 台灣 09/29 23:59
推 : 原本想自己回的 但你回得也還行22F 42.75.163.124 台灣 09/30 00:01
推 : 你這篇算基本,我還有12種說法。23F 101.137.89.139 台灣 09/30 00:02
噓 : 不要說那麼深奧的東西好嗎24F 124.82.49.216 馬來西亞 09/30 00:04
推 : 照你說法 所有公司都用AutoML就好啦 聘那25F 115.82.3.20 台灣 09/30 00:05
→ : 些data scientist幹麻
autoML不會幫你依據產品需求搭FC層呀→ : 些data scientist幹麻
微調到精準這種事就是要靠人
推 : 我跟你的想法有點different 但大致agree27F 118.167.155.143 台灣 09/30 00:11
推 : 嗯嗯 說的沒錯28F 39.13.131.70 台灣 09/30 00:12
推 : 用GPT2爆train一波29F 140.112.250.168 台灣 09/30 00:13
真的,BERT發明後一整個進入城堡時代的節奏→ : 你太偏差了30F 49.216.10.26 台灣 09/30 00:13
噓 : 公鯊31F 85.133.27.17 英國 09/30 00:21
推 : 基本上說得都對。32F 111.251.164.125 台灣 09/30 00:23
推 : 跟我想的差不多 但你講的比較容易理解33F 49.216.6.132 台灣 09/30 00:26
推 : 對,我也是這麼想的34F 42.73.89.24 台灣 09/30 00:28
推 : 開源也是能進步那麼快的原因35F 220.134.203.210 台灣 09/30 00:34
推 : 嗯嗯 就照你想法進行36F 223.137.189.118 台灣 09/30 00:37
推 : 我原本也想講這些37F 111.249.37.42 台灣 09/30 00:37
推 : 一群低能兒在嗆英文38F 1.174.53.201 台灣 09/30 00:41
→ : 專業領域本來就講英文居多
→ : 還一堆可悲仔在那邊中英夾雜沾沾自喜
哈哈哈我是也沒很在意啦→ : 專業領域本來就講英文居多
→ : 還一堆可悲仔在那邊中英夾雜沾沾自喜
但我還是整理了一個全中文版如下
————————————————
人工智能做自然語意處理有兩種
一個是博特之前的作法
一個是博特誕生後的作法
基本上現在你看到自然語意處理做比較成熟的應用
他的預先訓練好的原模型
都是拿博特或後續衍生模型再接幾層神經網路層的
所以說現在做人工智慧真的很幸福
一個頂級商業化應用的模型都可以直接開源給你用
根本不用一層層搭「序列到序列模型」或「注意力機制模型」(例如變形金剛)了
————————————————
推 : 沒錯41F 42.73.176.82 台灣 09/30 01:07
噓 : 原來如此,長知識給推42F 106.105.92.183 台灣 09/30 01:08
※ 編輯: ruokcnn (111.83.155.239 臺灣), 09/30/2019 01:19:19噓 : 跟我想得差不多43F 123.193.208.48 台灣 09/30 01:16
推 : 一堆假會的是XDDD44F 123.194.12.28 台灣 09/30 01:20
推 : 一堆假會的是XDDD45F 36.225.139.148 台灣 09/30 01:47
推 : 根本不懂再說什麼 哈哈46F 49.216.40.65 台灣 09/30 01:57
推 : 笑死 還翻譯XDDDD47F 27.242.192.224 台灣 09/30 01:59
→ : 竟然有人在嗆英文....,翻譯中文反而一堆人48F 111.241.8.33 台灣 09/30 02:00
→ : 看不懂吧
→ : 看不懂吧
推 : 嗯我也覺得根本不用一層層搭seq2seq50F 114.136.233.98 台灣 09/30 02:00
→ : 或attention model了
→ : 或attention model了
推 : 推52F 118.167.53.210 台灣 09/30 02:01
推 : 翻成中文有比較好懂嗎xD53F 111.71.111.54 台灣 09/30 02:01
推 : 上面誰在嗆英文了 = =??54F 61.227.15.10 台灣 09/30 02:03
→ : 資工好像真的很長中英夾雜55F 140.113.229.138 台灣 09/30 02:45
噓 : 中國用語掰56F 223.136.76.75 台灣 09/30 05:58
推 : 說中文的話保證沒人聽得懂你在做什麼研究57F 82.21.162.27 英國 09/30 06:22
噓 : 感謝精彩解說58F 114.25.129.3 台灣 09/30 07:54
推 : 推,就是這樣59F 111.250.164.143 台灣 09/30 08:05
推 : 翻成中文反而看不懂,哈哈哈60F 111.250.192.107 台灣 09/30 09:33
--
※ 看板: Gossiping 文章推薦值: 0 目前人氣: 0 累積人氣: 377
回列表(←)
分享