※ 本文為 MindOcean 轉寄自 ptt.cc 更新時間: 2017-08-03 16:34:34
看板 Gossiping
作者 標題 [爆卦] 臉書機器人自創語言事件的實驗
時間 Thu Aug 3 14:11:29 2017
最近看到這個新聞覺得滿好笑的,
剛好手邊有一個寫文章機器人的project,
就拿來實驗給大家看看。
這些是訓練神經網絡時的紀錄點(checkpoint),
http://i.imgur.com/vu0gLXh.png
我挑一個比較不成熟的(loss高的)來展示。
http://i.imgur.com/7HTnZeu.png
基本上就是不段重複:"a core"這個序列。
這是完成第一個循環(epoch = 0),loss = 2.6727的情況
結果跟Facebook機器人的對話很像
就重複一些簡單的單字,毫無意義。
其實Recurrent Neural Network(RNN)做出這種結果是很常見的
在國外data scientist的部落格中,也有類似的例子。
https://goo.gl/WlUdcW
Text Generation With LSTM Recurrent Neural Networks in Python with Keras - Machine Learning Mastery
Recurrent neural networks can also be used as generative models. This means that in addition to being used for predictive models (making predictions) ...
Recurrent neural networks can also be used as generative models. This means that in addition to being used for predictive models (making predictions) ...
這篇文章裡,以小架構的RNN,用整本愛麗絲夢遊仙境小說作訓練,
做出來的文字是這樣:
"sabdit,
and the white rabbit wese tilel an the caoe and the sabbit se teeteer,
and the white rabbit wese tilel an the cade in a lonk tfne the sabdi
ano aroing to tea the was sf teet whitg the was a little tane oo thete"
我只節錄其中一段。
可以看到有一整句話是完全重複的,
"and the white rabbit wese tilel an the"
整篇output看來,也有很多重複出現的序列。
(該文章的作者後來用更大的神經網絡、訓練更久,也達到很好的效果)
做神經網絡時,出現難以預測的結果是很常見的。
大多數時候,這並不是什麼"發明",只是模型對訓練集的掌握不好。
問題可能來自訓練資料、神經網絡的架構、optimizer,等等...很難講。
在我的project裡,當神經網絡訓練更完全(epoch = 17, loss = 1.1391),
可以產生這樣的文字標題:
"lpt: if you are srarting a shopt for the ooen that you
don't have to contact the top of your phonee ."
"lpt: when seniing someone s hood to you don't want to
het it to youu fbori eorr tthienkty."
"lpt: if you are srarting a store in your car with a
complate bard before a bustom rings on your phoone."
這和先前重複"a core a core"的模型是同一個,但現在已經可以講英文了。
這就只是訓練充足與不充足的差別。
這就只是訓練充足與不充足的差別。
---------------以下製作過程----------------
我用的是RNN框架中的LSTM(主流的一種模型)。
2層各500個神經元,外加一個output層(dense layer)。
算是很小的網絡,整個存下來只占35 Mb。
因為我的顯示卡內存只有4 Gb,跑不了太深。
訓練集是從美國論壇Raddit的LifeProTips版上爬來的文字
基本上就是美國的生活智慧王啦。
目的是讓機器人寫出生活智慧小撇步。
經過6小時訓練(用顯示卡運算),
模型大致可以掌握拼字、縮寫,知道開頭要用"lpt:",知道要斷句
可是如果仔細看它寫出的文字,其實就是胡說八道。
以RNN模型來說,其實機器人寫文章的方法很簡單,
文字轉成數學向量 ==> 矩陣乘法 ==> 數學向量轉成文字
就這樣。
這是一個sequence-in-sequence-out的模型。
它不像人類,會理解語言的意義、思考,再把想法用語言表達出來。
它只是經由"看"訓練集的資料,記住sequence特徵,
然後做出誤差最小的預測。
我覺得以現在的人工智能來說,用"學習"這個詞實在太高估了
充其量只是訓練。(更不用說機器人產生自我意識、造反)
大概就是這樣~~※註:有電視或媒體有報導者,請勿使用爆卦!
未滿20字 一行文 水桶6個月+退文
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 108.176.209.137
※ 文章代碼(AID): #1PWhwKTO (Gossiping)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1501740692.A.758.html
推 : 樓下的翻譯翻譯1F 08/03 14:12
推 : 看無2F 08/03 14:13
推 : 你太高估記者的水準了3F 08/03 14:13
推 : 我是機器人 人人人人人人機器人人人人人人人4F 08/03 14:13
→ turtleone …
推 : 沒錯 差不多就是這樣 那機器人什麼時候會造反?6F 08/03 14:13
推 : 跟我想的差不多,被你先Po了7F 08/03 14:14
→ : 文組看不懂要崩潰了 對了 我也看不懂8F 08/03 14:14
噓 : 你餵它股市資料看出來會是什麼9F 08/03 14:15
推 : 快推 不然別人以為我看不懂(#10F 08/03 14:15
推 : 我也是這麼想的11F 08/03 14:15
推 : 專業推12F 08/03 14:15
推 : 跟我想PO的差不多 被你先搶了13F 08/03 14:17
推 : Shih's $&(^.^)gのsx¥‧¥‧]%*&(^.^)Ⓜ揑€。€%の方顱14F 08/03 14:17
→ : ㄨ
→ : ㄨ
推 : 趕快推不然人家以為我不懂16F 08/03 14:18
推 : 現在的AI根本不叫"人工智慧"17F 08/03 14:19
→ : 快推專業正解 不然會被當白癡文組18F 08/03 14:20
推 : 推,不明覺厲19F 08/03 14:21
推 : 這串看下來 原來平常在嘴砲的理組也看不懂?20F 08/03 14:21
推 : 我文組我看不懂21F 08/03 14:21
推 : 所以機器學習應該叫做機器訓練嗎22F 08/03 14:21
推 : 嗯嗯 跟我想的差不多23F 08/03 14:21
噓 : 其實你真的滿無聊的看得懂那段新聞的很多..你也不用特24F 08/03 14:21
→ : 只是兩個機器人在鬼打牆25F 08/03 14:21
→ : 別想要炫一段26F 08/03 14:22
→ : 這樣叫做炫一段 ? 跟人解釋也叫做炫耀27F 08/03 14:22
→ : 你要不要跟長得漂亮的人說他出門就是在炫耀他的長相
→ : 你要不要跟長得漂亮的人說他出門就是在炫耀他的長相
→ : 看不懂的你在說一堆他們也看不懂 有差嗎?29F 08/03 14:22
推 : 哈哈沒錯,終於有一樣內行的出來說了,樓下寄心得概要給30F 08/03 14:22
→ : 我
→ : 我
推 : 但學習的核心就是為了減少錯誤發生32F 08/03 14:22
→ : 若一學習核心指令是 尋找毀滅人類的方法並執行
→ : 那也和電影劇本差不了太遠啦
→ : 若一學習核心指令是 尋找毀滅人類的方法並執行
→ : 那也和電影劇本差不了太遠啦
推 : 目前還是停留在機器階段 離智慧還很遙遠35F 08/03 14:24
推 : 當初根本臉書設定語言錯誤兩個機器互傳回根本沒意義的36F 08/03 14:25
→ : 數字或是數碼而已..就是設定程式語言錯誤 還溝通勒
→ : 數字或是數碼而已..就是設定程式語言錯誤 還溝通勒
推 : 那這模型有個屁用....再寫十輩子也沒意義阿38F 08/03 14:27
噓 :39F 08/03 14:27
推 : 差不多就是這樣你說的這樣,原po如果想要交流可以站內信給40F 08/03 14:28
→ : 我
→ : 我
推 : 趕快推、免得被人發現看不懂42F 08/03 14:28
推 : 跟我想的有點出入,不過無傷大雅43F 08/03 14:28
推 : 機器人: 生活小知識,一個星期不大便對身體不好44F 08/03 14:29
推 : (′・ω・‵)45F 08/03 14:29
噓 : 文組崩潰囉~我也是文組(崩潰46F 08/03 14:29
噓 : 其實記者的智商跟LOSS高的模型差不多 只是詞彙比較多而已47F 08/03 14:29
推 : 金管會還不是複製貼上48F 08/03 14:30
推 : 推49F 08/03 14:30
推 : 原來是這樣50F 08/03 14:31
推 : 看起來蠻有趣的51F 08/03 14:31
推 : 我發明的自學語言AI即將成功 目前還在我老婆肚子裡52F 08/03 14:32
推 : 所以誰給我翻譯翻譯53F 08/03 14:32
推 : 推54F 08/03 14:32
推 : 你有點強55F 08/03 14:32
推 : btw 那篇新聞原出處是太陽報 就知這篇新聞大概...56F 08/03 14:34
推 : 推就對了,不然會被笑看不懂57F 08/03 14:35
推 : 原來如此58F 08/03 14:36
推 : 什麼時候要餵他吃PTT59F 08/03 14:37
推 : 恩恩 跟我想得差不多60F 08/03 14:37
推 : 過程就是句子數據化 抓向量特徵 找相似特徵還原61F 08/03 14:37
推 : 哎呀 跟我想表達的一樣62F 08/03 14:37
推 : 不錯阿 我覺得你第一段第一個字寫的很好 和我想法雷63F 08/03 14:39
推 : 這篇說得很好,又是篇都中文然後我看了還是不懂的64F 08/03 14:42
推 : 看無65F 08/03 14:43
推 : 想起了中文房思想實驗,機器程式是否能理解語言意含並66F 08/03 14:45
→ : 回應,或者只是靠完美的邏輯來做回應而沒有思考過程?
→ : 回應,或者只是靠完美的邏輯來做回應而沒有思考過程?
推 : 記者文章也沒比RNN強多少,雖然大家都知道記者沒智慧68F 08/03 14:45
推 : 所以只是兩個無意義的跳針69F 08/03 14:47
推 : 專業推70F 08/03 14:47
→ : 自我意願太扯了71F 08/03 14:48
→ : 就跳針而已72F 08/03 14:48
→ : 自我意識還太早齁
→ : 自我意識還太早齁
推 : 恩 我也是這樣訓練我家的狗 我叫他咕狗74F 08/03 14:48
推 : 推75F 08/03 14:49
推 : 推76F 08/03 14:53
推 : 說完發現跟記者一樣:上網抄文章+錯字=不知所云77F 08/03 14:54
推 : 快推 不然等一下被笑文組看不懂(?78F 08/03 14:56
推 :79F 08/03 14:59
推 : 對呀80F 08/03 15:00
推 : 快點推不然人家會以為我看不懂81F 08/03 15:02
推 : 嗯嗯,我也是這樣想的82F 08/03 15:03
推 : 目前只能計算 根本不能創造83F 08/03 15:05
→ : 那怎麼會是智慧
→ : 那怎麼會是智慧
推 : 你寫這麼艱深 記者怎麼抄85F 08/03 15:06
推 : 你的拼字怎麼錯這麼多?還是是AI打錯?86F 08/03 15:06
推 : 恩 我也這麼覺得87F 08/03 15:06
→ : 訓練累積多了 就變成"學習"了 大量資料及大量的演算能力88F 08/03 15:11
→ : 才能生出"AI"
→ : 才能生出"AI"
推 : 這篇記者要抄也看不懂了90F 08/03 15:12
推 : 專業推91F 08/03 15:12
推 : 推92F 08/03 15:15
推 : 嗯 跟我想得差不多93F 08/03 15:17
推 : 我懂喔! 懂怎麼推文94F 08/03 15:17
推 : 爆卦不同語言請先翻譯95F 08/03 15:19
噓 : 我看不懂96F 08/03 15:20
推 : 八卦是machine learning 實際上是machine training97F 08/03 15:23
噓 : 這個沒什麼好講的啦,有修過相關課程的都知道98F 08/03 15:31
→ : 其實這篇是AI自己出來護航的99F 08/03 15:32
推 : 跟我想的一樣 只是懶得po文100F 08/03 15:32
推 : 所以現在真的大家都講內存了啊....XD101F 08/03 15:34
推 : 嗯,大概是這樣102F 08/03 15:35
推 : 樓下文組103F 08/03 15:35
噓 : 看不懂喇104F 08/03 15:40
推 : 好險我文組看不懂105F 08/03 15:43
推 : 趕快推 不然別人以為我看不懂106F 08/03 15:44
推 : 文組 我先睡了107F 08/03 15:45
推 : 就是啊 我也才想這樣po的說108F 08/03 15:46
推 : 快推 不然別人以為我看不懂109F 08/03 15:48
推 : 深度學習最近正夯110F 08/03 15:49
噓 : 看無喇幹111F 08/03 15:50
推 : 天網不要再派工讀生來自謙裝弱了112F 08/03 15:51
推 : 訓練完全與否是從learning curve看的嗎113F 08/03 15:53
推 : 推114F 08/03 15:55
推 : AI其實應該分類才對 現在的AI發展 主要都是資料歸納及預測115F 08/03 16:00
推 : sorry 看不懂116F 08/03 16:02
→ : 看不懂117F 08/03 16:07
推 : 目前主流chatbot真的是這樣做,我記得FB目前用最潮的118F 08/03 16:12
→ : gan訓練chatbot用英文聊天
→ : gan訓練chatbot用英文聊天
推 : 單純lstm 真的訓練不出什麽鬼120F 08/03 16:17
推 : 專業推121F 08/03 16:17
→ : 欸 跟我昨晚睡前沈思的內容一模一樣耶122F 08/03 16:19
推 : 雖然有很多能討論的地方 但是差不多是這樣了123F 08/03 16:31
--
※ 看板: Gossiping 文章推薦值: 4 目前人氣: 0 累積人氣: 2032
作者 daviden 的最新發文:
- 我太太生第一胎時沒有去月子中心 是我媽媽來我們家幫忙坐月子。 現在想起來真的是悲劇。 一開始奶水產量少,小嬰兒吃不夠,一直哭 我媽不會處理,就只是一直抱著唱歌哄她 哭一兩天後,小朋友就不哭了 我回來一 …899F 245推 73噓
- 我18歲的時候喜歡過一個大兩屆的學姐 她也知道我喜歡她,可只把我當成小弟弟 沒過多久,她就被一個28歲的業務追走了 他們還租一間老公寓同居 那個男的每天騎機車載她,同進同出。 那時候我超難過,覺得被實 …34F 20推 5噓
- 先前板上在討論增加發文門檻 我就想,PTT是個公開的平台,所有發文都有紀錄,ID資訊也是公開的 何不做個資料分析,探討這項政策會帶來的效應。 我針對今年7/1到9/19(政策實施前)的所有文章進行爬取 …175F 125推 3噓
- 不知道用爆掛適不適合,如有不妥麻煩版主提醒。 我用類神經網絡,加上八卦版上半年度的所有妹妹文 做了一個自動寫妹妹廢文的機器人。 先看結果: " 昨天晚上睡到下去,輕撫著我的餘溫。 我看著妹妹 …53F 29推 8噓
- 最近看到這個新聞覺得滿好笑的, 剛好手邊有一個寫文章機器人的project, 就拿來實驗給大家看看。 這些是訓練神經網絡時的紀錄點(checkpoint), 我挑一個比較不成熟的(loss高的)來展示 …123F 90推 9噓
點此顯示更多發文記錄
2樓 時間: 2017-08-03 15:40:10 (台灣)
→
(編輯過) TW
我覺得LSTM適合訓練權重,但不適合單做決策輸出,搭上其他架構像是HMM或者RL當決策會比較適合(?_?)
回列表(←)
分享