作者 ZMTL (Zaious.)標題 Re: [閒聊] Multi-Controlnet AI繪圖精準手部控制時間 Fri Mar 3 14:15:05 2023
※ 引述《ZMTL (Zaious.)》之銘言:
: 自從有了控制骨架的ControlNet,
: 最近更有人弄出同時用兩個ControlNet來生出的方法,
: 所以現在就變成骨架+手勢控制了...
: Reddit
: https://www.reddit.com/r/StableDiffusion/comments/11c4m4q
: 推特原串
: https://twitter.com/toyxyz3/status/1629862556776157186
: 範例:
: https://i.imgur.com/Djm08Z9.jpg
: https://i.imgur.com/2isq2oC.jpg
: https://i.imgur.com/FaUuWAs.jpg
: https://i.imgur.com/DbHfg5X.jpg
: https://i.imgur.com/LJTdEki.jpg
: https://i.imgur.com/PLHNyYt.jpg
: 可以結印了
然後不意外的,有人直接把手型工具整合進了Stable Diffusion。
該說是開源軟體的恐怖之處嗎?
https://github.com/jexom/sd-webui-depth-lib
https://github.com/jexom/sd-webui-depth-lib/raw/main/images/ui.png
想到前幾天噗浪還有人說:「要用這個詠唱師還是要先學會畫手吧」
--
AI_Art AI藝術與創作板 歡迎各方前來討論AIGC創作與相關議題!
位置:戰略高手 > DigitalWare > AI_Art
AI情報屋營業中
噗浪:
https://www.plurk.com/Zaious
IG :
https://www.instagram.com/zaious.design/
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.193.180.122 (臺灣)
※ 文章代碼(AID): #1a0P1jJW (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1677824109.A.4E0.html
※ 編輯: ZMTL (123.193.180.122 臺灣), 03/03/2023 14:17:11
推 llabc1000: 還是要先會畫手沒錯啊 自己想要的手勢資料庫裡面沒有的話還是要自己來 XDDDD1F 03/03 14:20
→ ZMTL: 其實還有一個方法是... 手部捕捉,我之前玩VR時做過
用自己的手+webcam就可以了XD3F 03/03 14:24
推 k1k1832002: 我看很快(說不定有了?) 就手機APP用手機鏡頭抓來建骨架檔就解決了5F 03/03 14:25
→ ZMTL: 因為手部動捕軟體很多,Vtuber的後台工具很多都有7F 03/03 14:26
→ x2159679: 痾 可是本來就有繪師會用3D模型的手來畫手啊......8F 03/03 14:26
→ ZMTL: 能在電腦上以手型呈現的我也看過,不然就拉個純白的vrm模型那我就不知道上次那個噗友的意思了XD9F 03/03 14:26
※ 編輯: ZMTL (123.193.180.122 臺灣), 03/03/2023 14:28:11
推 w60904max: 這整合後 手勢資料庫只會越來越多吧11F 03/03 14:42
推 sakamata: 我覺得手不是難在結構,而是如何風格化12F 03/03 15:02
推 lovez04wj06: 有需要自己畫嗎?拍照後製去除多餘部分搞不好就能直接用13F 03/03 15:59
→ sudekoma: 先不管男女老幼的手其實都有區別,
用這個形式來克服手的問題的話,
AI要克服手拿東西的圖反而變難了15F 03/03 16:54
→ bnn: 不是 整合一個拍照i2i不行嗎 手部捕捉應該比較麻煩(?
需不需要X光拍人體剩下骨頭匯入controlNet保證是真人骨架(X18F 03/03 17:13
--