◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:Stable Diffusion YouTube動画>1本 ->画像>20枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/software/1661568532/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
イラストレーターの絵を学習させて新作絵を描くAIに同人作家たちが激怒 「勝手にわたしの絵を使わないでください!」 [469534301]
http://2chb.net/r/poverty/1661781605/ LINEでAI画像生成「お絵描きばりぐっどくん」 日本語に対応、Stable Diffusionを使用
https://kai-you.net/article/84593 関連スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
http://2chb.net/r/cg/1661762186/ >>6 黒い画像しかできないんだがスペック不足?
1660Ti6Gじゃどうにもならんかね
>>9 確かGRisk版GUIはバグかなんかで1650と1660では上手く動作しないことが報告されてたと思う
>>10 そうなのか大人しく更新待つわサンクス
SDとか出てきてパワーのあるGPU買う理由が一つ増えたのは嬉しい
ちゃんと読んだらトップページに書いてあったな申し訳ない
>>9 Optimized Stable Diffusion GUI Tool使ってるけど、アプデして相性解決するチェック入れたら1660で動いた
https://booth.pm/ja/items/4118603 1660じゃなくて、ちゃんと確認したら1660Tiだった。 自分も前まで黒いのしか出力されなかった。 ちなみにチェック外すとやっぱり黒いのが出る
NMKD Stable Diffusion GUI - AI Image Generator
https://nmkd.itch.io/t2i-gui これのためにグラボ新調したいのだが ゲーミング性能よりもVRAMを優先すべきなのかな? 例えば、3060tiよりも3060のほうがええの? なお、ハイエンドを買う金は無いものとする
むずいな~ 自分で素材用意して学習させるしかないか
>>17 「今のところ(2022年9月2日現在)」はそうだね。
巨大なテンソルをメモリ空間に展開する必要があるけど、計算自体は単純だから、当分処理速度よりRAM容量という傾向が続きそうな気がする。
ただ、これから出てくるソフトウェアが何を求めるか、誰にわかるだろう。仮想通貨でも、大容量ハードディスクを使って計算をスピードアップするような手法も現れたよね。
個人的には、メインメモリに十分な空きがあれば、そちらで代替することもできるような気もする。かなり速度は落ちるけど、例えば50G必要となった場合、そっちの方が圧倒的に安価だし…
【画像】AIさん、また絵師を殺す。オープンソースのソフトの使い方が広まったところすごい勢いで2次元絵が進歩 [712093522]
http://2chb.net/r/poverty/1662129970/ >>21 これ最後の絵がまんまブルアカの水着チセの立ち絵になってるけどどのへんがすごいの?
ローカルで動く奴、Ver3.11入れたらちゃんと画像生成されるけど 最後にJavaScriptのエラーが出るな。
こういう意味不明なのが出てくること多すぎるけど
こういうのはこれで味あってなかなか面白い
ただ7年前のグラボだから時間かかりすぎる。512x512の50stepで3分弱
ドリキンのStableDiffusion 自己インストールでの自己満デモ動画の 1:04:40 リック・アストリー 頻発って 本当はニューラルシステムでの再学習描画のフリして、1時流行った2.5次元レンダリングみたいな、 ピクセルベースでのインターネット既存画像の合成を 呪文フレーズ中での簡単な検索カテゴリ範疇で ニューラルネットがやりそうな画像合成をやってるだけじゃないの? リック・アストリーって never gonna give you up ♪って80年台米国ロックでの一発屋でしょ。 稚拙な開発者が、80年台コンピュータ映画で初期エラーでのメッセージで比喩的に使いそうな never gonna give you up ♪ ていう 呪文の文法にそぐわないものを一蹴するプライド見栄えみたいな Aiのなせる 無からの論理的思考からの描画には程遠い リアルタイム検索の誤謬 みたいなもんで、 オリジナルかもしれないけど、ナンセンスでしょ どこまで行っても。
ツイに上がってる浮世絵風のマイケル・ジャクソン好きだわ
ドリキンさんとか 清水さんとか ぜんさんとか その辺 過去の ベクトル系でもラスター系でも画像描画での 人工知能的ナンセンス系のレビュー力ないのかな? ボーカロイドの初音ミクがいつまで経っても 人間とみまごうききまごう音声歌声にならないのと 類似でしょ。 99%までの事故抑制や回避は可能だが、どんなにニューラルシステムを鍛えても 100%のレベル5自動運転は その100%未満にしかならない 予測におけるノイズ発生の仕組みがそもそも人間にはまだ理解不能と 同じ理由とか 巷で 言われ始めてる 量子のもつれで支配されているこの世はすべてパラレルワールドの分岐で 観察数=人間の認識の数だけ世界は同時に存在する とか それいっちゃー おしまいよ
ナンセンスにエロも求めると そこには 見たことある感じ アイコラ とか。w 規制対象外をのばなしにしたとしても 蓮画像と 同じような受容体の見聞見識欲をまあ自動描画風に 隅々まで広がるのに 年内いっぱいで それ以上でもイカでもないことがバレるだけだとおもうな。 ただ年齢的にモザイクなしリアルエロ動画とかニューラルアイコラとかそんなものを見て育つ ポストZ世代の精神性こそ どうなることか 知ったこっちゃないが
無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
https://gigazine.net/news/20220902-nmkd-stable-diffusion-gui-usage/ >>26 リックアストリー俺も唐突にでてきたなw
それだけ4つ出たこともあるし、どっちかというとエラーとかじゃね
GitHub - mika-f/nekodraw: NekoDraw: CLIP STUDIO PAINT plugin for executing Stable Diffusion txt2img and img2img processor
https://github.com/mika-f/nekodraw オープンソースに有料ソフトのフォトショやらクリスタやらがすり寄って来るの気持ち悪いな
adobeとかがプラグイン作ってるんじゃなくて、誰かが勝手に作ってるだけでしょ。それをすり寄りだなんて
Photoshop用に公開されてるプラグインはAdobe自身が審査している それを誰かが勝手に作ってるだけなんて言い方もどうかと
審査って意味知ってる? オープンソースプロジェクト用だから却下しますなんてやるわけないだろ・・・
amdは radeon edition for windowsを早急に作るんだ 間に合わなくなっても知らんぞ
>26 >32 リック・アストリーはNSFW(見せられないよ!)な画像になったと判断したとき出すんだそうだ しかしNSFWがでないように改造されたSDで見てみると、ほかと比べてアカンとはどうしても思えないものばかりだった
>>38 ROCmがLinux専用だからなあ
AMDやる気なしでNVIDIA一択になってしまってる
>>37 直接Adobeは関わっていなくても審査するならAdobe公認というお墨付きを与えることにはなるだろ
却下しないのは当たり前だがこんなに早く企業のソフトに組み込まれるのを訝しむのがおかしいか?
むしろ逆にAdobeとしてはStableDiffusionを独占したくてたまらんのだろうなぁ
adobeくらいになると stable diffusionが流行ったなら もっと高性能で全部入りなやつを開発して 横からプロ需要掻っ攫うに決まってる あの会社は林檎と同じで、囲い込み大好きだからな
適当な英単語で日本の女子高生の脚みたいなのを入力したら盗撮画像っぽいのできたわw
1060の6GでGRisk版GUI使って576x512の画像を生成してる時にVRAMの使用率見てみても50%ほどしか使ってないんだけど わざと大きい画像では出力できないように制限されてない? 576x512を超えるとエラー吐いて生成できないんだが
>>45 うちはRTX2070SだけどVRAM8GBの8~9割くらい使って512*704の画像出すよ
GRiskの配布ページを見ると3日前にアプデされてるからフリー版に制限かけた可能性あるね
ここはPatreon有料会員になると大きいサイズを出せる最新バージョンが入手出来るらしいし(ユーザーコメントに書いてあった
ごみプロンプト買わされたと思ったら次はSDにまで金払わされるのかw
日本語入力したらsd向けのプロンプトに変換してくれる程度の特化なら期待できるんだけど がんばってファインチューニングしてるんだろうな。そうなるとあまり期待できない
今AIお絵かきに一番喜んでいるのは pixivやTwitterで絵師を誉めておだてて 自分好みの絵を描いて貰ってたオレみたいな奴だな 特にwaifuは最高だわ
NMKDやばいな こんな高機能なソフトが無料で簡単に使えるとか 絵の描けないゲームクリエイターとかには最高の時代到来だな
テクスチャにするための継ぎ目のない画像とか 背景にするための360度用の風景画も作れるしな
AI画像生成ツール「Stable Diffusion」「Midjourney」を使ったイラスト集が早くも発売
852話氏が生成・リファインしたイラスト100枚以上を収録、約半数には「呪文」も掲載
https://forest.watch.impress.co.jp/docs/bookwatch/news/1441883.html >>54 純粋にイラスト集として買うより、
作例の参考資料として買う人のほうが遥かに多そうw
アマのレビュー見た限り、参考資料としてはダメみたいだね
顔が画面の上に見切れることがやけに多いけど、やっとその理由を思いついたわ。 学習を512x512で行なっているということは、教材となった画像がそのサイズにカットされたということ。 その過程で、顔が見切れた画像が多く、それを学習してしまったんだろう。
NMKDインストールしたのですがGPUを認識できない?みたいな表示が出てきます
当方RTX3060を使用してるのですがNMKDインストールするだけではダメなのでしょうか?
逆さまにテーブルに置かれたコップの中に白煙がたなびいてるイメージを出力したくて、色々と試してみたけど上手くいく気配がありません。
コップをひっくり返すことさえできないとは、情けないのは私なのかAIなのか。
"an overturned glass which captures curled white smoke in it, centered, realistic"
で、12枚出力した結果。
https://imgur.com/pZXCZeo 一番下の真ん中の画像は、ひっくり返っているように見えなくもないけど、コレジャナイ感が半端ない。
どなたかコップをひっくり返すpromptをご教示くださいませんか?
アルミ缶の上にあるみかんもうまいこと描写できなかったな どうしても上じゃなくて缶の中に入る
キャラと絵柄を維持したまま出力できるのはいつだろうな そうなれば、ラノベの自費出版が捗る
NovelAIなら同じキャラの別の絵も出しやすいみたいよ
描く人ほぼいない昔のマイナーキャラを生成できたらいいなあ
その内同じキャラの差分を作る専用のAIとか、不完全な絵を修正して仕上げるAIも出てくるだろうね 人の手でなければできないと言われてることも別の役割に特化したAIがやるようになる
【朗報】お絵描きAI、ラーメンの絵が描けないと判明 これでAIと人間の区別が容易に [206389542]
http://2chb.net/r/poverty/1666065315/ novelaiの学習データ、こっそりどこぞのdiffusionに統合されないかな
【画像】AI、ついに13人がラーメンを食べる最後の晩餐の生成に成功してしまう [579392623]
http://2chb.net/r/poverty/1666268558/ 違うそうじゃない
AIとコラボして神絵師になる! 「Stable Diffusion」などを仕事や趣味に使える技術の解説書が発売
AI画像生成の法的な側面やプロのお仕事での活用事例も掲載
https://forest.watch.impress.co.jp/docs/bookwatch/news/1450555.html >>70 日進月歩の画像生成AIを、固定的な書籍で解説しようとする点でセンスが無い。
原稿執筆当時の記録という意味では、後世価値が出るかも。
not imageなんちゃらって出て何も生成されないんだけど何でかな?
エスパーではないので何を使って何をしようとしたのか書かないと答えようがないよ エラーメッセージもなんちゃらじゃなくて正確に
>>73 ありがとう、、NMKD Stable Diffusion GUI 1.6.0をインストーラで問題なく入れ終えたんだけど、画像生成すると何故かnot
image generate って文字だけでて 何も生成されない
CORE i5 RTXさ3060Ti
まあ一般的に利用しようとするとまず限定的なスペックなマシンの用意のほうが面倒だから Colab利用しかないな
どうしよう 画像を作ろうとしても、真っ黒な画像しか出力されない…(´;ω;`) ちなみに自分の環境は、 Core i7-12700KF GeForce GTX1080(VRAM 8GB) Windows11 で、これにPythonとGitをインストールした上で、AUTOMATIC1111を入れているという状態です
>>76 出力しようとしてる画像の解像度が大きすぎると黒い画像になることがある
512x512とか512x768で試すんだ
エスパーしてみる pythoonの環境変数が悪さしてそう もしくはでかいサイズの画像を出力しようとしている インストール時に何かエラーメッセージ無視してる cuda入れてないとか
VRAM8GB超える解像度の画像生成してるんだろうな 画像生成中にVRAMどのくらい使ってるかタスクマネージャー見てみ
>>77 デフォルトで512×512だが真っ黒だ
試しに128×128とかでも試したがやはり真っ黒
>>78 >>79
エラーメッセージの類は出てなかったはず
英語分からない民だけど、各種ソフトのインストール作業中、「Error」などの英単語が出ないかどうか1行ずつ確認していたから間違いない…はず多分
画像生成中にタスクマネージャーを見てみると、GPU使用率は3~4%ほどだった
1位はFirefoxで、2位はiTunesで、3位はデスクトップウィンドウマネージャー
あれ、もしかしてSD君はGPUを使ってないのか…?
絵が出ない人だいたいモデルを入れてない説 起動させたCmd窓にメッセージ出てるでしょ プロンプト打ち込んだらなんて出た?
SD使いだしたばかりの頃Promptの仕様理解せずに適当にぶち込んでいたら真っ黒な画像が生成された事あったな Prompt間違えてないか見直してみては
パイソンだかのプログラムとかわかんねえけど Colabで使おうとして手当たりしだい調べた時に 引用してるプログラムの文にミスがあって治さないとムゲンロードになるやつとかもあったわ
>307 ckptを正しいフォルダに入れていないと、そもそもインストールが完了せず 「続行するにはなにかキーを押してください...」(押すとコマンドプロンプトが終了する)になったと思う 今は違うのかな? モデルを読み込めていたらwebui-user.batの起動時にこういうメッセージが出るはず Loading weights [81761151] from C:\…\stable-diffusion-webui\models\Stable-diffusion\v1-5-pruned-emaonly.ckpt …… Model loaded. [81761151]や~.ckptのところはモデルやそのファイル名によって異なります
>>76 >>80の者ですが、問題が解決しました!
以下のページでトラブルシューティングを見ると、解決方法が載ってました
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Troubleshooting#green-or-black-screen )
これによると、webui-user.batをメモ帳で開いて、「set COMMANDLINE_ARGS=」の後に
「--precision full --no-half --medvram」という文字列を打ち込めば良いらしい
その通りにしたら無事に解決しました
いやぁ、一時期はStable Diffusionという文字すら見るのも嫌になりかけたけど、あっさり解決して良かった
「Stable Diffusion」がメジャーバージョンアップ ~画像の深度情報を推測可能に
学習モデルを刷新、超解像アップスケール機能も
https://forest.watch.impress.co.jp/docs/news/1458747.html 「Depth2img」で左の画像を入力し、右の複数の画像を生成した例
「クリスタ」は画像生成AI搭載を中止 ~ユーザーからの反対意見を尊重
「画像生成AIパレット」を実装しないv1.13.0無償アップデーターが公開
https://forest.watch.impress.co.jp/docs/news/1461108.html AUTOMATIC1111って待ってればいつかSD2.0にアップデートされる?Google Colabっての使った方法じゃないとアップデートできないの?
自分のGPUじゃ学習するにはメモリが足りないから少しガッカリしたけど、学習済みのモデルを利用した生成でも十分すごかった たまにバクって墨絵風ばかりでてくるけど
>>89 2.0の768x768、depthモデルはすでにWeb UIで使えるよ
stable diffusion GUIで数日間、自分の顔を変換しようとしてるんだが、 ストレングス上げると何も変わらんし下げると別人になっちゃう。 コンセプト入れたり、プロンプトいじったりプロンプトガイダンスいじったりするけど どうにもならん感じ。 参考になるページなんかあるのかしら。 教えて、エライ人。
>>97 【StableDiffusion】AI画像生成技術12【NovelAI】
http://2chb.net/r/cg/1670898879/ Denoising strengthは上げれば上げるほど変化が大きくなるものだけどな。 0.3~0.2以下くらいだと元の雰囲気をほぼ保った感じになる 0.4でほぼ構図を保つぎりぎりのラインでそれ以上は構図も徐々に変わっていく。 0.6以上くらいでぎりぎり面影があるかなって程度でそれ以上は構図もほぼ無視しだすくらい大きな変化をする感じ
>>98 ,99
ありがとうございます。
もうちょっと、あがいてみます。
2枚の画像の中間画像を補完してちょっとした動画を作りたい もしくはフィギュアを回転させるみたいに3D風に回すとかしたい 技術が俺の欲求に追いついてない
ぶっちゃけもうあるけど使い易いものではないよね ついでにage
>>58 グラフィックドライバが古いとGPUを認識しない事がある
cuDNNやCUDAToolkitは無くても動く
どこで追加学習されたものだか分からないけど、プライベートな記念写真、盗撮っぽいポルノや児童の裸体みたいなものまでほとんど無加工の状態で出力される。どこで何を学習してんの?これって
人間の裸体なんて、概念としてはむしろ衣服よりも簡単でしょ 別にそのものを学習してなくても転用で表現できるんだと思うよ。
例えばディズニーランドで絵を生成すると、客の写真がそんなに低くない頻度で、ほぼ無加工で出てきたりする。アダルト系ではないキーワードで、女児の裸が出たりする。解決しないと潰されたりすると嫌だから、解決してくれ
まずそれが実在する客が確実に過学習で出ているのでなければ問題ないし、 仮に過学習気味だったとしても元の画像はインスタとかで公開されてるものだし、必ずしも問題だとも言えない
鍵かけ忘れのクラウドストレージに自動で上がってるやつは学習したらまずそうだが、学習してないことを祈る
吉幾三って海外進出したら OK Let’s go になるの?
日本人の実写はうまくいかないね。なんでみんなうまいんだろ。
webUIのやつ入れたんだけど img2imgで綺麗に違うデザインの服にしたりするのどうすれば良いんすか
>117 服をマスクしてそこだけi2iすりゃ良いんすよ
>>118 多分それやったんすけど綺麗にならなかったんですよね
モデルのせい?
>>119 どうやってマスクしたのかここに画像を貼ってくれ
>>120 貼るのは控えたいんですけど
文で説明すると服に被せて塗った感じ
きっちりと言うよりは少しはみ出してマスクしたかんじ
>119 もうやってたのならそれを書いてくれ >121 言葉だけだとどういうことかわからんから、ここに出す用の画像を作ったらいいよ 適当な画像にこんな風にマスクしてこうなったみたいなのがわかるキャプチャを見せてよ
>>122 こんな感じ
呪文が具体的じゃない?
青に変化とかじゃ無理か
みんなどこで使い方学んでるんや 全然分からん 学習とかって普通に出来るもんなん ちなローカル起動
今の最先端はどんな感じですか IKスケルトンを動かして動画が作れたりします?
>>123 img2imgは元の色が強めに出るから、マスク内のズボンの色を変えるというのは難しそう
ペイントソフトでズボンの膝から下を単色でいいので目的の色で塗ってから、それをimg2imgにかけると質感が出るかも
参考
より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion]|abubu nounanka|note
https://note.com/abubu_nounanka/n/n3a0431d2c47a より思い通りのAI画像を作る!inpaintと複数モデルの使い分け[StableDiffusion]|abubu nounanka|note
https://note.com/abubu_nounanka/n/nee6c21ff84e6 >>127 ありがとうございます!!
やっぱ色々やり方があるんですなあ
呪文だけでも大変なのに笑
昨日t2iでエロ娘大量に作ったけど、ここからどんどん実用的ツールができてくる予感はするね
d2iとかi2iを駆使したら結構なことができそう
だけど、基本は思い通りの絵が出せるツールではない
>>127 この人のnoteは目的の絵に寄せていく方法が書いてあっていいね
AI絵をツールとして活用する方向の発展形はこういう方法論が蓄積されてphotoshopみたいなアプリに統合されていくんだろうね
SDの画像生成方法の解説を見るとモデルによる推論だけでデータ生成してるような説明なんだけど、これプロンプトからt2iで生成させるときってどこかのイメージ検索も援用してる? パケット見たりはしてないけど生成時に背景で流してたYouTubeがもたついて、ネットワーク使ってるのかなと思ったのと、 車の画像を生成させるときにfrom minkaraをキーワードに入れたらかなり正確になった
>>130 生成時に参照しているのは学習モデルだけだよ
YouTubeが重くなったのは動画の再生にGPUアクセラレーションが使われているからで、ネットワークが重くなったわけじゃないよ
特定のキャラ絵の生成やってみたいんだけどLoRAで上手くいかなくて困ってます 過学習なのかなと思いつつも上手い対策できないのでコツがあれば教えてほしいです
>>133 【StableDiffusion】画像生成AI質問スレ02【NovelAI】
http://2chb.net/r/cg/1677430973/ 最近知ったんだけどすごいな そのうちAIと口頭で「ここをもうちょっとこうして」とか相談しながら思い通りの画像作れるようになるんだろうな
Bstaberてのも良いよ。M字開脚になりがちだが
これ英単語にしか対応してないのか 日本語バージョンはまだ出てない?
日本語でもできるけれども あまり正しく解釈されない
そうなのか Chat Gpt でも英語版に比べるとイマイチらしいから 日本用プラグインがブラッシュアップされないと限界あるか 英単語調べるの面倒くさいが、当面はそれで経験値上げるしかないか
開発元のStability AIが日本法人立ち上げてるみたいね。将来性どうなんだろう。 どうやってお金を儲けるんだ?
商業利用する場合はカネ取るんじゃね? まずはアプリの有用性と優位性を世間にわからせないと
一寸先は闇だ 好き勝手やれるのは今のうちだけって可能性も十分にある
civitai落ちてるんだけどよくあること? 他にいいモデルデータサイトある?
>>143 Stability AIは去年の10月に1億ドルの出資を受けてるよ
Stable Diffusionをオープンソースで提供して、AI関係の技術力を世界中にアピールできたからね
オイル肌になる呪文と設定で好きなグラドルの画像をi2iしたらテカテカ好きの俺の性癖にブッ刺さる画像できてしまった
AUTOMATIC1111版をcolabで動かしてたんけど、さっきからUIのURL開いても504 Gateway Time-outになる コードも変えてないのになんでだろう
nsfwをネガに突っ込んどけばとりあえず裸になりづらくなったような
nsfw: 職場閲覧注意 ポジティブ入れると不健全になりやすい ネガティブに入れると服を着てくれるようになる
Stablediffusionwebでなんか具体的な生成の画面が出ないんだ俺だけ?
モデルが悪いんじゃない?ヌード専門みたいな学習させてるのあるよ
512よりも画像サイズを上げるととたんに画像が崩れるのなぜなんでしょう。 単純にディティールを書き込んでほしいだけなのだけどどうしたらいいんでしょ?
512が1.5の学習ソースなのはそうだけど 出力解像度高くして崩れるってことはない 768でも1024でも高ければ高いほど崩れにくくなっていく EasyNegative TIを適用してないとかじゃないの
2048とかめちゃデカにすると大体バケモン生まれるわ
リアル人間を生成するには何GBのモデルが必要なんだよ。。。
すげえ
Instant neural graphics primitives
https://github.com/NVlabs/instant-ngp Making a NeRF animation with NVIDIA's Instant NGP
ダウンロード&関連動画>> VIDEO 女優のlora使ってもあんまり顔が似ないんだけど何が原因かわかる人いますか? 色々設定弄ったりweight0.6~1まで試したけど変わらず 一応少しは似てる顔になるから導入ミスではない
>>171 女優ロラッテプロンプト書いてなくないか?
それにないわと思うんだけど
>>171 Hires.fixをオンにしてdenoisingを0.5くらいまで上げて
AVは検索したらコラじゃない本人の画像があるからなぁ
女性だけならそこそこのクオリティだけど男と絡ませようとするとやっぱ落ちるな もっと頑張れAI俺は期待してるぞ
他のパラメータ変えないでサイズだけ縦に伸ばしたりするとかなりポーズとかかわるな 低スぺのせいか
512x512の画像をデータベースにしてあるらしくそれより大きい画像作るとおかしくなる。最近のは768x768のもある。
縦や横に延ばしたいときはバリエーションリサイズ、出力された画像を大きく出し直したいときは高解像度補助を使うのよ鉄郎
めっちゃ盛り上がってるだろうと思ってスレ来たらなぜこんな静かなんだ スマホ一台でここまで出来るとか革命やん
質問は 質問すれで スマホのやつはサービス会社に質問してくれ
Easy Diffusion 2.5
The easiest way to install and use Stable Diffusion on your own computer.
https://github.com/cmdr2/stable-diffusion-ui >>187 stable diffusionは元々そっちが最初
SVO+助詞くらいの単文なら理解するしその方が複数オブジェクトのコントロールが効く 接続詞でつなぐなどの連文節は理解しないので単文の羅列と単語をくみあわせるのが吉
a cat eats a mouse. は理解できなかったよ 関係を逆にしても同じだし、eatsの関連で食い物の画像が添えられただけ しかも猫とネズミのハーフになっちゃう
>>191 girl giving blow job
は理解できるよな
最近使い始めたけど、RadeonVega64(6年前発売)の6Gメモリでも動くんだな インストール方法とかbatの追記とかはNVIDIAとは少し違うけど でも使ってるとメモリとか性能考えるとGTX4090、4080欲しくなる
同じ呪文でも、違う絵になるのね その時々の時間で、AIも変化してるってこと?
AI凄いっていうけど、seed値というものが存在してる時点で世界乗っ取りとかはまだ遠そうだよな 凄いのは凄いけど
SEED値が同じでも、プロンプト少し追加したら全然異なる。 同じ顔でいろんなポーズ、いろんな服装ができない
たまーに当たり画像が出てくるんだよな だめな時はカス連発してくるけど
実写系ははずればっかだけど二次絵になると当たりばっかで延々とぶん回しちゃうわ グラボってどんくらいで逝っちゃうんですかね
個体差があるからわかんない 大体gpuよりvramが逝っちゃう可能性が高い 初期症状は画面にノイズが出だしたりする 心配ならツールを使って制限したら
謎建造物とかぐっちゃぐちゃの足だけの化物が出る時ってどういう設定にしたら抑えられる? 一応easy negativeは導入してるんだけど…
リアル向けネガティブ deformed iris, deformed pupils, semi-realistic, sketch, cartoon, drawing, anime, text, close up, cropped, out of frame, worst quality, low quality, jpeg artifacts, ugly, duplicate, morbid, mutilated, extra fingers, mutated hands, poorly drawn hands, poorly drawn face, mutation, deformed, blurry, dehydrated, bad anatomy, bad proportions, extra limbs, cloned face,Duplicated face Duplicated figure,cloned figure, disfigured, gross proportions, malformed limbs, missing arms, missing legs, extra arms, too long arms, extra legs, fused fingers, too many fingers, long neck
一生懸命プロンプト並べてもモデル作者がその言葉でタグ付けてなきゃ意味ないんじゃないの? 特に品質関係の言葉なんてわざわざbad qualityなんてタグ付けるわけないと思うんだよね そんな画像最初から採用しないはずでしょ たとえ低品質のタグを付けてあったとしても、それがlow qualityとかpoor qualityだったらbad qualityは引っかからないし
やった事あればわかるだろうけどタグ解析するとblurryとかは普通に追加される時ある 学習素材全ファイルチェックしてモデル作ってるとは思えんし一応弾いてくれるんじゃない きっちりやるならクレジット表記とか素材集めの段階で消すなり切り取るなりするだろ
pixivの画像に、同じ顔でいろんなポーズのがあるけど、呪文を一個でも追加すると顔も変わってしまうんだが、どうやって同じ顔で作れるの?
>208 この顔と決めたらLoRAで学習させると、いろいろな構図やポーズで同じ顔の画像を出せるようになるんよ
>>196 AIを含めた非可逆圧縮・展開の数学論理では、計算式に必ず自然乱数が加算される構図になる
この自然乱数の部分をとある数値(0.0とか)に固定すると、可逆圧縮になる
可逆圧縮は元に戻せるという意味だから、乱数部分を固定すると答えが1つしか出せなくなる(もとは1つしかないので)
seedを固定すると同じ絵しか生成できない数学的理由がこれ
(seedは元のノイズ絵を生成するための固有値で、この数字を固定すると同じノイズ絵を生成するよう設計されているから)
>>199 プロンプトはseed以外で「人間が与える乱数」
その乱数に強い方向性があるから特徴として現れる
人間が与える乱数に大きな矛盾があれば、生成絵も矛盾が出る
同じ顔を与えれるだけの乱数の方向性を与えれば同じ顔にはなる
ただ、現時点ではpromptだけでは無理だと思われる
>>204 矛盾をゼロにすればいい
モデルの適性を超えたレゾリューションで生成すれば、勝手に破綻しやすくなる
(数学的処理をやってるAIは、三角関数的思考で空いた部分を繰り返そうとするので)
>>206 逆に、どれかがヒットすればその特徴が採用される(Negativeならその特徴が忌避される)
モデルがどのタグで学習させてるかわからないなら、むしろ思い当たるものすべてを無制限に並べ立てた方がいいということになる
ちなみに、bad_anatomyはdanbooruで11000枚程度ある
タグ付けるわけないというのは思い込みでしかないと思うよ
>>209 LORAって、そういう使い道だったのか
助かります
>213 フォトショで顔部分を移植して、i2iのinPaintで接合したい部分を書き直すのもあり。
何しても色が薄くなるようになっちゃって再起動とかしても直らなくて困ってます どなたか教えて下さい~
生成途中(50%,60%...)ってなってる時は鮮やかな色なんですが 完成と同時にモノトーンとまではいかないものの全体的に色が薄くなっちゃうのです
>>216 ・VAE
・過剰(cfg,promptなど)
ありがとうございます、でもVAEをオフにしても Girlとだけ打っても、やはり生成途中は鮮やかなんですが完成した瞬間灰色っぽくなっちゃいます💦
モデルとVAEが合ってないんじゃないか。 モデルに推奨されてるVAEを当てればいい。
適当な画像編集ソフトで彩度上げればいいだけの話じゃないの
モデル変えてみたらカラーになりました!と思ったら chilloutmix_NiPrunedだけがちゃんとカラーで出力されて それ以外のcounterfeitとか10種類くらい入れてるんですがそれらはやはり最後の瞬間で彩度下がって出来ちゃいます 拡大してよく見たら彩度下がってるというか水墨画風になっちゃってました まだ使い始めてまも無いので色々OFFとかNoneにしてるんですが もうちょい試行錯誤してダメだったら再インストールしてみます
>222 出力画像の彩度が低いとき、VAEはオフにするんじゃなくて適用するんだよ 学習モデルとVAEの対応の推奨はあるけれどVAEの種類はいま10種類もないし、どれか適用すれば低彩度にはならないはず VAEを簡単に切り替えられるようにする方法: 設定のUser Interfaceにある「Quicksettings list(クイック設定)」を「sd_model_checkpoint, sd_vae, CLIP_stop_at_last_layers」 にしてApply settingsボタンを押してReload UIを押すと1111の最上部に「SD VAE」のプルダウンメニューが出てくるでしょ これでVAEを手軽に切り替えられるようになる 「Clip Skip」のスライダはいつか必要になる日が来るから出しておきましょう
>>223 めっちゃ助かりました!!!!
VAEじゃないファイルをVAEのとこに入れたりわけわからない事してました
それでVAE入れたら普通にカラーになりました!!!
VAEの切り替えの設定もそのようにしました!
ご丁寧に有難う御座います!!!!
VAE当てると画像が綺麗になるけど細かいディテールが微妙に潰れるのがね 好みによるな
色調・明暗・コントラストなどは一発で決まることなんて無理なんだから後から画像編集ソフトでやりゃいいんだ
そんな面倒なことする必要はない ライティング周りのプロンプト書けばいいだけ
早く飲みたくなったらお酒、眠たくなったらベッド 次から次へと描き出すレベルになって欲しいわ プロンプトめんどい
AIの会話能力はすごく進歩してて、文字会話であればほとんど人間と区別がつかないレベルまで来てるんだから、希望を会話で伝えるのは技術的には可能なんだよな ただ、一般的なパソコンではスペック不足でまだ無理なんだろう
>>185 利用者少ない?
情報漁ってもAUTOMATIC1111のばかりヒットする
芸能人の名前を入れるだけでヌード生成できるように早よなれ! 頼む…!
美人過ぎたり化粧濃過ぎるのばっかだからその辺の地味顔のエロ生成してほしい
>>236 色々と学習させたり質の高いやつを作るには
それなりに技術が必要じゃん?
キミの知見や技術は知らんよ できるできないならとっくにできると言ってるだけ
ちょっと初心者の質問 モデルデータって中に大量の人の写真とかが入ってるんでしょうか? だとしたら中身って見れたりするん?それとも全然違う?
モデルデータに画像データ自体は入ってない LoRAは極端な数字にしたら学習した物っぽい画像は見える
呪文だけじゃなかなか思い通りのポーズにならないな 棒もなんか違和感出るし 今んとこネットで好きな画像拾ってきてキャニーするのが一番らしくなる
なるほど、、、
>>242 AIにも聞いてみたけどテンソルデータが入ってると
意味わからんからテンソルって何か小学生にも分かるように言うてくれや
と言ったけど小学生には難しいかもしれませんといわれた
そこまで言われると少しは勉強したくなりました
テンソルはベクトルのもうちょい高度なものと考えればいいよ
普通の画像だってデジタルなら1と0の連なりであって実体としての画像があるわけじゃないよね それとどう違うんだ?
>>241 中身見れるユーティリティあったような気がするが
AI未経験だけどloraってやつでキャラクターを学習させてイラスト生成をやってみたいんだけどプログラミングとかの知識はいらない感じ?
>>249 ありがとう
昨日から調べはじめたけどちゃんと一式インストールすればある程度はつくれそうね
ポストの情報とシードとかモデルのハッシュまで同じにしてるのに出力違うのはなんでだろう? あとはVAEの違いくらいしか無さそうなんだけど、それも違ってるのかどうか グラボとかハードの違いに依存したりする?
>>251 同じのを作りたければコピーをすれば良い
>>251 pink板かどっかで同じような話みたけど、A1111の設定のどこかのチェックボックスのON/OFFとかでも
出力変わったりするらしい
clipskip数値でも全然違うのでてくるしな civitaiとかの同じ絵生成できることあんまないわ
生成データをちゃんとインポートできてないだけじゃね? わざわざ手で数値入力したりしてない?
>>251 あれが生成情報の全てではないから
起動オプションでも絵柄変わる物があるし
additional network経由だと使ったloraが残らない
ただのネガティブプロンプトの文言に見えるものが実はTlとかもある
googlecolabとWebUI両方試したけど、WebUIだとサイズ700×700くらいですぐ固まっちゃう コラボだと1000くらいでも割りといけるのに こんなもん?
顔修復の重み設定って0が最大で1が最小だということに今気づいた 道理で効果ねえわけだ ずっと1で使ってたわw
そんなことよりさ、誰かこういう拡張機能作ってくれ 任意のサンプリングステップ範囲(例えば30~50とか)と任意のCFGスケール範囲(例えば4~7とか)の全組み合わせ、つまりこの場合だと21x7で147通りを自動で生成するの 手動だとめんどくさすぎるわ
>>264 ステーブル ディフュージョン WEB UI のことだったら
WEB UI なんで Web プログラミングすれば良い
実写用の衣装loraってどう作りゃあいいの? chilloutをベースにして作ってるけど、着せようとしたらどうしても顔が北斗のモヒカンみたいにボコボコになる
>>267 すまん、知らんかった
ちょっと使ってみるわ
restore faceとかネガティブプロンプト当ててもだめだった
xyz plotやってみてるんだけど、もしかしてこれって全画像が1枚につながって出力されるわけ?
縮小されて出てくんの? 等倍じゃ巨大になって無理だよねえ
ちゃんとバラで生成されてるわ、よかったよかった 最後に縮小版をまとめたのが出力されるのかな あと数時間かかりそうなんで明日起きたら見ようw
>>262 この動画を見た多くの人が「踊ってる女の子」って打ち込んだらこの動画が出て来ると勘違いしてそうで恐ろしい
>>275 スローで見たけど、手で隠れてるだけに見えるぞ
不自然といえば膝の辺りだけど、実写にちょっと加工施せばAI動画みたいになるじゃんと同時に思う
同じ描画の口開いてるverと閉じてるver作る場合、シード値固定してハイレゾ0.2~0.3とかが良いのかな?要は立ち絵欲しいんだけど他に良いやり方ある? carryは無理で困り中、アドバイス求む
chatGPTに 「StableDiffusionに詳しい人を困惑させるようなイミフな質問考えて」 って頼むと出てきそう。
>>279 StableDiffusionに詳しくないので
いい方法かどうかわからないけど
口の部分を隠した画像を読ませてガチャるという方法がある
>>279 口を閉じた画像ができたらそれをinpaintへ送り、口だけマスクして
「masked content(マスクされたコンテンツ)」は「fill(埋める)」
「inpaint area(inpaintを行う領域)」は「whole picture(画像全体)」
プロンプトは「閉じた口」を「開いた口」に変える
これでいけました
(txt2imgで生成)
(img2imgのinpaintで生成)
画像はメタデータ入りなのでPNG Infoに直接ドラッグ&ドロップすればパラメータが読み込まれます
質問はこっちのほうが人が多いですよ
【StableDiffusion】画像生成AI質問スレ9
http://2chb.net/r/cg/1682213108/ >>283 おぉぉ!凄い!これを知りたかった
今日早速挑戦してみます
あざす
通りすがりだけど、おかげでインペイントの使い方がわかったわ
メタデータ保持させるとなんか悔しいからjpgにしてるンゴ
ツイでタグ検索したらAIグラビアばっか出てきて萎えるわ みんな同じ様な顔で乳デカくしとけば良いって画像ばっかりで見飽きた
ガッキー作ってたらエビちゃんができた なんでや畜生
グラボによって、全く同じ設定でも吐き出す絵が違うって以前どっかで見たんだけどマジ?
インペイントの件 マスクのみでも画像全体でも変わらない気がするんだけど
>>296 メモリマッピングの違いで異なる場合はある
xformersやmedvram設定などはその影響を受けている
丸め誤差の収束方法で違いが出ることがある
サンプリングの「_a」付きはその影響を受けるものであるという意味らしい
完全バニラな理想状態では理論上異なることはない
(アーキテクチャ自身は内部で捻出した乱数を使っていない)
高収入のバニラですね知ってます って書き込むついでにちょっとググったら、アレのプラモなんてあんのな 終わってるわこの国
初歩的な質問で申し訳ない Sampling stepsによる違いを調べたいのだけど X/Y Plot使って調べる時にたとえば5ずつ40まで調べるとすると 1つの画像生成について5ずつステップ刻んだ時点でのスナップショットみたいなものを出力してくれるのか それとも5,10,20,...と8枚の別々の画像を作成するのか(つまり、ステップ数の合計は5+10+15+...+40=180になる)、どちらなの?
お気に入りの顔が出てきたけど、LORAで学習させるには、20枚とか必要みたいで、ガチャで同じ顔を出しまくるまでやるしかないですか?
>>304 pnginfoで希望する画像の情報をt2iに転送
seedを固定(t2i転送の時点でそうなってる)して、右にあるExtraをチェックオン
Variation seedを-1に、Variation strengthをお好みの数値に
これで学習させたい枚数の4倍程度出力させたら希望に沿える状態になる?
一度お試しください
masterpieceが完成するまでにmasturbationに至ってしまうんだが世の作家もこんな気持ちなんだろうか
Loraのトリガーとか、あれはおまじない程度と思っといていいのかな。 覚えきれないわ…。
埃被ってたゲーミングPCに入れてみたけどすげえなこれ。100枚くらい生成するまで本当に生成してるの信じられんかったわ。
特定の人物の顔とかだったら必須 トリガーじゃなくて普通にloraポチーで強さ決めてやってるけど普通に使えてるから覚えなくていいんじゃね 名前だけじゃ分かんなかったら、代表的特徴がでてる生成物とかを同じlora名.pngで同じフォルダに保存すれば画像で分かって便利
トリガー、使ったほうがいいとは思いつつ、単純に覚えられない。 メインのトリガーだけならまだしもアクセサリー類のトリガー付きで一つのLoraで5個以上も設定されてるとしんどい。 毎回Loraのページ見て入れてはいるけど。
>>313 その手間をやってるんだったら、もうひと手間
LoRAファイルと同名のtxtファイルを作成し、そこにトリガーワードを記述
作ったtxtファイルをLoRAファイルと同じフォルダに移動
こうすれば、花札の画面で一目瞭然になる
txtはそのまま表示されるので、注釈を書いておいてもいいし、サイトの説明文を書いておいてもいい
>>313 追加
花札画面に表示されたテキストをドラッグで選択できるので、コピー(CTRL+C)でOK
こういうAI絵描きってフリー素材絵を生成できるの?
>>315 テキストファイル作っとくと、サムネの下にひょうじされるんだね。
これでだいぶ便利。有難う!
たまに明らかにAVのパッケージ画像を学習したやつ出てくるな
導入した時より、パフォーマンスが落ちるのが早くなってきてる気がする。 モデルやLoraとか拡張機能を入れ過ぎると重くなる?
浅学が想像でテキトーなこと言いなさんな 使うモデルのライセンス次第だから
キミの間違いを諌められているだけであって、議論なんて誰もしていない 知らないことを背伸びして語るクセは社会に出る前に直した方がいい 自分も周りも苦労することになる
初心者なんだが デプスマップライブラリを導入後にモデルvaeプロンプトseed値その他設定項目を同じにしてるのに導入前と生成結果が変わったんだが同じ現象が起きた人いる?
>>325 ワイも初心者だけど、xformers導入してると変わるって聞いたことある
seedはあくまで最初のノイズ生成に関わる値ってどこかで見た
>>322 そんなこと言い出したら
日本語の書き方から説明しなくちゃいけないのか
自己解決した
導入後再起動したはずだが改めて再起動したら治ったわ
>>326 サンクスxformersは導入してる
最初のノイズが一緒でその後の除去過程が同じつまりvaeとプロンプトその他設定がもろもろ同じなら生成結果に大きな影響はでないはずだよ
久しぶりに更新来てたけど拡張が使えなくなったとかそういう話はあるのかしら
WEBUIの初回起動時 フリーズするんだが(´・ω・`)
自己解決した webui初回起動時1時間近くフリーズしてたけど 放置してれば進んだ(´・ω・`)
Python 最新版3.11でインストールしたらERRORでた 3.10.6じゃないとあかんぞ
3.10.9でも動いてるけどなんかダメなんかこのバージョン これでエラー吐く拡張機能とかあったら入れ直そうかなと思ってたけど今のところ特に問題ないし
動くんならええ 公式のテスト環境が3.10.6 なら確実だよって教えてくれただけや
>>333 そうそう、インストール時は止まって見える時間がけっこうあるんだよ
でも1時間は長いね
うちのRyzen 5 3600/32GBで10分かからないくらい
Twitterでbrav5とかいうのがめっちゃ評価高かったから使ってみたけど、ちょっと使いづらいなこれ。クセが強い。 アニメ系ののLoraは原型全然分かんないし、リアル系も個性とかは完全に潰される感じ。
LoRaで特定人物の顔を学習させてるんですが、サンプルで表示される画像がピカソみたいなのばっかりです(まだ2万回ぐらいしか回ってない) これって何か間違っているのでしょうか? 顔アップのソース画像は512x512の10枚 embeddingでやっています
>>339 ツッコミどころ満載すぎて
何を2万回やったのか
512×512を10枚って何をやってるのか
>>340 Trainを2万ステップ(今は3万を越えてる)回した状態という事です
512x512は、縦横512ピクセルの顔画像で、それを10枚ソースフォルダに入れてTrainしているという意味です
あんまりしっかり検証したわけじゃないけど、Euler aだけモデルとの組み合わせもあるけどとんでもない絵を吐き出してくる印象だなあ。 サンプラーのそれぞれの性質がよくわからんわ。
>>343 情報サンクス
サンプラーはEuler a かEuler にしてました
帰宅したら変更してみます
学習画像の質にもよるし学習率やdimalphaによっても変わるしオプティマイザーの違いもあるし それにしたって2万なんて回しすぎだと思うけど step数増やしまくればいいってもんじゃないぞ
>>345 デフォルトが10万回になってるし、ネット上の解説記事でも1~10万回ぐらいというのを見たので、1万回づつ追加学習させてました
2500ステップ程度でも過学習気味かなって感じることもあるけどな。
横顔だけ学習させたらピカソになるだろ。 いろんな角度から100枚くらいソースを用意しなさい。
>>349 DFLで使ってる顔画像が3000枚以上あるからソースはいくらでも増やせるんだが
ま、普通に考えて10枚は少なかったね
もっと増やして作り直してみるよ
低スぺでLowerオプションとか入れてると画像の質自体が落ちるのかな 12gのグラボとかと比べてただ出力に時間かかるようになるだけ?
突然画面が分割される周期に入ることってない? ネガティブプロンプト入れてもなかなか改善されない。
>>353 「以前のプロンプトが残ってる気がする」の亜種という気がする
あの現象は、以前のプロンプトが反映されるシードが選ばれて起きると考えているので
シード値を-1じゃなくて適当な数値の決め打ちでしばらく生成するのはどうだろうか
>>354 なるほど、次症状が出たらやってみます!
全く同じ呪文とか設定でも端末によって生成されるイラスト変わってくる?
>>356 ハード的には石のメーカーが同じなら変わらない
ソフト的には全てがバニラなら変わらない
いずれも高速化(xformersなど)や低容量メモリ頑張る化(medvramなど)の要素とかで変わることはある
同じものを出そうとして出せなかった場合は
・自分の環境で変化してしまっている
・元画像が変化した状態で出している
のいずれか
後者なら同じものを出そうとするのはほぼ不可能になることがある
>>356 GPUが30x0以降とそれより前で結果がある程度変わるという話はある
検証した画像もあったよ
CoreMLで走らせると速いが、絵柄がガラッと変わる。
1000~2500epochくらいでLora作って基本的には特徴をとらえたものが出来てたのでそれで問題ないと思ってたけど、同じ教師データで7000epochで作り直してみたら、気持ち描写が多少良くなった気がする。 あとは多少きつめに強制かけても破綻しづらくなった気がする。 epoch数とか繰り返しだか周回だかの回数とかどの辺が妥当なのか良くわからんねー。
基本的に、みんな目的というか、どういう用途でstable diffusion使ってるの? 投稿用とか?
Twitterでゴミみたいな画像垂れ流して自己顕示欲を満たす Kindle Unlimitedでゴミみたいな本乱発して小銭稼ぎ
マイナーで二次創作が少なかったり、エロ禁止のキャラとか 自分でお絵描きできれば1番いいけど、生憎それは才が無くてな ただやっぱり自分のセンスのなさを感じるようになってきたわ
自分も最初はエロ目的だったけど、それだけだと思ってた以上に早く飽きてしまった。 なにかもうちょっと遊ぶ方法ないかねえ。
>>363 自分が箸にも棒にも掛からないゴミだからってそう僻みなさんな
>>368 そういうのできるんだ。
風景用のLoraから作る感じ?
>>368 どんなモデルを使うの?
よかったら教えて。
>>362 ゲーム作っててその素材にしようとしてる
>>373 俺もそのつもりだったけど楽しくて無関係なものいっぱい出してるわ
Lora作る時に、1girlてタグがほぼ確実に生成されるんだけど、これも学習対象に入れといた方がいいのかなあ? 今のところは対象には入れてないけど成立はしてる感じ。 より良くなるなら入れたいんだけど。
写真取り込んで着せ替えみたいなのができたらいいんだけどな。 スマホのアプリではそういうのできるのもあるし。 実際stableでやってみたけど不自然感というかぐちゃぐちゃになるなー。 stableで作った画像でも修正着替えさせようとしたらその部分の色がおかしくなったりするし。やり方がおかしいのかな。
>>376 正則化画像とか用意できるなら入れた方がいいんじゃない?
chilloutmixでAOMのlove juiceみたいにできない?
リアル系で肌がどんどんツルツルの陶器みたいになっていくの、何とか防げないものか。 肌の質感出したい。
LoRa作る時って、アップの写真だけ使う? 全身とかも使う?
gtx 1650 superだけど、低解像度で1枚10秒ぐらいかかってるけど、すごいなこれ・・ 性癖どおりに出てくるのが怖い 買い換えた現行世代のPC(3060 12GB)が1年ぐらいほったらかしになってるけど、 早めに移行作業しよう
今まで面倒だったからフォトショのバッチで長方形のまま学習させてたけど、試しに手作業で正方形にトリミングしたらLoRaの質がめちゃくちゃ上がった気がする。 急がば回れとはこのことだな。
>>383 使い始めて数週間だけど仕事以外はこれしかやってないわ
楽しみにしてた大人気ゲームが出たけど30分しかやらずだし、マジで沼だ
>>383 1年前に3060 12GBを買うとは先見の明があるなあ
そんな大容量のVRAMあっても使わんじゃろと言われていた
メモリもストレージも増えれば増えただけ使ってしまう 昔からずっとそう
入門的にM2のMacBook Airで色々始めてみて低解像度でLoRAとpromptのみのシンプルなやつが1枚1分くらいで作られるんだけど3060 12GBだと速度的に全然違う世界観になる?
>>386 発売当時「VRAM使い切れるほどの性能持ってない、持ち腐れ」と酷評だったな
それがここまで評価逆転するとはわからないもんだ
>>388 うちが3060の12GBだけどxformer有効で解像度512x768だと8秒くらい
>>390 ありがとうだいぶ速いな
久しぶりにWindows環境揃えるかぁ…
>>386 実は「エロ動画をAIを使って60fps化」するために、1650superではVRAMが足りていないという事態だったので
VRAM12GBを用意していたら、Stable Diffusionのほうが渡りに船状態になった
科学技術を進歩させるのは戦争だが人間を進化させるのはエロだからな
エロ用途なら12GBはJAVPlayerで随分前から有効活用されてるよ
>>393 エロ自体は割とすぐ飽きたけどな。
逆に性癖を簡単に満たせ過ぎてなんかやばい気がするわコレ。
飽きてAVに戻ってきたわ AIでAV生成できるようになったら起こして
2次、3次ともにどのモデル使って良いかわからんようになってきた エロ目的には今はどれがおすすめ?
エロ用モデルを作り公開する人達の意欲と使命感はどこからくるのか
少なくともM1やM2だとメモリが足りないよな。 うちはM1出始めで、少ないメモリでもサクサク動くとかいうので8GBなんだよ。 メインメモリとGPU合わせてだぜ。 普段は快適でもSDでまさかの低速になった。 512*768のhires.fixはまともに動かない。 CoreMLだと速いが、絵柄が変わるw
>>399 好みによるから自分で好きなの選べとしか
>>400 めちゃくちゃヒットしたらアップデート版は課金制になるとか?しらんけど
俺には神としか...
>>400 自分好みの絵が出るモデルを作りたい→できたからみんなにも使ってもらって自分好みの絵を出してもらいたい
はとても普通のことだと思うよ
試しに768×768でLoRa作れないかなと思ったけど、グラボの性能が足りず無理だったわ。 512×512で作ったのと比べたら品質というか再現度高いのかな?
>>404 情報量は増える
これは、
・目的の情報の取得も増えるのと同時に、間違って取得するノイズ(誤情報)も増える
という意味になる
だから、再現性が高まるのと同時に、制御も難しくなる
>>405 なるほどー。
再現度は上げたいけど今のところはSDに追加投資する気にはなれないので、しばし見送りかなー。
>>406 3050。
流石に無理があった模様。
>>407 3070の8GBは768*768でもバッチ1ならいけるけどなー
ちなみにメインメモリはどんぐらい?
lora学習は元がサイズバラバラだと内部でリサイズ処理する時にメインメモリも大事らしい
>>409 メモリも関係するのか。
メモリは32GB。
作業とかで余裕はまだあるけど、おいおい64GBに替えると思う。
CivitaiにLORAはあるよ 使ったことないから知らんけど Giantで検索
inpaintで、塗りつぶした範囲だけ変換後に色が暗くなってしまうのですが、なにか設定の仕方がおかしいのでしょうか?分かる方いたら教えていただけるとありがたいです。
>>414 俺もそういう感じのこと最初あったけど、最近改めてやってみたらそういう症状出なくなったな。
何が原因かは分からんけどももしVAE入れてなかったら入れてみるとかは?
なんだよこのスペック沼。 いくらかければいいんだよ。
>415 VAEじゃないけどchechpointを変えたら色暗くならなくなりました!ありがとうございました!!
量子グラボが誕生すれば、すべてのグラボは過去のものとなる でも、量子になればもうグラボいらないよな
4060ti 16Gってどうなんだろ? 3060 12Gの2倍位の価格になりそうだけど
グラボ8GBを2枚載せて16G並列化できないもの?
やばい物に手を出してしまった。中毒性高いな… いろいろ組み合わせて試行錯誤してるとあっという間に時間が経ってしまう
>>425 それな。
いろいろガチャしているだけで時間が溶けていく。
グラボを高速化してもガチャの回数が増えてしまうだけかもしれない。
>>423 VRAMだけで性能が微妙
3070以下なんじゃないかと言われてる
>>430 4060ti 16GでAI絵始めようと思ってたけど
3060 12Gでも良い気がしてきた
まぁ4060ti 16G出てみないとわからんけど
あれほど酷評されてた3060 12Gが化けたんだから4060も様子見やろなぁ
ゲーミングPC持ってて良かった🥺 windowsだから長い間AIやるき起きなかったけど
コンピュータ歴はかなり長いけどオンボのグラボしか使ったことないよちよち歩きのグラフィック分野の初心者なんだけど。 「stable diffusion パソコンスペック」とYouTube検索でグラボ貧弱CPUハイスペックで動かしているYouTubeがあるんだけどCPUハイスペックだけでいけちゃうの? グラフィック以外の生成AIを次買うコンピュータに載せたいんだけど、そのときはハイスペックグラボ必須だよね? 清水亮さんのYouTubeチャンネルみるとそういうコンピュータ構成みたいなんだよね。
見てないけどwebで動かしてるか推論だけ軽量モデルでやってるんじゃね まあ上級者向けだと思う
cpuでも行けるけど10分単位で待つからガチャ効率ものすごい悪い
>>434 グラボだけ高性能にすればいい
メインメモリも増やした方がいいけど
それ以外は モデルを SSD に入れた方がいい
これだけだね
>>425 バッチの数多くするのではなく、数回ごとにプロンプトを変えてトライアンドエラーをしていくと時間が溶ける
SDいうても、基本的に登録されてるプロンプトしか反応しないような感じだから、自由度の高いコマンド式AVGやってるような感じがあるよな。ずっとやってると。
マシュマロみたいなおっぱいがどうも苦手だから薄く血管浮かせたいんだけど、どうプロンプト書いてもダメ
多分チェックポイントが学習されてないんだろうね LoRAでも作るしかないね
SD使ってみてハマってるわマイクラ並の時間泥棒 ログ見てみたら同じように時間溶かしまくってる人結構いてワロタ AIごとに呪文とか書き方同じじゃないから手探りな部分があったり重み1つ変更するだけで大きく変わったりあれこれ試すだけで楽しい manをmaleに、womanをgirlやladyに変えると微妙な差がちゃんと出るから面白い
>>445 LoRAの管理だったらcivitai helperが便利だけど違う話だったらごめん
>>446 i5の超貧弱CPUにGPUオンボだし、どうせ起動すら出来んだろうと興味本位でDLしたのが運の尽きだった
低解像度でも生成に1枚10分以上とかありえない遅さなんだろうけど、まだ物珍しさが勝ってるから
常にに何か生成しながら別の作業する癖がついてしまって、最近はとうとうPCの通販サイトまわって
GPUスペックと価格を眺める毎日に・・・これが沼の入口か
>>450 指定した性癖通り出てきたら脳汁出るよね
それが沼コースへの始まりだったわ・・・
SD用のファイル管理ツール作ったけど需要あるかな?
https://github.com/hanachanX/ImageFileEditing python初心者がからいろいろグダグダだけど。
とりあえずリリースからだれにも見向きもされない。
>>453 README.mdにツール稼働時のスクリーンショットを何枚か貼りつけてみたらどうかな
文字だけだとどうしても人目は離れちゃうかもしれない
ただいろいろ面倒な人も見に来るかもだから画像が映り込むときは画像全体にモザイク掛けるかよそから持ってきたサンプル画像集の画像とかに差し替えするのがいいかもしれない
とりあえず画像貼っといたけどなにせtkinterだからUIがショボすぎて画像載せるのためらうわ
>>450 You グラボ 買っちゃいなよ CV ジャニー喜多川
SD使い始めてまだ一月弱だが、ふとoutputsにある画像データの容量見てみたら10GB超えてた。 一体何枚作ってんだよって話だわ。 必要なもの以外こまめに消さないとヤバいなこれ。
>>459 オートセーブを無しに、気に入ったのだけセーブ。
>>453 EXE化したので良かったら使ってみてください。
cloneしてくれた人が5人ほどいるみたいで感謝
AI川みたいなクッソリアルな質感とかどうやったら出るんだろうなあ。 色々工夫はあるんだろうけど、クソしょぼグラボでは無理とかあるのかしら。
低スペは解像度の上限が下がるけど質感そのものは変わらんでしょ
高解像度にしたらしたでAI「もう何人か書けるスペースあるから描いとこ!!」 なんでやねん
丸出しじゃなくてチラ見せしたいのに、チラ見せのプロンプト追加するととんでもないです場所から生えてきたり、服がその部分の形にトランスフォームしたりする
隙間を埋めたくなるAI つまり学習内容がぎゅうぎゅうばかり
Photoshopでもいよいよfireflyが導入されたけど、案の定ガチガチに規制してるな。 けどこういう感じが今後のAIのスタンダードになってくるだろうから、今後技術が発展しても今のSDほど好き勝手はできなくなってきそうだなあ。
GeForce Game Ready Driver 532.03 WHQL
https://www.nvidia.co.jp/download/driverResults.aspx/204972/jp This new Game Ready Driver provides the best gaming experience for the latest new games featuring DLSS 3 technology including The Lord of the Rings: Gollum.
Additionally, this Game Ready Driver introduces significant performance optimizations to deliver up to 2x inference performance on popular AI models and applications such as Stable Diffusion.
studio用じゃなくてgame用ドライバなんだ。 次からは変えにゃあかんな。
453です Real-ESRGANやCRAN_V2で超解像度でアップスケールできるようにしました。低スぺのマシンで高解像度の画像が生成できなくてもかなりきれいに仕上がります。 exe化したら700MBのファイルになったので断念。よかったらつかってね。
Stable Diffusionって nVidiaドライバのgameとstudioドライバどっちがいいの? ゲームしないから今までstudioしか入れたことないわ
>>475 ありがとう、そのままstudioでいきます
もしsteamとかに興味があってstudioのままなら悪影響でるのかしら
もの凄いアホなこと聞いてるかもしれないがGPU内臓CPU詰んでる場合ってオンボードから画面出力した方がグラボに負荷掛からなくて生成速くなったりするのだろうか?
近影にすると高確率で自撮り風になるな ものすごい数学習してそう
>>477 この質問 3000回目ぐらいだけれども
ほぼ変わらない
>>479 3000回目を飾ってしまってすまない…
そんな気にしなくても良い感じなのねありがとう
使えるビデオメモリが増えて、解像度は少し大きくできるけどね
フルHD 3画面で使っているけど、 それでどれくらいメモリ使っているかわかる?
どうでもいいエロ画像のためにグラボの値段吊り上げてるのはお前らか マイニング厨と言い次から次へと迷惑な連中が湧き続けるな
マイニングと違って1人1~2枚あれば充分だから影響は少ないんじゃないか?
画像生成AIなんてものに手を出している人はマイニングに比べたらずーっと少ないだろうしね
俺はAI画像生成のこと知って初めてGPU絡みでマイニングってもの知ったぞ それまで全く知らなかった
マイニングするくらいならアート作品作ろうってプログラマの人が言ってた
マイニングはすぐ金になるけど、画像は自分で販路を開拓しなきゃならないからなぁ
そうそう、グラボに投資してお金を稼ごうとしたとき、画像生成AIはコンテンツの制作と販売もやらなくちゃいけない ただ動かしていればいいマイニングより手間が大きすぎる そういうのが好きな人でないと続かないよね
masactrlだけいくらダウンロードしても反映されないんだがなにが悪いのかな?コミットとかわかる人教えて
GTXで2分かけてできあがる画像を何十枚も作ってたら朝日を見て寝るようになったわ
昨日まで問題なかったのに、いきなりin paintが使えなくなった。 エラーメッセージ見るとGPUのメモリが足りねーぞってことらしいんだが、GPU使ってんのはSDだけなんだよなあ…
再起動したけど、ダメだった…。 再起動後にGPUのパフォーマンス確認したけど、明らかにGPU使ってんのSDだけなんだ…。 再起動前はPhotoshop betaも一緒に使っててそっちの影響があるのかなと思ったんだが。 ちなみにtxt2imgは今のところ問題なく使えてる。
ごめん、更にもう一回再起動したら治った。 ただの謎不具合だったみたい。
不具合で最高の出来ができたあったと後で気づいた時の悲しさ
しかしなんでprompt通りのもの出せないんだろうなこいつ intelligenceの欠片も感じられない
無能はできないことがあると、他人や道具のせいにする 無能は、自分の無能を自覚する能力も低い
けっきょくモデルとLORAの知ってることしか出ない
そもそもintelligence必要ない支持にすら従えないのはなんでだ いったいどんな学習したらそんな奇形ばっかり出てくるんだ
キミは最近知ったんだろうけど、基礎的なことはもうとっくに散々語り尽くされている事なので、関連スレや過去ログでも読んでおくれ
taggerを入れようとしたが、インストールはできたのになぜか表示されない・・・。 というか、taggerって、普通に「Interrogate CLIP」でタグを表示するのとなにが違うの?
モデル毎に対応してるトークンリスト欲しいよね そもそも対応してなきゃ意味ないのに当てずっぽうでガチャるしかないし
このソフトスマホやタブレット端末でも出来るように成れば良いのに
さっさと進化させて加工しすぎたグラビアアイドルから脱却してくれ 今が一番気持ち悪い
>>508 ・自宅PCで動かして外から使えるようにはできる
・mage.spaceなどStable DiffusionのWebサービスを使う
>>509 モデル作者がそのように作るからであってAIの責任じゃない
要するに利用者の気持ち悪さが反映されてるだけ
ろくに理解していないことを背伸びして語らんでよろしい
>>508 iPhoneだといくつか移植されているよ。
でもなぜか同じモデルを使っても同じ絵が出ない。
1枚1分くらい。
>>504 そんなめんどくさいことしなくてもまともなもの出せるようにしろ
使ってる人間が一番intelligenceがないというオチ
>>453 R-ESRGANやCARNv2による超解像度変換機能を追加したので使ってみてください。
(CUDAが使えないと変換にかなり時間がかかります)
>>453 readmeのmarkdown英語で書けるのが優秀
ルール的にgitに上げるなら英語でreadme書かないといけないの?
WD14 Tagger、urlからインストールしてinstalledの所にもあるのにリロードしてもタブが追加されないのは何故だろう。何回も入れ直してもタブが増えない。
今まで起動してたんだけどなぜか webUIが起動しなくなっちゃった 再インストールしたんだけどダメで webui-user.batに set COMMANDLINE_ARGS=--use-cpu all --no-half --no-half-vae --skip-torch-cuda-test --disable-nan-check と追記したんだけど 前はこれでGPUなしで起動できたんだよね でも--skip-torch-cuda-testのランタイムエラーがでて起動できない デフォルト設定でGPU無いとwebuiの起動を弾く仕様がムカつく(´・ω・`)
解決しました 再インストールして webui.batじゃなくて webui-user.batをまずクリックしないとダメでした 起動できました ふう(´・ω・`)
>>517 がんばっている人はいる
なんJNVA部★216
http://2chb.net/r/liveuranus/1685500098 95 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ efe8-S+HU)[sage] 投稿日:2023/05/31(水) 14:07:26.15 ID:YMQeTjXL0
サンイチBBA
258 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0b12-qtTw)[sage] 投稿日:2023/05/31(水) 21:01:12.88 ID:bvv13YaH0
おはDはTwitter勢がやたら上手でかなわんわ
最近始めました 美熟女ムズイわ queenとか入れるとエリザベス女王出てくんの罠だろ
>>527 フレディ・マーキュリーが出ても困るよな
AMD Software: Adrenalin Edition 23.5.2 Release Notes
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-5-2 Performance optimizations for Microsoft Olive DirectML pipeline for Stable Diffusion 1.5.
inpaintで修正かけた画像を、inpaintに転送し直してさらに修正かけようとすると、修正済みのところも影響受けるよな。 なんでだろ。
>>531 あれねえ、転送されてもマスクがクリアされない仕様のようなんだよね
だから転送前にインペイント領域の右上にある×ボタンを押して全部クリアするようにしてる
数日前に始めたけどむっず 美少女にちんこ生やしたいのにケツに突っ込まれたのばっか出てくる
一方画面にオチソチソ出したくて(penis:1.4)とか入れると7割フタナリになる俺がいる
LoraとかLyCORISのセットしても指定したキャラとか人がうまく反映しない 動作とか服装は大抵うまくいくけど、上のは推奨モデルとかじゃないといけないのかな まあまだ初めて一週間くらいだし探り探り行くか 構文のどこに作用するのか探すのがなんかパズルみたいで面白い 時間溶けるー
パラメータ指定するメタAI出たらお前らお払い箱だぞ
AI「お仕事お疲れさまでした、今日の抜きプロンプトはこれでいかがですか?付き合い長いですから好みは知ってますよ お風呂上がりで御飯食べ終わる頃にフルHDで100枚出しておきますね」 とかなったら、それはそれで寂しいな
最近始めたけどAIフォトやばいねこれ完全に写真じゃん 自分好みの少女量産して抜きまくってる もうおかず買わなくていいわ
AIによる技術が発達し、動画などのリアルタイム自動生成ができるようになった今 未成年への犯罪率が減少し結婚をしない若者が増え、生涯独身率が8割を越え出生率が0.2を割ったのが 2025年を振り返った大きなニュースでした という夢を見そうで怖い
>>535 こちとら肩からオッパイ生えてきたりしてるぞwww
パイ協調もっとしたいから large breasts:1.5! お尻から乳「やぁ、呼んだ?」 腋から乳「久しぶり!」 肩から乳「あんたも好きねぇ」 俺も「ぁぁぁあああ!」
まんま人間の欲望が暴走したマッドサイエンティストの世界だよな。
>>546 ネガティブにextra各種入れていても召喚するから困る
合法ガチロリ画像が大量にうpられてる場所教えてください
父を吸う呪文を連打しても赤子しか召喚されないけどどうしたらいいんだろうw
>>552 NSFWのモデルでNSFWのプロンプトを入れるとか?
balloom_mixってLoraじゃなくてモデルなの? 知ってる人いる?
一度クリーチャータイムが始まるとパラメータ変えても抜けられないの呪いだよな
>>557 俺もよくなるけど、VRAM 8GB、12GBの人でもなる?
俺は4GBだから良くなるものだと思ってとわ
便が出てくる場所間違えるのなんとかなりませんかね…
夜中に生成してると不意に顔面崩壊クリーチャー出てきたときびくってなる
>>559 ベンが出てくるとこ3箇所付いてて、そればっかりでてくるんだが…
奇形しか出ないの勘弁してくれ ちょっといじると全身でなくなるのも
BracingEvoMix、なかなか良いな。キレイ過ぎないところが良い
モデルによって極端な年齢操作が効かないのあるな CyberRealisticを気に入ってる
>>564 そのページでゆってたけど全く1からモデル作るのはやっぱよほどの環境がないと無理なんだな
だからみんな似たようなマージモデルをこぞって投稿してるわけだ
>>564 なんかガビガビしてるというか、昭和ぐらいのサイケなテイストを感じる。
扱い難しくない?
あと、俺の環境だけかもしれないんだけど、全く服を着ない…。 nsfwは入れてるけど、きちんと服装の指定もしているのに。
>>571 最終的にはそれもしたけど脱いだなあ。
何が悪いのかと思ったんだけど、BracungEvoMixのダウンロードページに書いてあった推奨のネガティブプロンプトを「削除」したらまともな動作になった。
強調が多かったからおかしいなとは思ってたんだけど、まさか推奨のプロンプトが悪さするとは思わんからさ。
わずか1日で好みの10歳から13歳くらいの女の子10000人の召喚に成功。まだ全員確認できてないくらいだ。 時々指や関節の形が変なのも混じるが、確率の問題で半分は成功している感じだ。 日本人の超かわいい子ばかりで 服装も制服、ワンピース、水着からコスプレまでなんでもありだ。 中でも全裸でお風呂、お股を広げた画像は 詳しい部分の描写もわりと綺麗で、リアルな写真と区別をつけることは最早困難。 あえて不満をいえば、個性が足りない。 全員軽くお化粧をしているような感じ、 顔の輪郭や乳首や乳輪の色艶形が似通ってしまう、 下の毛の生え方が実際とは少し違う感じだ。 おへそが2つになったり、へそピアス率が高い。 あと変なものが生えてたり、 肛門につっこまれていたりするのも勘弁してほしい。 こんな趣味がバレたら娘や妻には顔向けできない。 多分、私は長生きできない。
そう思うなら暗号化するなりして見られないようにしときなさい
v1.3.xとv2.x両方使い分けてる人いる?結構違うものかな? apacheみたいにユーザー層が棲み分けできるといいな
浪費のきっかけにならないよう4090にはしなかったんだね、えらい
EasyNagativeを使い始めてから、プロンプト数がかなり削れて画質が上がったけど、これって具体的にどういう効果があるのかな。 画質低下とかのネガティブプロンプトの効果はあるようだけど、これオンリーだと人体的に無理のあるポージングや腕3本とかが出てくる頻度は上がってしまう気がする。 あくまで画質向上オンリーの効果なのかな?
いい感じの画像ができたので、SD使い始めの時にちょっとしか使わなかったアップスケーラーを久々に使って見たが、微妙に顔つきとか細かいところが変わってしまってコレジャナイ感が。
>>582 ノイズ除去強度を下げるんですよ
あとアップスケーラーはLatent以外にする
新Mac Pro買うとリアルタイム動画生成できるってマジ?
これすごくない?
>Vision Proを装着している他の人との、FaceTimeでのビデオチャットも体験してみた。相手はゴーグルをつけた状態で現れるのかと思ったら、付けていない状態で現れた。これ、実は機械学習で作られた合成映像だ。
>あらかじめVision Proのカメラで自分の顔をスキャンしておくと、スキャンした顔に内側についたカメラで撮影した目を合成してゴーグルをつけていない状態の顔を再現してくれる。しかも、リアルに表情も再現してくれるのだ。
「Apple Vision Pro」を先行体験! かぶって分かった上質のデジタル体験(2/3 ページ) - ITmedia PC USER
https://www.itmedia.co.jp/pcuser/articles/2306/06/news208_2.html >>584 なんJNVA部★219
http://2chb.net/r/liveuranus/1685975035/170 170 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0228-5Ku2)[sage] 投稿日:2023/06/06(火) 13:40:53.50 ID:VEid/mmo0
>> 161
m2 mac book air 24Gで生成してるワイからの忠告
それだけに使うならやめた方がいいよ
CUDA使えないってのが痛すぎる
512サイズの画像1枚生成するにも数十秒かかる
ほとんどの拡張機能はmacでも動くけどそれでも一部動かない機能があったり全く動かない拡張があったりするので自力で対応しなきゃならない
>>590 512四方の画像出すのに100秒かかるワイ咽び泣く
BracingeEvoMix、基本的に脱ごうとするバランスが良いな 服装の強度上げるだけで適度な露出具合に調整できる
始めて2週間全裸絵作りすぎてなんか自分の中で全裸の価値が薄れてきた ので翻訳サイトでワードを探す旅に 直近の良単語はflauntだな チラ見せにちょうどいい
分かる もう脱いでるだけでは物足りないので構図やらシチュエーションをいかに上手く出せるかになってきた
美女が汗まみれで柔道着を着て下着無しでチラッと見える最高の作品ができた
複雑なポーズさせようとすると、体も顔面も人外になっていく
>>557 多分Chromeのメモリバグかなんかだと思う
ExterNetworksでLora読み込めなくなってエラー吐いたりしてたけどPC再起動とかしたらなおった
>>558 8GBだけど少しサイズを大きくしたら共有メモリ使いだしたからそれが原因かも
Hires. fixしようとしたら32GBを使い切って合成途中で中止されたわ
いいかい、良く聞くんだ underwearではなくlingerieなんだ 重要なことなんだよ これはとても重要なことなんだ
なるほど ちなみにpantsだとズボン扱いになるときあるからpantiesのほうが良いかも
Don't worry, I'm wearing・・・
>>602 underwearどころかunderwareと書き間違えてた
software、hardwareからつい
ゼロからプロンプト書いてるの? Civitaiで描けてる絵をインポートして改変するのがセオリーだよ
手軽に並べられる単語group shotだけど 生成されたのよく見ると顔の造形がほぼ同じということに気づいた なんか手軽にうまいこと顔バラバラにできないかな
Loraってwaitを高くすれば必ずしもモデルに似るって訳じゃないし、高く設定すると画像崩れまくるってのはもう散々身をもって知ったんだけど、どうしても作成画像がモデルに似ないと数値上げちゃうよなあ。
ControlNet使いはじめてからアダルトサイトでポーズ素材探す日々
人体のポーズ数。 更にSDで再現できるポーズ数ってなるとかなり限られるぞ。
トークン数、基本的に75におさまるように作ってるけど、オーバーしたからって即おかしくなるようなこともないのがかえって難しいな。
>>453 pythonの勉強のために作ったけど誰一人として使ってくれないw
tkinterじゃあUIが古すぎてダメか。CustumTkinterにしてもだめかな。
なんか改善案みたいなのあると勉強になるからissueでもください。
>>619 75超えた分は次のステップに回されるとか?
75-150トークンは実質半分のステップで生成しているとか思ったけどどうなんだろう
depth libraryを入れたらLoRAを読まなくなってもうた 削除したら解決、なんか入れ方が悪かったんか
あるある 拡張機能のバージョンアップが1111のアプデに追いつかないとこでもある 最近だとloconのアプデでLoRA効かなくなったとかもあった
しばらくするとWinError 10054通信が切れたってログが永遠に出続けるんだけど このソフトウェアは何かをずっと通信する必要あるのか そして自動で再接続とかできないのか
bad nippleで変な位置から生えるの防げる?
>>630 結論から言うと、防げない
(防げることもあるかもという程度)
途中送信失礼
>>630 結論から言うと、防げない
(防げることもあるかもという程度)
乳首は「乳首を描くに適切な周囲」があれば勝手に描かれる
だから、妊婦のへそも乳首に適切な環境に該当する(膨らんでいる頂点である)ので乳首化しやすい
対策は、「(そこは乳首ではなく)ほかの要素である」と明示すること
前出のへその場合は「へそをちゃんと描け」と命じることで乳首化を防ぐ
方法論は無数にあるので、ご自身で探されたし
bad系は形状だと思う 複数になるのを防ぐのは too many や extra かな ちなみに翻訳して出てくる末尾sワードはわりと罠
分裂とか多人数が出るのを必死こいて防ごうとしてるのに、二人だったのが四人になったり、ずらっと横並びでキメられたりするともう逆に笑えてくるな。
一般的なクラスのGPUだとBatch sizeはほぼ無理なんかな 単純なのは並列処理してもそこそこの出来になるけどプロンプト盛るとCUDA足りてない感満載 3060がどれだけやれてるかわからんけど3050とかいうクソボードは速度はそこそこだろうけどBatch countで回すしかないわ
>>635 足りてないのはビデオメモリ
3050でも解像度小さくすればBatch sizeは増やせる
Latent Couple導入でいろんなサイト見ながら 直打ちAND文で作成したらそこそこできたんだけど 文にLora入れたらなんか混ざって出力した うまい手あるんかな
>>619 Diffusers使いだけど少し前 (ver0.15.0) からDiffusersはCompel対応になっている
-----
Stable Diffusionパイプラインが生のプロンプト埋め込みを受け入れるようにします。
適切と思われる方法で埋め込みを自由に作成できるため、ユーザーはプロジェクトで
重み付けを表現するための新しいアイデアを思いつくことができます。
・重み付けされた埋め込みを作成するための高レベル ライブラリとして、
「compel」を採用しました。
-----
試しにコレ入れてみたらワード数の壁簡単に突破したわ、いくらでも入るみたい
画像のサイズ最初から大きくしすぎると、破綻した絵が出やすいよな? 1024×1024で作るより、512×512を2倍にアップスケールする方が結果が良い気がする。
>>642 それの導入方法わかりやすく説明してるとこありますか?
>>643 ドットが小さいから物体の大きさに対してずれるドットの数が大くなる
1ドット違うことは倍の解像度だと4ドットくらい違うことになる
詳細なグラフィックになればなるほど書き込み量も多いから破綻がわかりやすくなる
スケールプラグインのウルトラサンプリングで補正をした方がきれいになるかもしれん
ちなみにフォトで画像を2倍にしたらそっちのがきれいに見える気がするから
GIMPとかでシャープしながら解像度を倍にしたほうが結果的には早くいい仕上がりになるかも
>>644 最新のDiffusers(v0.17.1)での対応を日本語で説明しているのはまだ見つけていない。参考にしたのは下記3つ
(1) ttps://note.com/npaka/n/ne1bbe64fb5cd (日本語)
8. ウェイトプロンプト、 のところ
(2) ttps://touch-sp.hatenablog.com/entry/2023/06/01/115745 (日本語)
(3) ttps://pypi.org/project/compel/ (英語)
0.1.10 - add support for prompts longer than the model's max token length.、のところ
(1)ではCompelの導入方法については書いてあるけど肝心の長文を流し込むためのオプション (truncate_long_prompts=False) のことが書かれていない。
(2)ではしれっとそのオプションが使用例の中に書かれているんだけど今のバージョンだとこれだけでは動かない。
(3)はCompelの公式HPだけど、ソコにはこのオプションを有効にする時にはpromptとnegative_promptを同じ長さに調整するために、compel.pad_conditioning_tensors_to_same_length() を使って変換しろとなっている。これで両方を一気に変換すればソレ流し込んで無事に動いた。(3)のCompelのところにの書かれている例を真似するだけで十分みたい。
いまはMultiControlNetでcannyとpose両方使いながら長文流し込んでいる。以前はcustom piplineで切って流したりしていたけどMultiControlNetではcoustom pipelineは使えなかった。ので新たに対応したCompelで変換して流し込んでいる。
ややこしいなあ。 YouTubeとかでやってくれる人出てきてくれたら助かるんだけど。 SDの設定の5割はYouTube頼りだわ。
ぶっ続けで画像生成してると1日に何回かPCというかグラボが落ちる。 そんなもんか?
ハードを極限までぶん回すとトラブルが顕在化しやすいって話だろ OS、ドライバ、ソフトウェア、ハードウェアのトラブルシューティングを一つ一つやって原因を探っていくしかない
HWiNFOでも入れて常にCPUやGPUの温度チェックするとか
>>649 そんなことは一度もなったことございません
>>649 挿し方甘いのかも、俺もなったけど挿し直したら改善した
>>653 もしそれなら、初期不良だな。
今のPC買ってから一回も中触ってない。
想像であーだこーだ言ってないでイベントログ見なさいよ
トラブルシュートに無知なだけ
>>650 、お前のことだよ
ロゴありの画像を学習させてのもアホだけど プロンプトに含めてないのにロゴありの画像を生成してくるのがほんとアホ しかもぼやけてるから文字ともロゴとも認識しないのが最高にアホ
>>658 そんなモデルを使わないようにするしかない。
くそう M1 8GBではhires fixがバッファエラーになって使えない
img2img系、サクサク動く時もあれば壊れたんか?ってレベルで遅々として進まない場合とがある気がする。
>>658 そもそも何千万とか何億とかいう画像数学習させてんのにわざわざ選別するわけないね
文字が認識できないのはレベルが低い、というのは分かるが
>>658 ネガティブプロンプトにtext、signature、watermarkなんかを入れてみては
>>665 しかもAppleシリコンはCPUとGPUでメモリ共有なんだよ。
これで4Kモニターに繋いでweb UIは厳しい。
こんな用途で使うことになるとは思っていなかったからね。
書い直してもいいのだが、M2系列ではどの程度のを使うとどれくらい速くなるのか、経験者の意見を聞きたい。
>>668 NVIDIA積んだPCを別に用意するのがずっといい
フロントエンド(ブラウザ)はMacのままにできる
俺は4090をUbuntuで動かしてMacから使ってる
M2 16GB(Air)で動かしたことあるけど遅い
中古で5万円台で3060積んだPC売ってたから買おうかと思ったんだが、i5のメモリ16GBだった。 グラボさえ能力あれば、cpuとかはあんまり気にしなくていいのかな。
>>670 3060でもVRAMが8GBだったりはしなかった? 12GBならなかなかかも
普通にWindowsが動いてもたつくことなく使えるならStable Diffusionには十分と思うよ
>>670 自分paypayフリマでRTX3060 ghost 28500円でかなりお値打ちだったなと思うので全部込みで50000円台なら有りじゃない?GTX1660superからの乗り換えだけど今のところ全く不満なし。
>>669 なるほど。
ubuntuでもいいんだな。
エロ目的で使ったが1週間で飽きたな もっ簡単に複雑なやつを作れるようになったらまた使う それまで眺めてるだけ
clipとcfgいじり始めたらもう立派なsd沼だ 呪文で時間溶けるってのに微調整やり始めたら全く止まらない はやく飽きてくれー!俺!
大体のモデルはあれこれ凝ったもの書き込んだところで理解してくれんからな loraしこしこ作るなら時間足りなくなるだろうけど
普通に実用ツールとして使ってるわ 素材欲しいときにSDが強過ぎる
>>678 「生成が検索に取って代わる」てやつやね
つい最近NMKD版というのがあるのを知ったんだが、webui と比べてどう違うのか分からない。知ってる人いたら教えて。 乗り換えたら既に入れてる拡張とかはそのまま使えるのかな?
>>681 質問スレのテンプレから
【StableDiffusion】画像生成AI質問スレ13
http://2chb.net/r/cg/1686751262/4 >Q3:NMKDと1111、どちらをインストールしたらいい?
>A3:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
NMKDは1111と同時期に開発が始まったまったく別のプログラムだから互換性はないよ
>>682 あざっす。
調べてみた情報だとあんまり具体的なのがなくて、便利っぽいようなふわっとした情報しかなかったから試してみようか悩んでたとこだったので、参考になった。
AUTOMATIC1111/stable-diffusion-webuiのプレビューエリアをでかくしたら快適になった。
どうぞおっそわけです。
1.「インストールフォルダ\sd.webui\webui\」にテキストファイル(user.css)を新規作成
2.下のテキストをコピペして保存
3.再起動
div:has(+ #tab_txt2img){
width:541px;
}
#txt2img_toprow, #txt2img_extra_networks{
width:541px;
}
#txt2img_settings{
max-width:541px;
}
#txt2img_results{
position:absolute;
top:-200px;
left:541px;
width:calc(100% - 541px);
}
#txt2img_gallery{
height:900px;
}
#txt2img_gallery > .preview > img{
height:900px !important;
object-fit: contain;
}
#txt2img_gallery > .preview > div:last-child{
top:860px;
}
たしかに縦長画像の時に寂しいものがあるよね z-indexとabsolute、right:0で右端に大きく表示できるのかなと
>>686 だいたいそんな感じ
user.cssは誰か使ってくれてるかな
>>687 has擬似クラス使ってる人初めてみた
firefoxが対応していないとかてあまり興味なかったけどしてるんかな?
firefoxは正式対応してないみたいだね 自分でもhas擬似クラスは初めて使ったけど、数日ぶりに見たらもう何の機能か忘れてたw
>>685 自分は意味は分かってないんですが
メニュー系が全部左に集まってるのも操作しやすくていいですね
出力する時の解像度ってどうしてる? 基本512×512で1024にアップスケールしてるんだが時間がかかって仕方ない。 かと言ってアップスケールなしでサイズアップすると画像崩れまくるし。
480x480で作成2分かかるワイが来ましたよ 目の前に3060 12GB含めたPCパーツ一式あるのに面倒臭いからもう2ヶ月組んで無い・・・
どでか1個づつでもいいから動作確認ははよせえ 初期不良交換してもらえなくなるぞい
ナーロッパのキャラ・モンスター・背景生成しまくればなろうコミックの生産効率100倍くらいになりそう
背景はあかん 読切ならいざ知らず連載するにつれ構造破綻する
>>690 使ってくれてありがとーう
ほかの皆も使ってくれー
>>691 512×768か768×1024
たまに胴体が妙に長いとかあるけど
>>692 もったいない、今すぐ自作しろ!
2分が5秒になるから今すぐだ!
ところで480×480が2分かかるGPUはなに?
>>700 GTX 1650、aDetailerあり、hiresしたら4分かかるけど80%の確率で落ちる
いやいや5秒なんてさすがに無理でしょ・・・え?4090とかならできるの?
>>698 2秒の方が普通だからネタじゃなくてただの見間違いでは?
>>701 なんの煽りか知らんけど生出力レベルのプロンプトなら3050でも6~7秒だぞ
Hiresは重いけどADetailerもつかってStep20ならそこそこのプロンプトでも1分で出力できる
3060ならおそらく40秒台4090なら20秒切るくらいじゃね
めんどくさいからって2分を選ぶ思考が分からんな・・・ 自作したことない人なんか?
>>701 5秒どころか3秒だった
あっしまった、adetailer使ってないや。もうちょっと待ってて
>>705 のつづき
480×480+Adetailerで6秒
480×480+Adetailer+hiresで23秒
これで自作する気になった? ああもったいない、3060が泣いとるぞ
roopってのを試してみようと思ってvisual studioのインストールかりやったけど、エラーを吐き出したり出さなかったり、一部の機能が使えなくなったり。 まいったなー。
なんかよく分からんままに、エラーとかはおさまったけど、肝心のroopの項目が表示されないわ。 ステータス見るとインストール自体はできてるはずなんだが。
もう買ってあるんだったら組むだけじゃん か 金がなくて買えないって言うならまだしも
昔はワクワクしたけど最近は年取ってめんどくさくなったわ 昔ほど体感できる変化も少ないし
>>697 お前CPUで30分-1時間以上かけてる俺にケンカ売ってんのか?!
え?GPU使わずにCPUと物理メモリでSDって使えるの?
>>714 今は違うけど始めて1か月くらいは俺もCPUでやってたよ
>>716 グラボを買うお金がなかったのか
GPU の設定はわからなかったのか
それで違うと思うんだが
>>717 どっちでもない
グラボがかなり古いradeonだった
toolkitたのしーw無駄を削るって行為にハマる 出力品質に差はいまのところないからどんどんモデル小さくして遊んでるわ 50GBくらい減って草
すいません、かなり初心者的質問及び間抜けな質問になるんですが、SDのバッチサイズで使用されるVRAMとはグラボのVRAMということなのでしょうか? パソコンのメモリ分補助的にSDで使用できたりできるのでしょうか?
https://youtube.com/shorts/kUWnuY2VpH4 このSDで作ったというAIダンスめっちゃ安定(顔が変形したり色が変わらない)してるんだけどどういう仕組み?
>>723 ありがとうございます。
助かりました。
3060の8GBなのでどうなのだろう?と思いました。ありがとうございました。
>>722 RAMはランダムアクセスメモリの略称でこれはPCのメインメモリを指してる
VRAMはビデオRAMといってグラフィックを扱うメモリのことでGPUはこれを搭載している
よって一般的にはグラボメモリのことをVRAMと呼ぶ
メインメモリをVRAMの代わりに使用できるシステムがあってVRAMが足りなくなるとメインメモリを変わりに消費してVRAM代わりに使うことができる
PCのメモリを全部使うとOSがフリーズしてしまうので全部使う仕様にはなっておらず半分まで使えるようになっている
使用されるVRAMというのはGPUが処理するに必要とするメモリなので普通はGPUのVRAMを指す
PCのメモリメモリをVRAMとして使えるかどうかは扱うOSやGPUの種類による
その仕様を利用してプログラムが扱えるように組まれてるなら扱うことができる、SDはデフォルトだと認識してる分のメモリを使うっぽいのでSDで補助的に扱えます
ただメインメモリの管理は本来CPUがしているので頻繁に共有するようなのはGPUメモリだけで扱うより速度が遅くなります
>>727 >PCのメモリ・・・中略・・・全部使う仕様にはなっておらず半分まで使えるようになっている
VRAM4GBグラボで、メインメモリ24GBだけどギリギリじゃないのに
プロセスが落ちたりするから不思議に思っていたけどそういうことだったのね
重ね重ねありがとうございます。 普通生成は、ハイスペグラボの経験ないので余り気にならないのですがハイレゾ時気になりまして質問させていただきました。
img2imgで画像解析してプロンプト出すと、結構な割合でrokkaku ayako って出てこない? 他にも謎の固有名詞出てきたりするけど、これって生成時には何か影響あるのかな?
画家とかの名前が多いっぽいよね。 でも中国のスケート選手みたいなのも出てきて困惑。 ダダはダダイズムかな?
ここ二月ぐらい、グラボフル回転なので電気代が怖い。特にこれからエアコンも入れるしな。
>>712 正確にはもう無いにも等しいクソボロい内蔵GPU乗っかってるからCPUオンリーじゃないけど
メインメモリ12GBとインテルHD520で動かしてるよ!
>>717 単純に金がネー!
>>722 727に付け足し
メインメモリすら足りなくなるとスワップファイル作りだす
俺環だとスワップ領域すら不足気味なので使い始めた頃(2か月くらい前)は
他にアプリ立ち上げたりするとけっこう落ちてたけど最近はメモリ不足で落ちることは
滅多無くなった(※個人の感想です)
貧乏はどーしよーもならないので最近Colabにハマってる
別世界に来たようだw
えー?!そうなの?! 俺からしたら超爆速なんだけど!
>>738 1枚10秒以内が理想だね
時間が余る時は画像を大きくする
colab→おせー バイオ用に買った2070→まぁまぁだな 4070ti→はえー
Colab垢2つ作って交互に画像生成すると体感的にかなり速く感じるよ GPU新調する必要なし
>>741 規約違反だからいつBANされてもおかしくないからね
>以下は、Colab ランタイムでは許可されていません。
>・複数アカウントの使用による、アクセスまたはリソース使用量の制限の回避
https://research.google.com/colaboratory/faq.html?hl=ja >737-738 速度の話は(特に「あれは遅い」という話は)その人の感覚でしかないのでフーンそう感じるんだくらいでいいんだよ ほかのスレではRTX3060は遅い派とこれで十分派でえんえんやり合ったり不毛すぎる
しゅまん、You Tubeの解説どおりにSD入れてcivitaiでコピペしてるだけなんや
もしかしてグラボの性能が画質にもろに影響する? 白背景にしたほうがいいと言うのでがんばって背景白で塗ったんだが それで学習したLoRAを使ってローカルで画像生成するともろに手作業っぽい枠ガタガタの白背景が出て来る まったく同じLoRAファイルを生成元のグラボあり環境で使うとそんな画像生成されない もちろんシードもプロンプトも同一
俺も気になるんだが 1650で512px四方、4090で512px 同じプロンプトなら生成時間が違うだけで同じものが生成されるの?
>>748-749 GPUの性能によって出力結果が変わることはない
んだけど、10x0シリーズとそれ以降ではGPU内部のしくみの違いで結果が変わることがあるよ
>>749 16XX シリーズは画質があまり良くない
処理が重くて良い感じの絵だけどぼかしフィルター重ねた感じになるのはグラボ性能と関係ない?
「RTX3070の202209ロットは暖かみのある絵柄になる」みたいな
>>752 画像の具体例をcatbox.moeにアップロードして示してくれた方が話が早い
が、なんとなくエスパーしてみるとアップスケーラーを「Latent」関係にして、ノイズ除去強度を0.5未満など低くしていると出る症状かもしれない
「Latent」がつかないアップスケーラーにすれば解決するかも
>>751 俺も1650で速度以外は満足して3000枚ぐらい作ってきたけど(就寝外出中メイン)
同じピクセルで画質が悪いって実際にはどんな違いがある?解像的なもの?
画質にも評価の方法はあるけど、来月辺りに3060 12GBにするから同じプロンプトでどう変わるかを確認するのが楽しみだわ
一手間はかかるけど、img2imgの方が色々とコントロールしやすい気がするな。
i2iの書き込みの増やし方どうしてる? hiresの代わりがいまいちしっくりこない
Lora使わんと完璧なちんぽの形難しいんやけど、みんなどうしてる? Lora使ったとて、先っぽがメチャクチャになる。 教えてエロイ人
>>758 言ってる書き込みが何を指してるかは分からんけど、要素を出したいならプロンプト。
リアル系であれば、loraの設定を高めにしたら肌の質感が出るというか濃くなる感じ。
人体が崩れないとこまであげて、顔はまあもう一工夫して直したり保持したりだな。
>>725 元々がMMD等の3D映像で、SDではわずかなエフェクトを加えているだけでは。
GTX1660SからRTX3060 12GBに換装したけど、そこまで速くなった気がしない… 個人サイトとか見ると十数倍速くなってる人もいるみたいだけど、体感1~2割速くなった程度にしか感じない グラボ換装した後に何か設定し直すことってある? ドライバーは更新した
>>763 venvフォルダは削除して再構築はしたんだけど、それとは別?
--xformers をやめて --opt-sdp-attention --opt-channelslas あたりも試しなよ --opt-channelslas はなくてもいい
>>762 うちも同じグラボで512×512だと一枚4秒だが、1660もそんな早いの?
>>767 コピペでショートしてtが抜けたやつをさらにコピペしたからどっちも間違ってるやw
--opt-channelslast
>>768 1660sで10数秒、3060でも10秒くらいかかるのよ
>>771 少なくとも vlam が2倍なので2枚同時に生成してくれ
プロンプト (Best quality, 8k, 32k, Masterpiece, UHD:1.2),Photo of Pretty Japanese woman, ネガティブ (Worst Quality:2.0),EasyNegative 512*512 ステップ20と40 1024*1024 ステップ20と40 DPM++ 2M SDE Karras で Restore faces をオンにして同じモデルでこれをそれぞれ試せばわかるよ ちなみに DPM++ SDE Karras だと倍の時間かかるからこっちのが差がわかるかもね
しかし金のかかる趣味だな。 まあ楽しいからいいけど。
全てにおいて夢中な時は楽しい ワイはふと賢者モードになってから10日ぐらいやってないな
昨日RTX3060に換装した者やが、高解像度で複数枚生成すると2~3枚おきに真っ黒な画像が生成されるんやが解決法ある? no-half入れても変わらんかった 昨日教えてもらった--opt-sdp-attention入れたら確かに早くなったけど高解像度にしたらメモリ不足になったからxformersに戻した
>>778 黒い画像が出るのはVRAM不足のはず
どのくらい高解像度でどのくらいの枚数を生成したのかわからんけど、起動オプションに--medvramを入れてみては
あと--no-halfは--no-half-vaeのことかもしれない
(--no-halfはどういうときに入れるか自分は理解が足りないから--no-halfが正しいかもしれない…曖昧で申し訳ない)
エスパー回答するならHiresを使うなにつきる 限界は512*768のHires2倍 768*768をやってみたけど共有含めて合計16.8GBくらい使ってたからメインメモリ16GBだと生成不可能 ちなみにVAEのfp16系でそういう風になることがあるっぽい Hires使わないならGPU8GBでも--opt-sdp-attention使えば2048*2048作れっから
>>779 >>780
ありがとう
Hiresは512*768の2倍、枚数はバッチ回数15バッチサイズ2でやって黒画像だった
medvramって生成遅くならない?
せっかくグラボ換装したから生成遅くしたくないなーって思って
>>784 並列処理なんじゃないの?
そこそこの質であれば、バッチカウント2、バッチサイズ1よりも
バッチカウント1、バッチサイズ2のほうが早いとか?
メモリ不足になっているなら真っ先にバッチサイズは1にすべきだろうに
>>787 ブイラムは 24gb のものを変え と言われているだろうが
その理由がわからんのか
>>784 俺も最初にいろいろ試したときに意味がないと判断して以降1だわ
初心者の頃だから判断を間違えた可能性はあるけど
バストアップぐらいならかなりプロンプトで無茶してもそれなりの形にしてくれるけど、膝上くらいの範囲描かせると一気に破綻するなあ。
バッチサイズ1でも Cuda の演算器リソースを全部使いきってるからな VRAMがいくらあろうとバッチサイズ2にして演算器リソースを半分に分け合うとか意味ないわ もちろんVRAMが大きければアップスケーリングとか ADetailer とか ContolNet とかの拡張機能を使うときに差が出てくるから無駄じゃないけど
>>791 画像生成している時にシステムモニターの
VRAMの使用容量を見ろって言ってんだろハゲ
>>793 同じシステムモニターの Cuda の使用量を見ろよ、童貞野郎
亀レスだけど 画質よりも生成速度を優先させるなら--no-halfは外した方が良い 画質良くなる代わりに生成速度遅くなってvramも節約してくれない その画質の差も普通の人なら気にならない差だし
>>797 --no-halfと--no-half-vaeって何が違うの?
エラー吐いた時はsbが--no-half入れてみてって言ったから入れたら直った
初心者なんですが、二次元→三次元 化というの可能なんでしょうか?
>>800 ど、どういうこと?
こんなのをこんなのにしたい、みたいな具体例はあるかしら
イラストをimage2imageで実写にすることはできる 3Dモデリングの出力は不可
できる てかこのソフトじゃなくてもアプリでできるやつあるよな
早くメッシュで出力できるようになればいいな △だとそこまで使い道ないけど
少し前に、トークン数の上限の話なったけど、これみる限り今のバージョンだとデフォルトで上限は撤廃されたってことでおk?
https://yuuyuublog.org/sd_token/ 普通に質問やで。 75制限が撤廃されてるかどうか、誰かに断言して欲しいんや。 体感では75オーバーでも反映はされてるような気はするんやけど。 アフィと誤解させたらすまんな。
もう数か月前のバージョンから75超えたら上限150みたいに表示されて数回に分けてトークン処理するようになったと思うが
俺も5月から始めたけど当時から75/150は実装されていたな 俺もその時75を超えたらの質問をして分割処理されるみたいなことを言われたな
>>805 が聞きたかったのは見た目というか入力受付許容数だけじゃ無くて内部処理まで全部問題ないんかなってことだったんだろな
>>813 でも出来上がりを楽しみにしていてた思い出
xformaers導入したら、一気に効率が上がったな。
>>813 livePreviwewで生成の度に「クリーチャー出ませんように」と祈ってたわ
>>816 全力で願おうが、100万円のPCを使おうが、同じ確率で信じられないぐらい怖いクリーチャーになる
アナルの中の眼球と目が合うのが一番怖い
でもやっぱり性能良い奴の方がたくさんできそうだし、 RTX3060に変えようかな さすがにそれより上は高すぎで手が出ない
>>820 解説本がソシムから出ているからそれ買いなされ
>>821 そんな不適切な使い方をしている奴がいるとは・・・
>>828 活動家のグレタばかり生成しているんだ・・・ってもう20歳かよ
全体的には満足なんですが顔が変わり過ぎてしまって… 顔の特徴だけそのままにすることは可能なんでしょうか?
コントロールネットのreferenceとinpaintingが楽
と思ったら、トークン数を75以下に直したら反映された。 ついさっきまで100でも200でもぶち込んでても反映されてたのに。なんでだ。
急に調子悪くなるときあったけど本体を再起動したら治った あの時は消したプロンプトがずっと反映されたりとかしてたな
導入完了してコマンド入れてgenerate押したらボケた画像が出てきてよーし完成ってとこで白紙に戻されるんだけど何が悪いの?
私達~とかやめてもらえますか? 私はあなたのようないっちょかみではないので
>>835 一応こっちもPCの再起動で治った。
プロンプトセレクター用のymlをいじってた時に何か変になったみたい。ってchat gptくんが言ってた。
PCの事よく分からんのだけど asus tuf gamingF15で画像生成できる?
>>836 「白紙に戻される」というから白だけの画像が出てくるのかと思ったら「戻される」だから違うんだね、出力を始める前のなにもない状態に戻るって話か
じゃあVRAM不足でしょう。コマンドプロンプトのほうにOutOfMemoryとか出てるんじゃないかな。
どんなよわよわGPUを使っているかわからないけど、起動オプションに--medvramや--lowvramをつけてあげるといいと思う
>>841 ついわざわざ調べちゃったけど入ってるGPUは「NVIDIA GeForce RTX 4060 Laptop GPU」でVRAMは8GB。
VRAMがやや心もとないけど画像生成はできるでしょう
起動オプションに--medvramが必要かもしれない
SD使ってても、正直不毛な時間なので極力触らないようにしようとするんだけど、ついついやってしまうな。 ある程度ランダムで画像生成していけるように工夫をしているけど、今度はその設定を更に手を加えたりしたりして。時間が。
今日ついうっかり画像生成しまくって1日で3ギガ使っちゃったわ。 そろそろ整理しないとやばいが、普段使ってる画像管理ソフトがPNG対応してないのが判明。 みんな生成した画像の整理何使ってる? Lightroomとか使えばいいかな?
みんなは、って言うならそもそも大多数の人はSDを自前のPC上で動かしてるだろ 画像管理はxnviewかな
画像データチェックしてみたら45000枚越えで50GB。 2ヶ月でこれだけ貯まるとは。ヘビーユーザーと比べたら屁みたいなもんだろうけどたまげたわ。
pngは容量食うよね jpgのようにpngで容量を減らす方法は無いんだろうか rawみたいな感じだけど、多少圧縮はかかっているんだろうか
pngは可逆なzip圧縮の応用でjpgは人間があまり気にしないところで色々投げ捨ててる不可逆圧縮なので圧縮率は段違い
多少サイズがブレるけど大きいなと思ったら可逆圧縮か jpgで作って、気に入った構図があるならSDにぶち込んでpngで再生成だけど、settingから面倒よね。切り替え忘れるのも多々あるし
ゆうて50GB VRAVなんて総集編だと1本で80GBとかあるし
記憶装置の値段が格段に下がってるのにその程度で愚痴るのか クラウドも今安いよな
>>854 別にそりゃ構わんのだけど。
仕事でも多い時は1日で20~50GBは使うことあるし。
ただ、HDD増やす頻度は下げたいし、余暇で使ってて、精々1024×1024の画像データで50GBいくとやっちゃった感はあるよ。
>>855 ワイの娘薬学部で年間200の6年サブスクやわ(ダブらん限り
>>857 成績が抜群なら1年無料とかの特典を狙えるかもしれんぞ
pngより小さくなった上に圧縮ノイズで逆に綺麗になってしまったjpgが 稀にはあるらしい()
LoraとLycorisってフォルダ分ける意味ある?
>>860 ないよ。loraのフォルダにリコリス入れても普通に使える。
実写の絵がおかしくなるのはプロンプトがおかしかったりするからかな 無駄に脇のシワが多くなったり、変に光沢でたりする
コントロールネット覚えて沼った。てかオナ禁してる筈なのに続かなくなる。これがきつい。
>>862 リアル系は二次系と比べると、ちょっと無理な感じのプロンプト入れるとすぐ破綻するからなー
LoRA自体の追加学習についてなんだけど ver1に追加学習したver2があって1はキャラの顔の出来が不十分だったので ver2では主に顔のアップ写真を学習させたら2では顔は似てきたのだけど低解像度っぽい絵柄になってしまって full body portraitを指定しても上半身アップのものばかりになってしまった コンソールではver1が連続7-8行にわたってLoading weightsと表示されるのにver2は毎回1行のみ どちらもnetwork dimとかは同じにしてファイルサイズも同じなのだけど 追加学習で悪化した可能性はあるかな? 顔画像ばかり認識させたのが失敗だったかしら?
あ、ファイルサイズが同じというのはおおよそという意味で ピッタリ1バイトまで一致というわけではありません(若干大きくなった)
最初に画像生成するときのサイズって512×512でやった方がいいのかな? サイズ大きくしたい時は生成後に変えた方がいい?
>>869 SDが完全に初めてだったら、まずはデフォルトの512×512でやってみるのがいいんじゃない
そこからHires fix.やTileを使ったアップスケールを試していく感じ
>>871 そしたら出力解像度を少しずつ変えていく
縦長や横長にしてもある程度ならそのまま出力できる
960×960みたいに全体を大きくすると破綻した絵になりがちだけど、縦長や横長なら破綻しにくいよ
それをhires fixで2倍に大きくしたりする
さらにシードリサイズとか(拡張機能は不要)Tiled Diffusion(multidiffusionを入れる)とかを使ってみるとよい
必要最低限?と言われてるRTX3060で、 SDやるとどんな感じ? 生成速度とか、生成できる大きさとか 良さげなら変えようと思うんだけど
>>874 512×512のステップ20で1枚6秒くらい
これを512×768にして2倍にhires、adetailerと処理を増やしていくと1分とかかかるので、もうちょっと早いのに交換したい
breakdomainanimeをダウンロードしたいんだけどどっかにないかな
>>876 300円払えばダウンロードできるじゃん?
放置してると[WinError 10054] 既存の接続はリモート ホストによって強制的に閉じられましたってエラーログで延々埋まるやつ 検索してみたらPythonのSpyderで似たような問題あるって投稿あって どうやらNetWorxでトラフィック監視してたのが原因でそれ切ったら治まったぽい
RTX3070無印8GBでStable Diffusion起動するとビデオメモリが4GBまで使用率上がり、1024 1024でハイレゾ入れると8GBではりつき、大抵停止する。こんなもんすかね。
>>881 8GBならそんなものかなあ
いきなり1024×1024を出そうとするのは無理があると思うから、768×768くらい→Hires. fixから始めてみては
起動オプションに--xformersや--no-half-vaeをつけたりも忘れずに
あとはMulti Diffusionを入れてTiled VAEを使うと大きいのを出しやすくなるとかもあるよ
>>882 続き
--medvramもつけるといいかも
画像生成に時間はかかるようになるけどOut Of Memoryは出にくくなる
>>882 , 883
詳しくありがとうございます
感謝します
sdxl1.0出たから使ってみたけど1024*1024じゃないとまともな画像が作成できないから生成に時間がかかってだるい
んなこたない 1280x1024 でも 1024x1280 でも 1920x1080 でもちゃんと動くぞ 画像サイズを大きくしても奇形児みたいなのが生成されなくなったのはいいけど naked 18 year old cute girl って打ち込んでも全然裸になってくれないのが困ったもんだ
小さいサイズの話でしょ モデルの学習が1024x1024らしいからその関係かねえ
512x512だと意味のない画像しか生成できんかった。かといって1024x1024は時間がかかってしゃーない
一応乳首も出るから単純にnsfw系の学習量が少ないんだろうな。まあ、このへんはそのうち誰かがなんとかするだろ
薄着の指定が難しいな、勝手に全裸になること多し・・
薄着は難しいね。すけぶらも。あきらめて全裸と服画像を半透過で重ね合わせた。
薄着はprompt editingで前半裸、後半を着衣にすればよかった気がする
モデルカードを見るとBaseは128x128で作成するようなことを書いてるけど、128x128だとやっぱりまともな画像が生成されない
3060買ってチマチマ作ってて解像度を上げたら平均72度、最高86度記録するようになった。 大丈夫かなぁ...
もうトースター一歩手前!! (´・ω・`)~チリチリ
>>896 それはあくまでGPUの温度だろうから、vRAMやhotspotの温度は更に高い可能性があるので安心して震えるが良いぞ
>>896 3060ってそんな発熱大きいチップだっけ?エアーフローかなり悪い?
うちのシングルファン3060が同じくらいの温度だわ
>>901 GPUその温度だとホットスポット100度近く行ってる可能性あるし、VRAMも(3060はわからんが)確かに高い可能性はあるから、それで毎日長時間も回し続けるとってことじゃね
グラボのチップの最高温度は75°c VRAM最高温度は85°c それを超えると危ない
3060いいなあ。グラボ買う金がもったいなくてAWS使ってるから生成時間が気になってしかたがない
画像生成にとっては 4060より3060 12GBの方がいいんだよな VRAM容量とパス幅は大正義
depth-lib入れてると拡張全体が読み込まれなくなったので消したのん
無印SDは動いたが さすがにXLは無理だった PC買い替えたいなぁ
今の時点だとSDXLは標準のモデルでわりといい感じに出してくれるというだけだなあ ファインチューニングやLoRAも出始めてはいるがまだお試し段階
XLはvram12Gでもきついらしい ComfyUIだと多少ましに
変な質問で申し訳ない。 バージョン1.5.1より前の物を使用することはできないんだろうか? 以前のハッシュ値でダウングレードしても、1.5.1の部分は変わらず・・・。
変な質問で申し訳ない。 バージョン1.5.1より前の物を使用することはできないんだろうか? 以前のハッシュ値でダウングレードしても、1.5.1の部分は変わらず・・・。
うまくいかないなら別フォルダに入れて必要なファイル移せばいいじゃない
gitはよー分からんがgit pullしてアップデートしたのならその前に戻す操作をすればいいんじゃね ローカルリポジトリがなくてリモートリポジトリから過去のコミットを取って来られるのかってことなら知らん ブランチが切ってありゃ取れるだろうけど
AWSでSDXLとその派生モデルをちょいちょい試してるけど、まだまだSD1.5の特化型モデルのほうが優れている気がするから様子見でよさそう でもブレイクスルーは突然来る気がするからときどき状況確認はしようかな
EasyNegativeとか強くすると関節とか肌とかが茶色っぽくなっちゃうの回避する方法ない? Abyss OrangeMix2使ってます
調べてもわからなかったので質問させてください
https://wikiwiki.jp/sd_toshiaki/%E3%83%AD%E3%83%BC%E3%82%AB%E3%83%AB%E7%89%88%E5%B0%8E%E5%85%A5#webui このサイトの手順通りにwebui-user.batを起動しました
しかし
Model loaded in 9.8s (calculate hash: 7.3s, load weights from disk: 0.2s, create model: 0.4s, apply weights to model: 0.6s, apply half(): 0.5s, move model to device: 0.7s).
で止まってしまいます
https://note.com/uunin/n/n715256399038#52477e3c-4284-4164-a0fa-f4876f4aee81 この方法でも同じ場所で止まってしまいます
必要スペックは満たしています
指定の場所にDLしたモデルを置いています
もしよければ教えていただきたいです
お願いします
>>918 そこで止まるのは正しい動作だよ
その止まる行の少し上に、「Running on local URL:
http://127.0.0.1:7860 」みたいなのが出てるでしょ
そのアドレスへブラウザでアクセスするとWebUIが表示されるんよ
>>919 ありがとうございます
教えていただいた通りにしたらブラウザで開けました
どうしたらいいのかわからなかったので本当に助かりました
automatic v1.6.0 にしたらエラー出まくりだわ 互換性の無い extentions とか emmbeddings を消さないと起動すら出来ない
Hiresfix は強制ONなのか?これ 倍率を1にしてもなんか処理してる、、、
Hiresfix と Refiner はこの欄を展開しなければOFFってことか
v1.6.0 でメインメモリの使用量が増加したのか? Connection errored out が出まくる ローカルのDOS窓では実行してるからあまり実害ないけど、、、 あー、1つ前のバージョンのバックアップをとっておけばよかった どーせXLなんて使わねーんだし
アプデしたら生成ボタンの下にあった保存ボタンが消えたんですが プロンプトの保存とかって方法が変わったのでしょうか
アプデしたら生成ボタンの下にあった保存ボタンが消えたんですが プロンプトの保存とかって方法が変わったのでしょうか
Win11 i5-12400 3060 12GB RAM 16GB SSD 1TB これだと使用半年綺麗な中古で相場どれくらいだと思いますか?
>>927 ドスパラで新品で15万ってとこだから、中古なら7万~10万くらいかな
MultiDiffusionを使って2倍の解像度にすると 顔だらけの絵しか出てこないのですが いくつかのサイトの説明通りにしたのですが 何か考えられる事はありませんでしょうか?
ちょっと分からんけど、アップスケールの方法は色々あるので 試しにSD Upscaleや拡張のUltimate SD Upscaleってのを使ってみてはどうだろうか
そもそも何がしたくていまだに MultiDiffusion なんか使っているか? ってところからだよね いわゆる1枚超解像をしてアップスケーリングしたいだけなら extras を使えばいい 元の絵柄が変わることなんてないし、4倍のアップスケーリング処理でもあっという間に終わる text2img で大きなサイズの画像を生成したいけどモデルの制約で 768x512 より大きくすると絵が破綻してしまうというのなら MultiDiffusionなんか使わずにデフォで備わっている hires. fix を使えばいい 以前のバージョンではメモリ管理が下手で hires. fix だとメモリ不足エラーになってしまう問題があって そういう場合に MultiDiffusion が推奨されていた時期があったというだけ 最新版では hires. fix が安定して使えるし SwinIR 4x という最新のアップスケーラーが使えるんだから Denoising strength を 0.5 にして SwinIR 4x で hires. fix を使えばいい
バッチで大量に試作した画像の削除ってどうしてる? 出された全量から目でピックアップするのも疲れるから ある程度明らかなハズレだけでも自動で消せんかな
ハズレかどうかは個人の主観なのにどう自動削除するのか
全自動は流石に無理だろうけど、こりゃハズレだなって思ったやつを選択したらそれと類似性が高い画像を削除してくれるようなやつなら行けそうじゃね? 類似画像検索ソフトでググるとDupFileEliminatorとかFileManyとか色々出てきたけど 何の評判も付いてないか胡散臭い宣伝サイトだらけかの両極端でどれが本命かわからん
ローカルインストールのwebuiでimg2imgでnsfwフィルター外すにはどうしたら良いの?
1.6にアプデしたらmov2movのタブなくなって動画生成できなくなったんやけど作れてる人おる?
img2imgってinpainting使わずに顔をキープする方法ってあるの? 顔が変わってしまうからinpaintingを使おうとするけど、消した時に首の下との接続が かなり微妙になってしまうので、inpainting使わずにできる方法を知りたい
いま使ってる古いGTXだと1枚生成するのに5分かかるからRTX3060 12GBかRTX4060かで悩んでてさ、 高解像度の生成はいらないと思ってるから総合的にみて4060でいいかなって方に傾いてる。 けどさ、SDXLってもう12GBですらギリギリだって言うじゃん? そこで思ったんだけどさ、SDXLってみんな使ってるん?っていうか主流になりつつあるん? SDとSDXLは別物としてそれぞれ進化していくのか、 SDはもう過去のものになりつつあるのか、、、 そのへんの情勢を知らんのだけど、8GBじゃもう生成AIで遊べない時代はそこまで迫ってるのかしら???
XLは発展途上だし、1.6の方が人気じゃないか? あと4~8GB の低スぺでも動いて、しかもエロに強いのも魅力 ちな4070だけど、512×512でアプコンかけなかったら1枚2,3秒で出来るぞ
現状のAI画像生成環境において4060(8GB)のどこに総合的な優位性があるのかマジで判らんぞ…… 現状だと12GB勢ですら処理ゆっくりめのグラボだと嘆いてる人をちょくちょく見だしてるというのに…… 少なくとも8GBだとCN使う時点で半分詰む可能性がある
えっえっ??
昨年末くらいにv2.1まで出てるはずなのにv1.6が人気ってどういうこと…??
ごめんこのへんチンプンなんだけど、Stable Diffusion本体はv2.1で、そのGUI(web UI)のバージョンがv1.6ってことかしら???
ややこい…
ControlNetとやらもまたメモリ食いなの?
わからないなりになんとなくイメージしてる自分の使い方としては、
【手順1】512x512で大量ガチャ
【手順2】気に入ったシードを選ぶ
【手順3】そのシードだけアプコンしたり時間をかけて仕上げ
前提として手順1が8GBで事足りるならば、手順3のときだけ-–medvramや–lowvramをつけて遅くなってもストレス最小限でイケるんじゃないかなんて考えてるのだけど、考えが甘いかしら?
>>952 SDのベンチマーク結果だけみると4060の方が10%くらい速いみたいだけれど、SDXLだと3060が7倍速いとか。
SDXLに目を瞑るなら4060優位なのかなって思ってたんだけどそうでもなくなってるかんじなんですかねー
はっきり言って、そのどっちかで悩んでるんならメモリー多いの買っときゃ良いじゃん 5分が3秒になりゃ充分だろ 将来なにが主流になるかなんて誰も知らねーんだから聞くだけ無駄、買いたい時に好きなの買え
>>953 その知識量で安易にグラボ買うのは悲しみの結末しか見えんわ
悪いことは言わんから情報をもっと調べるんだ
少しでもAI画像生成の情報を仕入れてたら、昨今で「4060(8GB)」なんて意味不明な選択肢に至ることはありえん
まあそれなりに安いのは確かだから分かって買うなら4060でもいんじゃね、オレは買わんけど
なお4070が幻滅されている理由は ううんなんでもなぃっ
かぁ〜〜〜!!!!!
もう3060でいいかって思えてきた矢先に、DLSS3対応ゲームで4060が2倍近いFPS叩き出してるのみたらまた心が揺れちゃったよ!
>>956 https://chimolog.co/bto-gpu-stable-diffusion-specs/ とかみて、SDXLを除けば4060の方が20%以上優秀っぽいから、ネイティブ高解像度が不要なら4060なのかなって思っちゃったのよね。
512x512だけなら8GBで不足することはない、とも小耳に挟んで。
なんか、今じゃない、が結論のような気がしてきた。。。
今じゃなきゃ次のRTX5000シリーズは2025年後半だが
>>959 もう好きにしていいぞ。周囲は別に困らんからな
そもそも「512で良い」発言が目立つ点とゲーム関連でグラツいてる辺り、AI画像生成もちょっとやったら飽きるやろう
ただ、日記は適当に切り上げるんだぞ
easy prompt selectorが歯車マーク「タグを選択」を押しても、YAMLファイルを選ぶプルダウンが表示されません。 誰か助けてください。再起動しても無理でした。
今じゃないって結局目的が何もないって事でしょ 仕事でも趣味でもAIつかって絵を描く必要がなくただ試したいってだけ って事は3年経とうが同じ事いってるし買っても数回試して満足してそれでおしまいなのが明確にわかる 二倍かかろうが必要性があるならそんなの関係なく今買って使う訳だし 1月買うの遅れたらそれだけで制作が遅れるって視点が完全にレスから抜けてるからそもそも買う必要性がないのでアドヴァイスしがいがない 実写系はSDXL1.0でもSD1.5でも使える 2D、2.5Dのアニメ・漫画系はSD1.5 SDXL1.0は2D、2.5D系はSD1.5よりかなり劣化してて現状使い物にならず有志のモデル開発待ち状態 SD1.6なんてものはなくSD1.5の間違いでしょ SD2.0とかそこら辺は存在するだけで誰もつかってない SDXL1.0とSD1.5の2つだけが使用されている
VRAMは30系40系関係なく最低12GB以上あった方が良い 8GBはお試し版で絵を作りたい人向け 3060 12GBが実用レベルの最低スペックと思って良い 40系については新しい分安定性とかでたまに問題があるらしいが基本早いしStableDiffusionの新機能が40系しか使えないものも出てきているから予算あるなら40系の12GB以上
エロならSD1.5 VRAMは3090の中古が8万で買える 熱処理を忘れずにすべし、なので筐体はデカいほどいい RAMは多いほどいい、けちるな
絵を描き出す演算時間が10秒でも2分でも変わらないから それよりプロンプト考えたり探して出力した絵を直す修正時間の方が100倍時間かかるし 手作業>>>>演算時間だからね ゲームのFPSとかベンチマークとちゃうから どっかのサイトにあるエロ絵を自分で出力したいっていうならそういうサイトあるからそこで作った方がマシだよ 何回かやれば分かるけど1000枚絵柄を出力しても一つのプロンプトでは30-40パターンの絵柄が繰り返し延々と出力されるだけで変わり映えがしない それよりプロンプト考えたりControlNetの使い方やフォトショップでレタッチしてる時間の方が圧倒的に長い まじでメモリの壁で出力エラーでたりCPU使い出して途轍もなく時間かかるの避ける為にVRAM最低でも8GB、実用求めるなら12GB これだけクリアすれば問題なく使える
基本的にAIはこっちの思考よんで絵を自動で出す訳じゃないんよ だから演算してる時間なんてたかが知れてて描く絵を自分で考えて試行錯誤してる時間の方が圧倒てきqに長い 何百枚って絵柄出力されても同じ絵の別バージョンが無限に出されるだけで無意味なんよね それを組み合わせてうまく書き出されてないものを問題なくする為に何百枚って出力してコラージュ・レタッチするけど普通の人はそんなことする意味ないからね 一見すれば問題ない絵柄は十枚も出せば出てくるし 十枚出して出ない時はもうその呪文からは出ない でも今ってプロンプトも下絵にする絵柄も色んなサイトにほぼ無限にあるから出したい絵柄探してる時間の方がナゲーよ 演算時間なんてまじで金稼ぐ目的でもない限り一瞬の些細な問題 VRAMだけはエラー起こすからこっちは重要だけど
それが描き出す絵柄とどう関係あるんだよ インストールすらせずにわかってないから勘違いしてんだろうけど
高解像度の絵柄も満足いくちっこい絵ができた後にTiledDiffusion使って高解像度化するからまじで絵を見つける時間の演算処理なんて必要ねーよ 3060 12GB 以上のスペックあれば512*768程度の絵柄は10秒前後で書き出される 後は解像度の面積比に伴って時間が増大 4kへの高解像度化なら7分くらいだな それも10秒で書き出した小さい絵で成功した後に数枚だけ一回演算するだけで時間少しかかっても関係ねーしな 触ってないから演算速度なんて言う無意味なもん気にしてる まじグラボの演算速度は3060も4080も違いなんて些細なもんだよ 十倍違ったとしてもそれで普通の人は生産性に違い出ねーから
試したいだけだったらインターネットカフェでも レンタルでもして試せばいいだろう
こういうタイプは安い3060で十分 どうせ50x0来ても同じ事を言うわ
>>962 yamlファイルはちょっとのミスでも開けなくなって、全てに影響してプルダウンすら開けなくなるからどれかのファイルのどこかしらの記述が間違えてるはず。
面倒かもだけど1つずつファイル入れて開けるか試すか逆に1つずつファイルを取り出して試す
ちなみにUIの更新(F5含む)だけじゃダメでバッチ起動時に読み込み直すから完全にUI自体の再起動必須
面倒だけど頑張って
VRAM不足でエラーだとか使えないだとかってのは、--medvramや--lowvramを付ければ解決ってもんでもない? 時間かかりすぎて実用的じゃないとかはさておき。 この2日間、4GBの環境でいろいろ遊んでみたら、学習は<149時間って出てきた時点で強制停止したけど、走り出しはしたんだよな。 いろんなモデルやLoRA使って生成して遊ぶだけなら、 3.7GBくらいの消費でサクッと20秒で生成されるときもあれば、共有GPUメモリが増えて5分かかることもあった。 で、あれ?4GB超えてもエラーにならないんだ???と思って。 HiresFixは最後の最後でなんかエラーが出とったけど、メモリ不足とはなんか違うかんじのAPIエラーだったんだよな。 特定人物の顔でシコ画像つくるんならReActorでできなくもないけど、なるほど学習も夢が広がるなと理解したわ。 動いてさえくれれば、12時間くらいなら放置して待てばいいと思ってるんだけど、そもそも動かないなら話は別だなと思って。
設定すれば行くんじゃねーの ただやっててわかってると思うけどVRAM超えてCPU側で演算始めるといきなり数十倍の時間かかったりして本当に完走するか怪しい現実的に実用できるレベルじゃなくなるが
金ない奴が4GBのVRAMとかで無理動かすのは勝手にやれば良いけど人に勧めるレベルの話じゃないだろ
>>977 その台詞、大分ブーメランだな…‥
上で演算時間どうこう言ってた人の台詞とは思えんぞ
実際3060と40シリーズの差は2-3倍程度だろ 最大でも十倍はいかないと思うけど だけどVRAM4GBで旧シリーズのグラボはそういうレベルじゃないよな ちっこい絵を描き出すのにも15分とか一時間掛かるレベルでしょ そこまで行ったら自分のマシンで走らせる意味がないでしょ LORAとか作れるレベルじゃないし設定やプロンプトを変えて試すのさえ躊躇う そもそも本当に最後までエラー吐かずに演算終わらるのかも怪しい
恐らくほぼグラボ使わないでCPUで演算してそうだし
3Dのレンダリングもグラボ使わないで演算させると百倍超える時間かかった上に途中でノイズやエラー吐いてレンダリング止まる事あるし そうなるの事が想像つくんだが
4050て6GBよね これでするとなるとげっちゃげちゃきっつそう~ ・・というかどうなってしまうのか気になってしまう
日記くんが、ろくに使ったことも無いのに妄想で推奨スペック語ってる状態だろ チラシの裏に書いとけつーの 相手するとつけ上がっちゃうよ
とりあえず RTX 3060を買ってみては もし足りないんだったら売ってから 新しいの買えばいいだけだし 最終的に RTX 4090 到達するのは変わりはない
このスレは進みが遅かったから、1は去年の8月27日なんだな Stable Diffusionが公開されたのはこの前日だっけ? たった1年前なのに、なにもかもみな懐かしい…
StableDiffusionが画期的でコラ画像が合法化?された元年と言ったところだろうか しかし考えてみれば絵を描く行為とは他人の絵を模写する事から始める 人がやっても学習、AIがやっても学習 それをAIはダメというのは道理になっていない やってる事は一緒でありこれがテクノロジー・科学・文化の進歩だ
>>985 そろそろ使いこなせよw
それともサブスクとかCG集売ってるから後続恐れているのか?
3060 12GB買えばとりあえず普通に使える それで速度的な不満もないと思うけどな 仕事で使っても3060で不満ないのが殆どだろうし それで不満があるなら動画とかあまり一般で知られていない特殊な使い方してる人達だと思うよ
>>981 CPUの使用率は低いまま動かなかったよ、たぶん演算にはほぼ使ってない。
システムメモリはGPU共有メモリとして16GBくらい占有されとったけど。
次スレいらんだろ もうみんなチョン顔エロ画像生成なんてとっくに飽きちゃったよ
v2.0、v2.1、SDXL、…と出ていても結局みんなv1.5を使ってるのはなんで? SDXLは出力される画がだいぶ良くなってるって話だけど。 PCスペックの問題? それともえっちなお姉さんを描いて抜きたいだけの人ばかりだから?
SD1.5はモデルやLoRAなどの資産が桁外れに多いからね
ただ綺麗なだけの絵に意味が無いことは、AU画像生成弄ってる大多数が遙か以前に理解してるはず 自分の思っている内容に近くてそこそこ以上の絵が出力出来る1.5が継続的に人気なのは当然といえる
1.5の資産を使い回せるよになったら XLも盛り上がるのでは
標準のモデルをひねりもなく使ったときにそこそこいい感じの絵が出ることだけがSDXLのメリットで それ以外は1.5に負けてると以前使ってみたときに思ったが 少しは状況変わったかな?
このスレッドは1000を超えました。 新しいスレッドを立ててください。 life time: 393日 8時間 52分 15秒
5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/ ▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
read.cgi ver 07.7.23 2024/12/25 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250223110052caこのスレへの固定リンク: http://5chb.net/r/software/1661568532/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。 TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「Stable Diffusion YouTube動画>1本 ->画像>20枚 」 を見た人も見ています:・画像作成AI『Stable Diffusion』、GUI版が登場 ・Stable DiffusionはGDPR違反か?ネットの一部で話題に ・【Stable Diffusion】今最もアツい画像生成AIが決定する ・【悲報】アメリカの画家、画像生成AI「Midjourney」「Stable Diffusion」に対し集団訴訟 ・【AI】画像生成AI「Stable Diffusion」の上位モデル「XL」登場、より短い呪文で描写的なイメージを生成 [すらいむ★] ・【速報】 DeepSeek、画像生成AIを公開 Stable Diffusion やオープンAIを超える画像生成の性能と自負、商用利用も可能 [お断り★] ・【AI】テキストや画像から動画を生成するAI「Stable Video Diffusion」をStability AIが公開へ [すらいむ★] ・【StableDiffusion】AIエロ画像情報交換54 ・【StableDiffusion】AIエロ画像情報交換48 ・【StableDiffusion】AIエロ画像情報交換31 ・【StableDiffusion】AIエロ画像情報交換51 ・【StableDiffusion】AIエロ画像情報交換33 ・【StableDiffusion】画像生成AI質問スレ21 ・【StableDiffusion】AIエロ画像情報交換35 ・【StableDiffusion】AIエロ画像情報交換49 ・ChatGPT-4とStableDiffusionを使ってbot作ってみた ・【StableDiffusion】画像生成AI質問スレ26 ・【StableDiffusion】画像生成AI質問スレ20 ・【StableDiffusion】画像生成AI質問スレ30 ・【Unity直接関係ないけど】StableDiffusion作った ・【Midjourney】AI関連総合9【StableDiffusion】 ・【StableDiffusion】画像生成AI雑談スレ3 ・【Midjourney】AI関連総合【StableDiffusion】 ・【StableDiffusion】AIパソコンスレ 質問・雑談2 ・【StableDiffusion】AI画像生成技術14【NovelAI】 ・【Midjourney】AI関連総合23【StableDiffusion】 ・【StableDiffusion】AIエロ画像情報交換24【NovelAI】 ・【StableDiffusion】AI画像生成技術7【Midjourney】 ・【StableDiffusion】AIエロ画像情報交換17【NovelAI】 ・【Midjourney】AI関連総合24【StableDiffusion】 ・【StableDiffusion】AI画像生成技術16【NovelAI】 ・【Midjourney】AI関連総合20【StableDiffusion】 ・【StableDiffusion】AIエロ画像情報交換12【NovelAI】 ・【StableDiffusion】AIエロ画像情報交換14【NovelAI】 ・【StableDiffusion】AIエロ画像情報交換16【NovelAI】 ・【Midjourney】AI関連総合8【StableDiffusion】 ・【StableDiffusion】画像生成AI質問スレ9【NovelAI】 ・【Midjourney】AI画像生成技術5【StableDiffusion】 ・【StableDiffusion】AI画像生成技術19【NovelAI】 ・【Midjourney】AI関連総合25【StableDiffusion】 ・【Midjourney】AI関連総合15【StableDiffusion】 ・【StableDiffusion】AI画像生成技術17【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ24(ワッチョイ有) ・【stablediffusion】AIでえっちな画像生成するために必要な技術教えて【Lora】 ・プログラマー僕今からStableDiffusionをデスクトップ環境で使えるアプリを作る ・【ID無し】KPOP第5世代雑談★3【ILLIT BABYMONSTER KISSOFLIFE tripleS QWER MADEIN izna MEOVV】 ・【NovelAI】AIエロ画像情報交換 3【Waifu Diffusion】 ・Who do you love on High School Fleet(Haifuri)? ・【PC】Appleの独自ファイルシステム「APFS」がまもなくFusion Driveでも利用可能に 「macOS 10.14」で導入か ・ヒプノシスマイク DivisionRapBattle RuletheStage どついたれ本舗 VS BusterBros!!!CinemaEdit ・挿入歌シングル:Sunny Passion「HOT PASSION!!」、Liella! 1stアルバム「What a Wonderful Dream!!」が発売決定! ・トランプ「"TARIFF" is most beautiful word in the dictionary」安倍晋三「」⇐なんて言った? ・DreanDiffusion "What's this board" ・Lets talk about Ninja version 2.0 ★2 ・I wanna be able to write English without using translation tools ・世界向けNHK番組のフェスにPerfume、布袋寅泰、SixTONES、日向坂46、BABYMETAL、蒼井翔太ら ・日本ゲーム業界「ハアハアなんとかバイオとキンハが当たったぞ…」メリケン「Apex Legend!Far cry!Anthem!Division2!」 ・【苺Lifetime】SixTONES 237ズドン【oneST】 ・【速報】持続可能な射精目標(Sustainable ejaculation goals, SEGs)、決定 ・【ID無し】KPOP雑談★1020【LE SSERAFlM NewJeans IVE aespa NMIXX STAYC Kep1er BABYMONSTER】 ・【ID無し】雑談★603【LE SSERAFlM NewJeans IVE Aespa NMIXX STAYC Kepler NiziU XG BABYMONSTER】 ・【ID無し】雑談★687【LE SSERAFlM NewJeans IVE Aespa NMIXX STAYC Kepler NiziU XG BABYMONSTER】 ・【ID無し】KPOP雑談★969【LE SSERAFlM NewJeans IVE aespa NMIXX STAYC Kep1er BABYMONSTER】 ・【ID無し】雑談★817【LE SSERAFlM NewJeans IVE aespa NMIXX STAYC Kep1er NiziU XG BABYMONSTER】 ・【ID無し】雑談★762【LE SSERAFlM NewJeans IVE aespa NMIXX STAYC Kep1er NiziU XG BABYMONSTER】 ・【ID無し】雑談★710【LE SSERAFlM NewJeans IVE Aespa NMIXX STAYC Kepler NiziU XG BABYMONSTER】
12:42:17 up 97 days, 13:41, 0 users, load average: 7.22, 8.01, 8.37
in 1.8105499744415 sec
@1.8105499744415@0b7 on 072401