1 / 2
wakame74 法を試してみた
基本プロンプトを下記で設定して、2枚目はこれを丁度 75 トークンになるよう「wakame,」で埋めたもの。 条件を合せるために乱数も固定している。 appropriate posture,appropriate configuration,ideal ratio body proportions,perfect anatomy,<lora:Fixhands_anime_bdsqlsz_V1:1>,masterpiece,best quality,amazing quality,very aesthetic,absurdres,highres,newest, 1girl,solo,standing,light smile,general,safe, 理論的には、75トークン分埋めた方が適切な描写がされる…って事らしいのだが、絵の雰囲気が変わりすぎて一概に比較できない(;´Д`) 結論:「わからん!」 因みになぜ「わかめ」なのかは、調べた限り単にモデルが解釈できない単語だかららしい。 追記:投稿6時間後に調べた限り この情報の出どころは、有名な Blue.pen5805 氏(Blue pencil というモデルの製作者)が酔った勢いで投稿したネタツイが大本らしい。 https://note.com/blue_pen5805/n/n57ee053607e6 本人はあくまで「ジョーク」のつもりだったから、本気で検証する人が出て焦ったらしい。 しかし、試してみたらそこそこいい画像がでたぞって( https://note.com/konapieces/n/n7d14438e608b )報告があった事で、真面目に調査した人がいて https://note.com/konapieces/n/n9aff4e3be759 「多分こういう事じゃねーの?」ってのが「なんJNVA部」に投稿されてた。 仮説として: ・Stable Diffusionはポジティブプロンプトの空きトークン領域がない方が高い精度で出力できる。 ・そのためにはAutomatic 1111のポジティブプロンプトテキストボックス右上に表示されているトークン数を分母と同じかなるべく近づける。 ・なので意味のない単語をポジティブに入れ、ネガティブにも入れることで打ち消し合い、トークン領域を埋めるためだけに使う。