File_xor's profile picture. Fantasy consoleの製作中。
ぷよクエUR1300+勢 20+歳 度々いいね誤爆とフォロー誤爆することがあります。

File_xor

@File_xor

Fantasy consoleの製作中。 ぷよクエUR1300+勢 20+歳 度々いいね誤爆とフォロー誤爆することがあります。

これ言うの割と気が引けるが、トカゲみたいに足が横に付いている場合問題にならないのでは?

尻尾ある子は仰向けに寝れない ↓ 横向きに寝るので自然に丸まって可愛い寝相になる ↓ 丸まって寝るので起きた時に自然に伸びをする流れになる(神) この世はこのように自然な流れがあるんですね



表現規制論に対抗するアイデアを思いついたが、誰に言えばいいのか分からん。


SDXLだと仕事をしていないtransformer_blockがあるくらいだし、LLMでも同じようなのがありそう。

LLMには、たった1つのパラメータを除去すると性能が極端に低下する、スーパーウェイトが存在すること判明した。 実験では、他の多数のパラメータを削除しても性能はわずかな低下に留まった一方、スーパーウェイトを削除すると生成結果が壊滅した。 単一のパラメータが結果を支配するとは驚きだ。

K_Ishi_AI's tweet image. LLMには、たった1つのパラメータを除去すると性能が極端に低下する、スーパーウェイトが存在すること判明した。

実験では、他の多数のパラメータを削除しても性能はわずかな低下に留まった一方、スーパーウェイトを削除すると生成結果が壊滅した。

単一のパラメータが結果を支配するとは驚きだ。


confyuiはclip_gをclip_lのオブジェクト名の命名方式に従って変換して頭に"clip_g."をつける模様。


今の時代、8GBもゴミでは? 特にHDDしか積んでない場合。

パソコン搭載メモリの目安 4GB ゴミ 8GB ちょっとしんどい 16GB 人権が発生 32GB 普通に使える 64GB chrome がメモリ喰い潰す 128GB 余裕 256GB 10年前ならワークステーション 512GB どこの企業のサーバですか?



もしかして、clipを学習したモデルでも、Clip_lにしか反映されてない?


確かにこの挙動はモデルの2要素を強調したときに出力が破綻する挙動と合っていると思いました。

LLMは算術計算を、アルゴリズムやデータの記憶ではなく"ヒューリスティックの組み合わせ"で解いているという報告が出た。 算術計算の実験では、回路内の少数の特化されたニューロンが数値パターンを認識して答えを生成していた。 そしてわずか1.5%のニューロン群で、全体の性能の96%が再現された。

K_Ishi_AI's tweet image. LLMは算術計算を、アルゴリズムやデータの記憶ではなく"ヒューリスティックの組み合わせ"で解いているという報告が出た。

算術計算の実験では、回路内の少数の特化されたニューロンが数値パターンを認識して答えを生成していた。

そしてわずか1.5%のニューロン群で、全体の性能の96%が再現された。


クロストークだと主に漏話という意味では?

3人での話なのに「対談」って書いてあったんで「鼎談」と朱を入れて戻したら、「なんて読むんですか」と聞かれた。「ていだん、です。対談は二人、鼎談は三人」と答えたら「勉強になりました」と明るく返事があったんだけど、完成稿をみたら「クロストーク」って書いてあった。 ま、良いんだけどね。



構図に関する情報がdim=-2軸方向に含まれているとすればそうなのかも?

Deep ShrinkはU-Netの深い所の全体で特徴量のサイズを縮小してるけど、物体の関係性(構図とか)をAttentionが見てるとしたら、ここだけ縮小すればいいのかもしれない。



リリースしたら駄目なレベルのバグ

うわさの有効期限null〜nullに遭遇。 課金の導線で期間出ないのはまずい…

ufcpp's tweet image. うわさの有効期限null〜nullに遭遇。
課金の導線で期間出ないのはまずい…


File_xor reposted

うわさの有効期限null〜nullに遭遇。 課金の導線で期間出ないのはまずい…

ufcpp's tweet image. うわさの有効期限null〜nullに遭遇。
課金の導線で期間出ないのはまずい…

全体を乗算するのに意味があるのか謎

最近公式で追加されたこのノード 使えるかどうかはよくわからないが変態的ですき

gcem156's tweet image. 最近公式で追加されたこのノード
使えるかどうかはよくわからないが変態的ですき


調べてみたら、sd_hijack_clip.pyの282行目、conditioningの平均値を強調前に戻す処理で0に近い値で除算しているのが原因のようです。

さて、OOOの破綻をきっかけに色々調べたところ、SDXL系のanimagine3等で発生している破綻について原因が判明しました。 結論はEnable emphasis a1111の強調計算で不具合が起きてます。 修正案1 setteing内のEnable emphasisをOFFにして再起動してください。(写真)…

oron1208's tweet image. さて、OOOの破綻をきっかけに色々調べたところ、SDXL系のanimagine3等で発生している破綻について原因が判明しました。

結論はEnable emphasis a1111の強調計算で不具合が起きてます。

修正案1 setteing内のEnable emphasisをOFFにして再起動してください。(写真)…
oron1208's tweet image. さて、OOOの破綻をきっかけに色々調べたところ、SDXL系のanimagine3等で発生している破綻について原因が判明しました。

結論はEnable emphasis a1111の強調計算で不具合が起きてます。

修正案1 setteing内のEnable emphasisをOFFにして再起動してください。(写真)…
oron1208's tweet image. さて、OOOの破綻をきっかけに色々調べたところ、SDXL系のanimagine3等で発生している破綻について原因が判明しました。

結論はEnable emphasis a1111の強調計算で不具合が起きてます。

修正案1 setteing内のEnable emphasisをOFFにして再起動してください。(写真)…


もしや高解像度において画像が崩れるのはOUT03が過剰なデノイズを行っているからでは?


背景が無くなってしまうのは、デノイズの強度を弄れば直るか?


Deep Shrink を Conv2Dのみに適用するモードは結局バグって一部の層にしか適用されていなかった。


Deep Shrink を Conv2Dのみに適用するモードを作ってみたが、適用しないより悪化した気がする。 パラメータを調節すれば治るかもしれないが。


Deep Shrink、Conv2Dだけに適用するだけで十分だったりする? 良いパッチの仕方がわかないが


github.com/Filexor/Latent… WebUI用のものを作ってみたがうまく動いているか怪しい SDXLは未確認

github.com

GitHub - Filexor/DeepShrinkHires.fix

Contribute to Filexor/DeepShrinkHires.fix development by creating an account on GitHub.

アイデアは極めて単純で、「構図を決めるのはノイズに近いtimesteps」「構図を決めるのはU-Netの深い部分」らしいことが分かっていますので、その部分のlatentsを縮小してあげるだけです。 sd-scriptsの生成スクリプトで実現する差分を置きました。 gist.github.com/kohya-ss/3f774…



Loading...

Something went wrong.


Something went wrong.