AI

Stable Diffusion

Stable Diffusionとは、Stability AI社が開発した画像生成AIのことです。
ユーザーが入力した英語の文字列(プロンプト)をもとに、関連する画像を自動的に生成します。
例えば、「a cat」と入力すると、猫の画像を出力します。

潜在拡散モデルという深層生成ニューラルネットワークを使用しています。
このモデルは、画像を低次元の潜在空間に圧縮し、ガウシアンノイズを付与してから逆変換することで、新しい画像を生成します。
テキストや画像などの条件づけも可能で、より細かな指定や修正ができます。

ウェブ上から収集された50億枚の画像とテキストのペアから学習しています。
このデータセットは、LAION-5Bと呼ばれており、一般に利用可能です。
オープンソースで公開されており、8GBのVRAMを持つGPUがあれば、誰でもローカル環境で実行できます。
また、ネット上で使えるサイトもあります。

自分の思い通りの画像を作ることができるという魅力に惹かれている方も多いでしょう。
しかし、まだ新しい技術であり、著作権や倫理などの問題も抱えています。

Stable DiffusionとLORA

LORAとは、「Low-Rank Adaptation」の略で、Stable Diffusionの機能の一つです。
LORAは、元となるモデルに追加学習した画像の要素を足すことができるツールです。
例えば、仮面ライダーv3を学習させた場合、仮面ライダーv3の特徴のみを保存することができます。
LORAを使うことで、好みの画像を簡単に出力できるようになります。

LORA学習

芸能人や特定の絵柄のLORA学習には、様々な目的や意図があると思いますが、一般的には以下のようなものが挙げられるでしょう。

  • 魅力や個性を表現したり、新しい角度から見たりすることで、その人物への愛着や理解を深めたり、楽しんだりする。
  • 加工したり、変化させたりすることで、その人物に関する想像力や創造力を発揮したり、驚きや感動を得たりする。
  • 生成したり、再現したりすることで、その人物に近づいたり、触れ合ったりすることができるかもしれないという期待や願望を満たしたりする。
LORA学習の問題

芸能人や特定の絵柄のLORA学習には問題も多くあります。
以下にいくつか例を挙げます。

  • その人物の著作権や肖像権を侵害する可能性があります。
    特に、無断で他人の写真やイラストを素材として使ったり、配布したりする場合は法的なトラブルになる恐れがあります。
  • その人物のイメージやプライバシーを損なう可能性があります。
    特に、不適切な内容や表現を含む画像を生成したり、拡散したりする場合は倫理的な問題になる恐れがあります。
  • その人物のファンや関係者の感情を傷つける可能性があります。
    特に、その人物がAIファンアートを望まない場合や禁止している場合は尊重する必要があります。

以上のように、芸能人や特定の絵柄のLORA学習は問題が多くあります。
芸能人や特定の絵柄のLORA学習を行う際には、その人物やその関係者の意思や感情を尊重し、適切な範囲や方法で行うことが必要だと思います。