AI ツールは革新的で、会話を行ったり、人間のようなテキストを生成したり、単一の単語に基づいて画像を作成したりできるようになりました。ただし、これらの AI ツールが使用するトレーニング データは、特に DALL-E、Midjourney などのテキストから画像へのジェネレーターに関しては、著作権で保護されたソースから取得されていることがよくあります。
トレーニングに著作権画像を使用する生成 AI ツールを止めるのは難しく、あらゆる分野のアーティストが AI トレーニング データセットから作品を保護するのに苦労しています。しかし今、生成 AI ツールの出力を妨害するために構築された無料の AI ツールである Nightshade の出現により、すべてが変わりました。そして最終的にアーティストが力を取り戻せるようになりました。
AI ポイズニングは、AI アルゴリズムのトレーニング データセットを「ポイズニング」する行為です。これは、AI に意図的に間違った情報を与え、その結果、学習済みの AI が誤動作したり、画像を検出できなくなったりすることに似ています。 Nightshade のようなツールは、AI トレーニングとは完全に異なるように見えるが、人間の目には元の画像とほとんど変わらないように、デジタル画像内のピクセルを変更します。
たとえば、毒を盛った車の画像をインターネットにアップロードすると、私たち人間には同じように見えますが、AI は車の画像を見て車を識別できるように自らを訓練しようとします。インターネットではまったく異なるものが表示されます。
AI のトレーニング データに含まれるこれらの偽の画像や汚染された画像のサンプル サイズが十分に大きいと、AI のオブジェクトの理解が損なわれ、特定のプロンプトから正確な画像を生成する機能が損なわれる可能性があります。
生成 AI の将来がどうなるかについてはまだいくつかの疑問がありますが、オリジナルのデジタル作品を保護することは間違いなく優先事項です。モデルの基礎を構築するトレーニング データが 100% 正しくないため、これによりモデルの将来の反復に損害を与える可能性さえあります。
この技術を使用すると、AI データセットでの画像の使用に同意していないデジタル クリエイターは、その画像が許可なく生成 AI にフィードされるのを防ぐことができます。一部のプラットフォームでは、クリエイターが AI トレーニング データセットにアートワークを含めないようにオプトアウトするオプションが提供されています。ただし、このようなオプトアウト リストは、AI モデル トレーナーによって過去にも無視されており、今後も無視され続けますが、ほとんど影響はありません。
Glaze のような他のデジタル アートワーク保護ツールと比較すると、Nightshade は攻撃的です。 Glaze は AI アルゴリズムが特定の画像のスタイルを模倣するのを防ぎますが、Nightshade は画像の外観を AI に変更します。どちらのツールも、シカゴ大学のコンピューター サイエンス教授である Ben Zhao によって構築されました。
このツールの作成者は、Nightshade を Glaze と一緒に使用することを推奨していますが、アートワークを保護するためのスタンドアロン ツールとしても使用できます。 Nightshade で画像を保護する手順が 3 つだけであることを考えると、このツールの使用も非常に簡単です。
ただし、開始する前に留意する必要があることがいくつかあります。
Nightshade は Windows および MacOS でのみ利用できますが、GPU サポートには制限があり、最低 4GB VRAM が必要です。現時点では、Nvidia 以外の GPU と Intel Mac はサポートされていません。 Nightshade チームによるサポートされている Nvidia GPU のリストは次のとおりです (GTX および RTX GPU は「CUDA 対応の GeForce および TITAN 製品」セクションにあります)。あるいは、CPU 上で Nightshade を実行することもできますが、パフォーマンスが低下します。 GTX 1660、1650、または 1550 を使用している場合、PyTorch ライブラリのバグにより、Nightshade を適切に起動または使用できない可能性があります。 Nightshade の背後にあるチームは、PyTorch から Tensorflow に移行することで将来この問題を修正する可能性がありますが、現時点では回避策はありません。この問題は、これらのカードの Ti バージョンにも及びます。 Windows 11 PC に管理者アクセスを提供してプログラムを起動し、プログラムが開くまで数分間待ちました。走行距離は異なる場合があります。 アートワークに固体の形状や背景がたくさんある場合、アーティファクトが発生する可能性があります。これは、より強度の低い「中毒」を使用することで対抗できます。Nightshade で画像を保護する場合、次のことを行う必要があります。このガイドでは Windows バージョンを使用していますが、これらの手順は macOS バージョンにも適用されることに注意してください。
Nightshade ダウンロード ページから Windows または macOS バージョンをダウンロードします。 Nightshade はアーカイブ フォルダーとしてダウンロードされ、インストールは必要ありません。ダウンロードが完了したら、ZIP フォルダーを解凍し、Nightshade.exe をダブルクリックしてプログラムを実行します。 左上の「選択」ボタンをクリックして、保護したい画像を選択します。一度に複数の画像を選択してバッチ処理することもできます。 好みに応じて強度とレンダリング品質のダイヤルを調整します。値を高くするとポイズニングが強化されますが、出力イメージにアーティファクトが発生する可能性もあります。 次に、「出力」セクションの下にある「名前を付けて保存」ボタンをクリックして、出力ファイルの保存先を選択します。 下部にある「Run Nightshade」ボタンをクリックしてプログラムを実行し、画像を汚染します。オプションで、毒タグを選択することもできます。 Nightshade は、単一の単語タグを自動的に検出して提案します (そうでない場合)。ただし、それが間違っていたり一般的すぎる場合は変更できます。この設定は、Nightshade で 1 つの画像を処理する場合にのみ使用できることに注意してください。
すべてがうまくいけば、人間の目には元の画像と同じに見えますが、AI アルゴリズムからはまったく異なる画像が得られるはずです。これにより、生成 AI からアートワークが保護されます。
免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。
Copyright© 2022 湘ICP备2022001581号-3