AI モデルのトレーニングに使用されるデータとの戦いはさらに深刻になっています。
Nightshade と呼ばれる新しいツールを使用すると、ユーザーはこれを自分のクリエイティブな作品に添付でき、そのアートによってトレーニング データが破損、または汚染されます。 最終的には、DALL-E、Stable Diffusion、Midjourney などの芸術的 AI プラットフォームの将来のモデルが破壊され、画像を作成する機能が失われる可能性があります。
Nightshade は、デジタル アートのピクセルに目に見えない変化を加えます。 アクションがトレーニング モデルに吸収されると、Poison はモデルを混乱させる脆弱性を悪用し、車の画像を車として読み取らず、代わりに牛を出力します。
の MITテクノロジーレビュー 言及された シカゴ大学の教授であり、Nightshade の作成者の 1 人である Ben Zhao 氏は、モデルをトレーニングするために著作権で保護されたデータを取得した AI 企業から天秤を傾けることを望んでいます。 の ナスに関する研究論文 同氏は、AIモデルでテキストを画像に変換するために使用されるトレーニングデータは、ツールによって開始される種類の攻撃に対して脆弱であると述べた。
「驚くべきことに、適度な数のNightshade攻撃がテキストから画像への生成モデルの一般的な機能を不安定にし、意味のある画像を生成する機能を事実上無効にする可能性があることを示した」と論文は述べている。
この方法を実行するのに十分な執念深いアーティストは、自分の作品を Glaze にアップロードできます。Glaze は、Nightshade のクリエイターが作成したツールで、自分の芸術的スタイルを隠すことができます。たとえば、自然に写実的な描画をおそらく立体的なものにレンダリングします。 Nightshade は Glaze に統合され、ユーザーは毒薬を使用するか、モデルが自分のアート スタイルをエミュレートできないことに満足するかを選択できるようになります。
Nightshadeの作成者らは論文の中で、このツールや同様のツールは、オプトアウトルールを認めない「ウェブスクレイパーに対するコンテンツ作成者の最後の防御策」として使用されるべきだと提案した。
AI が生成したコンテンツやトレーニング データをめぐる著作権問題は、規制がないため依然としてグレーゾーンです。 多くの著作権侵害訴訟が今も法廷で係争中である。 一方、Web クローラーが許可なくデータを持ち出すのを防ぐ方法は、データ マイニング ツールへのアクセスをブロックすることに限られていました。 Adobe などの企業は、何かが AI によって生成されたものであるかどうかを示すためにタグを使用することを計画していますが、それは画像の所有者も示します。
GoogleとMicrosoftは、一部の顧客が自社の生成AI製品の使用中に著作権侵害で訴えられた場合、法的責任を負う用意があると述べた。 ただし、これらの製品の大部分はテキストベースです。
More Stories
Nintendo Switch の最高のグラフィックス: 7 年間にわたるサードパーティ開発者の才能の結晶
エヌビディアの失望で日本の日経平均株価が下落
Apple Intelligence の写真アプリのクリーンアップ ツールの動作をご覧ください