5.4K Views
July 23, 23
スライド概要
第59回CV勉強会の発表資料になります。CVPR2023読み会として、Diffusion Art or Digital Forgery? Investigating Data Replication
in Diffusion Models"を紹介します。また、続編である"Understanding and Mitigating Copying in Diffusion Models" についても軽く紹介します。
サラリーマン研究員。
AIアートの功罪 あるふ
そもそもAIアートってなんぞ? Wikipediaで調べてみた
画像⽣成AI?聞いたことがあるぞ? Twitterで調べてみた
Stable Diffusion配布前
なんか俺が最古っぽい! 画像⽣成AIという⾔葉の名付け親と ⾃称しても差し⽀えないのでは?!
⾃⼰紹介 • 画像⽣成AIを研究開発しているエンジニア • ⾃称・画像⽣成AIという⾔葉の名付け親 • 主な活動 • 画像⽣成AIの研究開発 • 画像⽣成AIの啓蒙活動 https://prtimes.jp/main/html/rd/p/000000002.000113219.html https://youtu.be/GwNm-3SXFD0
AIアートの功 • ⽂字を使える⼈ならば、簡単にきれいな絵を作ることができる • これは病気の⽅でも障害者の⽅でも含まれる • Hugging FaceというサイトではHugging Faceという会社が 誰でもAIアートを無償で楽しむことができるように いろんなAIのデモを運⽤している • https://huggingface.co/spaces/aipicasso/cool-japan-diffusionlatest-demo • 他にもAIアート特有の表現ができるようになった
そんなAIアートに問題はないんか? CVPR 2023で調べてみた
Diffusion Art or Digital Forgery? Investigating Data Replication in Diffusion Models Gowthami Somepalli1, Vasu Singla1, Micah Goldblum2, Jonas Geiping1, Tom Goldstein1 1University of Maryland, College Park 2New York University
現代の画像⽣成AIである拡散モデルは 学習データを複製してないか?
端的に⾔えば「複製してる」 紹介者注:ただし、条件があります。
余談 • 実はこの現象を彼らよりも早く私は報告していた • しかし、技術報告にとどめ、国内産業への対応を優先していた • もうちょっとちゃんとまとめれば、CVPR通せたのかねぇ • AIの倫理というテーマでCHIには投げる予定だった • そうしていたら、この論⽂がarXivに出てきたので、 デジタル贋作現象と勝⼿に名付けて、よく引⽤している
どのようなときに現象が発⽣するのか • ストレートに⾔うと過学習を起こしたときに複製が⽣じる • どうもデータセットが⼤きければ起きないらしい • じゃあ、たくさんのデータセットを使った Stable Diffusionはどうなのか
Stable Diffusionでも起きるのか • なんか複製っぽいことが起きてしまっている
複製にもいろいろ種類があるらしい • スタイルをコピーしたり、プロンプトに強く依存したり
複製にもいろいろ種類があるらしい • 別のキャプションから異なるキャプションと似ている画像が⽣ 成されたり
なんで現象が発⽣するのか • どうも学習画像の中に同じ画像が複数あり、 何度も学習されたかららしい • どうも学習時のテキストが問題らしい
論⽂のまとめ • 現代の画像⽣成AIである拡散モデルは 学習データを複製してないか? • 複製している • 紹介者注:条件によります • それではこの問題は⽇本でどう扱われるのか?
⽇本における問題の位置づけ • 学習データを知らない⼀般ユーザーが (⽂章からの)画像⽣成により著作権侵害を起こりうるのか? • 無改造のStable Diffusionとか • 現状では著作権侵害はほぼ起こらないと私は考えている • これは著作権侵害の要件である依拠性を満たさないからである • 依拠性:学習元の画像を知った上で意図的に⽣成したかどうか • 類似性があるだけでは著作権侵害にはならない • と⽂化庁と⽂部科学省の⾒解から判断した • ただし、今後の⾏政の法解釈や司法の判断によって変わること があるため、最新の情報には注意
実は解決策を続編で提案している • Mitigationすることで解決できるらしい [1] • Mitigationの例: 1枚に複数のキャプションを付ける • 拡散モデルの制作者は気をつけたほうが良いかもしれない [1] https://arxiv.org/abs/2305.20086
全体のまとめ • AIアートの功罪 •功 • ⽂字が使える⼈ならきれいな絵を簡単に作ることができるようになった • AI独特の芸術表現ができるようになった •罪 • 著作権 is 何という問題を引き起こした • 学習元と類似性の⾼いものを出してくる • クリエイターからみると、なんだこいつはけしからんみたいなものができた • 学習画像をパクったように⾒える • 罪を減らすためにも、mitigationを⾏いましょう