ディープフェイクAVの法的規制

目次

 

報道

人工知能(AI)を使った「ディープフェイク」と呼ばれる技術を悪用して出演者の顔を女性芸能人にすり替えたポルノ動画のまとめサイトを運営していたとして、警視庁と千葉県警は19日、サイトの運営者3人を名誉毀損(きそん)容疑で逮捕したと発表した。ディープフェイクを巡っては、同庁などが9月に偽動画の作成者を初めて逮捕したが、動画の作成に関与していないサイト運営者が逮捕されるのは初めて。

「ディープフェイク」ポルノ転載のサイト運営者3人を逮捕 芸能人への名誉毀損容疑 - 毎日新聞

 

ディープフェイクとは何か 

ディープフェイクとは、ディープラーニングを利用したフェイク動画(画像)で、今回問題になっているディープフェイクAVに即して言うと、AV女優の顔を別の女性芸能人のものにすり替えるというものです。

なお、芸能人以外や、例えば選挙で対立候補に言ってもいないことを言わせた動画をアップロード等する行為も問題とされていますが、さしあたり、この記事の検討の対象からは除外します。

その点も含めて、急増するポルノ版ディープフェイク、このままでは“偽動画”が溢れる時代がやってくる | WIRED.jpが分かりやすいです。

 

パブリシティ権侵害

ディープフェイクAVをアップロードし、あるいはリンクを張る人たちは、アクセスを集めて広告収入を得ることを動機としています。

山口容疑者は「新型コロナウイルスで仕事が減り、ウェブ広告で稼ぎたかった」、窪容疑者は「サイトのアクセスを増やして金を稼ぎたかった」とともに容疑を認めている。二又、窪両容疑者は19年12月以降、計150万円以上の広告収入があったとみられる。

この動機から考えたとき、「ディープフェイクAVのアップロード行為・リンクを張る行為がいけない理由」として最も素直なのは、パブリシティ権侵害です。

肖像等を無断で使用する行為は,①肖像等それ自体を独立して鑑賞の対象となる商品等として使用し,②商品等の差別化を図る目的で肖像等を商品等に付し,③肖像等を商品等の広告として使用するなど,専ら肖像等の有する顧客吸引力の利用を目的とするといえる場合に,パブリシティ権を侵害するものとして,不法行為法上違法となる…。

最判平成24年2月2日民集66巻2号89頁[ピンク・レディー]

被害者(顔を勝手に使われた人)は、パブリシティ権侵害を主張することにより、民事上、アップロードした人・リンクを張った人から広告収入を剥奪することができます。

削除請求については、ピンク・レディー事件からは明らかではありませんが*、認められると考えられます。

*「人格権としてのパブリシティ権」と言ってくれれば話は簡単だったのですが(cf. 北方ジャーナル事件の「人格権としての名誉権」)、最高裁は、当該事案が損害賠償請求事件だったこともあり、「人格権に由来する権利」とお茶を濁しています。ただ、それを認めた裁判例があり(東京高判平成3年9月26日判時1400号3頁[おニャン子クラブ])、最高裁も、民法709条との関係では「法律上保護される利益」だと言いさえすればよかったはずなのに、わざわざパブリシティ権」という言葉を使っていることからすれば、認められるように思います。

また、今回はまとめサイトなので難しいと思いますが、作られた動画が動画共有サイト(Pornhubとか)にアップロードされ、削除請求にもかかわらず放置された場合、そのサイトの運営者に対する差止請求・損害賠償請求も可能と考えられます。

ただ、パブリシティ権侵害は判例上認められたもので、法律の規定はないので、当然、処罰の対象にはなりません(罪刑法定主義)。

 

人格権侵害

次に考えられるのは、被害者の名誉感情が著しく傷つけられたという点で、人格権侵害となるという構成です。特に判例はありませんが、民事上の差止請求・損害賠償請求は認められると考えられます。

パブリシティ権は、「商品の販売等を促進する顧客吸引力…を排他的に利用する権利」なので(ピンク・レディー事件)、精神的損害をカバーするものではありません。そのため、この構成は、実際にも意味があるものと考えられます。

ただ、これについても処罰の対象にはなりません。

 

著作権侵害

素材のAV

素材のAVについては、制作会社に著作権が帰属しており、ディープフェイクAVのアップロード行為翻案権二次的著作物についての公衆送信権の侵害として処罰の対象になります(著作権法119条1項、27条、28条・23条1項)。

著作権侵害コンテンツへのリンクを張る行為は、公衆送信(著作権法23条1項)に当たるかという議論があります。民事で侵害を認めた裁判例はありますが、刑事での摘発例はありません。

なお、令和2年改正でリーチサイト(「侵害著作物等利用容易化ウェブサイト等」)の提供行為が侵害行為とみなされることとなりましたが(著作権法113条3項、119条2項4号)、二次的著作物は対象外です。

 

素材の画像

素材となった画像については、理論的には素材のAVと同様に著作権侵害(翻案権・公衆送信権侵害、リーチサイトのみなし侵害)になるように思いますが、素材とディープフェイクAVのコマの対応関係を立証するのは困難であるように思います。

なお、平成30年著作権法改正で、ディープラーニングにおける利用を念頭に、情報解析目的の場合の権利制限規定が設けられましたが(30条の4第2号)、少なくとも本件で適用されないように思います。

 

名誉毀損

名誉毀損は、次のように規定されています。

刑法230条 [1]公然と[2]事実を摘示し、[3]人の名誉を毀損した者は、[4]その事実の有無にかかわらず、3年以下の懲役若しくは禁錮又は50万円以下の罰金に処する。

インターネットでやっている以上[1]は問題ないと思います。

なお、名誉毀損は民事上も差止請求・損害賠償請求ができますが、要件は基本的に刑法のものと同じように考えられているので、専ら刑法上の名誉毀損を検討することとします。

 

真実または虚偽の事実の摘示

真実または虚偽の事実の摘示([1][4])は、侮辱罪(罰金にしかならない)と本罪とを区別する要件であり、真実でなくてもよいので一定の具体的事実をもって「名誉を毀損」するものでなければならないという要件です。

判例で、露天風呂に入浴中の女性3名を盗撮し、AVを扱う多数の書店やビデオ販売店等において陳列させた行為について、名誉毀損罪の成立を認めた事例があります。

「事実の摘示」についてみると,被告人らは,上記のような内容の本件ビデオテープに上記K子ら3名の全裸の姿態が録画されているという事実を摘示したものということができる。

(東京地判平成14年3月14日 LEX/DB 28075486)

これを参考にすると、ディープフェイクAVをアップロードする行為が、被害者がディープフェイクAVに収録されたような行為を行い、撮影させたという(虚偽の)「事実を摘示」する、という説明が考えられます。

リンクを張る行為についても、現状では、基本的にこれに当たると言ってよいのではないかと思います。AVのリンクを張るという行為のほとんどは、今回のようなまとめサイト=AVへのリンクを張り、アクセスを集めることそれ自体を目的とするサイトによって行われているからです。

なお、そのAVがディープフェイクAVであることを知らなかった場合は、客観的には本罪に該当するものの、故意(=主観的要件)がないため、本罪は成立しません(ただし、上記の現状を考えると、(未必的)故意が否定されることはほとんどない気がします)。

 

名誉の毀損

名誉の毀損([4])は、社会的評価を低下させるおそれを生じさせることをいうと理解されています。

ディープフェイクAVをアップロードする行為・リンクを張る行為は、被害者の芸能人としてのイメージを汚染し、社会的評価を低下させおそれを生じさせるものといえます。

なお、仮に閲覧者の全員がディープフェイクAVフェイクをそれと知って閲覧する場合、閲覧者はAVと被害者は無関係と理解しているわけなので、社会的地位の低下にならないんじゃないかとも思ったんですが、名誉毀損罪は抽象的危険犯なので「そんなことはありえない」で片付けてしまっても構わなそうです。

 

なお、以前のメモとして、故人、生存中の人物、創作キャラクターの利用に関するメモ(AI美空ひばり、ナマモノ、ディープフェイクAV etc)もご参照ください。