開けて悔しき玉手箱のブログ

浮世の世間で ある日 玉手箱を 開けてしまった........。 気づくと そこは......。

実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。これらの機能により、有名人のポルノビデオまたはリベンジポルノの偽造作成のため、ディープフェイクが使用される可能性がある[3]。さらに、ディープフェイクは、虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る[4] [5]。

ディープフェイク  

 

ディープフェイクdeepfake)は、「深層学習deep learning)」と「偽物(fake)」を組み合わせた混成語かばん語)で[1]人工知能にもとづく人物画像合成の技術を指す。「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成される[2]。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。

そのような偽の映像で、例えば、実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。これらの機能により、有名人のポルノビデオまたはリベンジポルノの偽造作成のため、ディープフェイクが使用される可能性がある[3]。さらに、ディープフェイクは、虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る[4] [5]

 

歴史 

2017年にインターネット上で、特にRedditでディープフェイクのポルノが初めて現れ[6]、現在ではRedditTwitterPornhubなどのサイトで禁止されている[7] [8] [9]。2017年秋、"Deepfakes" というハンドルネーム匿名Redditユーザーがインターネットにいくつかのポルノビデオを投稿した。注目を集めた最初のものは、デイジー・リドリーのディープフェイクだった。それはまた、よく知られたディープフェイクビデオの1つで、いくつかの記事の中でひときわ目立つものであった。ほかのディープフェイクとして、継兄弟と性行為をしているワンダーウーマンを演じた女優のガル・ガドット、また、エマ・ワトソンケイティ・ペリーテイラー・スウィフトスカーレット・ヨハンソンがあった。人工知能を使用して作成された、それらのビデオは本物ではなく、ほどなく偽物であることが暴かれた。

時間が経つにつれて、Redditコミュニティは偽造ビデオの多くのバグを修正し、偽物と本物のコンテンツを区別することが次第に困難になった。オンラインで容易に入手できる女優の非ポルノの写真やビデオは、ソフトウェアのための訓練データとして使用された。ディープフェイク現象は、2017年12月に、雑誌Vice(en:Vice (magazine))の技術と科学の欄で初めて報告され、他のメディアでも広く報道された[10] [11]

2018年12月、頻繁にディープフェイクポルノの対象となっているスカーレット・ヨハンソンが、ワシントン・ポストの取材に対し、以下のように語っている。用意した声明の中で、彼女はこの現象についての懸念を表明し、インターネットを「自分自身を食べる暗黒の巨大なワームホール」と表現している。しかし、それが自分の公共のイメージに影響を及ぼさないこと、そして国によって法律が異なること、インターネット文化の性質(ストライサンド効果)によりディープフェイクを削除するどのような試みも無駄な努力になること、以上の考えから、彼女は、自分のディープフェイクの削除を試みようとはしないと述べた。彼女は、自分自身のような有名人は名声によって保護されているが、一般女性にとっては、不本意なポルノやリベンジポルノの描写によって評判が損なわれる可能性のある深刻な脅威をもたらす、と考えている[12]

英国では、ディープフェイクの製作者を嫌がらせで起訴できるが、ディープフェイクを特定の犯罪に指定することが求められている[13]。米国では、なりすましサイバーストーカー、リベンジポルノのようなさまざまなものが告発される、さらに包括的な法令にしていこうとする動きもある[14]

Pornhubなどのポルノ動画サイトでは、日本人女優やアイドルのディープフェイクの動画があり、BuzzFeed Newsが確認しただけでも10個以上は存在し、多いものでは300万回以上再生されているものもあった[15]

サイバーセキュリティ会社「DeepTrace」の2019年10月の調査によると、過去7か月で1万4678件のディープフェイク動画が確認され、1年で倍増しており、その96%がポルノ動画だった[15]。ディープフェイクに特化した上位4つのポルノサイトでは、数百人の女性有名人のフェイク動画が、計1億3400万回以上も再生されているという[15]

 

政治 

ディープフェイクは、有名な政治家を、ビデオポータルチャットルームで、事実と異なるかたちで伝えるために使用されている。例えば、アルゼンチン大統領のマウリシオ・マクリの顔はアドルフ・ヒトラーの顔に、そしてアンゲラ・メルケルの顔はドナルド・トランプの顔に置き換えられた[16][17]。トランプが中国を訪問していた2017年11月に中国企業iFlytek英語版は流暢な中国語を話して自社とAIを褒めたたえるトランプのディープフェイクを披露して波紋を呼んだ[18][19]。2018年4月、ジョーダン・ピールJonah Peretti(en:Jonah Peretti)は、ディープフェイクの危険性に関する公共広告として、バラク・オバマを使ったディープフェイクを作成した[20]。2019年1月、KCPQは、オーバルオフィス(大統領執務室)におけるトランプの演説のディープフェイクを放映し、彼の外観と肌の色をあざけった[21]

 

メディア 

中国では国営メディアの新華社がディープフェイクの技術を用いて実在のアナウンサーから合成した世界初の人工知能ニュースキャスターが開発されており[22]、政府の重要な会議の報道でも使用された[23]。この技術はロシアアラブ首長国連邦の国営メディアでも採用されている[24]

しかし、ディープフェイクは虚偽報道であるフェイクニュースを助長させるとして問題視されており[25]、2019年11月に中国政府は2020年からディープフェイクを使用したフェイクニュースを禁止することを発表した[26]

国内において2020年10月ディープフェイクを利用したわいせつ映像を有料公開していた者が著作権法違反及び名誉毀損で検挙され、報道されている[27]

 

ディープフェイクのソフトウェア 

2018年1月、FakeAppというデスクトップアプリケーションが発表された。このアプリケーションでは、ユーザーが顔を入替えた動画を簡単に作成および共有できる。このアプリケーションは、フェイクビデオを生成するために、人工ニューラルネットワーク、グラフィックプロセッサのパワー、そして3〜4ギガバイトストレージスペースが必要である。詳細な情報については、プログラムは、ビデオシークエンスおよび画像に基づくディープラーニングアルゴリズムを使用して、どの画像アスペクトを交換しなければならないかを学習するため、挿入されるべき人物からの多くの視覚材料を必要とする。

そのソフトウェアは、グーグル人工知能-フレームワークであるTensorFlowを使用する、それは、とりわけコンピュータビジョンのプログラムであるDeepDreamen:DeepDream)のためにすでに使用されていた。有名人はそのような偽のセックスビデオの主な標的となっているが、一般の人々も影響を受けている[28] [29] [30]。2018年8月、カリフォルニア大学バークレー校の研究者は、人工知能を使って子供をプロのダンサーに置き換えることができるフェイクダンスアプリケーションを紹介する論文を発表した[31][32]

2019年8月、中国で1枚の顔写真でディープフェイクを作成できるZAOというアプリケーションが発表されて同年9月にApp Storeの人気ランキングで1位になるもユーザーの同意なしにデータを使用される可能性があるプライバシーポリシーが物議を醸し[33][34]アメリカでは選挙介入やフェイクニュースに利用される可能性を懸念する声があがった[35]

 

フィクションにおけるディープフェイク 

ディープフェイクや有名人のフェイクポルノの現象は、 Michael Grothaus(en:Michael Grothaus)による小説「Epiphany Jones」で探求されている[36]。この小説は、文学的なスリラー、社会風刺、であり、セックス、有名人、インターネット対するアメリカの強迫観念についての暗いコメディである、またポルノ中毒者と神と話すことができると考える女との不本意な関係、およびハリウッドエリートへ性的な人身売買を行う業者との交絡を探る内容である。小説の主人公、ジェリー・ドレスデンは、有名人のフェイクポルノへの中毒に苦しんでいる。小説で言及されている特定の有名人の偽物には、 ナタリー・ポートマンスカーレット・ヨハンソンハレ・ベリーアンジェリーナ・ジョリーケイト・ベッキンセールプッシーキャット・ドールズ、が含まれる。さらに、ジュディ・ガーランドオードリー・ヘップバーンといった死亡した有名人の偽物についても小説に記載されている。

 

批評 

悪用 

スイスに本社を置く新聞社であるAargauer Zeitung(en:Aargauer Zeitung)は、人工知能を使った画像やビデオの操作は、危険な大量のメディアがあふれることになる可能性があると述べている。しかし、画像やビデオの改ざん自体は、動画編集ソフトウェア画像編集ソフトウェアの登場よりもずっと古いものであり、このたびのディープフェイクの場合、新しい側面はそのリアリズムにある[16]

標的を絞ったデマやリベンジポルノにディープフェイクを使用することも可能である[37] [38]

信頼性と信憑性への影響 

ディープフェイクのもう1つの効果は、その内容が標的となった偽物(例えば風刺)なのか本物なのかを区別できなくなることである。人工知能の研究者であるAlex Champandardは、この技術によって今日のものがどれだけ速く改変され得るか、そして問題は技術的なものではなく、情報とジャーナリズムの信頼によって解決されるものであるということを、すべての人が知っておくべきであると述べた。最重要な落とし穴は、描写されているメディアが真実に対応しているかどうかを、もはや判断できなくなる時代に人類が陥る可能性があることである[16]

インターネットの反応 

TwitterやGfycatなどのいくつかのウェブサイトでは、ディープフェイクのコンテンツを削除し、その発行元をブロックすると発表している。以前、チャットプラットフォームのDiscordは、有名人のフェイクポルノビデオのチャットチャンネルをブロックした。ポルノグラフィのウェブサイトの Pornhubもそのようなコンテンツをブロックする予定であるが、その禁止を強制していないと報告されている[39] [40]Redditでは、2018年2月7日に「不本意のポルノ」のポリシー違反により、subreddit(Redditサブフォーラム)が一時停止されるまで、初期の状態が削除されないまま残っていた[11] [41] [42]。2018年9月、グーグルは、誰もが自分の本物あるいは偽物ヌードのブロックを要求でき、その禁止リストに「不本意の合成ポルノ画像」追加した[14]

 

参考文献 

  1. ^ Brandon, John (2018年2月16日). “Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise” (英語). Fox News 2018年2月20日閲覧。
  2. ^ Schwartz, Oscar (2018年11月12日). “You thought fake news was bad? Deep fakes are where truth goes to die” (英語). The Guardian 2018年11月14日閲覧。
  3. ^ “What Are Deepfakes & Why the Future of Porn is Terrifying” (英語). Highsnobiety. (2018年2月20日2018年2月20日閲覧。
  4. ^ Experts fear face swapping tech could start an international showdown” (英語). The Outline2018年2月28日閲覧。
  5. ^ Roose, Kevin (2018年3月4日). “Here Come the Fake Videos, Too” (英語). The New York TimesISSN 0362-4331 2018年3月24日閲覧。
  6. ^ Roettgers, Janko (2018年2月21日). “Porn Producers Offer to Help Hollywood Take Down Deepfake Videos” (英語). Variety 2018年2月28日閲覧。
  7. ^ “It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet” (英語) 2018年2月20日閲覧。
  8. ^ Kharpal, Arjun (2018年2月8日). “Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor”CNBC 2018年2月20日閲覧。
  9. ^ “PornHub, Twitter Ban 'Deepfake' AI-Modified Porn” (英語). PCMAG 2018年2月20日閲覧。
  10. ^ AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, (2017-12-11)
  11. a b Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online
  12. ^
  13. ^
  14. a b Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target’”. The Washington Post (Harrell). 2019年1月1日閲覧。
  15. a b c Hatachi, Kota. “日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も” (日本語). BuzzFeed2020年1月15日閲覧。
  16. a b c Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos”. az Aargauer Zeitung (2018年2月3日). 2019年1月26日閲覧。
  17. ^ Patrick Gensing (2018年2月22日). “Deepfakes: Auf dem Weg in eine alternative Realität?”. 2019年1月26日閲覧。
  18. ^ Thatsmags.com (2017年11月10日). “Here's a Creepy Video of Trump Speaking Chinese via AI”. 2019年9月3日閲覧。
  19. ^ ニューヨーク・タイムズ (2017年12月3日). “China’s A.I. Advances Help Its Tech Industry, and State Security”. 2019年9月3日閲覧。
  20. ^ Romano (2018年4月18日). “Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news”. Vox2018年9月10日閲覧。
  21. ^ Swenson (2019年1月11日). “A Seattle TV station aired doctored footage of Trump’s Oval Office speech. The employee has been fired.” (英語). The Washington Post2019年1月11日閲覧。
  22. ^ AFPBB (2019年3月6日). “世界初のAIニュースキャスターが中国で誕生、あまりにもリアルで衝撃的な映像が公開中”. 2019年6月24日閲覧。
  23. ^ AFPBB (2019年3月6日). “動画:AIアナ「新小萌」 政協第13期全国委第2回会議報道でデビュー”. 2019年6月24日閲覧。
  24. ^ Asia One (2019年6月14日). “Demand for AI virtual news anchors set to increase”. 2019年6月24日閲覧。
  25. ^ フォーブス (2019年6月18日). “物議醸す「ディープフェイク」技術 その問題と未来”. 2019年6月24日閲覧。
  26. ^ The Verge (2019年11月29日). “China makes it a criminal offense to publish deepfakes or fake news without disclosure”. 2019年11月30日閲覧。
  27. ^ “ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警” (日本語). ITmedia NEWS2020年10月3日閲覧。
  28. ^ Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de
  29. ^ Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070
  30. ^ heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien
  31. ^ Farquhar, Peter (2018年8月27日). “An AI program will soon be here to help your deepfake dancing – just don't call it deepfake” (英語). Business Insider Australia 2018年8月27日閲覧。
  32. ^ “Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted”The Verge 2018年8月27日閲覧。
  33. ^ “China’s Red-Hot Face-Swapping App Provokes Privacy Concern”ブルームバーグ. (2019年9月2日) 2019年9月3日閲覧。
  34. ^ “顔写真1枚で簡単にディープフェイク映像を作成できる無料アプリ登場、中国で大人気に”GIGAZINE. (2019年9月3日) 2019年9月3日閲覧。
  35. ^ “中国で人気”偽動画作成アプリ” 米 選挙への影響懸念”NHK. (2019年9月5日) 2019年9月5日閲覧。
  36. ^ Chopin. “'Epiphany Jones' book review: Sex crimes and psychosis in darkly funny thriller - NY Daily News”. nydailynews.com2018年12月31日閲覧。
  37. ^ Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, (2018-01-26), ISSN 0044-2070
  38. ^ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, (2018-02-02)
  39. ^ “Pornhub hasn't been actively enforcing its deepfake ban” (英語). Engadget 2018年4月21日閲覧。
  40. ^ “Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them” (英語). BuzzFeed 2018年4月21日閲覧。
  41. ^ barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos
  42. ^ Reddit verbannt Deepfake-Pornos” (2018年2月8日). 2019年1月26日閲覧。
 

関連項目 

 

外部リンク