ディープフェイクポルノ 動画。 ディープフェイクとは?注意点や問題点は?閲覧可能なサイトも紹介!

ディープフェイク動画(AI合成動画)の作り方、簡単スマホアプリ、PCソフトは? あなたも狙われる、フェイク動画の恐怖!

ディープフェイクポルノ 動画

ディープフェイクとは?問題点は? 最近だと様々な物議を醸しているディープフェイクですが、そもそもディープフェイクとはなんなのでしょうか。 ここではディープフェイクについてと、問題点についてそれぞれご紹介します。 ディープフェイクとは ディープフェイクとは、人工知能の「深層学習」とよばれる手法を利用して制作された偽物の写真や動画などのことをいいます。 要するに、人工知能を利用した高品質の合成写真、動画のことです。 2019年にオバマ大統領が「トランプ大統領はクソ野郎だ」と批判するディープフェイクを利用した動画が配信され物議を醸していました。 ディープフェイクは、従来の合成写真、動画とは一線を画しており、素人が閲覧する分には違いに全く気づかないほどの精巧さを兼ね備えています。 そのため、悪質なことに数多く利用されており、法律や規約によって禁止している国やサービスが増えているのが現状です。 ディープフェイクの問題点 技術の進歩を非常に感じるディープフェイクですが、進歩ゆえの問題点もあります。 ディープフェイクは精巧に偽動画や写真を作成可能なため以下のような悪質なことに利用されています。 フェイクポルノ• 政治での印象操作 それぞれ見ていきましょう。 フェイクポルノ ディープフェイクを利用してポルノ映像、写真の制作が盛んに行われています。 フェイクポルノとは、アダルト動画に出演している女性の顔を、有名人やアイドルなどの顔と交換し、あたかも顔を交換した女性が性行為をしているように見える動画です。 実際に2019年のサイバーセキュリティ会社「DeepTrace」の調査によると、ディープフェイク動画の96%はフェイクポルノであると発表されています。 それほどまでに悪質に利用されていることが広がっています。 被害女性側の人権侵害や、脅迫などに利用される危険性もあり、非常に危険性が高い技術です。 政治での印象操作 政治の世界でも印象操作目的でディープフェイクが利用されています。 上記の「ディープフェイクとは」で記載した、オバマ大統領が「トランプ大統領はクソ野郎だ」と批判している動画などが該当します。 また、アフリカのガボンでは閣僚のフェイクポルノ動画が拡散され、クーデター未遂により国の混乱騒動にまで発展したケースも。 発言していない内容をあたかも発言したかのように仕立てたり、ポルノ動画によって印象を操作したり、騒ぎを引き起こしています。 ディープフェイクが閲覧可能なサイトは? 実際にディープフェイクがどのようなものか、見て確認したい方もいらっしゃるでしょう。 しかし、ディープフェイクのサイトは悪質なものが多く頻繁に削除されています。 規制も厳しく、ディープフェイクのサイトをを見つけることは簡単ではありません。 pornhubなどのポルノサイト内やツイッターで検索も可能ですが、全て自己責任で判断して下さい。 ここで紹介するものも然りです。 KPOPDEEPFAKES. NET KPOPDEEPFAKES. NETは、その名の通りKPOPアイドルやスターを中心としたフェイクポルノ動画を集めたサイトです。 KPOPアイドルは世界的にも人気を誇っており、KPOPのジャンルで50億もの売り上げを記録するほどの人気ぶりです。 フェイクポルノの制作が活発な中国ももちろん該当するため、KPOPに焦点を置いたこのようなサイトが制作されたのだと推測できます。 このような動画を制作することはもちろんのこと、フェイクポルノと知っていながら閲覧することも同様に法律に触れる可能性があるので、自己責任で閲覧してください。 動画としては比較的短いものが多く、スマホでの視聴を考えて制作されているサイトです。 手軽に操作可能で、ショートムービープラットフォームで人気を博した「TikTok」のような操作性で動画を閲覧できます。 元アイコラ職人の「フィリップ2世」さんが運営するDeep Fakeサイトです。 広瀬すず、新垣結衣など有名女優の動画が多く、いつサイトが削除されるかわかりません。 もちろん違法ですので、閲覧する際は自己責任で十分に注意を払ってください。 閲覧の際の注意点があるので、紹介いたします。 危ない広告が多く設置されている ディープフェイクサイトは、違法スレスレあるいは違法に該当します。 そのような極めて黒に近い、グレーの手法を用いてアクセス数を稼ぐサイトにはワンクリック詐欺や違法出会い系サイトへの広告が多く出稿されているケースも。 いきなり架空請求の支払いの画面に切り替わったり、違法なサイトへの登録を迫られたり、多様な方法でお金を騙し取ろうとすることがあります。 そのためディープフェイクサイトを閲覧する際は、いつも以上に細心の注意を払うように心がけましょう。 シークレットモードで閲覧をする ディープフェイクサイトを閲覧する際の注意点としてシークレットモードを利用した閲覧をすることも挙げられます。 シークレットモードを利用することで万が一の個人情報の漏洩を防ぐことができるためです。 シークレットモードは、Google Chromeが提供している機能で、閲覧履歴やダウンロード履歴といった個人情報が保存されないモードのことです。 しかし、使用する検索エンジンによって呼び方は異なり、「プライベートブラウズモード」「プライベートブラウジング」「InPrivateブラウズ」などと呼ばれれているので注意しましょう。 まとめ この記事では、ディープフェイクについてご紹介しました。 日々進化しているAIの技術を利用することで、本物と偽物を見分けることが困難な写真や動画が制作されるようになってきました。 実際に人を利用しなくても気軽に動画を作成できるようになることでの動画制作のコスト低減や、かつての偉人の動画内での復活などができるようになり動画制作の幅の広がりが期待できます。 一方、フェイクポルノや政治での印象操作などに悪用され被害を受けるケースもあとを絶ちません。 ディープフェイクに対する規制、法律を厳しく定め、効果的に最新の技術が駆使されるような環境が整うと今後の動向に期待できますね。 この記事が少しでも参考になれば幸いです。

次の

アダルトのディープフェイク(フェイクポルノ)が凄かった

ディープフェイクポルノ 動画

プロでなくても簡単に動画加工できる「ディープフェイク」 Hank Green(ハンク・グリーン)氏:CGIのおかげで、あたかも実在するように見える「架空の動画」が、ごく一般的になりました。 例えば、(映像に見る)キャプテン・アメリカの体は、現実にはありえませんよね。 テレビや映画、ゲームなどで見る「Computer Generated Imagery(コンピューター ジェネレイテッド イマジェリー)」つまりCGIは、何百万ドルものお金や、何ヶ月もの時間をかけて、専門教育を受けたプロが作り上げるものです。 ディープフェイクの登場により、アマチュアでも動画を安価に手早く加工できるようになりました。 現時点ではディープフェイクのクオリティは発展途上ですが、将来は格段に向上するでしょう。 もしかしたら、現実と区別がつかなくなるかもしれません。 そんな未来が実現したら、どうなってしまうのでしょうか。 実は、対策はもう練られているのです。 動画の人物の身体に他人の顔を合成して、顔を差し替えたりするようなこともできます。 実在する、とある動画のように、個人の楽しみとして、有名な映画の出演者を差し替えて加工することもできます。 とはいえ、ニコラス・ケイジの差し替えだけは勘弁願いたいところです。 しかし、もっと悪どい利用法もあります。 例えば2018年、ジョーダン・ピール監督は、バラク・オバマ元大統領に面白おかしく悪態をつかせたコンセプトビデオを製作しました。 この動画は明らかに偽物でしたが、虚偽の選挙広報動画がいとも簡単にできてしまうことを広く知らしめました。 さらに恐ろしいことに、出回っているディープフェイク動画の95パーセントは、ディープフェイクだと明言していません。 セレブはもちろん、ごく普通の一般人を合成した、合意の無いポルノ動画などがそれです。 これは大きな問題です。 ディープフェイクが作られる仕組み ディープフェイクの技術はまだ出て来たばかりなのですが、急激に進歩しています。 一説によると、ディープフェイクの動画数は2019年には倍増しています。 どんどん手軽に作れるようになってきているのが原因のようです。 ディープフェイクが使っているのは、敵対的生成ネットワーク、通称GANs(generative adversarial networks)と呼ばれる、新生の強力なコンピューティングメソッドです。 この場合は、動画を作りたい対象の人物の写真や動画です。 次に、2つのネットワークを競合させます。 片方のネットワークには、トレーニングデータを使って人物の顔をテンプレートにはめ込み、動画にして、ディープフェイクを作るよう指示します。 もう片方のネットワークには、そのディープフェイクを観測して、トレーニングデータと比較させ、動画がリアルかどうかを判別するよう指示を出します。 最終的には、ディスクリミネーティブネットワークが真贋を判別できないほどの均衡点に達するのです。 もちろん、作られるディープフェイクは、ニューラルネットワークの性能の範囲内に限られますし、コンピュータを騙せても、人間を騙せるとは限りません。 現在では、チープなアマチュアレベルのディープフェイクであれば、ターゲットの画像250枚程度と、2日程のコンピュータプロセスで作ることができます。 しかし、人間を騙せる品質ではありませんし、ニコラスケージ・パーティを合成する程度の、クオリティの低い動画しかできません。 オバマ元大統領の動画のような、高品質のものを作成するには、いまだにプロの手を加える必要があります。 とはいえ、ディープフェイクを見破る難易度は、どんどん上がっています。 例えば、以前であれば、不自然にまばたきが少ない人物を探せば見分けることができていました。 しかし、専門家によれば、最近のものはもはやこの手法には頼れないようです。 GANs同様、人間のプログラマーも、時と共にアルゴリズムを向上させているのです。 そのため、今日、偽物の検出に使えた手法でも、翌日には使えなくなる可能性があります。 動画よりも似せるハードルが高いのは音声 さて、真贋の見分けが付かないほどのディープフェイクが作られる日は、来るのでしょうか。 その答えは、いまだ議論の域を出ません。 しかし、偽動画よりも高いハードルになるのは、「偽音声」です。 顔の合成はかなり質が上がっており、GANsが人間を騙せる動画を生成する日は、遠からず来ることでしょう。 しかし、人物に言葉を話させるのは、まったく別の問題です。 通常は、動画と同様、機械学習とGANsで音声を偽造できます。 人物の声の録音データが、多少必要になる程度です。 しかし、芸術の域に達するような音声偽造ソフトウェアは、まだ人間を騙せるほどのクオリティではありません。 人間による研究が、あまり進んでいないためでしょう。 しかしこれもまた、将来は変わる可能性があります。 映画のクリエイターなどにとっては画期的なことではありますが、信頼できる情報の判別は、今後ますます困難となるでしょう。 メディアリテラシーがより一層求められる時代へ これはゆゆしき問題であり、これに備えている企業もあります。 例えばスマートフォンについては、携帯が動画を撮影した時のGPS位置情報や、気圧や方角センサーなど、偽造しづらいデータを活用します。 この企業は、動画撮影の際にこれらのデータを読み込み、企業のサーバーに送信するカメラアプリを開発しました。 オリジナルのデータが本物であるという証明に役立ちますし、オリジナルの撮影後で偽バージョンを作りにくくなります。 さらに、偽オーディオクリップを制作するあるグループは、自作のコンテンツだとわかる「電子透かし」を、自分たちの作品に実験的に付与しています。 残念なことに、どれほど安全対策をしたとしても、ルールを守らない人は必ずいますし、多くのコンテンツにおいてそれは事実です。 また、動画を加工したり、ミスリードされるような動画の作成は、ずいぶん前から行われてきました。 高品質の偽物を作るディープフェイクの時代が訪れたとしても、自分たちのメディアリテラシーのスキルを磨く以外に術はなさそうですし、そうしても何の損もありません。

次の

日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も

ディープフェイクポルノ 動画

画像外部リンク ディープフェイク(deepfake)は「(deep learning)」と「(fake)」を組み合わせた(かばん語)で 、にもとづく人物画像合成の技術を指す。 「(GANs)」と呼ばれる技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて()、結合することで生成される。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。 そのような偽の映像で、例えば、実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。 これらの機能により、有名人のまたはの偽造作成のため、ディープフェイクが使用される可能性がある。 さらに、ディープフェイクは、や悪意のあるを作成するためにも使用され得る。 ディープフェイク [ ] 2017年にインターネット上で、特にでディープフェイクのポルノが初めて現れ 、現在ではReddit、、などのサイトで禁止されている。 2017年秋、"Deepfakes" というののRedditユーザーがインターネットにいくつかのポルノビデオを投稿した。 注目を集めた最初のものは、のディープフェイクだった。 それはまた、よく知られたディープフェイクビデオの1つで、いくつかの記事の中でひときわ目立つものであった。 ほかのディープフェイクとして、継兄弟と性行為をしているを演じた女優の、また、、、、があった。 を使用して作成された、それらのビデオは本物ではなく、ほどなく偽物であることが暴かれた。 時間が経つにつれて、Redditのは偽造ビデオの多くのを修正し、偽物と本物のを区別することが次第に困難になった。 で容易に入手できる女優の非ポルノの写真やビデオは、のための訓練データとして使用された。 ディープフェイク現象は、2017年12月に、雑誌()の技術と科学の欄で初めて報告され、他のメディアでも広く報道された。 2018年12月、頻繁にディープフェイクポルノの対象となっているスカーレット・ヨハンソンが、の取材に対し、以下のように語っている。 用意した声明の中で、彼女はこの現象についての懸念を表明し、インターネットを「自分自身を食べる暗黒の巨大な」と表現している。 しかし、それが自分の公共のイメージに影響を及ぼさないこと、そして国によって法律が異なること、インターネット文化の性質()によりディープフェイクを削除するどのような試みも無駄な努力になること、以上の考えから、彼女は、自分のディープフェイクの削除を試みようとはしないと述べた。 彼女は、自分自身のような有名人は名声によって保護されているが、一般女性にとっては、不本意なポルノやリベンジポルノの描写によって評判が損なわれる可能性のある深刻な脅威をもたらす、と考えている。 英国では、ディープフェイクの製作者をで起訴できるが、ディープフェイクを特定の犯罪に指定することが求められている。 米国では、、、リベンジポルノのようなさまざまなものが告発される、さらに包括的な法令にしていこうとする動きもある。 などのポルノ動画サイトでは、日本人女優やアイドルのディープフェイクの動画があり、が確認しただけでも10個以上は存在し、多いものでは300万回以上再生されているものもあった。 サイバーセキュリティ会社「DeepTrace」の2019年10月の調査によると、過去7か月で1万4678件のディープフェイク動画が確認され、1年で倍増しており、その96%がポルノ動画だった。 ディープフェイクに特化した上位4つのポルノサイトでは、数百人の女性有名人のフェイク動画が、計1億3400万回以上も再生されているという。 政治 [ ] ディープフェイクは、有名な政治家を、ビデオやで、事実と異なるかたちで伝えるために使用されている。 例えば、大統領のの顔はの顔に、そしての顔はの顔に置き換えられた。 トランプがを訪問していた2017年11月に中国企業の ()は流暢なを話して自社とAIを褒めたたえるトランプのディープフェイクを披露して波紋を呼んだ。 2018年4月、とJonah Peretti は、ディープフェイクの危険性に関するとして、を使ったディープフェイクを作成した。 2019年1月、は、(大統領執務室)におけるトランプの演説のディープフェイクを放映し、彼の外観と肌の色をあざけった。 メディア [ ] 中国では国営メディアのがディープフェイクの技術を用いて実在のから合成した世界初の人工知能が開発されており 、政府の重要な会議の報道でも使用された。 この技術はやの国営メディアでも採用されている。 しかし、ディープフェイクは虚偽報道であるを助長させるとして問題視されており 、2019年11月に中国政府はからディープフェイクを使用したフェイクスニュースを禁止することを発表した。 ディープフェイクのソフトウェア [ ] 2018年1月、FakeAppというのが発表された。 このアプリケーションでは、ユーザーが顔を入替えた動画を簡単に作成および共有できる。 このアプリケーションは、フェイクビデオを生成するために、、のパワー、そして3〜4のスペースが必要である。 詳細な情報については、プログラムは、ビデオおよび画像に基づくのを使用して、どの画像アスペクトを交換しなければならないかを学習するため、挿入されるべき人物からの多くの視覚材料を必要とする。 そのソフトウェアは、の-であるを使用する、それは、とりわけコンピュータビジョンのプログラムである()のためにすでに使用されていた。 はそのような偽のセックスビデオの主な標的となっているが、一般の人々も影響を受けている。 2018年8月研究者は、人工知能を使って子供をプロのに置き換えることができるフェイクダンスアプリケーションを紹介する論文を発表した。 2019年8月、中国で1枚の顔写真でディープフェイクを作成できるZAOというアプリケーションが発表されて同年9月にの人気ランキングで1位になるもユーザーの同意なしにデータを使用される可能性があるが物議を醸し 、アメリカでは選挙介入やフェイクニュースに利用される可能性を懸念する声があがった。 フィクションにおけるディープフェイク [ ] ディープフェイクや有名人のフェイクポルノの現象は、 Michael Grothaus による小説「 Epiphany Jones」で探求されている。 この小説は、文学的な、社会、であり、セックス、有名人、インターネット対するアメリカの強迫観念についての暗いである、またポルノ中毒者と神と話すことができると考える女との不本意な関係、およびハリウッドエリートへ性的なを行う業者との交絡を探る内容である。 小説の主人公、ジェリー・ドレスデンは、有名人のフェイクポルノへの中毒に苦しんでいる。 小説で言及されている特定の有名人の偽物には、 、、、、、、が含まれる。 さらに、とといった死亡した有名人の偽物についても小説に記載されている。 批評 [ ] 悪用 [ ] スイスに本社を置く新聞社であるAargauer Zeitung は、人工知能を使った画像やビデオの操作は、危険な大量のメディアがあふれることになる可能性があると述べている。 しかし、画像やビデオの改ざん自体は、やの登場よりもずっと古いものであり、このたびのディープフェイクの場合、新しい側面はそのリアリズムにある。 標的を絞ったやリベンジポルノにディープフェイクを使用することも可能である。 信頼性と信憑性への影響 [ ] ディープフェイクのもう1つの効果は、その内容が標的となった偽物(例えば)なのか本物なのかを区別できなくなることである。 人工知能の研究者であるAlex Champandardは、この技術によって今日のものがどれだけ速く改変され得るか、そして問題は技術的なものではなく、情報との信頼によって解決されるものであるということを、すべての人が知っておくべきであると述べた。 最重要な落とし穴は、描写されているが真実に対応しているかどうかを、もはや判断できなくなる時代に人類が陥る可能性があることである。 インターネットの反応 [ ] やGfycatなどのいくつかのでは、ディープフェイクのコンテンツを削除し、その発行元をブロックすると発表している。 以前、チャットプラットフォームのは、有名人のフェイクポルノビデオのチャットチャンネルをブロックした。 ポルノグラフィのウェブサイトの もそのようなコンテンツをブロックする予定であるが、その禁止を強制していないと報告されている。 Redditでは、2018年2月7日に「不本意のポルノ」のポリシー違反により、subreddit(Redditのサブフォーラム)が一時停止されるまで、初期の状態が削除されないまま残っていた。 2018年9月、グーグルは、誰もが自分の本物あるいは偽物ヌードのブロックを要求でき、その禁止リストに「不本意の合成ポルノ画像」追加した。 参考文献 [ ]• Brandon, John 2018年2月16日. Fox News. 2018年2月20日閲覧。 Schwartz, Oscar 2018年11月12日. The Guardian. 2018年11月14日閲覧。 Highsnobiety. 2018年2月20日. 2018年2月20日閲覧。 The Outline. 2018年2月28日閲覧。 Roose, Kevin 2018年3月4日. The New York Times. 2018年3月24日閲覧。 Roettgers, Janko 2018年2月21日. Variety. 2018年2月28日閲覧。 2018年2月20日閲覧。 Kharpal, Arjun 2018年2月8日. CNBC. 2018年2月20日閲覧。 PCMAG. 2018年2月20日閲覧。 , Motherboard, 2017-12-11 ,• The Washington Post Harrell. 2019年1月1日閲覧。 BuzzFeed. 2020年1月15日閲覧。 az Aargauer Zeitung 2018年2月3日. 2019年1月26日閲覧。 Patrick Gensing 2018年2月22日. 2019年1月26日閲覧。 Thatsmags. com 2017年11月10日. 2019年9月3日閲覧。 2017年12月3日. 2019年9月3日閲覧。 Romano 2018年4月18日. Vox. 2018年9月10日閲覧。 Swenson 2019年1月11日. The Washington Post. 2019年1月11日閲覧。 2019年3月6日. 2019年6月24日閲覧。 2019年3月6日. 2019年6月24日閲覧。 Asia One 2019年6月14日. 2019年6月24日閲覧。 2019年6月18日. 2019年6月24日閲覧。 The Verge 2019年11月29日. 2019年11月30日閲覧。 de ,• heise online, ,• Farquhar, Peter 2018年8月27日. Business Insider Australia. 2018年8月27日閲覧。 The Verge. 2018年8月27日閲覧。 2019年9月2日. 2019年9月3日閲覧。 2019年9月3日. 2019年9月3日閲覧。 2019年9月5日. 2019年9月5日閲覧。 Chopin. nydailynews. com. 2018年12月31日閲覧。 , Die Zeit, 2018-01-26 , ,• Engadget. 2018年4月21日閲覧。 BuzzFeed. 2018年4月21日閲覧。 barbara. wimmer, ,• 2019年1月26日閲覧。 関連項目 [ ]• 外部リンク [ ]•

次の