ディープフェイクアダルト。 ディープフェイクとは?偽動画の例や仕組み・作り方・危険性などをまとめて紹介

「石原 さとみ」のディープフェイク(DeepFake)エロ動画/アイコラ エロ画像はこちら

ディープフェイクアダルト

ディープフェイクと呼ばれるこうした映像は、激化するデジタルのフェイク情報競争のなかで最も新しい、そしておそらく最も厄介なものだ。 画像の加工はずっと前から行われてきたし、音声を操作する方法も向上している。 しかしつい最近まで、動画の操作や偽造は大変な作業であり、専門技術と気の遠くなるような根気を必要とした。 だが、機械学習によってこのプロセスがますます容易になり、加速している。 すべての始まりは偽ポルノ動画 17年の終りころ、新しいタイプのポルノ動画が「Reddit」に登場し始めた。 「deepfakes」という名前の、あるRedditユーザーによるものだ。 機械学習を使用してポルノスターの顔と有名人の顔を入れ替える方法を考案したdeepfakesは、ちょっとした騒ぎを引き起こした。 その後、このアルゴリズム「DeepFake」は、ソフトウェア開発プラットフォームの「GitHub」で公表された。 その結果、十分なノウハウと、そこそこのコンピューターをもっている人なら、かなりの質のフェイク映像をつくれるようになった。 それ以来、同じようなフェイク映像や関連ソフトがネットのあちこちで登場している。 そのなかには比較的無害なものもある。 deepfakesによるオリジナルのアルゴリズムから着想を得たあるツールは主に、ニコラス・ケイジの顔を、彼が出演していない映画に挿入することに使用されている。 だが、明らかに有害になりうるものもある。 本物にしか見えないフェイク動画が地政学的緊張を高めたり、動揺を招いたり、犯罪を激化させたり、といった事態につながることは十分に考えられる。 さまざまな組織やメディアで、あるいは政治システムでさえ、信頼は一瞬にして崩れ去る可能性がある。 技術的進化に適切な政策が追いついていないという懸念は、今後も拡大していくはずだ。 フェイクを検知するアルゴリズム 幸いなことに、科学界は対応に乗り出している。 ニューヨーク州立大学オールバニ校の呂思偉(ルー・シウェイ)が率いるチームが、フェイク動画の欠陥を見つけたのだ。 DeepFakeアルゴリズムは、入力された画像から動画をつくり出す。 それなりに正確ではあるが、AIは、人間が自然に発する生理学的信号すべてを完璧に再現することはできない。 そこでこのチームが特に注目したのは「まばたき」だった。 人は通常、2~3秒に1回、自然にまばたきをする。 だが、写真に写っている人は通常、目を閉じていない。 瞬きについてアルゴリズムに学習させたとしても、動画の人物は滅多に瞬きしないことになる。 そこで研究チームは、フェイク動画のなかで瞬きがない箇所を検出するAIアルゴリズムを設計した。 このアルゴリズムは、2つのニューラルネットワークを組み合わせている。 まずは顔を検出し、次に動画の連続画像すべてを並べて、それぞれの目の領域を解析する。 ひとつのネットワークが、その顔の目が閉じているかどうかを判断する。 もう一方は、記憶システムとして機能する。 フレームごとの判断を記憶して、その時間のなかで瞬きが行われたかどうかを見極めるという仕組みだ。 まずはAIに、目が開いている画像と閉じた画像のラベル付きデータセットを学習させた。 学習後のAIをテストするために、独自のDeepFake動画を作成し、わずかな後処理を行って、偽造レヴェルをさらにアップさせた。 結果は素晴らしいものだった。 呂によると、学習させたAIはフェイク動画をすべて特定したという。 後処理として手動で瞬きを追加することは、大した手間ではないと呂は説明する。 BuzzFeedの動画もそうだが、一部のフェイク動画には、実際に瞬きが含まれている。 それでもこの種の戦略は、フェイク動画の作成プロセスを邪魔し、遅らせる方向で働くだろう。 少なくともこのアルゴリズムには、その効果がある。 「いまは、防御の最前線を構築しているところです。 結局これは、フェイク動画をつくる人間と、それを検出する人間との、今後も続く戦いなのです」とリューは言う。 AIとAIが闘う日 広範囲の取り組みに応用できるこの研究は、米国防総省高等研究計画局(DARPA)の支援を受けている。 16年から20年まで続くDARPAの「Media Forensics」プログラムの一環だ。 このプログラムの目標は、音声や動画など、デジタル生成された情報の信憑性と正確性をチェックできるツールを開発することだ。 「フェイクメディアやフェイクニュースの波に反撃できるテクノロジーがあるということを、一般の人々に保証したいと考えています」と呂は述べる。 ニューヨーク市立大学の教授でコンピューターサイエンスを教えているレヴ・マノヴィッチによれば、これはAI同士の競争が激化しているひとつの例でもある。 「コンピューターによるデータ解析で、人には見えないパターンを検出できることはよく知られていますが、ほかのAIが残したパターンはどうなのでしょうか。

次の

映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場 (1/2)

ディープフェイクアダルト

先日Twitterで見かけた、DeepFake(ディープフェイク)がマジですごかった。。 そもそもDeepFakeとは何かというところですが、「 深層学習(deep learning)」と「 偽物(fake)」の造語で、人工知能(AI)によって人物を合成したコンテンツの事をいいます。 最新技術が普及するのに最も大きなエネルギーを生み出すのは常にアダルト産業ですが、機械学習に基づくDeepFakeもそうですね。 現在、DeepFakeを専門としたアダルト動画を配信しているウェブサイトがいくつかあります。 主に、タレント、アーティスト、女優などの顔と既存のアダルト動画を合成しているので、配信されている動画は顔を合成された本人の体ではありません。 追記 先日、フェイクポルノを正式に違法とする地域が登場したと報道されました。 元交際相手などとの日常における画像・映像とポルノムービーを合成させる「フェイクポルノ」は、リベンジポルノとして使われる可能性が問題視されています。 このことから、アメリカ・バージニア州が世界で初めてフェイクポルノを『違法』と定めたようです。 によれば、2014年以来バージニア州は「他人を強制、嫌がらせ、または脅迫する目的」で裸の画像またはビデオを公開することを禁止しています。 最新の改正によって、「ニセの作成されたビデオまたは静止画像」を含むことを明確にされました。 これは、「ディープフェイク」だけでなく、Photoshopによる画像または偽造映像も指す可能性があります。 規則に違反するのはクラス1の軽犯罪となり、最高 12ヶ月の懲役と最高2,500ドル(約27万円)の罰金が科せられます。 また、アメリカの他41州も2019年までにフェイクポルノを違法化する方針だそう。 女性の写真を1クリックで裸にしてしまう「」というサービスは、問題を指摘されため停止しています。

次の

【無料動画】広瀬すず&橋本環奈のディープフェイクが本物過ぎると話題

ディープフェイクアダルト

この連載でも「ディープフェイク」。 AI技術の一種である「ディープラーニング」と「フェイク」を組み合わせた言葉で、ディープラーニングを使って真実ではないコンテンツ(映像や音声など)を制作する行為を指します。 ただ最近は、ディープラーニングが使われているかどうかよりも、単に「本当かどうか見分けがつかないほど精巧に加工されたコンテンツ」という意味で使われることが多くなっているようです。 規制が始まったディープフェイク このディープフェイク、あえて「フェイク」という言葉が使われていることからも分かるように、あまり好ましくない行為というニュアンスが含まれています。 でも紹介したように、サイバーセキュリティ会社のDeeptraceによれば、ディープフェイク・ビデオの実に96%がアダルトコンテンツだそうです。 またそのほぼ全てが、女性の出演者を加工したもの。 つまりアダルトコンテンツに登場する女性の顔を、セレブや芸能人、極端な場合は一般人にすげ替えるという行為が横行しているわけです。 そして残る4%のディープフェイクも、政治的な意図をもって作成されたものが多かったと報告されています(ちなみに非アダルト系ディープフェイクで加工される人物の61%は男性だそうです)。 例えば敵対する勢力の政治指導者の「スキャンダル映像」を捏造して、その人物の評判を落とすというわけですね。 さらには実在のCEOそっくりの音声をディープフェイクでつくり出して、その部下に送金を命じるという詐欺まで起きていて、そうなると「好ましくない行為」どころか犯罪行為ということになります。 そんな背景があることから、ディープフェイクを規制しようという動きも起きていて、例えば米カリフォルニア州では昨年、ディープフェイク規制に関連する2つの法案が可決されました。 その1つは、選挙が行われる場合、その前の一定期間(60日間)に政治家を対象としたディープフェイク・コンテンツの制作・配布を違法とするというもの。 そしてもう1つは、同意なしに自分の画像がアダルト系のディープフェイク・コンテンツで使用された場合、被害者が訴訟を起こせるというもの。 どちらもニューサム知事によって署名が行われ、規制として施行されることになりました。 また中国もディープフェイク対策に乗り出していて、今年1月から施行された規制では、映像や音声に関するサービスのプロバイダーおよびユーザーに対し、ディープラーニングを含む新技術を使ってフェイクニュースを制作・配布することを禁じています。 カリフォルニア州の法律と異なるのは、コンテンツが政治系に限定されていないこと(あらゆるフェイクニュースが対象)、またVRなど他の先端技術も対象になっていることです。 そのため取り締まりの対象となるコンテンツや人物が広範囲になると予想され、新たな人権侵害を招くことが懸念されています。 カリフォルニア州の規制に対してすら、米国自由人権協会(ACLU)と電子フロンティア財団から、対象が広過ぎて政治的な言論の自由が失われるとして反対の姿勢が表明されています。 とはいえ前述の通り、ディープフェイクが実害をもたらすリスクが高まっている以上、何らかの規制をかけることは避けられません。 インドの選挙で利用されたディープフェイク カリフォルニア州の規制のように、本人の同意なしに映像を加工することを禁じるというのは、比較的取り締まりやすいでしょう。 被害者は誰なのか、どのような害を被ったのかがある程度明確になるからです。 しかしそれほど単純ではないディープフェイク利用、しかも政治分野での活用事例が、インドで実際に登場しています。 今年2月、インドの政権与党であるインド人民党(BJP)でデリー準州の支部長を務めるマノジ・ティワリ氏が、2本の動画をネットで公開しました。 デリー準州での選挙を前に、対立勢力を批判する内容で、いずれもメッセージアプリのWhatsApp上で広く拡散されたそうです。 まずは1本目、ティワリ氏が英語でスピーチしています。 そして2本目、今度は英語ではない言語でスピーチしているのですが、実は話している内容は全く同じものです。 非英語でのスピーチ 後者の動画でティワリ氏が使っていたのはヒンディー語。 そしてこちらの動画の方がオリジナルで、これをディープフェイク技術で加工することで、ティワリ氏が流ちょうな英語でスピーチしているかのような前者の動画が作られたというわけです。 そしてこのティワリ氏のスピーチ映像には、もう一つ別のバージョンが存在します。 こちらで使われている言語は、ヒンディー語の方言の一つであるハリヤーナー語。 ハリヤーナー語はインド北部のハリヤーナー州で使われている言葉で、ティワリ氏は話すことができないと伝えられています。 ではなぜハリヤーナー語版も作ったのか。 その理由はこの言葉がデリーの出稼ぎ労働者の一部で使われているため。 彼らの票を取り込むために、彼らの母語を使ってメッセージを伝わりやすくしたわけですね。 しかしメッセージを伝えたいだけなら、オリジナルの映像に字幕を付ければ済む話です、それをあえて、本人が話しているかのように加工したのは、ターゲットとする出稼ぎ労働者に親近感を与えたかったのでしょう。 それならば本人が頑張って勉強して、ハリヤーナー語を覚えれば済む話ではあるのですが、インドでは憲法で「公的に認定されている言語」だけで22言語が存在し、一説には800を超える言葉があるといわれています。 そんな環境で、任意の言語を話しているかのように簡単に加工してくれる技術は、インドの政治家にとって大きな武器となるはずです。 日本でも「地元に帰った議員先生たちが、お国言葉で支援者と交流」などというニュースを見ることができます。 それだけ「自分と同じ言葉を話している」ことがポジティブなイメージを作り出すということでしょう。 しかし誰かの評判をおとしめるような内容ではなく、翻訳されているとはいえ、メッセージの内容自体もオリジナルから変更されていません。 それでも政治状況や世論に影響を与える可能性のある技術、もしくは使い方であれば、それを規制すべきでしょうか?.

次の