「ブロックチェーン」VS「ディープフェイク」 AIを利用し、本物か否かを見抜くことが不可能なほど巧妙に作り込まれた「フェイク動画」がネット上で公開されるなど、その偽動画作成の元となる技術「ディープフェイク」の行く末に警鐘が鳴らされている。 ブロックチェーンは、その「ディープフェイク」に対抗する有効な手段となる可能性を秘めている。 ディープフェイクとは ディープフェイクは「ディープラーニング 深層学習 」と「フェイク 偽物 」を組み合わせ作られた造語で、このディープフェイク技術を利用すれば、既存の画像や映像を、他の画像、映像と合成することで、偽物か否かを容易に見抜けないような偽動画を作成することが可能となる。 AIの普及に伴い、新たなメディアをウェブにもたらした。 「ディープフェイク」だ。 その脅威を示す一本の動画がある。 例えば、この動画もディープフェイクの動画となるため、実際に話しているのは、元オバマ米大統領ではない。 このような要人の発言などは、株式市場、または仮想通貨市場にも相場操縦として使われる可能性も考えられており、情報の真偽を確かめることが困難になる時代が来ると危惧されている。 現在、掲示板サイト「Reddit」やポルノサイト「Pornhub」のようなプラットフォームでは、こうしたディープフェイクの排除に向け、取り組んでいる。 ただ、フェイク動画を比較的簡単に作成できる「FakeApp」のような個人向けアプリは依然として存在しており、ディープフェイク・ビデオはインターネット中に氾濫している状況だ。 恐らく、映画「インディアナ・ジョーンズ」の主人公の顔をニコラース・ケージに、ブリトニー・スピアーズ主演の「タイタニック」が世に出回っても、問題が起きる可能性は低いだろう。 しかし、多くの人が懸念しているように、水面下では、すでにディープフェイクは大規模な犯罪や詐欺行為に利用される可能性は十分にある。 最も差し迫った問題はポルノ画像だが、フェイクニュースの拡散や恐喝、テロリズムへの悪用も考えられるのだ。 さらに厄介なのは、世界中のネットユーザーの大半がディープフェイクを見抜けないことにある。 テクノロジーに詳しいクリエイターが本物そっくりの動画を作成して、さまざまなプラットフォームで配信すれば、ほとんどの人は偽物であることに気付けないだろう。 この点で注目され始めているのが、ブロックチェーン技術の利用だ。 問題の完全な解決は厳しくとも、対策を講じることが可能となるとみられている。 例えば、オリジナル動画のハッシュ値を「電子署名」としてブロックチェーンに記録することで、本物の動画をで証明する動きにつながり、偽物を動画サイト側が排除しやすい環境を作ることができる。 ハッシュ値がオリジナル動画の値と異なる動画は「フェイク」と見なされるといった動きだ。 ハッシュ化とは ハッシュ化を理解するために、どのようにウェブサイトパスワードを保存するかを例に考える。 あるサイトにログインすると、入力されたパスワードが正しいかどうかを確認した後、ログインが認証される。 ただし、個人情報の保護を考えれば、サイトのサーバーにパスワードそのものを保存することは好ましくない。 そこでハッシュ化と呼ばれる手法が使われている。 どこかのサイトに登録する際、サイト側は、登録したパスワードを特殊な計算式に通すことでハッシュ化し、唯一無二のユニークな文字列 ハッシュ値 が得られる。 ハッシュ値は、パスワードそのものではなく、パスワードから導き出された固有の値にすぎない。 1文字でも変えると、まったく別のハッシュ値になる。 計算式は非公開で、ハッシュ値からさかのぼって元のパスワードを割り出すことは、ほぼ不可能だ。 したがって、パスワードをハッシュ値に置き換えれば、サーバーで安全に保存できる。 次にログインする際は、「パスワード」として入力したデータを、同じ計算式を使ってハッシュ値に置き換える。 この最新のハッシュ値と、サーバーに保存されているハッシュ値を比較し、一致すればパスワードが正しいということだ。 完璧に一致するデータを入力しなければ、出力されるハッシュ値が完璧に一致することはない。 ごく単純な例で考えてみよう。 パスワードは数字の「2」、ハッシュ値を求める計算式は「2を足す」とする。 その後もログインするたびに、パスワードを入力し、サイトはそれに2を足す。 サーバー側のハッシュ値「4」と一致するからログインできる。 サーバー側のハッシュ値「4」と一致せず、パスワードが正しくないためログインできない。 もちろん、実際に使われているハッシュ値は、はるかに複雑な計算式からはじき出されており、数字だけでなく文字も含む長い文字列だ。 しかし、基本的な仕組みは変わらない。 ネットで公開されているを試すと、1文字変えただけで、まったく違うハッシュ値が算出されることがわかる。 ディープフェイクへの応用は? このハッシュ値を使って、どのようなディープフェイク対策ができるのだろうか。 あらゆるデジタルファイルと同じように、動画は文字コードの情報としてやり取りされる。 つまり、動画のソースコードはハッシュ化できるのだ。 例えば、ある動画をアップロードして、そのハッシュ値をブロックチェーンに記録する。 その後に動画に変更が加えられると、ソースコードが変わり、したがってハッシュ値が変わる。 ハッシュ値を比較してパスワードを確認するのと同じように、動画サイトはアップロードされた動画のハッシュ値をオリジナル動画のものと比較すれば、変更が加えられたかどうかがわかる。 ディープフェイクが普及すれば(実際に普及しそうだが)、ハッシュ値は動画の真贋性を証明する1つの手段になる。 クリック1つで動画を認証できるツールもいずれ開発されるだろうが、そのツールが改ざんされていないことを証明するのは難しい。 しかし、ブロックチェーンに「本物」として記録されたデータやハッシュ値の改ざんは困難なため、あらゆるものと参照できる。 もし「FakeApp」のようなアプリの人気が高まれば、一般ユーザーもフェイク動画を簡単に作成可能となり、フェイク動画を使って人々の恐怖心をあおったり、金儲けをしたりする人が必ず出てくるだろう。 例えば、米大統領のドナルド・トランプ氏が「ビットコインは違法である」と語っている偽動画が公開されると、トランプの気まぐれな性格や、人間のだまされやすい性質を考慮すれば、市場に売りが殺到する可能性は十分にある。 動画の製作者が、動画を公開する直前に空売りすれば、大金が転がり込むかもしれない。 テレビ電話はさらに警戒が必要だろう。 事前にハッシュ値を調べることができなければ、自分が話している相手が本当は誰なのか、確認する方法はない。 画面の中で必死に助けを求めている家族が、実はディープフェイクかもしれない。 仕事の打ち合わせをしている相手は、実在する人物なのだろうか。 相手が本物であると証明するためには、身分証明書やデバイス、アドレスを検証し、場合によっては動画を1コマずつ確認する必要さえある。 仮想通貨のハードウェアウォレットに似たようなハードウェアのデバイスを使い、何らかの方法でテレビ電話をブロックチェーンと連動させて、身元を確認することも考えられるだろう。 理想としては、複数の秘密鍵を合わせるマルチ・シグネチャー方式の解決策が望ましい。 ブロックチェーンに記録したデータは改ざんできない公的な記録となるため、偽造されたデータが記録されると、普通はすぐにばれる。 例えば、ある企業がブロックチェーン状の記録と紐づいたIDを1000件つくると発表したが、実際は複製したIDを1件忍ばせていて、全部で1001件あるとする。 この余計な1件がどれなのかは、ブロックチェーンを見れば一目瞭然だ。 あるいは、牛乳メーカーが消費期限の日付を書き換えてブロックチェーンに記録することは、技術的には可能だ。 しかし、もとの日付がブロックチェーンに記録されているかぎり、いずれ発覚するだろう。 消費期限が切れていることに気がついた消費者がブロックチェーンを確認すれば、もともとの期限の記録と、2回目に改ざんした期限の記録がある。 ディープフェイクの動画にも、同じ手法を使うことができる。 ブロックチェーンを使って配信元をたどるのだ。 さかのぼることができなければ、動画はフェイクだと考えられる。 配信元がわかったら、あなたが見た動画のハッシュ値と、その動画が掲載されている政府の公式サイトや、BBCやウォール・ストリート・ジャーナルなど大手メディアのサイト上のハッシュ値を比較する。 信頼できるプラットフォームのハッシュ値と、見た動画のハッシュ値が異なれば、おそらく、その視聴した動画がフェイクだろう。 ブロックチェーンだけで、人間のウソや欺瞞をめぐる問題を解決できるわけではない。 そうした問題の解決には、非中央集権化だけでなく、非人格化も必要になるだろう。 人間をプログラムと完全に置き換えるのだ。 データ偽造の問題を根本から解決するためには、非人格化されたブロックチェーンが不可欠になる。 IoT(モノのインターネット)を介してブロックチェーンにデータを記録する過程を完全に自動化し、人間という項目を計算式から除外して、記録の正確性を守るのだ。 今のところブロックチェーン技術だけでは、偽造されたデータがブロックチェーンに書き込まれることを防ぎきれない。 ブロックチェーンはあくまでも、すべての証拠を記録して、データが有効であることを保証するだけだ。 ただし、鍵をかけてもすべての泥棒を防げないからといって、鍵に意味がないわけではない。 ブロックチェーンはディープフェイクに対する鉄壁の守りではないとしても、現時点で最善の選択肢の1つなのではないだろうか。 LongHashは独自のデータ分析を基に、仮想通貨のトレンドやニュース、価格に関する情報を日中英の3ヶ国語で提供するジャーナリズム・プラットフォームです。 ブロックチェーンデータの解析や解説を行うLongHash所属のデータサイエンティストやライターを世界中に抱え、分かりやすい記事で配信しています。 またLongHashはブロックチェーンハッカソンやミートアップの企画、実施運営のサービスも提供しております。 なお、共同設立者であるEmily Parker氏は、以前記者としてWSJやNYタイムズで務めたほか、米政府の技術政策専門アドバイザーを歴任しています。 より多くの記事を読みたい方は、こちらからへアクセスできます。
次の
もくじ• 芸能人ディープフェイク動画サイトまとめ【DEEPFAKE】 DFIDOL 2019年春に誕生たディープフェイク動画ダウンロードサイト。 メインは韓国の芸能人ですが、橋本環奈、石原さとみ、新垣結衣、など日本のアイドルや女優モデルなども少しアップされています。 検索する場合はアルファベットで。 以前は無料でダウンロード可能でしたが、現在は のプレミアム会員にならないとダウンロードできないようです。 違法動画をダウンロードすると法に触れる可能性がありますのでご注意を! 参考記事 FAKEY 日本人ディープフェイク動画共有サイト「FAKEY」 橋本環奈、石原さとみ、吉岡里帆、新垣結衣、広瀬すずなど日本のアイドルや女優モデルなどのディープフェイクがアップされています。 2019年2月時点で390本の動画を確認。 ディープフェイクVR ディープフェイクでは珍しい、石原さとみのVR動画が1本だけ公開されています。 画質が荒いですが、とても自然な動画に仕上がってます。 ただ、プレイヤーがVR対応していないので、視界を動かすことができません。 FAKEYの詳しい情報 追記 2019年2月9日 注意現在 FAKEYがアクセスできない状態のようです。 復旧するのか、はたまた閉鎖したのか定かではありません。 KPOPDEEPFAKES. NET KPOPアイドル中心のサイト「KPOPDEEPFAKES. NET」 ディープフェイクでは珍しいVR動画も多数投稿されています。 ここはとにかく広告がうざいサイトです。 スマホで閲覧すると再生前の広告を閉じることができず動画を再生できませんでした。 PCブラウザなら問題ないです。 ディープフェイクが投稿されている KPOPアイドル一覧• AOA• APINK• Brackpink• EXID• G-IDLE• Grind• Gugudan• IOI• Lorna• Lobelyz• Mamamoo• Miss A• Momolrand• OMG• Red Velvet• Secret• SNSD• Soloist• T-ara• Twice ディープフェイクチュートリアル フォーラムでは、ディープフェイク制作に必要なソフトや作りかたのチュートリアルが掲載されています。 Mr DeepFakes 海外セレブ中心のディープフェイク動画サイト「MrDeepfakes」 ディープフェイクVRもいくつか投稿されています。 海外ドラマ「ゲーム オブ スローンズ」のデナーリス(エミリア・クラーク)のディープフェイクVR動画がありました。 ただ、プレイヤーがVR対応していないので、視界を動かすことができません。 ADULT DEEPFAKES. com こちらも海外セレブ中心のディープフェイク動画サイト「ADULT DEEPFAKES. com」 900本ほどのディープフェイク動画がアップされています。 スマホ画面でスクロールして一番下のフッターに「Celebtites」をタップすると、Angelina Jolie 、Chloe 、GraceAvril Lavigne、Britney Spearsなどセレブのサムネイルがすらりと現れます。 サムネイルをタップすればそのセレブのディープフェイク動画一覧が表示されます。 その他 有名な動画共有サイト• PORNhub• XVideos• xHamster 上記サイトでも「Deepfake」で検索するとでてきます。 自分でディープフェイク作りたい人はこちらの記事 参考記事.
次のプロでなくても簡単に動画加工できる「ディープフェイク」 Hank Green(ハンク・グリーン)氏:CGIのおかげで、あたかも実在するように見える「架空の動画」が、ごく一般的になりました。 例えば、(映像に見る)キャプテン・アメリカの体は、現実にはありえませんよね。 テレビや映画、ゲームなどで見る「Computer Generated Imagery(コンピューター ジェネレイテッド イマジェリー)」つまりCGIは、何百万ドルものお金や、何ヶ月もの時間をかけて、専門教育を受けたプロが作り上げるものです。 ディープフェイクの登場により、アマチュアでも動画を安価に手早く加工できるようになりました。 現時点ではディープフェイクのクオリティは発展途上ですが、将来は格段に向上するでしょう。 もしかしたら、現実と区別がつかなくなるかもしれません。 そんな未来が実現したら、どうなってしまうのでしょうか。 実は、対策はもう練られているのです。 動画の人物の身体に他人の顔を合成して、顔を差し替えたりするようなこともできます。 実在する、とある動画のように、個人の楽しみとして、有名な映画の出演者を差し替えて加工することもできます。 とはいえ、ニコラス・ケイジの差し替えだけは勘弁願いたいところです。 しかし、もっと悪どい利用法もあります。 例えば2018年、ジョーダン・ピール監督は、バラク・オバマ元大統領に面白おかしく悪態をつかせたコンセプトビデオを製作しました。 この動画は明らかに偽物でしたが、虚偽の選挙広報動画がいとも簡単にできてしまうことを広く知らしめました。 さらに恐ろしいことに、出回っているディープフェイク動画の95パーセントは、ディープフェイクだと明言していません。 セレブはもちろん、ごく普通の一般人を合成した、合意の無いポルノ動画などがそれです。 これは大きな問題です。 ディープフェイクが作られる仕組み ディープフェイクの技術はまだ出て来たばかりなのですが、急激に進歩しています。 一説によると、ディープフェイクの動画数は2019年には倍増しています。 どんどん手軽に作れるようになってきているのが原因のようです。 ディープフェイクが使っているのは、敵対的生成ネットワーク、通称GANs(generative adversarial networks)と呼ばれる、新生の強力なコンピューティングメソッドです。 この場合は、動画を作りたい対象の人物の写真や動画です。 次に、2つのネットワークを競合させます。 片方のネットワークには、トレーニングデータを使って人物の顔をテンプレートにはめ込み、動画にして、ディープフェイクを作るよう指示します。 もう片方のネットワークには、そのディープフェイクを観測して、トレーニングデータと比較させ、動画がリアルかどうかを判別するよう指示を出します。 最終的には、ディスクリミネーティブネットワークが真贋を判別できないほどの均衡点に達するのです。 もちろん、作られるディープフェイクは、ニューラルネットワークの性能の範囲内に限られますし、コンピュータを騙せても、人間を騙せるとは限りません。 現在では、チープなアマチュアレベルのディープフェイクであれば、ターゲットの画像250枚程度と、2日程のコンピュータプロセスで作ることができます。 しかし、人間を騙せる品質ではありませんし、ニコラスケージ・パーティを合成する程度の、クオリティの低い動画しかできません。 オバマ元大統領の動画のような、高品質のものを作成するには、いまだにプロの手を加える必要があります。 とはいえ、ディープフェイクを見破る難易度は、どんどん上がっています。 例えば、以前であれば、不自然にまばたきが少ない人物を探せば見分けることができていました。 しかし、専門家によれば、最近のものはもはやこの手法には頼れないようです。 GANs同様、人間のプログラマーも、時と共にアルゴリズムを向上させているのです。 そのため、今日、偽物の検出に使えた手法でも、翌日には使えなくなる可能性があります。 動画よりも似せるハードルが高いのは音声 さて、真贋の見分けが付かないほどのディープフェイクが作られる日は、来るのでしょうか。 その答えは、いまだ議論の域を出ません。 しかし、偽動画よりも高いハードルになるのは、「偽音声」です。 顔の合成はかなり質が上がっており、GANsが人間を騙せる動画を生成する日は、遠からず来ることでしょう。 しかし、人物に言葉を話させるのは、まったく別の問題です。 通常は、動画と同様、機械学習とGANsで音声を偽造できます。 人物の声の録音データが、多少必要になる程度です。 しかし、芸術の域に達するような音声偽造ソフトウェアは、まだ人間を騙せるほどのクオリティではありません。 人間による研究が、あまり進んでいないためでしょう。 しかしこれもまた、将来は変わる可能性があります。 映画のクリエイターなどにとっては画期的なことではありますが、信頼できる情報の判別は、今後ますます困難となるでしょう。 メディアリテラシーがより一層求められる時代へ これはゆゆしき問題であり、これに備えている企業もあります。 例えばスマートフォンについては、携帯が動画を撮影した時のGPS位置情報や、気圧や方角センサーなど、偽造しづらいデータを活用します。 この企業は、動画撮影の際にこれらのデータを読み込み、企業のサーバーに送信するカメラアプリを開発しました。 オリジナルのデータが本物であるという証明に役立ちますし、オリジナルの撮影後で偽バージョンを作りにくくなります。 さらに、偽オーディオクリップを制作するあるグループは、自作のコンテンツだとわかる「電子透かし」を、自分たちの作品に実験的に付与しています。 残念なことに、どれほど安全対策をしたとしても、ルールを守らない人は必ずいますし、多くのコンテンツにおいてそれは事実です。 また、動画を加工したり、ミスリードされるような動画の作成は、ずいぶん前から行われてきました。 高品質の偽物を作るディープフェイクの時代が訪れたとしても、自分たちのメディアリテラシーのスキルを磨く以外に術はなさそうですし、そうしても何の損もありません。
次の