ディープ フェイク 動画。 【アイコラ動画】ディープフェイクとは?【作り方が簡単で怖すぎ】

AIで架空の人物を生成!ディープフェイクとは?

ディープ フェイク 動画

ディープフェイクと呼ばれるこうした映像は、激化するデジタルのフェイク情報競争のなかで最も新しい、そしておそらく最も厄介なものだ。 画像の加工はずっと前から行われてきたし、音声を操作する方法も向上している。 しかしつい最近まで、動画の操作や偽造は大変な作業であり、専門技術と気の遠くなるような根気を必要とした。 だが、機械学習によってこのプロセスがますます容易になり、加速している。 すべての始まりは偽ポルノ動画 17年の終りころ、新しいタイプのポルノ動画が「Reddit」に登場し始めた。 「deepfakes」という名前の、あるRedditユーザーによるものだ。 機械学習を使用してポルノスターの顔と有名人の顔を入れ替える方法を考案したdeepfakesは、ちょっとした騒ぎを引き起こした。 その後、このアルゴリズム「DeepFake」は、ソフトウェア開発プラットフォームの「GitHub」で公表された。 その結果、十分なノウハウと、そこそこのコンピューターをもっている人なら、かなりの質のフェイク映像をつくれるようになった。 それ以来、同じようなフェイク映像や関連ソフトがネットのあちこちで登場している。 そのなかには比較的無害なものもある。 deepfakesによるオリジナルのアルゴリズムから着想を得たあるツールは主に、ニコラス・ケイジの顔を、彼が出演していない映画に挿入することに使用されている。 だが、明らかに有害になりうるものもある。 本物にしか見えないフェイク動画が地政学的緊張を高めたり、動揺を招いたり、犯罪を激化させたり、といった事態につながることは十分に考えられる。 さまざまな組織やメディアで、あるいは政治システムでさえ、信頼は一瞬にして崩れ去る可能性がある。 技術的進化に適切な政策が追いついていないという懸念は、今後も拡大していくはずだ。 フェイクを検知するアルゴリズム 幸いなことに、科学界は対応に乗り出している。 ニューヨーク州立大学オールバニ校の呂思偉(ルー・シウェイ)が率いるチームが、フェイク動画の欠陥を見つけたのだ。 DeepFakeアルゴリズムは、入力された画像から動画をつくり出す。 それなりに正確ではあるが、AIは、人間が自然に発する生理学的信号すべてを完璧に再現することはできない。 そこでこのチームが特に注目したのは「まばたき」だった。 人は通常、2~3秒に1回、自然にまばたきをする。 だが、写真に写っている人は通常、目を閉じていない。 瞬きについてアルゴリズムに学習させたとしても、動画の人物は滅多に瞬きしないことになる。 そこで研究チームは、フェイク動画のなかで瞬きがない箇所を検出するAIアルゴリズムを設計した。 このアルゴリズムは、2つのニューラルネットワークを組み合わせている。 まずは顔を検出し、次に動画の連続画像すべてを並べて、それぞれの目の領域を解析する。 ひとつのネットワークが、その顔の目が閉じているかどうかを判断する。 もう一方は、記憶システムとして機能する。 フレームごとの判断を記憶して、その時間のなかで瞬きが行われたかどうかを見極めるという仕組みだ。 まずはAIに、目が開いている画像と閉じた画像のラベル付きデータセットを学習させた。 学習後のAIをテストするために、独自のDeepFake動画を作成し、わずかな後処理を行って、偽造レヴェルをさらにアップさせた。 結果は素晴らしいものだった。 呂によると、学習させたAIはフェイク動画をすべて特定したという。 後処理として手動で瞬きを追加することは、大した手間ではないと呂は説明する。 BuzzFeedの動画もそうだが、一部のフェイク動画には、実際に瞬きが含まれている。 それでもこの種の戦略は、フェイク動画の作成プロセスを邪魔し、遅らせる方向で働くだろう。 少なくともこのアルゴリズムには、その効果がある。 「いまは、防御の最前線を構築しているところです。 結局これは、フェイク動画をつくる人間と、それを検出する人間との、今後も続く戦いなのです」とリューは言う。 AIとAIが闘う日 広範囲の取り組みに応用できるこの研究は、米国防総省高等研究計画局(DARPA)の支援を受けている。 16年から20年まで続くDARPAの「Media Forensics」プログラムの一環だ。 このプログラムの目標は、音声や動画など、デジタル生成された情報の信憑性と正確性をチェックできるツールを開発することだ。 「フェイクメディアやフェイクニュースの波に反撃できるテクノロジーがあるということを、一般の人々に保証したいと考えています」と呂は述べる。 ニューヨーク市立大学の教授でコンピューターサイエンスを教えているレヴ・マノヴィッチによれば、これはAI同士の競争が激化しているひとつの例でもある。 「コンピューターによるデータ解析で、人には見えないパターンを検出できることはよく知られていますが、ほかのAIが残したパターンはどうなのでしょうか。

次の

「Xpression」の使い方、iPhoneディープフェイク動画アプリで超簡単、有名人を自由に喋らせる!?

ディープ フェイク 動画

ディープフェイク deep fake は最近使われ始めた言葉でまだ一概には定義されていませんが、 「深層学習 deep learning 」と 「偽物 fake 」から派生した言葉です。 元は映画などで活用するために開発された技術だと言われています。 ディープフェイクの歴史 photo by pixabay つい最近までは、動画の加工や偽造は大変な作業であり、動画作りの専門家にとっても気の遠くなるような作業が必要でした。 しかし、今ではAIによる機械学習によってこのプロセスがますます容易になり、加工や偽造された動画は加速度的に増えています。 ディープフェイクが出現したのは2017年です。 ネット上にディープフェイクを用いて有名人の顔を入れ替えたポルノ動画が初めて登場し、話題を呼びます。 その後、ディープフェイクのアルゴリズムがトルツメのコード共有プラットフォーム、「」に一般公開されることにより、誰でもその技術やノウハウを習得できるようになりました。 これを機にディープフェイク動画が一気にネット上にアップされるようになります。 今ではネット上では250枚ほどの写真をアップロードすると、2日程度でディープフェイク動画を作成するオンラインサービスもあり、1本あたり2. 99ドル(約300円)ほどの低価格で取引されています。 さらに、中国の顔画像交換アプリ「ザオ」も極めて手軽にディープフェイクを作成できるとして、注目を集めました。 ディープフェイクは私たちの間で次第に身近になってきています。 出典: 中には無害なディープフェイク動画もありますが、最近ではディープフェイクされるターゲットが女性や著名人に向けられ、悪質なフェイク動画が急増しています。 ディープトレースが公表した報告書「」によると、 2019年に同社がネット上で確認したディープフェイク動画は1万4,678件に上ります。 これは前年の2018年に比べて84%も増しています。 その内訳をみると、 96%は有名なハリウッド女優などの顔をはめ込んだポルノ動画で、ポルノ以外の動画はわずか4%だったと言います。 このデータからも言える通り、ディープフェイクを用いた女性に対する人権侵害は増え続けている状況です。 ディープフェイクの恐怖 残念ながらディープフェイクは、決して良い意味での注目を浴びている訳ではありません。 最近特に問題視されているのが、ディープフェイクを用いた著名人の顔すり替え動画です。 出典: 有名なのは2018年にYouTubeで公開された、です。 この動画はディープフェイクの恐ろしさを物語っています。 一見すると本当にオバマ氏がトランプ大統領の悪口を言っているように見えます。 しかし動画の最後では画面が二分割されて俳優兼監督のジョーダン・ピールが現れることにより、これが偽物の動画、ディープフェイクであることが分かります。 動画の中でのネタばらしがなければ、誰もオバマ氏ではない偽物が喋っているとは気づかなかったはずです。 ディープフェイクという技術は、赤の他人を使って、これほど忠実に本物の人を再現できるのです。 このようなディープフェイク動画は、世界の政治を揺るがしかねません。 ディープフェイク動画が拡散し、視聴者に真に受けられれば、場合によっては選挙の結果を大きく左右し、候補者の評判を大きく下げる可能性も拭えません。 この動画も、現時点で 762万回以上再生されています。 問題となっているのはディープフェイクを用いたフェイク動画そのものよりも、むしろ別の点にあると指摘する人もいます。 動画を活用し、人権侵害の告発などに取り組むNPO「ウィットネス」のプログラムディレクター、サム・グレゴリー氏は、ディープフェイクによって以下の事態が発生していると述べています。 」 出典: これはつまり、 ディープフェイクを口実に、リアルな動画の信憑性を疑い、否定する権力者が出てきているということです。 その一例として、トランプ氏がNBCの番組の収録現場で「スターならやらせてくれる。 何でもできる」などと卑猥な発言をしていた動画が、2016年の大統領選中に発覚した問題があります。 当初はこの発言を認めていたトランプ氏でしたが、大統領に就任した後に、上院議員や側近に、「動画は偽物のディープフェイクだった」と公言しています。 photo by pixabay 自分には都合の悪いリアルな動画が証拠として提示された場合に、ディープフェイクを口実に嘘をつくという逃げ道を権力者に与えてしまったのです。 ディープフェイクvs表現の自由 photo by pixabay 何かと良くない話題を生んでいるディープフェイクですが、果たしてディープフェイクのどこまでが制限され、どこまでが許容されるべきなのでしょうか。 フェイスブック社は今年、ディープフェイクの一部を削除する方針を打ち出しました。 しかし、 どこまでを表現の自由と捉えるかの判断が難しく、規制は限定的であるべきだとしています。 フェイスブック社のプロダクトマネージャーであるアントニア・ウッドフォード氏は、ディープフェイクへの対策について、「人々が自由に表現し意見交換できるようにすると同時に、利用者が見たくない内容から守る必要もあり、このバランスをどうとるのかが難しいのです」と述べています。 実は日本でも、ディープフェイクのポルノ動画が拡散されるようになっています。 しかし、日本にはディープフェイク自体を規制する法律はないため、現時点でディープフェイク動画は作りたい放題の状況です。 これからディープフェイクの悪用による著名人の被害者が出てくることも予想されます。 ディープフェイクの対策 現在、悪質なディープフェイクに対抗しようとさまざまな研究チームが動き出しています。 ニューヨーク州立大学のリュー・シーウェイ氏が率いるチームは、AIを用いてディープフェイク動画を見破る技術の開発に成功しました。 チームが特に注目したのは「まばたき」です。 出典: 人は通常、2~3秒に1回、自然にまばたきをします。 対してDeepFakeアルゴリズムは、入力された画像から動画をつくり出しますが、画像に写っている人は通常、目を閉じていません。 AIは人間が自然に発する生理学的信号すべてを完璧に再現することはできないため、動画の人物は滅多にまばたきをしないことになります。 そこで研究チームは、ディープフェイクを用いた動画内でまばたきがない箇所を検出するAIアルゴリズムの設計に成功しました。 リュー氏のチームは、この技術をさらに発展させ、瞬きの頻度や継続時間といった複雑なことを習得させる方法に取り組んでいます。 近い将来には、呼吸などのさまざまな自然な生理学的信号を検出できるようになるのが目標だと言います。 AI技術に頼るディープフェイクをAIを用いて見破る攻防戦はまさに、 「AI同士の対立」と言っていいかもしれません。 良くも悪くも、ディープフェイクという技術を最終的に活用するのは人間です。 私たち自身がネットのモラルを守ることは勿論、正しい情報と誤った情報を適確に判断する能力を身につける必要があります。 ディープフェイクとその問題について理解を深めることは、これからのネット・SNS時代を生きていく私たちにとって重要だと感じます。

次の

【NHKスペシャル4/5出演】ディープフェイク動画サイト運営してたらNHKに出ることになった話|ベナオBlog|note

ディープ フェイク 動画

その中でも経緯と放送で語れなかったことに関しては正直公の場で書き辛い内容なので、有料部分に載せようと思います。 ディープフェイクを自分でも使ってみたい、ディープフェイクによって今世界に何が起きているのか詳しく知りたい、ベナオは結局何をやってTVに出ることになったのか知りたい、という方はぜひ最後までお付き合いください。 僕がフリーランスになって初期にやっていた活動についても書いていますので、気になる方はぜひご購入ください。 僕が運営しているサイトもそちらの方に掲載したいと思います。 ディープフェイクってそもそも何? そもそもディープフェイク技術について説明したいと思いますが、これはディープラーニングの技術を使って動画の中の人間の顔の部分をプログラムによって認識して切り取り、それを別の動画に映っている人間の顔と入れ替えるというものになります。 これが単純に顔の静止画を切り抜いて動画に当てはめるような付け焼き刃なものではなく、映っている人の表情に合わせてそれぞれのパーツが自在に動くので、何も知らない人ならそれが加工された動画だと気付くことは困難です。 iPhoneのカメラが顔認識できるのは人間だけのようです。 これはAppleのサーバーに蓄積された大量の顔写真データを元に機械学習を行い、プログラムに人の顔特有のパターン(目や耳などのパーツの数、配置、顔の輪郭など)を記憶させることで実現されています。 具体的には大量のサンプル画像データ一枚一枚について、被写体のパターンを全て数値的なパロメータ( 特徴量と呼ぶ)まで分解し、それらに統計的な処理を加えて 機械学習モデルを作成することで新たなサンプル画像のどこからどこまでが顔なのかを判定できるようになります。 機械学習モデルは例えるなら、ある水溶液の酸性度を判定してくれるリトマス試験紙のようなものです。 今回の場合の画像データは水溶液と同じ位置付けになります。 画像認識に関してはこちらのnoteでも触れてますので合わせてどうぞ。 これは画像にしか適用できませんが、明らかにディープフェイク技術の原型ですね。 こちらは動画のように時間当たりで表情を動かしたりする必要がない分、ディープフェイク動画よりも単純なプログラムで済むと言えるでしょう。 そしてこれができるなら同じことが動画でもできるはずで、それによって使い道が無限に広がると考えるのがエンジニアです。 ディープフェイクが世界で何を引き起こしているのか 新たに生まれる技術は、常に良い事ばかりに使われるとは限りません。 この技術は諸外国で政治スキャンダルの捏造に使われています。 トランプ大統領と似たような体型の人に髪型を似せて喋らせ、その映像にディープフェイクを使うことで、ぱっと見では見分けられないほど精巧な偽造動画を作っています。 他には偽造ポルノの作成にも使われており、カリフォルニア州ではこうしたフェイク動画による名誉毀損を訴えることができる法律が既にできています。 ディープフェイクの希望 ここまでディープフェイクの恐ろしさばかりを強調してきましたが、僕が伝えたいのは決してそんなことばかりではありません。 僕はAIが人間の可能性を押し広げてくれると信じて、このような情報発信を続けています。 なので無料部分の最後でディープフェイクのわずかな光について書きたいと思います。 以下はAbemaTVのニュース番組であるAbemaPrimeでの、乙武洋匡さんの発言です。 正直僕は美空ひばりさんのに思い入れは特になかったのですが、今回記事を書くにあたって動画を見てみたら観客の方が泣いているのにつられてうるっときてしまいました。 よく考えたら僕が去年にNHKから取材を受けた時にも、ディープフェイク動画の作り方について詳しく聞かれました。 その時からこの企画が走っていたんでしょうね。 今回の件で、僕のNHKさんに対するイメージもかなり変わりました。 昨今のAI技術の急激な進歩を、しっかり追いかけていこうという意思が感じられました。 前半まとめ ・ディープフェイクはAI技術の一種 ・ディープフェイクは被写体の顔を他人の物と入れ替える ・ディープフェイクには画像認識が重要 ・ディープフェイクは政治スキャンダルやポルノの捏造に使われている ・ディープフェイクは悪いことばかりじゃない.

次の