映像内の人物に他の人の顔を挿入し、偽造するなどの事例で知られるディープフェイク。これまでは有名人の顔の画像をポルノ映像に挿入したり、選挙の際、候補者に有利になるように顔面の映像を加工したりと怪しげな用途に使われることが多くありました。しかし現在では、より実用的で、正当な目的のために利用されるようになりました。
最近では、『アイリッシュマン』のロバート・デ・ニーロのように、俳優が若い頃の自分を演じたり、スーパーヒーロー映画『バットマン vs スーパーマン ジャスティスの誕生』の中のヘンリー・カヴィルが口ひげを剃った前後の顔に差し替えるなど、映画製作の現場で利用されています。『ローグ・ワン:スター・ウォーズ・ストーリー』では、1977年に制作されたオリジナル映画から故人となった俳優ピーター・クッシングのバージョンとキャリー・フィッシャーのレイア姫のデジタル加工映像を挿入し、あたかも再演したかのようなシーンが作られました。
AppierのチーフAIサイエンティストであるミン・スン (Min Sun)は、「コンピュータグラフィックや機械学習を研究する人々は、以前からコンピュータを使って仮想世界で人間を合成していますが、研究者にとってディープラーニングを映像に適用することを“ディープフェイク”と呼び始めたのは最近のことです」と語ります。
約5年前にこの技術が開発され始めて以来、2015年頃には顔を偽造できるようになり(歯は不可能)、2017年にはリアルタイムでの偽造した映像を再生ことが可能になり、現在では俳優の動きに合わせて画面上のロボットを動かすことができるようになりました。
当初、ディープフェイク映像を作るためのコンピュータモデルを作成するためには数千枚の画像を必要としたため、どうしても有名人がディープフェイクの素材となっていました。しかし、技術は進歩し、現在では1枚の画像からディープフェイクを生成することができるようになりました。
「これらのリアルタイムのディープフェイクには“ドライバー”、つまりフェイク映像の対象が必要です。すでに存在する俳優の映像をドライバーの上に重ね合わることでディープフェイクが出来上がります」とスンは説明します。 ブランドやマーケティング担当者にとって、ディープフェイク技術の使用は大きなチャンスです。新型コロナウイルスの感染が広がっていた時期には、海外のタレントをスポークスマンに起用するようなキャンペーン映像の制作は制限せざるを得ませんでした。しかしディープフェイク技術を使えば、現地の俳優を使って役を演じ、後からスポークスマンを追加して映像を変更することができます。
また、俳優に若い頃の自分を演じさせることもできます。例えば、スポーツ情報を提供しているESPNでは最近、 スポーツセンターのキャスター、ケニー・メインのディープフェイクをコマーシャルに使用しました。彼は現在60歳ですが若いバージョンの彼が現代のことを預言的に語っているように見せるためにこの技術が活用されました。
深層学習技術はここ2年ほどで進化し、非常にリアルに見える映像を制作することが可能になりました。訓練された目を持った人にしかデジタルで改変されたフェイク映像を見分けがつかなくなっています。
今日のディープフェイク技術は非常に説得力がありますが、それは 俳優にとっての脅威であり、亡くなった俳優の遺産への挑戦であるという批判もあります。 マーケティング担当者はこの技術を、違った側面から検討する必要があります。なぜなら、マーケティングにも関連するからです。
スクリーンに映っている人物が実際に私たちが思っている通りの人物であると信頼することはできません。たとえばディープフェイクで制作した偽物の俳優が商品を提示しているときに、その事実を視聴者に気づかせることは重要なのでしょうか?もしその俳優が複数の言語で話しているように見せる技術が使ったならば、技術で可能になったということを知らせる必要があるでしょう。
海外の有名人が自分たちが使う言語で話している映像を宣伝に使いたいと考えている企業にとって、それは強力なツールになります。実際に、「マラリア撲滅」キャンペーンにおいて有名な サッカースター、デビッド・ベッカムに9ヶ国語を話させたことで、大きな効果を上げました。また数年前にMarsのチョコレートのコマーシャルで オードリー・ヘップバーンを「復活」させています。
これらの映像を観た人々は不信感を抱くでしょう。ベッカムは英国人で、視聴者の母国語を流暢に話せないことを知っていますし、ヘップバーンがすでに亡くなっていることを知っていながらも、それを受け入れたのです。 この技術は、歴史家が「もしも...」という刺激的なゲームをすることさえ可能にしてくれます。
ダブリンのクリエイティブエージェンシーであるロスコ社のアラン・ケリー氏は、ジョン・F・ケネディ大統領は演説に向かう途中で暗殺されたことを知りました。ケリー氏はそこで過去のスピーチのコピーを探し出し、保存されていた大統領の映像や録音を使用して、 スピーチを再現し、50年以上も前に亡くなった大統領の声を伝えることができました。
ディープフェイク技術が広がり始めた頃は、その利用のされ方から悪評に悩まされました。しかし今後の未来は明るいものになっています。ベッカムの事例にもあった通り、言語や地域を超えて一貫したメッセージングを制作し発信できることは、マーケターや広告主が長年追い求めてきたものです。
R/GA東京のアンソニー・ベイカー氏は"ディープフェイク技術は、複数のバリエーションを撮影する高いコストをかけずに、視聴者の母国語に翻訳されたコンテンツや親しみやすいキャラクターの作成を可能にしている "と述べています。メッセージングに一貫性を持たせるだけでなく、コストを大幅に削減できる可能性があります。
しばらく前から、ファッション小売業者は、顧客が仮想的に「試着」する方法を模索していました。顧客が商品購入を決める前に衣服がどのように見えるかを確認できるようになれば、売り手は提案が可能になり、顧客によりパーソナルな体験を提供することができます。
ディープフェイク技術によりこれをさらに進化させることができます。静的な画像を使用するのではなく、顧客を広告の中に入れて、製品とのより没入感のある体験をさせることができます。最新ファッションを身につけた有名人と共演しているような体験が可能なため、ブランドや製品とのより感情的なつながりを生み出すことができます。 試着以外にも、顧客サポートでも様々な技術が導入されています。ここ数年でチャットボットや音声アシスタントの進化を目の当たりにしてきました。近い将来、ビデオ会議システムで問合せの電話をしたらその商品を愛好している有名人が登場し、問合せにこたえてくれるようになるかもしれません。
スンによると、ソースとなる人物が俳優の似顔絵を運転することも可能だという。「最近ではフェイク映像の素材となる人の外見を決めたら、その表情、そして衣装や背景全体を仮想的に作り上げたキャラクターに重ね合わせます。この方法はボットを訓練するのではなく、仮想の人間がその役割を果たすのです」 この技術により、次世代のチャットボットやボイスボットが開発され、消費者は自分の問い合わせにあたかも信頼できる本物の人間に対応してもらっているように感じるかもしれません。
どんな新しい技術でもそうですが、ディープフェイクは悪用される可能性があります。政治家の言葉を選択的に編集することで、彼らが言っていることの意味を変えることができるのと同じように、ディープフェイクはメッセージを違う意味に変更したり、誰かが仮想的に言葉を発しているように見せたりできるため、悪用の可能性は非常に高い技術です。
それではディープフェイクがどこに使用されているか開示されるべきでしょうか?ソンは、人々が見ている映像は本物であると証明できない可能性があることを認識するべきだと語っています。つまり、動画が悪用される可能性があるため、動画を共有する際には動画の出所を確認する必要があります。幸いすでにAIを使ってフェイク動画を検出するツールが開発されています。
マーケターが自社のキャンペーンにディープフェイク動画が使われているならば、その事実を明確にしておくことは、顧客の信頼を失わないためにも重要です。 ディープフェイク技術はマーケティング分野に大きなチャンスを提供する技術ですが、視聴者が誤解を受けないようにするためには、その使用は控えめにしなければなりません。また、ディープフェイクに起用される俳優は、その使用方法とどのようなメッセージを伝えるために使用されているのかを認識しておく必要があります。
テクノロジーが民主化され、誰でも利用できるような環境になるにつれ、SnapchatやTikTokといった企業はテクノロジーが広く利用される仕組み作りに取り組んでいますが、その一方で悪用される可能性が高まっています。一部のヘビーユーザーたちはこの技術を使いこなしており、携帯電話でも手軽にフェイク映像の制作が可能になっています。
ディープフェイクのコンテンツが容易に入手できるようになったため、もっと使いたいという誘惑に駆られることもあるでしょう。しかし他の新しい技術と同様に、ディープフェイクも慎重に使用する必要があります。ディープフェイクを効果的かつ誠実に活用することができれば、企業は広告、販売プロセスからサポートを改善でき、顧客のパーソナライゼーションやカスタマイズの質を高めることで大きな利益を得ることができるでしょう。
* データを活用した精度の高い意思決定を可能にし、マーケティング効率を向上させるためのAIの活用方法についてご興味がありましたら、Appier にお気軽に お問合せください。