11月4日、米ソフトウエア会社のアドビは、Twitterやニューヨークタイムズと組み、フェイク写真対策に乗り出すことを発表した。
【写真】Photoshopで加工された写真を見抜く「PROJECT ABOUT FACE」
アドビはクリエイター向けのツール開発で圧倒的なシェアを持ち、写真加工ソフトのデファクトスタンダードである「Photoshop」の開発元である。「加工された写真」がデマを広げる元になっているが、そのデマ写真を作るツールを開発している側が、写真や動画の信頼性向上に一歩踏み出した。
アメリカで開かれたアドビの年次イベント「Adobe MAX 2019」で、同社の法務担当者に直撃し、その真意を聞いた。
AIの進化が、デマと写真を結びつけた
まず前提となる状況を解説しておきたい。
SNSの普及以降、デマの拡散はスピードを増している。その核となっているのが、写真の加工・偽造技術の進化だ。
「ディープフェイク」技術を使って作成中のオバマ前大統領の偽動画 ©AFLO
権力者やデマを流したいと思う人々が写真を加工するということ自体は、20世紀半ばから行われてきた。ただ、パソコンが登場し、高性能な画像加工ソフトが登場するまで、写真の加工とは「精密な絵を描く」ことと同義であり、簡単にはできなかった。デジカメと画像加工ソフトの登場によって、写真の加工は劇的に簡単になった。
そんな画像加工ソフトの代表格がアドビの「Photoshop」。いまや、アマチュアからプロまで、写真を扱う人ならば誰もが使っているし、マスコミでも、写真の整理や色調補正などのために広く使われている。ゲームから映画まで、およそ「クリエイティブ」と名が付く仕事で、Photoshopのお世話になっていないところはないはずだ。
とはいえ、誰もがだまされるような合成写真を作るのは、少し前まで、Photoshopのような画像加工ソフトを使っても難しかった。ソフトを使うには写真や絵画の知識、美的センスが必須だったからだ。ツールの進化によって少しずつハードルは下がってきたが、そこに大きな変化をもたらしたのがいわゆる「AI」の登場だ。不要なものを消したり、形を少し変えたりするくらいのことなら、AIの力を借りて誰でも簡単にできるようになった。
動画の加工は写真よりも大変だったが、これもAIが助けてくれるようになった。動画内の登場人物の顔だけを別人のものに変えるようなソフトも登場しているからだ。このような、AIを使った手の込んだ加工を「ディープフェイク」などと呼ぶようになっている。
現状ディープフェイクで目立つのはポルノだ。アダルトビデオの女優の顔を有名人の顔に変えた映像はいくつも流通している。そのほとんどは「ディープフェイク」とは言い難い粗雑なコラージュだが、なかには驚くような出来のものもある。高性能なパソコンといくらかの知識が必要にはなるが、オンラインで流通しているソフトを使うと、誰でもディープフェイク動画は作れる。
また9月には、中国で「Zao」というスマホアプリが流行った。これは、俳優の顔と自分の顔を入れ替えることができるディープフェイクアプリ。例えばあるゲーム開発者が「レオナルド・ディカプリオの出演シーンを、すべて自分の顔に入れ替えた」動画を投稿し、SNS上で話題になった。ただしこのアプリは中国でのみ公開されたもので、他国では使えない。しかも、著作権上の問題や、個人の顔写真収集に関わるプライバシー問題も指摘された。
実のところ、単に人をだますなら、コラージュやディープフェイク画像に頼る必要すらない。それらしい写真をどこかからもってきてSNSに貼り付け、別の説明をつけて流せばいいのだ。2016年には、熊本地震の直後に「熊本の動物園からライオンが逃げた」というデマ情報をTwitterに投稿した会社員が逮捕された。そのライオンの写真は南アフリカで撮影したものだったが、人々は写真をよく見ず、ツイートの内容を信じてしまった。
写真や動画の加工は簡単になり、それをどこから拾ってきて勝手な文脈を付け加えてデマを流すのも、同様に簡単なことになっている。これは、「事実を伝える」上では深刻な事態だ。
アドビの「加工を見破る技術」とは
結果としてアドビは、デマの発生に一役かっている。しかし、これは彼らの本意でない。彼らはクリエイターのためにツールを作っているが、それは良い作品を作ってもらうことが目的だからだ。
そこで、同社はこの11月に、2つの技術を発表した。
ひとつめは「Photoshopで加工された写真を見抜く技術」。写真を読み込むと、写真を構成する「画素」の微細な広がりなどから、その写真が「加工されたものかそうでないか」を一発で見抜く。どこが加工されたかも露わにしてくれる。Adobe Researchと米カリフォルニア大学バークレー校が共同で発表した技術だ。
そしてもうひとつが、より本質的な技術だ。アドビのツールで加工された画像について、「誰が作ったものか」「いつ、どこで撮影されたものなのか」「どのソフトで加工されたものなのか」といった情報を付加し、信頼性を高める技術について、Twitterやニューヨークタイムズとともに開発していくことを公表したのだ。
写真に付けられたマークをクリックすると、制作者の名前や加工に使われたソフトの名前などが出てくる。今後はこの中に、「どのくらい加工されたものなのか」という指針も加えていく予定だという。
なぜニューヨークタイムズがパートナーか
アドビ法律顧問のダナ・ラオ氏は、「この技術は著作権保護用の暗号に基づくDRM(デジタル著作権管理)技術でも、真実を担保するものでもない」と話す。
ではどういう技術なのか? それは、Twitterやニューヨークタイムズがパートナーであることからわかる。写真を加工できないように保護するのではなく、写真が掲出された場所に写真の編集に関する情報を同時に出すことで、その写真の来歴を示すことが目的なのだ。
「Twitterには(企業や著名人が使う)本人を示すマークがあるが、あれに近いと思っていただきたい。そこにマークがあれば、その写真や動画は出所がはっきりしたものであるとわかる」とラオ氏は説明する。
アドビは「クリエイティブクラウド」というクラウドサービスをもっているが、それとツールを連携させることで、編集後にデータを作った段階で「内容証明情報」を作り、それを写真投稿時に使う、という手段を採ることになる。この内容証明情報は「改ざんできないようにする必要がある」(ラオ氏)ので、暗号化技術などによって守られる。
写真の真贋を証明するのでなく、写真がなにで加工されたかだけを示す、というのは、フェイク対策としては直接的なものでないようにも思える。そうしている理由は、「コンテンツの中身に対し、アドビは中立でいたい」(ラオ氏)からだ。加工するのは悪いことではない。そこからクリエイティブな作品が出てくることもある。なにひとつ編集されていない、事実を伝える写真も重要だ。それらは「どちらも重要」なのであり、どういう意味を持つかを判断するのは人間側の役目だ、という主張なのである。
また、単なる改ざん防止だけでなく、写真の著作権者をはっきりさせる役割も持っている。ラオ氏は「ニューヨークタイムズが興味を持ったのは、特にその要素があるからだ」という。写真やイラストの盗用は、日本でも深刻な問題になっている。そうした状況に変化を加えるためにも、この技術は重要なものだ。
アドビはこの技術を「自社だけのものにするつもりはない」という。オープンな技術として公開し、色々な企業がソフトやサービスに組み込めるようにすることを目指す。Twitterやニューヨークタイムズは第一弾、という扱いだ。
その性質上、システムの利用にはクラウドサービスとの連携が必要だが、「すでに大手クラウドサービスとは話し合いを進めており、彼らも関心を持ち、ともに作業を進めている」(ラオ氏)という。
日本での展開はまだ予定がない。しかし、日本でも有用な技術であることは疑いがない。特に筆者が重要だと思うのは、ニューヨークタイムズのようなメディアだけでなく、SNSであるTwitterも賛同している点だ。個人が撮影した写真でも、情報としての価値は変わりない。撮影者や制作者を担保する仕組みが組み込まれることは、誰にとってもプラスだ。もちろん、情報を埋め込まずに投稿することもできるが、それは「一定以上の信頼が置けないもの」と判断される時代が来るだろう。
記者からは「こうした技術は、2020年の大統領選挙にも有用では?」という質問が飛んだ。だが、アドビ側は苦笑してひとことこう答えた。
「まだ開発には時間がかかる」
2020年に導入できればプラスだが、事を拙速に進めるつもりはないようだ。