なりすまし

信頼できる情報源を装ったコンテンツ。画像や文章を加工してなりすまし情報の受け取り手の印象を操作しようとするものなどが含まれる項目です。
 本来信用できる確かな情報であるはずの画像などを加工しているため、フェイクニュースであるのにも関わらず信頼を得やすく、悪意を持った製作者の目的通りの印象操作が行われやすいため、それ故に注意が必要な項目となっています。

日本における事例

繰り返しにはなりますが、編集されている可能性が広く知れ渡っている今でも、「画像」の人々からの信用は未だに高いままです。画像があると人は撮影された現場を実際に目撃したかのように思い込み、画像に移っているものを事実であると無意識に信じ込んでしまった上で自分の意見を考えてしまうことが多々あります。そのため、画像に加工が加えられ信じられるべき画像にフェイクが混ざると人々はよりフェイクニュースに欺かれやすくなってしまいます。

< さも不謹慎な表情をしてるかのように画像を加工して印象操作した事例 >

 2021年初め、震度6強の地震が、東日本大震災の復興に努める福島、宮城を襲いました。政府はこれに対し緊急に対策を講じるとともに、記者会見が開きました。会見は滞りなく進み、無事に終わったように見えます。しかし、この会見後、会見に関するある写真がTwitter上で拡散され物議を醸し、非難の声が集まりました。その写真の被写体となったのは、当時の官房長官で、会見に出席し応対していた加藤勝信氏。写真では、記者会見を行っていることを示すテロップの横で、緊急かつたくさんの人々が今も苦しんでいるにも関わらず笑顔で質問に答える加藤氏の姿が見受けられます。この写真を見た人々は当然のように非難の声を上げ、不謹慎であると加藤氏を責め立てました。画像が添付された投稿の中では約2000回リツイートされたものもあり、「笑ってる場合じゃない」「許せない」などのコメントも付きました。
 画像はテレビで放送された会見の番組を切り取ったものであり、写真を見る限り写真内に不自然な箇所は見つかりません。加藤氏が実際に笑いながら会見を行ったように見えます。しかし、実際の会見の映像を見てみると、加藤氏が笑顔で会見している場面は見受けられません。画像を切り取られた番組が、違う場面での加藤氏の画像を恣意的に入れ替え、使用したわけでもありません。この画像が作成されるにあたって、加工されたのは本人の意思でも番組の編集によったものでもなく、画像そのものです。読売新聞が実際の会見の映像と非難されている拡散された画像との差異に疑問を抱き、デジタルデータの解析技術を持つ教授に分析を依頼したところ、目元や口元が改ざんされた可能性が高いことが判明しました。加藤氏は実際には不謹慎とは程遠い誠実な会見を行っており、非難された原因である画像は「フェイク」のなりすまされた画像だったのです。

記者会見
記者会見イメージ /“PIXADAY”より引用
 この件の恐ろしいところとして、非難していた人々が誰一人違和感に気づけないほど、画像が精巧に作られていた、という点が挙げられます。依頼され画像を鑑定した上原教授曰く、「精巧で簡単には判別できない」。鑑定にかけて一般人より遥かに優れている教授でさえわずかな痕跡しか発見できないような画像、一般の人々に見分けられる訳もなく、その程度精巧な偽の画像が出回っているという現状は、つまり今回の事例のような事件は幾らでも起こり得る、ということを示しています。また、フェイクの画像を作成するのに手間がかからなくなっている、ということもその原因となっています。実際、今回の画像は会見開始からわずか30分程度で作成されたものです。AIで表情を改変する専用のソフトやスマホアプリなども海外では既に普及しており、少しの手間をかけるだけで人々を欺くことが出来てしまいます。

海外における事例

フェイクニュースを対策する技術が日々発展していることと同様に、悪意を持ってフェイクニュースを制作する人々としての技術も上がってしまっています。それにより、事実に違わないほど「編集」された動画が無視出来ない数世に出回っており、本来信じることが出来たはずの映像は既に無暗に信じられるものではないものになってしまっています。そして、信用を持っているはずの「映像」の偽造は他のフェイクニュースの項目に比べ被害が大きくなりがちです。

< 様々な著名人の姿を別人の動画に投影し事実を捏造した事例 >

 「ディープフェイク」と呼ばれるものがあります。名前の通りフェイクニュースの一種で、人工知能、AIによって動画内の人の顔などを完全に入れ替えられるものや自在に画像内の人の表情などを操作できてしまうような技術です。近年そのクオリティーは大幅に上昇しており、まるで本人と見間違うほどの自然な動画を作ることさえできてしまう上、作る仕組みも簡略化されているため、映像編集などの知識や能力がなくとも作ることが出来でしまいます。そのため、日本ではあまり浸透していないディープフェイクですが、海外では規制の手が必要になる程ディープフェイクによって作られた動画が拡散されており、それに比例して被害も拡大しています。
 その中で、直近で最も話題になった例として、アメリカのバラク・オバマ元大統領のディープフェイク動画があります。2018年初め、YouTube上に投稿された動画の中に、オバマ元大統領が当時の大統領であるトランプ氏について語る以下の動画が投稿されました。
You Won’t Believe What Obama Says In This Video!
この動画の中で、オバマ氏はトランプ氏の事を非難しており、「トランプ大統領は救いようのない間抜けだ」とまで述べているよう見えました。オバマ氏は初の黒人アメリカ大統領として人種差別撤廃に大きな功績を残した人物であったため、このような発言をすることは俄かには信じられません。しかし、映像の中のオバマ市は確かにその口から避難の言葉を述べており、このことは確かな事実であるように思えます。種明かしをすると、この動画は現在のディープフェイク技術を示すための例として作られたものです。アメリカのオンラインメディア「BuzzFeed」と俳優兼監督のジョーダン・ピールが作成したこの動画、後半に進むと動画が二分割され、動画前半と同様に話すオバマ大統領と、オバマ氏と全く同時に動く監督のピール氏の映像が現れます。この映像内のオバマ氏のセリフや動きは、全てピール氏の言動をオバマ氏の写真に反映し、あたかもオバマ氏が実際に話している様に見せかけたものでした。

オバマ前大統領
オバマ前大統領 /“PIXADAY”より引用
 今回の例は悪意無く作られた、注意を促すことを目的として作られた被害のないディープフェイクでした。ですが当然、世の中には悪意を持って人々を欺くために作られたフェイクニュース、そしてディープフェイクも多く存在し、そもそも多くの被害が及んでいる、及ぶ可能性が多いために今回の動画が作られています。そして、今回の動画においてAIによって反映された動画が本物のオバマ氏が話しているのと遜色なく見えたことと同様に、悪意を持って作成された動画もまた、本人が実際に話しているように、事実であるように見えてしまうということとなります。当然、対策する側としての技術も遜色ないほどに進化しており、同じくAIによって瞬きの少なさなどわずかな違和感を検知し特定するなど様々な対策がとられています。しかし、フェイクニュースを明確な悪意を持って作る人は対策に対する対策を組み立てられる点で対策する側より一歩有利であり、それ故に悪質でハイクオリティなディープフェイクは無くなりません。よって、いくら限りなく事実の様に見えたとしても複数の情報から照らし合わせて見なければ確実な情報にはなりえないことを忘れてはいけません。

AI
AIイメージ /“PIXADAY”より引用

まとめ

 

フェイクの画像や映像を作る技術は、日々進化してきています。「海外における例」のように、視聴者が全員騙されるようなフェイク映像を例として作成することもできれば、「日本における事例」の様に、短時間でハイクオリティな画像を編集することも出来ます。そして、技術の向上とともに、作る手間の少なさ、作り方の簡単さにも磨きがかかってきており、海外のソフトを手に入れるだけで今や編集技術のない人でさえ簡単にフェイクの画像や映像を作ることが出来てしまいます。そのため、今のインターネット上では、今回紹介した2例以外にも様々なフェイクの画像や映像が発見されており、中には未だ発見されず信じられているものもあるかもしれません。そしてそれは、フェイクの画像が信じられたことによって無実の罪で非難されている人々が存在することも示唆しています。今、様々なフェイクニュースに囲まれながら情報媒体を利用する私たちにできることは、情報を鵜呑みにせず、声を上げる前に一度情報の確実性を確認することです。

関連記事