顔を分析するのが得意だと思っている人でも、多くの人が本物の顔の写真とコンピューターで作られた画像とを確実に区別できないことが、研究により明らかになった。特に、コンピュータが実在しない人物の写真をリアルに再現できるようになった今、この問題は深刻だ。
最近、LinkedInの偽プロフィールにコンピュータで作成したプロフィール写真を掲載し、米国政府高官やネットワーク上で影響力のある人物との接続に成功した例などがニュースになった。防諜の専門家によれば、スパイは日常的にこのような写真を使った偽のプロフィールを作成し、ソーシャルメディア上で外国のターゲットに狙いを定めているとさえ言われている。
このようなディープフェイクは日常文化に浸透しており、マーケティング、広告、ソーシャルメディアにおいてどのように使用されているか、もっと認識する必要がある。また、政治的なプロパガンダ、スパイ活動、情報戦など、悪意のある目的にも利用されている。
画像の作成には、脳の学習方法を模倣したコンピューターシステムであるディープニューラルネットワークと呼ばれるものが関わっている。これは、脳の学習方法を模倣したコンピューターシステムで、実際の顔をどんどん大きなデータセットにさらすことで「訓練」される。
実際に、2つのディープニューラルネットワークが互いに対戦し、最もリアルな画像を生成するよう競い合っている。GANとは、Generative Adversarial Networksの略で、「GAN画像」と呼ばれている。このプロセスでは、学習画像と統計的に区別できない新しい画像が生成される。
iScience誌に掲載された我々の研究では、これらの人工的な顔を本物と区別できないことが、我々のオンライン行動に影響を与えることを示した。私たちの研究によると、偽の画像は他人に対する信頼を損ない、オンラインでのコミュニケーション方法を大きく変える可能性がある。
私たちは、人々がGANの顔を、実際の人の顔の写真よりもさらに本物らしく見えると感じることを発見した。その理由はまだ不明だが、この発見は、人工的な画像を生成するための技術が近年進歩していることを示すものだ。
また、魅力度との関連も興味深い。魅力的でないと評価された顔は、よりリアルであると評価された。魅力的でない顔は、より典型的であると考えられ、典型的な顔は、すべての顔が評価される際の基準として用いられる可能性がある。したがって、このようなGAN顔は、人々が日常生活から作り上げた心のテンプレートに近いため、よりリアルに見えるのだろう。
しかし、このような人工的な顔を本物として見ることは、見知らぬ人々の輪に対する一般的な信頼度(「社会的信頼」と呼ばれる概念)にも影響を与える可能性がある。
私たちはしばしば、目にした顔から多くのことを読み取り、その第一印象によって社会的相互作用を導いているのだ。今回の実験では、人工的に作られた顔であっても、以前に本物と判断した顔であれば、その情報をより信頼する傾向があることがわかった。
本物と思われる顔ほど信頼されるのは当然といえば当然だ。しかし、ネット上でのやりとりにおいて、人工の顔が存在する可能性を知らされると、その信頼度は低下することが分かった。そして、顔が本物かどうかにかかわらず、全体的に信頼度が低下することが判明した。
この結果は、ある意味では、偽ユーザーの存在する環境において人々がより疑いを持つようになったという意味で、有益であると考えられる。しかし、別の見方をすれば、これは私たちのコミュニケーションの本質を徐々に侵食していく可能性がある。
一般に、私たちは、他人が基本的に真実で信頼できるという前提で行動する傾向がある。偽のプロフィールやその他の人工的なオンラインコンテンツが増加していることから、それらの存在やそれらに関する我々の知識が、この「真実のデフォルト」状態をどの程度変え、最終的に社会的信頼を侵食するのかという疑問が生じる。
デフォルトの変更
本物とそうでないものの区別がつかない世界への移行は、文化的景観を、真実中心から人工的で欺瞞的なもの中心へと変化させる可能性もある。
もし私たちがオンラインで体験することの真実性を定期的に疑っているならば、私たちの精神的努力をメッセージ自体の処理からメッセンジャーのアイデンティティの処理へと再展開する必要があるかも知れない。つまり、非常にリアルでありながら人工的なオンラインコンテンツが普及することで、私たちは予想もしなかった方法で、これまでとは異なる思考を求められる可能性があるのだ。
心理学では、あるものが外界のものなのか、それとも自分の脳の中のものなのかを正しく識別する方法を「リアリティ・モニタリング」と呼んでいる。偽物の顔や画像、ビデオ通話をリアルに再現する技術が発達した今、リアリティ・モニタリングは私たち自身の判断以外の情報に基づいて行われる必要があるのだ。そして、人類はまだ真実をデフォルトとする余裕があるのかどうか、より広い議論が必要である。
デジタルな顔を評価する際には、より批判的であることが重要だ。例えば、逆画像検索で写真が本物かどうかを確認する、ソーシャルメディアのプロフィールで個人情報が少ないものやフォロワー数が多いものを警戒する、ディープフェイク技術が不正な目的に使われる可能性があることを認識する、などが考えられる。
この分野の次のフロンティアは、偽のデジタル顔を検出するアルゴリズムの改善だ。これをソーシャルメディアプラットフォームに組み込むことで、新しいつながりの人の顔を見たときに、本物と偽物を見分けることができるようになるかも知れない。
上の合成画像に写っているのは、左から2列目、上から4枚目の画像に写っている1人だけが本物の人間の顔だ。
Prof. Manos Tsakiris
Professor of Psychology, Director of the Centre for the Politics of Feelings, Royal Holloway University of London
Manos Tsakirisはロンドン大学ロイヤル・ホロウェイ校心理学科の教授であり、アクション&ボディ研究室(LAB)を主宰している。彼の研究は非常に学際的で、幅広い手法を用いて、身体性や社会的関係性の経験を形成する神経認知のメカニズムを研究している。英国実験心理学会の第22回EPS賞講演、イタリア・トリノ認知科学センターの2014年Mind & Brain Young Investigator Prize、2016年Inaugural NOMIS Foundation Distinguished Scientist Awardを受賞した。2016年から2020年にかけて、ウォーバーグ研究所の学際的プロジェクト「Body & Image in Arts & Science(BIAS)」を率い、視覚文化のパフォーマンス力と政治力を調査した。2017年からは、ロイヤルホロウェイで、自己および社会認識のためのインターセプションの役割を調査するINtheSELF ERCコンソリデータープロジェクトを率いている。2021年からは、学際的なCentre for the Politics of Feelingsのディレクターを務めている。
Webサイト : http://manostsakiris.com/
コメントを残す