あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

AIによって作られた顔は、本物の写真よりもリアルに見えるようになった

顔を分析するのが得意だと思っている人でも、多くの人が本物の顔の写真とコンピューターで作られた画像とを確実に区別できないことが、研究により明らかになった。特に、コンピュータが実在しない人物の写真をリアルに再現できるようになった今、この問題は深刻だ。

最近、LinkedInの偽プロフィールにコンピュータで作成したプロフィール写真を掲載し、米国政府高官やネットワーク上で影響力のある人物との接続に成功した例などがニュースになった。防諜の専門家によれば、スパイは日常的にこのような写真を使った偽のプロフィールを作成し、ソーシャルメディア上で外国のターゲットに狙いを定めているとさえ言われている。

このようなディープフェイクは日常文化に浸透しており、マーケティング、広告、ソーシャルメディアにおいてどのように使用されているか、もっと認識する必要がある。また、政治的なプロパガンダ、スパイ活動、情報戦など、悪意のある目的にも利用されている。

画像の作成には、脳の学習方法を模倣したコンピューターシステムであるディープニューラルネットワークと呼ばれるものが関わっている。これは、脳の学習方法を模倣したコンピューターシステムで、実際の顔をどんどん大きなデータセットにさらすことで「訓練」される。

実際に、2つのディープニューラルネットワークが互いに対戦し、最もリアルな画像を生成するよう競い合っている。GANとは、Generative Adversarial Networksの略で、「GAN画像」と呼ばれている。このプロセスでは、学習画像と統計的に区別できない新しい画像が生成される。

iScience誌に掲載された我々の研究では、これらの人工的な顔を本物と区別できないことが、我々のオンライン行動に影響を与えることを示した。私たちの研究によると、偽の画像は他人に対する信頼を損ない、オンラインでのコミュニケーション方法を大きく変える可能性がある。

私たちは、人々がGANの顔を、実際の人の顔の写真よりもさらに本物らしく見えると感じることを発見した。その理由はまだ不明だが、この発見は、人工的な画像を生成するための技術が近年進歩していることを示すものだ。

file 20230112 40319
1人を除いたすべての顔は、GAN(Generative adversarial network)によって作成されている。どれが本物かは、記事の最後を読んで確かめて欲しい。(NVIDIA via thispersondoesnotexist.com、著者提供)

また、魅力度との関連も興味深い。魅力的でないと評価された顔は、よりリアルであると評価された。魅力的でない顔は、より典型的であると考えられ、典型的な顔は、すべての顔が評価される際の基準として用いられる可能性がある。したがって、このようなGAN顔は、人々が日常生活から作り上げた心のテンプレートに近いため、よりリアルに見えるのだろう。

しかし、このような人工的な顔を本物として見ることは、見知らぬ人々の輪に対する一般的な信頼度(「社会的信頼」と呼ばれる概念)にも影響を与える可能性がある。

私たちはしばしば、目にした顔から多くのことを読み取り、その第一印象によって社会的相互作用を導いているのだ。今回の実験では、人工的に作られた顔であっても、以前に本物と判断した顔であれば、その情報をより信頼する傾向があることがわかった。

本物と思われる顔ほど信頼されるのは当然といえば当然だ。しかし、ネット上でのやりとりにおいて、人工の顔が存在する可能性を知らされると、その信頼度は低下することが分かった。そして、顔が本物かどうかにかかわらず、全体的に信頼度が低下することが判明した。

この結果は、ある意味では、偽ユーザーの存在する環境において人々がより疑いを持つようになったという意味で、有益であると考えられる。しかし、別の見方をすれば、これは私たちのコミュニケーションの本質を徐々に侵食していく可能性がある。

一般に、私たちは、他人が基本的に真実で信頼できるという前提で行動する傾向がある。偽のプロフィールやその他の人工的なオンラインコンテンツが増加していることから、それらの存在やそれらに関する我々の知識が、この「真実のデフォルト」状態をどの程度変え、最終的に社会的信頼を侵食するのかという疑問が生じる。

デフォルトの変更

本物とそうでないものの区別がつかない世界への移行は、文化的景観を、真実中心から人工的で欺瞞的なもの中心へと変化させる可能性もある。

もし私たちがオンラインで体験することの真実性を定期的に疑っているならば、私たちの精神的努力をメッセージ自体の処理からメッセンジャーのアイデンティティの処理へと再展開する必要があるかも知れない。つまり、非常にリアルでありながら人工的なオンラインコンテンツが普及することで、私たちは予想もしなかった方法で、これまでとは異なる思考を求められる可能性があるのだ。

心理学では、あるものが外界のものなのか、それとも自分の脳の中のものなのかを正しく識別する方法を「リアリティ・モニタリング」と呼んでいる。偽物の顔や画像、ビデオ通話をリアルに再現する技術が発達した今、リアリティ・モニタリングは私たち自身の判断以外の情報に基づいて行われる必要があるのだ。そして、人類はまだ真実をデフォルトとする余裕があるのかどうか、より広い議論が必要である。

デジタルな顔を評価する際には、より批判的であることが重要だ。例えば、逆画像検索で写真が本物かどうかを確認する、ソーシャルメディアのプロフィールで個人情報が少ないものやフォロワー数が多いものを警戒する、ディープフェイク技術が不正な目的に使われる可能性があることを認識する、などが考えられる。

この分野の次のフロンティアは、偽のデジタル顔を検出するアルゴリズムの改善だ。これをソーシャルメディアプラットフォームに組み込むことで、新しいつながりの人の顔を見たときに、本物と偽物を見分けることができるようになるかも知れない。

上の合成画像に写っているのは、左から2列目、上から4枚目の画像に写っている1人だけが本物の人間の顔だ。

本記事はThe Conversationに掲載された記事「Deepfakes: faces created by AI now look more real than genuine photos」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

著者紹介
manos tsakiris

Prof. Manos Tsakiris

Professor of Psychology, Director of the Centre for the Politics of Feelings, Royal Holloway University of London

Manos Tsakirisはロンドン大学ロイヤル・ホロウェイ校心理学科の教授であり、アクション&ボディ研究室(LAB)を主宰している。彼の研究は非常に学際的で、幅広い手法を用いて、身体性や社会的関係性の経験を形成する神経認知のメカニズムを研究している。英国実験心理学会の第22回EPS賞講演、イタリア・トリノ認知科学センターの2014年Mind & Brain Young Investigator Prize、2016年Inaugural NOMIS Foundation Distinguished Scientist Awardを受賞した。2016年から2020年にかけて、ウォーバーグ研究所の学際的プロジェクト「Body & Image in Arts & Science(BIAS)」を率い、視覚文化のパフォーマンス力と政治力を調査した。2017年からは、ロイヤルホロウェイで、自己および社会認識のためのインターセプションの役割を調査するINtheSELF ERCコンソリデータープロジェクトを率いている。2021年からは、学際的なCentre for the Politics of Feelingsのディレクターを務めている。

Webサイト : http://manostsakiris.com/

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

スポンサーリンク

執筆者
Photo of author

The Conversation

The Conversationは、ニュース記事や調査報告書をオンラインで公開する非営利メディアのネットワークで、専門家の意見や分析が添えられている。記事はクリエイティブ・コモンズ・ライセンスのもと、学者や研究者によって書かれ、改変せずに再利用できるようになっている。画像の著作権条件は通常、画像のキャプションと帰属に記載されている。そのモデルは説明的ジャーナリズムと評されている。「例外的状況」を除き、「大学や公認研究機関など公認機関に雇われた、あるいは公認機関と正式につながっている学者」による記事のみを掲載する。

記事一覧を見る

コメントする

CAPTCHA