あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

ブレイン・コンピュータ・インターフェイスにより、兵士は思考で武器を制御し、恐怖心を消すことができるようになるかもしれない

兵士の血流に小さなコンピューターデバイスを注入し、磁石で脳の特定部位に誘導することを想像してみよう。訓練すれば、何千キロも離れた場所にある兵器システムを、自分の思考だけでコントロールすることができるようになる。同じようなコンピュータを兵士の脳に埋め込めば、恐怖や不安を抑え、より効率的に戦闘任務を遂行することができるだろう。さらに一歩進んで、人工知能を搭載した装置では、兵士が今の状況でどのような選択肢を選ぶかを予測し、兵士の行動を直接コントロールすることも可能になる。

このような例はSFのように聞こえるかもしれないが、このようなニューロテクノロジーを開発するための科学は、すでに開発されているのだ。ブレイン・コンピュータ・インターフェイス(BCI)は、脳の信号を解読して外部機器に伝達し、目的の行動を実行させる技術である。基本的には、ユーザーは自分のしたいことを考えるだけで、それをコンピューターが代行してくれるようになる。

BCIは現在、重度の神経筋障害を持つ人々を対象に、コミュニケーションや移動といった日常的な機能の回復を支援するための試験が行われている。例えば、患者さんは、その動作を視覚化し、BCIが脳信号を解読してスイッチに伝達することで、電気のスイッチを入れることができる。同様に、コンピューター画面上の特定の文字、単語、フレーズに焦点を合わせ、BCIがカーソルを動かして選択することも可能だ。

しかし、倫理的な検討は科学の進歩に追いついていない。倫理学者たちは、一般に神経改造についてもっと倫理的な調査をするよう求めているが、ブレイン・コンピュータ・インターフェイスをめぐる多くの実際的な疑問は十分に検討されていない。例えば、BCIの利点は、ブレインハッキング、情報窃盗、行動制御などの実質的なリスクを上回るものなのだろうか?BCIは特定の感情を抑制したり、高めたりするために使われるべきなのか?BCIはユーザーの道徳的主体性、個人的アイデンティティ、精神的健康にどのような影響を与えるのか?

これらの疑問は、現在および将来のBCI応用の倫理と科学を研究する哲学者と神経外科医である私たちにとって、大きな関心事である。この技術が実用化される前に、その使用に関する倫理を考慮することで、潜在的な危害を防ぐことができるだろう。私たちは、BCIの責任ある使用には、人間であることの中心と考えられる様々な方法で機能する人々の能力を保護することが必要であると主張する。

BCIの臨床への応用

研究者たちは、ゲーム、バーチャルリアリティ、芸術的パフォーマンス、戦争、航空管制など、多くの分野で医療以外のブレイン・コンピュータ・インターフェイスの応用を模索している。

例えば、Elon Muskが共同設立したNeauralink社は、健康な人のための脳インプラントを開発しており、同様のインプラントとコンピュータを持つ人とワイヤレスで通信できる可能性がある

2018年には、米軍の国防高等研究計画局が、“脳の複数のポイントから一度に読み書きできる、安全でポータブルな神経インターフェースシステム”を開発するプログラムを立ち上げた。その目的は、2050年までに国家安全保障の用途で、健常な軍人のための非外科的BCIを製造することである。例えば、特殊部隊の兵士がBCIを使って、仲間や部隊の指揮官と考えを送受信することで、三者間の直接コミュニケーションが可能となり、リアルタイムの最新情報や脅威に対するより迅速な対応ができるようになるのだ。

私たちの知る限り、これらのプロジェクトは、これらの技術の倫理について公開討論を開いていない。米軍は、BCIを成功させるためには「否定的な社会的認知を克服する必要がある」ことを認めているが、提案されているニューロテクノロジーを配備する前に、よりよく評価するための実践的な倫理ガイドラインが必要である。

功利主義

BCIが提起する倫理的問題に取り組むアプローチのひとつに功利主義がある。功利主義とは、ある行動や政策によって影響を受けるすべての人の幸福や福利を最大化しようとする倫理理論である。

兵士を強化することは、国家の戦闘能力を向上させ、兵士を遠隔地に置くことで軍事資産を保護し、軍の即応性を維持することで、最大の利益を生み出すかもしれない。ニューロエンハンスメントの功利主義的擁護者は、BCIのような新しいテクノロジーは、広く受け入れられている他の脳強化の形態と道徳的に同等であると主張する。例えば、カフェインなどの刺激物は脳の処理速度を向上させ、記憶力を改善する可能性がある。

しかし、BCIに対する功利主義的なアプローチには道徳的な盲点があると懸念する人もいる。患者を救うための医療用途とは対照的に、軍事用途は国家が戦争に勝つためのものである。その過程で、BCIは個人の権利、例えば精神的、感情的に健康であることの権利を踏みにじってしまうかもしれない。

例えば、今日、遠隔戦争でドローン兵器を操作する兵士は、地上にいる兵士に比べて、感情的苦痛、心的外傷後ストレス障害、結婚の破綻などのレベルが高いことが報告されている。もちろん、兵士はより大きな利益のために犠牲を払うことを日常的に選択しています。しかし、神経強化が職務上の要件となった場合、強制性に関する独自の懸念が生じる可能性がある。

ニューロライツ

BCIの倫理に対するもう一つのアプローチであるニューロライツは、そうすることで全体的な幸福が最大化されないとしても、特定の倫理的価値を優先させるものである。

ニューロライツの支持者は、認知的自由、精神的プライバシー、精神的完全性、心理的継続性に対する個人の権利を擁護している。認知の自由に対する権利は、人の精神状態に対する不当な干渉を禁止することができる。精神的プライバシーの権利は、保護された精神的空間を確保することを要求し、精神的完全性の権利は、人の精神状態に対する特定の危害を禁止することになるかもしれない。最後に、心理的継続性の権利は、長期にわたって首尾一貫した自分自身の感覚を維持する人の能力を保護するかもしれない。

BCIは様々な形で神経回路に干渉する可能性がある。例えば、BCIがユーザーにとっての世界の見え方を変えてしまうと、ユーザーは自分自身の考えや感情を、変化した自分自身と区別できなくなる可能性がある。これは、精神的プライバシーや精神的完全性といったニューロライツを侵害する可能性がある。

しかし、兵士はすでに同様の権利を放棄している。例えば、米軍は一般市民には通常適用されない方法で、兵士の言論の自由や宗教の自由な行使を制限することを許されている。ニューロライツを侵害することも同じことだろうか?

人間の能力

人間能力アプローチは、ある種の人間能力を保護することが人間の尊厳を守るために重要であると主張する。ニューロライツが個人の思考能力に重点を置いているのに対し、能力観は、感情的・身体的に健康であること、場所から場所へ自由に移動すること、他人や自然と関わりを持つこと、感覚や想像力を働かせること、感情を感じ表現すること、遊びや再現、身近な環境を調整することなど、人ができること、できることをより幅広く考慮に入れている。

私たちは、人間らしさと人間の尊厳の尊重について、より確かなイメージを与えるケイパビリティ・アプローチに説得力を感じている。この見解に基づき、私たちは、提案されるBCIアプリケーションは、最小限の閾値でユーザーの中心的な能力をすべて合理的に保護しなければならないと主張してきた。人間の平均的な能力を超えて能力を高めるように設計されたBCIは、他人の目標だけでなく、ユーザーの目標を実現する方法で展開される必要がある。

例えば、脳信号を抽出・処理するだけでなく、圧力や温度などの体性感覚をユーザーにフィードバックする双方向BCIは、ユーザーが自分の感覚を信頼することを妨げれば、不合理なリスクをもたらすことになる。同様に、BCIを含め、ユーザーの動きを制御する技術は、ユーザーがそれを無効にする能力を持たなければ、ユーザーの尊厳を侵害することになる。

能力観の限界は、何をもって閾値の能力とするかを定義するのが難しいことだ。この考え方では、どのような新しい能力が追求される価値があるのかは説明されない。しかし、ニューロエンハンスメントは、標準的な閾値と考えられているものを変える可能性があり、最終的にはまったく新しい人間の能力を導入する可能性がある。このような問題に対処するためには、能力に関するアプローチを、これらの疑問に答えるためのより充実した倫理的分析で補う必要がある。


本記事は、Nancy S. Jecker氏、Andrew Ko氏らによって執筆され、The Conversationに掲載された記事「Brain-computer interfaces could allow soldiers to control weapons with their thoughts and turn off their fear – but the ethics of neurotechnology lags behind the science」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

おすすめ記事

コメントする