今こそ、人間とAIとの対話に再び真剣に取り組むべき時だ。OpenAIのChatGPTのような洗練されたチャットボットがリリースされ、効果的な人間とAIとの対話は、誰にとっても興味深く、身近なものになった。小論文を書く学生にも、学問的な懸念がある。
私たちが読んだものがAIによって書かれたものかどうか、どうやって知ることができるのだろうか。また、なぜそれが重要なのだろうか。エッセイや記事にコメントするとき、私たちは誰に反応しているのだろうか?対話の哲学的な歴史に目を向けることで、私たちはこの新しいチャットボットを学習にどのように利用できるかを問うために、質問を再構成することができる。
より有能なAI
AIと対話の関係には歴史がある。1950年、イギリスの数学者アラン・チューリングは、AIが知的かどうかをテストする方法として、裁判官が人間のふりをしたAIとタイプした対話を行う「模倣ゲーム」を提案した。
では、今日のAIチャットボットは、そのような対話に対して何を言うのだろうか。Lex.pageは、文章を生成したり質問に答えたりできるAI搭載のライティングツールだ。ここでは、Lex.pageに内蔵されたAIに、AIと対話について質問したときの回答を紹介する。
AIは、さまざまな方法で対話と関連しています。これらは、ユーザーとの自然で人間らしい会話や対話を実現するために使用でき、コンピューターやその他のデバイスがユーザーの入力を理解し、適切に応答することを可能にします。また、会話データの分析や解釈にも利用でき、顧客サービスの向上や不正行為の検出などに役立ちます。
チューリング・テストの魅力は、知能を正式に定義することを避け、会話という最も人間らしい相互作用のひとつを利用していることだ。Lex.pageのAIが表現しているように。
チューリング・テストとは、人間が2つの存在(片方は機械)と会話をし、どちらが機械なのか分からないようにするものです。人間が機械ともう一方の存在を見分けられなければ、そのAIはチューリング・テストに合格したことになる。
何十年もの間、人間とコンピュータの対話は、オペレーティングシステムを使いこなすためのコマンドラインという形で行われてきた。例えば、ジョセフ・ワイゼンバウムのELIZAはセラピストのように応答し、あなたが言ったことについてどう思うかと尋ねてきた。
現在では、主にWebから収集した何十億ものページで学習する大規模言語モデル(LLM)が開発されている。LLMは、会話をしたり、トピックに関する短いエッセイを生成したりすることができる、より高度なリテラシーを備えている。
チューリング・テストは、AI駆動の機械が人間になりすまして騙せるかどうかを見るためのものだった。2018年、GoogleのCEOであるSundar Pichai氏は、音声アシスタントであるDuplexを発表し、AIであることを認識せずに髪の予約をすることができた。
したがって、GoogleのエンジニアであるBlake Lemoineが、AIは感覚を持ち、したがって倫理的配慮に値するかもしれないと確信したのは、「対話アプリケーション用言語モデル(LaMDA)」との対話だったことは驚くには値しないだろう。
Lemoine氏は、「もし、それが何であるか正確に知らなかったら…7歳か8歳の子供が、たまたま物理を知っていたのだと思うでしょう」と語っている。彼がこの記録を上層部に提出したところ、彼らはその証拠を否定し、Lemoine氏が倫理的な懸念を公表したところ、彼は有給休暇を取らされた。
では、次はどうするのか。哲学の世界で対話がどのように議論されてきたかを振り返ってみるのもいいかもしれない。
哲学における対話
哲学には、難しいテーマを対話によって考え抜くという長い伝統がある。対話は、教育、探究のためのパラダイムであり、啓発的な会話を表すことができる文章のジャンルでもある。
プラトンやクセノフォンの対話では、ソクラテスは対話を通じて哲学を行うものとして紹介されている。プラトンとクセノフォンは、質問とそれに対する反省によって、対話の使い方を説明し、2000年後の現在も我々が学ぶことのできるモデルを提示しているのだ。
拙著『対話の定義』では、対話が、探究の文化が変化するにつれて、その人気が衰える文章のジャンルであることを記録している。また、近年ではミハイル・バフチンのような学者によって理論化された、関与の形態でもある。
プラトンやクセノフォンの時代には、対話は哲学的な文章の形式として好まれた。後世では、デイヴィッド・ヒュームの『自然宗教に関する対話』(1779年)のような作品は例外的なものであった。これは、著者が明確な立場をとることを避けたいような、デリケートなテーマを扱うために書かれたものである。
プラトンは『パイドロス』の中で、定型的な演説と対話のパッセージを対比させている。プラトンはソクラテスが演説の達人であることを示し、対話の優位性を論証している。演説は、エッセイのように、聞き手や読み手に合わせることができない。一方、対話は、AIチャットボットも適応できるかもしれない方法で、聞き手を惹きつける。
そして、Lex.pageは以下のように説明する。
クセノフォンの描くソクラテスは、相手の考えを引き出すために質問を重ね、議論をより深く吟味するために、しばしば会話を逆回しにして反対側の視点を引き出すことがあった。また、弁証法、つまり意見の交換を通して真理を追求することもした。
機械との対話を考え抜く
さて、チャットボットの台頭で、再び対話の時代がやってきた。私は、このようなおしゃべりな機械が使えることを美徳とすることを提案する。
例えば、私が作った倫理の教授とは、Character.AIを使って対話することができる。Character.AIは、架空のキャラクターを作り、そのキャラクターと他の人が会話をすることができるサービスだ。
ユーザーは、教授(あるいは他のキャラクター)に質問して対話を記録することができ、これは従来の教科書ではできなかったことだ。ただし、教授の言うことをすべて信用してはいけない。Character.AIのサイトにもあるように、登場人物の発言はすべて作り話だ。もしかしたら、人間のふりをして私たちをだまそうとするのは倫理的におかしいと認めさせることができるかも知れない。
私は授業で、学生にこのようなさまざまなチャットボットを使って対話をするようにお願いしている。そうすると、ダイアログとは何をするものなのか、アイデアを伝えるためにどのように使うことができるのか、という疑問が湧いてくる。効果的なダイアログをどのように作成し、それをどのように評価するかという疑問も生じる。学生たちは今、古代のダイアログを読み直して、それがどのようにドラマチックに機能するかを確認する理由があるのだ。
盗作を心配するのであれば、AIライティングアシスタントと連携して、対話を通して考えることを学べるように学生を訓練してはどうだろうか?チャットボットを使ってアイデアを得たり、トピックに対する別のアプローチを生み出したり、質問を調べたり、得られたものを首尾一貫した全体として編集したりすることを教えることができるのだ。
同時に、AIと関わり、彼らの言うことの信憑性を評価することに注意し、批判的に考えることも教えなければならない。
対話を通して考えることで、私たちはこの豊かな歴史と可能性を再発見することができるのだ。
Prof. Geoffrey M Rockwell
Professor of Philosophy and Digital Humanities, University of Alberta
Geoffrey Martin Rockwell博士は、アルバータ大学の哲学およびデジタル人文科学の教授である。ビデオゲーム、テキストの可視化と分析、ビッグデータの倫理、人文学におけるコンピューティングについて出版しており、MITプレスからステファン・シンクレアとの共著である近著『Hermeneutica:Computer-Assisted Interpretation in the Humanities (2016)」を出版。Text Analysis Portal for Researchのプロジェクトリーダーであり、テキスト分析ツール群であるVoyant Toolsの共同開発者であり、SinclairとともにCSDH/SCHN 2017 Outstanding Contribution Awardを受賞している。現在、クレ高等研究所所長、西部人文学連合会長、カナダデジタル人文学会(CSDH/SCHN)会長。
コメントを残す