ChatGPTは、破壊的なテクノロジーの最新形として、メディアに長い影を落としている。ある人は、ChatGPTは学術的・科学的誠実さの終焉の前触れであり、ホワイトカラーの仕事と民主主義制度への脅威であるという。
生成型人工知能(AI)に対して、私たちはどの程度関心を持つべきなのだろうか。ChatGPTの開発者は、「会話形式で対話するモデル」と表現する一方で、結果が安定しないことを理由に「恐ろしい製品」とも呼んでいる。
電子メールを書いたり、文書を要約したり、コードをレビューしてコメントを提供したり、文書を翻訳したり、コンテンツを作成したり、ゲームをしたり、そしてもちろんチャットもできるのだ。これは、ディストピア的な未来のものではない。
私たちはテクノロジーの導入を恐れるべきではないが、それが私たちの利益につながると考えるべきでもない。社会は、過去からの惰性、一時的な合意、新しいアイデアやアプローチを導入する破壊的なテクノロジーによって定義される文化的進化の絶え間ないプロセスの中にあるのだ。
あるテクノロジーが何をするために設計されているのか、それが私たちとどのように関係し、それによって私たちの生活がどのように変わるのかを考えることで、人間とテクノロジーの共進化を理解し、受け入れる必要がある。
ChatGPTやDALL-Eは本当にクリエイターなのか?
創造性は、知能と並んで人間特有の能力であると考えられがちだ。しかし、創造性は人間だけのものではなく、収斂進化の産物として種を超えて出現してきた性質である。
カラス、タコ、イルカ、チンパンジーなど多様な種が、即興で道具を使うことも出来る。
創造性という言葉は自由に使われているが、創造性を捉えるのはなかなか難しいものだ。その特徴は、アウトプットの量、一見無関係に見えるもの同士のつながりを識別すること(遠隔連想)、問題に対する非定型的な解決策を提供することなどだ。
創造性は、単に個人の中にあるのではなく、社会的なネットワークや価値観も重要だ。文化的多様性の存在感が増すと、アイデアや製品、プロセスの引き出しが増える。
文化的な経験は、創造性のための資源だ。多様なアイデアに接すれば接するほど、より斬新なつながりが生まれる。多文化体験は創造性と正の相関があることが研究で示唆されている。文化間の距離が遠いほど、私たちはより創造的な製品を観察することが出来るのだ。
創造性は収束をもたらすこともある。異なる個人が互いに独立して同じようなアイデアを生み出すことがあり、これは科学的共同発見と呼ばれるプロセスである。微積分の発明や自然淘汰の理論は、この最も顕著な例である。
人工知能は、学習、パターン識別、意思決定ルールの使用などの能力によって定義される。
言語や芸術の産物がパターンだとすれば、AIは — 特にChatGPTやDALL-Eのような — 異なるアーティストの発散したパターンを同化し組み合わせることで創造性を発揮することができるはずだ。MicrosoftのBingチャットボットは、それをコアバリューの1つとして主張している。
AIには人が必要
このようなプログラムには根本的な問題がある。アートはもはやデータなのだ。分析・合成のプロセスを通じてこれらの製品をすくい上げることで、人間のクリエイターの貢献や文化的伝統を無視することが出来るのだ。また、引用やクレジット表記をしなければ、何世代にもわたって蓄積された芸術作品を流用するハイテク盗作とみなされかねない。文化的流用に対する懸念は、AIにも適用されなければならない。
AIはいつか予測不可能な進化を遂げるかも知れないが、今のところ、データ、設計、運用を人間に依存しており、社会的・倫理的な課題も抱えているのが現状だ。
そして品質管理には、やはり人間が必要だ。これらの作業は、AIという不可解なブラックボックスの中に存在することが多く、労働力の安い市場にアウトソーシングされることも多い。
最近話題になったCNETの「AIジャーナリスト」の話も、熟練した人間の介入が必要であることを示す例だ。
CNETは2020年11月、AIボットを使って記事を書くことを目立たないように始めた。他のニュースサイトから重大なミスが指摘された後、同サイトは結局、AIが書いたコンテンツの長文の訂正を公開し、ツールの完全監査を行った。
現時点では、AI製品が創造的かどうか、首尾一貫しているかどうか、意味があるかどうかを判断するためのルールはない。これらは、人が判断しなければならないことだ。
産業界がAIを導入すると、人間が担ってきた古い役割が失われることになる。調査によると、こうした損失は、すでに脆弱な立場にある人々によって最も大きく感じられることになる。このパターンは、社会的・倫理的な意味を理解する前に、あるいは気にする前に、テクノロジーを導入してしまうという一般的な傾向に従っている。
産業界では、離職した労働者がどのように再教育を受けるかを検討することはほとんどなく、こうした混乱に対処するのは、その個人とその地域社会だ。
システム的な問題は、AIにとどまらない
DALL-Eは、人物や異国の世界、幻想的なイメージを自動生成する機能を備えているため、芸術的誠実さを脅かすものとして描かれている。また、ChatGPTがエッセイを殺してしまったと主張する人もいる。
AIを新たな問題の原因とみなすのではなく、AI倫理を旧来の問題に注意を向けるものとして理解した方がよいかも知れない。学業不正は、仲間の影響力、コンセンサスの認識、罰則の認識など、根本的な問題によって引き起こされる一般的な問題である。
ChatGPTやDALL-Eのようなプログラムは、このような行動を助長するだけだ。機関はこれらの脆弱性を認識し、これらの問題に対処するための新しいポリシー、手順、倫理規範を開発する必要がある。
また、疑わしい研究慣行も珍しくはない。AIが執筆した研究論文に対する懸念は、生物医学分野のゴーストオーサーやギフトオーサーといった不適切なオーサーシップの延長線上にあるものである。これらは、学問の慣習、時代遅れの学問的報酬制度、個人の誠実さの欠如に依存している。
出版社は、AIによるオーサーシップの問題に取り組む一方で、学術論文の大量生産がなぜ奨励され続けているのかといった、より深い問題に向き合わなければならない。
新たな問題に対する新たな解決策
教育機関に責任を転嫁する前に、これらの課題に対応するための十分なリソースを教育機関に提供しているかどうかを検討する必要がある。教師はすでに燃え尽き、査読システムも過大な負担を強いられている。
一つの解決策は、盗作検出ツールを使ってAIとAIで戦うことだ。他にも、芸術作品をそのクリエイターに帰属させるためのツールや、書かれた論文にAIが使用されていることを検出するためのツールを開発することが出来る。
AIの解決策は単純とは言い難いが、簡単に言えば、「障害はAIにあるのではなく、我々自身にある」ということである。ニーチェの言葉を借りれば、AIの深淵を見つめるならば、それはあなたを見つめ返すだろう。
コメントを残す