あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

元GoogleのAI研究者が、AI研究を遅らせることが賢明である理由を語る

人工知能(AI)の開発にブレーキをかける時期が来ているのだろうか?そう静かに自問自答したことがある人は、あなただけではない。

この1週間、多くのAI業界の著名人がGPT-4より強力なモデルの開発を6ヶ月間休止することを求める公開書簡に署名し、ヨーロッパの研究者はAI規制の強化を求め、長年のAI研究者で評論家のEliezer YudkowskyはTIME誌面でAI開発の完全停止を要求している

一方、業界は減速する気配を見せない。3月には、MicrosoftのAI幹部が、GPT-4やその他の新モデルを「非常に速いスピードで」世に送り出すよう、最高経営責任者Satya Nadellaから「非常に、非常に高い」プレッシャーを受けていると語ったと報じられた

私は2020年までGoogleで働き、責任あるAI開発を学ぶために退職し、現在は人間とAIによるクリエイティブなコラボレーションを研究している。私は人工知能の可能性に興奮しているし、すでに新しい創造性の時代の到来を告げていると考えている。しかし、より強力なAIシステムの開発を一時的に休止することは良い考えだと思う。その理由を説明させて欲しい。

GPT-4とは何か、公開書簡は何を求めているのか

米国の非営利団体「Future of Life Institute」が発表した公開書簡は、AI開発者にストレートな要求をしている:

私たちは、すべてのAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止するよう要請する。

では、GPT-4とは何なのか。GPT-4は、前身のGPT-3.5(人気のチャットボットChatGPTを動かす)と同様、OpenAIが開発した「大規模言語モデル」と呼ばれるジェネレーティブAIソフトウェアの一種だ。

GPT-4は、より大規模で、より多くのデータでトレーニングされている。他の大規模言語モデルと同様に、GPT-4はプロンプトに応答して次の単語を推測することで動作するが、それにもかかわらず、非常に高い能力を有している。

テストでは、法律や医学の試験に合格し、多くの場合、プロよりも優れたソフトウェアを書くことが出来る。そして、その能力の全容はまだ解明されていない。

良いこと、悪いこと、そして単なる邪魔者

GPT-4やそのようなモデルは、社会のさまざまな階層に大きな影響を与える可能性がある。

良い面では、人間の創造性や科学的発見を高め、学習への障壁を下げ、個人向けの教育ツールに使用することが出来る。一方、個人向けのフィッシング攻撃や大規模な偽情報の作成、重要なインフラを制御するコンピューターシステムのネットワークセキュリティのハッキングに利用される可能性がある。

OpenAI独自の調査によると、GPT-4のようなモデルは、米国の労働力の約80%に影響を与える「汎用的な技術」であるとのことだ。

文明の層と変化のスピード

米国の作家Stewart Brandは、「健全な文明」には、異なるシステムや層が異なる速度で動くことが必要だと主張している:

速い層は革新し、遅い層は安定させる。全体が学習と継続を兼ね備えているのです。

file 20230403 24 i9tehp

ペースレイヤー」モデルによると、健全な文明の異なるレイヤーは、自然のゆっくりとした動きからファッションの急速なシフトまで、異なる速度で動いている (Credit: Stewart Brand / Journal of Design and Science)

テクノロジーは通常、ファッションと商業の間に位置し、最上位に位置する。規制、経済システム、セキュリティガードレール、倫理的枠組みなどの側面は、より緩やかなガバナンス、インフラ、文化の層に存在する。

今、テクノロジーは、私たちが理解し規制する能力をはるかに上回るスピードで加速している。そして、もし私たちが注意深くなければ、安全性を高めるには早すぎるスピードで、より低いレイヤーの変化をも促進するだろう。

米国の社会生物学者E.O. Wilsonは、変化のペースの違いによるミスマッチの危険性をこのように表現している:

人類の真の問題は、旧石器時代の感情、中世の制度、神のような技術を持っていることである。

現在の急速なペースを維持する正当な理由があるのだろうか?

トップクラスのAI研究所がスピードを落とせば、他の非同盟のプレイヤーや中国のような国に追い抜かれてしまうという意見もある。

しかし、複雑なAIシステムの育成は容易ではない。OpenAIは米国の競合他社(GoogleやMetaなど)の先を行き、中国などの開発者も遅れをとっている。

「不正な集団」や「政府」がGPT-4の能力を超えることは、当面ありえないだろう。AIの才能、知識、コンピューティングインフラのほとんどは、一握りのトップラボに集中しているからだ。

また、「Future of Life Institute」の書簡について、現在および将来のAI能力に関する過大な認識に依拠しているとする批判もある。

しかし、AIが一般的な超知能の状態に達するかどうかは別として、この技術が人間社会のさまざまな面に影響を与えることは否定出来ない。その変化のスピードに対応するために、時間をかけてシステムを調整することが賢明なように思う。

ゆっくりすることが賢明

具体的な内容については賛否両論あると思うが、「技術革新のスピードに主体性を持つ」という、未来生活研究所の書簡が指し示す方向性は賢明だと考える。

ソーシャルメディアがもたらす混乱を目の当たりにしても、シリコンバレーはいまだにフェイスブックの悪名高いモットーである「move fast and break things」に従う傾向があるようだ。

私は、これらの技術をどこに持っていきたいかをゆっくり考え、システムと自分自身を調整し、多様で思慮深い会話に参加させることが賢明な行動だと考えている。それは、立ち止まることではなく、持続可能な進歩のペースで進むことだ。このテクノロジーは、私たちがコントロールできない独自の生命を持っていると考えるのではなく、私たちが舵取りをすることを選択できるのだ。

考えた末に、私はこの公開書簡の署名者リストに名前を加えた。6ヶ月のモラトリアムですべてが解決するわけではないが、これは有益なことだ。無批判に加速し、利益を追求する進歩よりも、利益とリスクについて考えることを優先するという、正しい意図が示されている。


本記事は、Rodolfo Ocampo氏によって執筆され、The Conversationに掲載された記事「I used to work at Google and now I’m an AI researcher. Here’s why slowing down AI development is wise」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

スポンサーリンク

執筆者
Photo of author

The Conversation

The Conversationは、ニュース記事や調査報告書をオンラインで公開する非営利メディアのネットワークで、専門家の意見や分析が添えられている。記事はクリエイティブ・コモンズ・ライセンスのもと、学者や研究者によって書かれ、改変せずに再利用できるようになっている。画像の著作権条件は通常、画像のキャプションと帰属に記載されている。そのモデルは説明的ジャーナリズムと評されている。「例外的状況」を除き、「大学や公認研究機関など公認機関に雇われた、あるいは公認機関と正式につながっている学者」による記事のみを掲載する。

記事一覧を見る

コメントする

CAPTCHA