AIはどこにでもあるように見えるが、まだまだ出来ない事も沢山ある。今のところは

masapoco
投稿日 2023年1月9日 13:49
deepmind ai image

人工知能(AI)が、これまでSFの世界にしか存在しなかったような能力を発揮し、人々に感動を与えるまで、それほど長い時間を必要としない時代となった。

2022年、OpenAIDALL-E 2GoogleImagenStable DiffusionなどのAIアート生成ツールがインターネットを席巻し、ユーザーはテキストの説明から高品質の画像を生成するようになった。

これまでの開発とは異なり、これらのテキストから画像への変換ツールは、研究室からメインストリーム文化への道をすぐに見つけ、ユーザーの様式化された画像を作成するAIアプリLensaの「魔法のアバター」機能などのバイラル現象につながった。

12月には、ChatGPTと呼ばれるチャットボットがその文章能力でユーザーを驚かせ、この技術が近いうちに専門試験をパスできるようになるだろうという予測につながった。ChatGPTは1週間足らずで100万人のユーザーを獲得したと伝えられている。生徒がこれを使って小論文を書くことを恐れて、すでに禁止している学校関係者もいるMicrosoftは、今年中にもChatGPTを同社のウェブ検索「Bing」「Office」製品に組み込む予定と伝えられている。

AIの容赦ない進歩は、近未来に何をもたらすのだろうか。そして、AIは次の年に特定の仕事を脅かす可能性があるのだろうか?

最近のAIの目覚ましい成果にもかかわらず、私たちはAIシステムができることにはまだ大きな限界があることを認識する必要がある。

AIが得意とするパターン認識

最近のAIの進歩は、膨大な量のデータから複雑なパターンと関係を識別する機械学習アルゴリズムに大きく依存している。この学習は、予測やデータ生成などのタスクに使用される。

現在のAI技術の開発は、たとえ新しいアウトプットを生成することが目的であっても、予測力を最適化することに依存している。

例えば、ChatGPTの言語モデルであるGPT-3は、あるテキストの後に何が続くかを予測するように訓練されている。GPT-3は、この予測能力を利用して、ユーザが入力したテキストを継続することができる。

ChatGPTやDALL-E 2のような“ジェネレーティブAI”は、AIが純粋に創造的であり、人間に匹敵するかどうかについて多くの議論を呼び起こした。しかし、人間の創造性は、過去のデータだけでなく、実験や人間のあらゆる経験によって引き出されるものだ。

原因と結果

多くの重要な問題では、複雑で不確実、かつ絶えず変化する環境において、我々の行動が及ぼす影響を予測する必要がある。そうすることで、目標を達成するために最も可能性の高い一連の行動を選択することができる。

しかし、アルゴリズムはデータだけでは原因と結果を知ることができない。純粋なデータ駆動型の機械学習では、相関関係を見つけることしかできない。

このことがなぜAIにとって問題なのかを理解するために、病状の診断と治療法の選択の問題を対比してみよう。

機械学習モデルは、医療画像から異常を発見するのに役立つことが多いのだが、これはパターン認識の問題であり、異常があるかないかということなので、因果関係を気にする必要はない。

しかし、診断に対して最適な治療法を選択することは、根本的に異なる問題だ。ここでは、単にパターンを認識するだけでなく、結果に影響を与えることが目的である。治療法の有効性を判断するために、医学研究者は無作為化比較試験を実施する。そうすることで、治療に影響を与える可能性のあるあらゆる要因をコントロールしようとすることができるのだ。

この2つのタイプの問題を混同してしまうと、組織における機械学習の応用が最適化されないことがある。

最近のAI研究の成功は、データ駆動型モデルの価値を実証しているが、コンピュータに解決させたい問題の多くは、因果関係を理解する必要がある。

常識的推論

GPT-3やChatGPTのような言語モデルは、常識的な推論を必要とするいくつかのタスクをうまく解決することができる。

しかし、Gary Marcus氏の実験から引用したChatGPTとの次のようなやりとりは、この点で完全に信頼できるものではないことを示唆している。

Q:私は8歳です。私が生まれたとき、実の母親はバルセロナに、父親は東京にいました。私はどこで生まれたのでしょうか?一歩一歩考えてみてください。

A:あなたがどこで生まれたかは書かれていません。分かっているのは、あなたが生まれた時、実の母親がバルセロナに、父親が東京にいたということだけです。

ChatGPTのようなAIシステムが常識を実現できるかどうかは、専門家の間でも活発に議論されている。

Marcus氏のような懐疑論者は、言語モデルには常識が組み込まれておらず、また常識のために直接最適化されてもいないため、言語モデルが確実に常識を示すことは信頼できないと指摘する。楽観論者は、現在のシステムは不完全であるが、十分に進化した言語モデルでは常識が自然に生まれる可能性があると主張する。

人間の価値観

画期的なAIシステムが発表されるたびに、人種差別、性差別、その他の偏った有害な行動を記録したニュース記事やソーシャルメディアへの投稿が後を絶たない。

この欠陥は、現在のAIシステムに内在するものであり、データを反映したものになるに違いない。真実や公正といった人間の価値観は、根本的にアルゴリズムに組み込まれていない・・・・・・それは、研究者がまだやり方を知らないことなのだ。

研究者は過去のエピソードから教訓を学び、偏りへの対処を進めているが、AIシステムを人間の価値観や嗜好にしっかりと合わせるには、AIの分野ではまだ長い道のりが必要だ。

本記事はThe Conversationに掲載された記事「AI might be seemingly everywhere, but there are still plenty of things it can’t do – for now」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

著者紹介
image 20221205 12 bfz8n9

Marcel Scharth

Lecturer in Business Analytics, University of Sydney



この記事が面白かったら是非シェアをお願いします!


  • obs studio
    次の記事

    OBS Studio 29.0が正式リリース – AMD Radeon RX 7000 & Intel Arc AV1 GPUエンコーディングに対応

    2023年1月9日 16:31
  • 前の記事

    古代ローマのコンクリートが2000年以上も長持ちしている理由がついに明らかに – 現代建築の耐久性アップに繋がる可能性

    2023年1月9日 13:25
    rome Colosseo

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事