あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

ChatGPTの登場により、AIチャットボットが近いうちに従来の検索エンジンに取って代わるのではないかとの憶測が広がっている。しかし、Googleの幹部は、チャットボットの偏りや毒性、単に情報をでっち上げる傾向などの問題があり、ユーザーの前に出すにはまだ技術が未熟だと考えている。

CNBCの報道によると、AlphabetのCEOであるSundar Pichai氏とGoogleのAI責任者であるJeff Dean氏は、最近の全社会議でChatGPTの台頭について言及したとのことだ。ある社員は、GoogleのライバルであるMicrosoftと深いつながりのあるOpenAIが作ったこのボットの登場は、Googleにとって「機会を逸した」ことを意味するのか、と尋ねた。Pichai氏とDean氏はこれに対し、GoogleのAI言語モデルはOpenAIのものと同等の能力を備えているが、この技術がもたらす「風評リスク」のために「小さな新興企業よりも保守的に」動かなければならなかったと答えたという。

「私たちは、こうしたものを実際の製品や、これまで使ってきたようなカバーの下ではなく、言語モデルをもっと目立たせるようなものに、絶対に導入したいと考えています。しかし、これを正しく理解することは非常に重要です。」と、Dean氏は述べている。Pichai氏は、Googleが2023年にAI言語機能に関して“多くの”計画を立てており、「これは大胆かつ責任ある行動を取る必要がある分野なので、そのバランスを取らなければならない」と付け加えたとのことだ。

Googleは、OpenAIのChatGPTと同等の能力を持つ大規模言語モデル(LLM)を多数開発している。その中には、BERT、MUM、LaMDAなどがあり、これらはすべてGoogleの検索エンジンの改良に利用されてきた。しかし、こうした改良は微妙なもので、ユーザーのクエリを解析して、その意図をよりよく理解することに重点を置いている。Googleによると、MUMは、例えばユーザーが個人的な危機に直面していることを示唆する検索を理解し、こうした人々をヘルプラインやサマリタンズのようなグループの情報に誘導するのに役立つという。Googleは、AIチャットボット技術をユーザーに体験してもらうために、「AI Test Kitchen」のようなアプリも発表しているが、ユーザーとのインタラクションをさまざまな方法で制約している。

OpenAIも、これまでLLM技術の開発には比較的慎重だったが、ChatGPTの立ち上げで方針を転換し、アクセスを広く一般に開放した。その結果、OpenAI社にとって有益な宣伝と誇大広告の嵐となり、同社はシステムを無料で使用するために莫大な費用を負担している。

ChatGPTのようなLLMは、言語生成において驚くべき柔軟性を発揮するが、同時によく知られた問題も抱えている。学習データに見られる社会的偏見を増幅し、しばしば女性や有色人種を誹謗中傷すること、騙すのが簡単なこと(ユーザーは、ChatGPTの安全ガイドラインを回避できることに気づいたが、これは、単に悪いAIであると想像するように依頼することによって、危険な情報の提供を阻止することになっている)、おそらくGoogleにとって最も適切であろう、クエリに対する応答で誤った、誤解を招く情報を定期的に提供してしまうことだ。ユーザーは、ChatGPTが歴史や伝記のデータをでっち上げることから、幅広い問題について「嘘」をつくことを発見している。

Googleの全社会議で、Dean氏はこうした多くの課題を認めた。彼は、「検索のようなアプリケーションでは、事実性の問題が本当に重要で、他のアプリケーションでは、偏りや毒性、安全性の問題も最重要であることが想像できる “と述べました。彼は、AIチャットボットは “作り話ができる[…]何かについて本当に自信がなければ、象は最も大きな卵を産む動物であるとか、そういうことを言うだけだ」と言った。

もちろん、これらの問題を軽減する方法はあるし、ライバルのハイテク企業は、AIを搭載した検索エンジンを立ち上げることが、たとえ危険なものであっても、Googleに対抗するためにそれだけの価値があるかどうかを計算しているに違いない。何しろ、登場したばかりなら、「風評被害」はさほど問題にはならないのだ。

OpenAI側としては、期待値を下げようとしているようだ。「ChatGPTは非常に限定的なものですが、偉大であるという誤解を招くには十分なものです。今すぐ重要なことについて、これに頼るのは間違いです。これは進歩のプレビューであり、堅牢性と真実性についてやるべきことはたくさんあります。」と、CEOのSam Altman氏が最近ツイートしている。


Source

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

おすすめ記事

コメントする