Amazonが現在、OpenAIのChatGPTやGoogleのBardに対抗するため、コードネーム「Olympus」と呼ばれる独自のモデルを訓練するために巨額の投資を行い、独自の製品を開発しようとしている事が、Reutersが得た内部情報筋からの話として浮上している。
この極秘プロジェクトの学習データは膨大なもので、与えられたモデルの出力を決定する変数であるパラメータ数がなんと2兆個であり、現在開発中のものとしては最大級のものになるとのことだ。比較としてReutersは、OpenAIのGPT-4が1兆個のパラメータを持つと述べているが、OpenAIはこれを明らかにはしていない。
ただし、パラメータ数が多いモデルが必ずしも優れているとは言えないため、これは1つの尺度として見るべきだろう。
AmazonがこのOlympusモデルをいつ発表するのか、一般に発売するのかはまだ不明だ。
しかし、Eコマースの巨人が持つ膨大なリソースとウェブホスティング分野での優位性を考えると、Amazonは急速に進化するAI業界で次に注目すべき企業である。同社は今年初め、AIスタートアップのAnthropicに40億ドルを投資したと発表し、AI分野で徐々にその存在感を大きな物としている。
Source
コメントを残す