日本、独自の大規模言語モデル開発に「富岳」を活用、来年オープンソースでリリースへ

masapoco
投稿日 2023年9月16日 6:11
super computer fugaku

日本政府とNEC、富士通、SoftBankといった大手テクノロジー企業は、“日本語に基づく”大規模言語モデルの開発に「数億ドル」を投資している。

彼らが開発しているこの新たな日本語モデルは、ChatGPTなどよりも文化的・言語的な微妙さを表現できるとされている。トレーニングは、日本が誇るスーパーコンピュータ「富嶽」を使って日本語のテキストで学習される予定だ。

英語と日本語、文字数の圧倒的な差

東北大学で自然言語処理を研究している坂口慶祐氏は、アルファベット体系の違いや欧米のシステムの学習データが限られていることが、日本のユーザーにとって不利だと考えている。

例えば、ChatGPTは「ほとんどの人が見たことのないような極めて珍しい文字」や「珍しい未知の単語」を生成することがあると坂口氏は言う。同様に、ChatGPTは日本語で応答を生成する際に、文化的に適切で丁寧なコミュニケーション規範を適用できないことが多い。

英語のアルファベットには26の文字があるが、日本語には少なくとも2グループの48の文字があり、さらによく使われる漢字(2,136字)がある。さらに、それぞれの文字には異なる発音があり、めったに使われない漢字も約5万字ある。

日本独自のLLMベンチマーク

LLMの日本文化に対する感受性を測定するため、研究者らはGPT-4で作成された質問を使って、LLMが日本特有の質問にどれだけ答えられるかを測定する「Rakuda Ranking」を開発した。現在、最も優秀な日本のオープンLLMは、このランキングで4位にランクされている。このランキングのトップはGPT-3.5であり、GPT-4はそれらをも大きく上回っている。

東京工業大学、東北大学、富士通、政府出資の理化学研究所によって開発されている日本語LLMは、来年オープンソースとして公開され、少なくとも300億のパラメータを持つ予定だ。

日本の文部科学省は、さらに大規模なモデルを構築している。少なくとも1,000億のパラメータを持つこのモデルもまた、日本語をベースとし、科学的応用のために最適化される予定だ:発表された研究に基づき、研究を加速させるための新たな仮説を生成する。このモデルの開発費は約2億ドルで、2031年に一般公開される予定である。


Sources



この記事が面白かったら是非シェアをお願いします!


  • usb c lightning
    次の記事

    ついにiPhoneがUSB-Cに対応するが、なぜAppleはLightningにこだわり続けたのか?

    2023年9月16日 6:33
  • 前の記事

    A17 ProのGPUスコアが判明!A16 Bionic比で20%の性能向上を記録

    2023年9月16日 5:55
    06445a9eeeb2cffcbcb358f784849b51

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事