LINE×NEVER、日本語に特化した超巨大言語モデルを開発 対話や翻訳など日本語AIの生成を可能に

LINE

LINEは、NAVERと共同で、世界でも初めての、日本語に特化した超巨大言語モデル開発と、その処理に必要なインフラ構築についての取り組みを発表した。

超巨大言語モデル(膨大なデータから生成された汎用言語モデル)は、AIによる、より自然な言語処理・言語表現を可能にするもの。日本語に特化した超巨大言語モデル開発は、世界でも初めての試みとなるとのことだ。

従来の言語モデルは、各ユースケース(Q&A、対話、等)に対して、自然言語処理エンジニアが個別に学習する必要があったという(特化型言語モデル)。

一方、汎用言語モデルとは、OpenAIが開発した「GPT(※1)」や、Google の「T5(※2)」に代表される言語モデル。

新聞記事や百科事典、小説、コーディングなどといった膨大な言語データを学習させた言語モデルを構築し、その上でコンテキスト設定を行うためのFew-Shot learningを実行するだけで、さまざまな言語処理(対話、翻訳、入力補完、文書生成、プログラミングコード等)を行うことが可能となり、個々のユースケースを簡単に実現できることが期待されるとのことだ。

今回、日本語に特化した汎用言語モデルを開発するにあたり、1750億以上のパラメーターと、100億ページ以上の日本語データを学習データとして利用予定。

これは現在世界に存在する日本語をベースにした言語モデルのパラメーター量と学習量を大きく超えるものとなり、パラメーター量と学習量については、今後も拡大していくとしている。

なお、同取り組みにより、日本語におけるAIの水準が格段に向上し、日本語AIの可能性が大きく広がることが予想されるという。

現在、超巨大言語モデルは世界でも英語のみが存在・商用化しており、他言語の開発についても、ごく少数の取り組みが発表されているのみであるとのことだ。その理由の一つとして、高度なインフラ環境の必要性があげられている。

超巨大言語モデルの処理には数百ギガバイトものメモリーが必要と考えられており、世界でも指折りの性能を持つスーパーコンピュータなど、高度なインフラ環境が必要となるとのことだ。

今回LINEは、NAVERと共同で、同モデルを迅速かつ安全に処理できる700ペタフロップス以上の性能を備えた世界でも有数のスーパーコンピュータを活用し、超巨大言語モデルの土台となるインフラの整備を年内に実現予定と発表した。

同社らはこれにより、英語にて実現している精度に匹敵する、またはそれ以上の、日本語の超巨大言語モデルを創出するという。

開発された超巨大言語モデルは、新しい対話AIの開発や検索サービスの品質向上など、AIテクノロジーブランド「LINE CLOVA」をはじめとするLINE社のサービスへの活用のほか、第三者との共同開発やAPIの外部提供についても検討予定としている。

(※1)OpenAI「GPT(Generative Pre-trained Transformer)」
米国の技術開発会社OpenAIが2019年2月に発表した、文章生成に強い能力を持つ汎用型言語モデルに関する論文。
2019年11月には15億のパラメーターをもつ汎用型言語モデル「GPT-2」をリリースし、2020年5月に1750億のパラメータを持つ「GPT-3」の構想が発表され、 翌月にベータ版を公開、8月に商用化された。
「GPT-3」は「GPT-2」と比較して圧倒的なデータ量を持つことにより、長文の文章生成能力が飛躍的に向上(キーワードからメール文生成や、話し言葉の質問から流暢な回答文を生成する、など)し、世界的に注目を浴びている。

(※2)Google 「T5(Text-to-Text Transfer Transformer)」
GPTと同じくトランスフォーマーと呼ばれる自然言語処理技術を用いるが、文章生成よりも翻訳、質疑応答、分類、要約などの文書変換処理を目的とした構成を採用。
入力(タスク)と出力(回答)の両方をテキストのフォーマットに統一して、転移学習を行うことで、全てのタスクを同じモデルで解く。学習データを変更することで、同じモデルでさまざまなタスクが解けるとされる。

モバイルバージョンを終了