Googleは、東京で開催された「Gemma Developer Day」にて、日本語版「Gemma 2 2B」を公開した。
「Gemma 2 2B」は、「Gemma 2」と比較して、優れた文章力や指示内容を的確に理解し反映する能力など、全体的な品質が向上。
同モデルと併せて、トレーニングガイドも公開し、世界中の開発者がGemmaを多言語に適応させるための実践的な例として支援をしていくとしている。
日本語版Gemma 2 2Bは、同社評価において、GPT-3.5を上回るパフォーマンスを発揮し、モバイル端末での高速でスムーズな処理能力や日英両言語における高い品質を維持しているという。
この結果は、モデルのサイズを考慮すると、Gemmaモデルが英語以外の言語でも高い性能を発揮できる可能性を示しているとのことだ。
ほかにも同社は、AIリサーチへの支援としてTPU Research CloudプログラムやGoogle Cloudクレジットなどのプログラムを通じて、研究者にコンピューティングリソースを提供。
東京科学大学 情報理工学院 情報工学系の岡崎直観教授らの研究チームと協力し、日本におけるオープンモデルの開発支援、および新しい技術開拓への取り組みも進めていくとしている。
また、言語に関係なくすべての開発者がGemmaにアクセスし、AIによる革新的なサービスを享受できるようにすることを目指し、Kaggleコンペティションを開催しているという。開発者コミュニティとの密な連携を継続し、日本のAIの未来を形作っていきたいと考えているとのことだ。