INDEX
中国DeepSeekに対抗、プライバシー重視のモバイルアプリ「Le Chat」を投入
中国DeepSeekのオープンソースR1モデルが市場を揺るがすなか、オープンソース分野をけん引してきたフランスMistralが対抗施策を続々発表している。
その1つが、iOSとAndroid向けの「Le Chat」アプリだ。DeepSeekの弱点となるセキュリティ面の懸念払拭を最大の強みとしつつ、機能面でも優位性を持たせている。たとえば、DeepSeekが中国のサイバーセキュリティ法や個人情報保護法(PIPL)の規制下にある一方、フランス拠点のMistralが提供するLe Chatは、EUの一般データ保護規則(GDPR)準拠が前提となる。また、プライベートインフラストラクチャ、SaaS、仮想プライベートクラウド(VPC)など、企業向けの柔軟な展開オプションを用意している点も、セキュリティ意識の高い企業へのアピールポイントだ。
機能面でも充実を図る。最新の低遅延AIモデルを搭載し、1秒あたり1,000ワードの高速レスポンスを実現。リアルタイムのウェブ検索や、ジャーナリスティックソースからの情報収集により、事実に基づいた回答を提供する。さらに、スクリプトの実行や科学的計算、データを可視化するコードインタープリター、PDF・表計算ソフト・低品質画像にも対応する光学文字認識(OCR)機能、Black Forest Labsの「Flux Ultra」を用いた写真のような画像生成機能なども実装している。
価格戦略も攻めの姿勢だ。OpenAIのChatGPT PlusとAnthropicのClaude Proの月額20ドルという価格設定に対し、Le ChatのProプランは月額14.99ドルと割安な料金を提示。最新モデル、ドキュメントアップロード、画像生成など、大半の機能は無料で利用可能だ。法人向けには、優先サポートや一括請求、統合クレジットを提供するTeamプラン、組織独自のカスタムAIモデルが利用できるEnterpriseプランも用意している。
DeepSeekのR1モデルは、OpenAIの「o」シリーズモデル(o1、o1-mini、o3-mini)と同等の性能を持ちながら、企業ユーザー向けの価格を数十分の一に抑えている。しかし、中国の規制環境に対する懸念から、欧米企業は慎重な姿勢を示す。イタリアは2025年1月末、DeepSeekの情報収集過程におけるデータ保護が不十分として、国内におけるアプリのダウンロードを完全に禁止した。またオーストラリアでも、政府関係者による利用が禁止されたほか、米国でも政府内での利用禁止の議論が噴出しているところだ。
プライバシーとセキュリティを確保できる小型モデル「Mistral Small 3」
企業がAIモデルの採用を検討する際、性能面はもちろんだが、プライバシーとセキュリティもそれ以上に重要な要素となる。この点で注目されるのが、自社サーバーでも運用できるオープンソース小型モデルだ。
Mistralは、DeepSeekがR1を発表した直後、効率性を重視した新たな小型言語モデル「Mistral Small 3」を公開した。
240億パラメータという小規模ながら、標準的なベンチマークで81%の精度を達成し、1秒あたり150トークンを処理できるスピードを強みとするモデルだ。同社の最高科学責任者(CSO)のギヨーム・ランプル氏はVentureBeatの独占取材で、700億パラメーターを下回るモデルの中では最高性能であり、メタのLlama 3.3 70B(700億パラメータ)と同等の性能を持つと強調。またOpenAIのGPT-4o Miniと比較しても、処理速度は約30%高速という。
性能向上の鍵を握るのは、計算能力の増強ではなく、トレーニング手法の最適化にある。同社は強化学習や合成データといった一般的な手法を使用せず、「生の」アプローチを採用。これにより、後から発見が困難なバイアスの混入を防ぐ効果が期待できるという。トレーニングに使用したトークン数も8兆と、同等クラスのモデルの半分程度に抑えることに成功している。
Mistral Small 3は、Apache 2.0ライセンスの下で公開され、企業は自由にカスタマイズして利用することが可能だ。特に金融サービス、医療、製造業など、プライバシーと信頼性を重視する企業での活用が想定される。単一のGPUで実行可能で、一般的なビジネスユースケースの80〜90%に対応できるとされる。
現在、マイクロソフトなどからの出資を受け評価額60億ドルに達したMistralは、新規株式公開(IPO)の準備を進行中との報道もある。今後数週間のうちに、推論能力を強化したモデルの追加リリースも予定しており、DeepSeekに対抗する姿勢を鮮明化している。
開発者向けコーディングモデル「Codestral 25.01」、ベンチマークで上位に急浮上
DeepSeek R1モデルの強みの1つは、コーディング能力だ。コーディングは企業が高いROIを見込める分野として注目する分野となっており、OpenAIやAnthropicなどもモデルのコーディング能力強化に注力している。
Mistralも例外ではない。同社は2025年1月に発表したコーディング特化型モデル「Codestral」の最新版となる「Codestral 25.01」で、コーディング分野における存在感を示す構えだ。
同社によると、新バージョンでは、アーキテクチャの効率化により処理速度が従来の2倍に向上。低遅延・高頻度のアクションに最適化され、コード修正、テスト生成、コードの中間部分の補完といったタスクに対応できるという。Mistralのパートナー企業が提供するIDEプラグインを通じて同モデルを利用することが可能となっている。また、コードアシスタント「Continue」を介したローカル展開や、Mistralの「la Plateforme」、グーグルの「Vertex AI」を通じたAPI利用にも対応。マイクロソフトの「Azure AI Foundry」ではプレビュー版を提供しており、アマゾンの「Bedrock」にも近日中に登場予定という。
性能面では、Pythonのコーディングテストで高いスコアを記録。人間のプログラマーの評価基準である「HumanEval」テストでは86.6%を達成し、旧バージョンのCodestral、Codellama 70B Instruct、DeepSeek Coder 33B Instructを上回る結果を示した。
Codestral 25.01は、発表からわずか数時間でCopilot Arenaのリーダーボードで上位に浮上するなど、開発者から高い関心を集めている。
コード生成は、OpenAIのGPT-4やAnthropicのClaudeなど、汎用モデルの初期から実装されてきた機能だ。しかし過去1年間で、コーディング特化型モデルは大幅に性能を高めており、特化型モデルに対する需要もそれに応じて拡大している。
コーディングにおいて、汎用モデルと特化型モデルのどちらが優れているかは、いまだ結論が出ていない。ただし、DeepSeek R1やOpenAIのo3-miniなどいわゆる推論モデルがリーダーボー上位を占めるようになっているのは事実であり、今後は推論モデルがどこまでコーディング能力を伸ばせるのかが注目されることになるはずだ。
文:細谷元(Livit)