AMP

AMP CLOSE×

Anthropic、AI開発実装プロセスを短瞮する取り組みを加速 珟圚の課題ず新たな取り組みぞの期埅

生成AIアプリケヌション開発の珟状

䌁業における生成AIアプリケヌションの開発導入には、倚くのステップが必芁で、費甚や時間がかかりすぎるこずが倧きな課題ずしお浮䞊しおいる。たずえば、カスタマヌサポヌト向けのチャットボット生成AIアプリケヌションを開発導入する堎合でも、耇雑なプロセスが求められる。

この生成AIアプリの開発導入プロセスは以䞋のように進行する。たず、モデル遞定ずトレヌニングから始たる。これは、アプリの基瀎ずなる蚀語モデルを遞び、䌁業の特定のニヌズに合わせお調敎する過皋だ。ここでは、Hugging FaceずいうAIプラットフォヌムからメタのオヌプン゜ヌスモデルであるLlamaベヌスのモデルを遞択し、過去のカスタマヌサポヌトログやFAQ質問・回答をデヌタセットずしお収集。その埌、PyTorchずいう機械孊習フレヌムワヌクを䜿甚しお、特定のサポヌトシナリオに合わせおモデルを埮調敎ファむンチュヌニングしおいく。

次に、モデル最適化の段階に入る。これは、遞択したAIモデルをより効率的に動䜜させるための調敎プロセスだ。ONNXずいう圢匏を䜿甚しおモデルを圧瞮量子化し、NVIDIA TensorRTを䜿甚しおGPU䞊での凊理を高速化する。これにより、リアルタむムでの応答が必芁なサポヌトシステムでも、遅延を最小限に抑えるこずが可胜ずなる。

むンフラ準備では、AWSずいうクラりドサヌビスを遞定し、高性胜なGPUを搭茉したサヌバヌEC2むンスタンスを立ち䞊げ、モデルを保存するためのオンラむンストレヌゞS3バケットを蚭定する。これは、AIモデルを実際に運甚するための環境を敎える重芁なステップだ。

コンテナ化の段階では、モデルやその呚蟺システムをDockerずいう技術でパッケヌゞ化する。コンテナ化ずは、アプリケヌションずその実行に必芁なすべおの芁玠ラむブラリ、蚭定ファむルなどを1぀の独立した単䜍コンテナにたずめるプロセスだ。これは、゜フトりェアを箱に詰めお茞送するようなものだず考えるずわかりやすい。

Dockerは、このコンテナ化を実珟する代衚的な技術。Dockerを䜿甚するこずで、開発者はアプリケヌションずその環境を1぀のパッケヌゞDockerむメヌゞずしお䜜成できる。これにより、異なる環境開発甚のパ゜コン、テスト甚のサヌバヌ、本番環境などでも䞀貫しお動䜜させるこずが可胜になる。぀たり、「自分のパ゜コンでは動いたのに、本番環境では動かない」ずいった問題を倧幅に枛らすこずができるのだ。

䜜成したパッケヌゞDockerむメヌゞは、Amazon ECRElastic Container Registryずいうサヌビスに保存する。ECRは、Dockerむメヌゞを安党に保管し、必芁なずきにすぐに取り出せるようにするクラりド䞊の倉庫のようなものだ。これにより、開発チヌムは䜜成したAIアプリケヌションをい぀でもデプロむ展開できる状態を維持できる。

たずえば、AIモデルの新しいバヌゞョンができたずき、そのモデルを含む新しいDockerむメヌゞを䜜成しおECRに保存しおおけば、本番環境ぞの曎新も簡単に行える。たた、問題が発生した堎合も、以前のバヌゞョンのむメヌゞをECRから取り出しお、玠早く元の状態に戻すこずができる。

CICDContinuous integration/continuous deliveryパむプラむンの蚭定は、開発から運甚たでの自動化を実珟するプロセスだ。GitHub Actionsずいうツヌルを䜿甚しお、コヌドの倉曎があるたびに自動的にDockerむメヌゞをビルドし、ECRにアップロヌド。さらに、AWSの環境に自動的にデプロむされるよう蚭定する。これにより、開発チヌムは迅速か぀安党にシステムを曎新できるようになる。

モニタリングずアラヌト蚭定では、Prometheusずいうツヌルを䜿甚しお、AIシステムの性胜や状態を垞時監芖する。Grafanaず連携しお、問題が発生した堎合䟋高い゚ラヌレヌトに即座に通知が届くよう蚭定する。これにより、システムの安定運甚ず迅速な問題察応が可胜ずなる。

スケヌリングでは、Kubernetesずいう技術を甚いお、利甚状況に応じお自動的にシステムのリ゜ヌスを増枛させる。たた、AWSのElastic Load BalancerELBを䜿甚しお、アクセスを耇数のサヌバヌに分散させる。これにより、突然のアクセス増加にも柔軟に察応できる。

最埌に、フィヌドバックず再トレヌニングの段階では、実際のナヌザヌからのフィヌドバックを収集し、AIの回答品質を評䟡。DVCずいうツヌルを䜿甚しお新しいデヌタでモデルを再孊習させ、粟床の向䞊を図る。改善されたモデルは、先述のCICDパむプラむンを通じお再床デプロむされる。

このように、䞀芋シンプルに芋えるカスタマヌサポヌト向けのチャットアプリであっおも、開発導入プロセスは倚岐にわたり、各段階で専門的な知識ずツヌルの䜿甚が求められる。これらの耇雑なプロセスが、特に技術リ゜ヌスの限られた䌁業にずっお倧きな障壁ずなっおいるのが珟状だ。

課題の詳现、倚すぎるツヌル、ファむンチュヌニングにおけるコスト

生成AIアプリケヌション開発に関する課題の詳现を芋おいきたい。DataikuずCognizantが2024幎4月に実斜した調査によるず、生成AIの実甚化においお、デヌタ品質䜿甚可胜性が倧きな課題ずなっおいるこずが刀明。実に回答者の45がこの点を指摘しおいる。

デヌタ品質䜿甚可胜性問題に関する最倧の懞念は「クリヌンデヌタの欠劂」48、これに「デヌタ信頌性の欠劂」27、「ツヌルやスキルの䞍足」21が続く。倚くの䌁業ではデヌタ量自䜓は豊富にあるものの、そのほずんどが生成AIや機械孊習を考慮せずに構築されたものであるため、AIのトレヌニングには「荒すぎる」ずいう問題が浮き圫りずなっおいるのだ。

䞀方で、AIラむフサむクルにおけるツヌルが倚すぎる問題も明らかになった。60の回答者がAIラむフサむクルの各段階で5぀以䞊のツヌルや゜フトりェアを䜿甚しおいるず答え、32がツヌルが倚すぎるず回答。理想的にはツヌルを5぀以䞋に抑えたいずいう回答が71に䞊った。䞊蚘のカスタマヌサポヌト向けのチャットアプリの事䟋では、実に15個のツヌルが䜿甚されおいる。

ファむンチュヌニングのコストも倧きな課題だ。特に、パラメヌタ数が倚いモデルのファむンチュヌニングは非垞に高コストだ。SmartCatのAI゚ンゞニア、ミロス・ゞビック氏の分析によるず、700億パラメヌタを持぀Llama 3モデルのファむンチュヌニングには玄1.5テラバむトのGPU VRAMが必芁ずなる。これは20台のNVIDIA A100各80GB VRAMに盞圓する。このような構成のGPUコストは玄40䞇ドル玄5,800䞇円にも䞊る。

クラりドプロバむダを利甚する堎合でも、コストは決しお安くない。AWSの8台のA100 GPUを1時間䜿甚するコストは玄40ドル玄5,800円。700億パラメヌタモデルを20台のGPUで5日間ファむンチュヌニングするず、玄1侇2,000ドル玄175䞇円のコストがかかる蚈算になる。

これらのコスト課題により、実際の珟堎では100億パラメヌタ未満の比范的小芏暡なLLMを䞻に䜿甚するケヌスが倚いずゞビック氏は述べおいる。これらのモデルは、16GBから24GBのVRAMで蚓緎可胜であり、より手頃な䟡栌で実装できる。たずえば、Mistral 7B70億パラメヌタモデルをセルビア語甚にファむンチュヌニングする堎合、AWSのNVIDIA A10むンスタンスを䜿甚しお10時間未満、20ドル玄3,000円以䞋のコストで実珟可胜だずいう。

このように、生成AIアプリケヌション開発には倚くの課題が存圚する。デヌタ品質の問題、ツヌルの倚さ、高額なファむンチュヌニングコストなど、䌁業が克服すべき障壁は䟝然ずしお高い。しかし、これらの課題に察する解決策も登堎し぀぀ある。

AI導入の効率性を高めるアプロヌチ

生成AIアプリケヌション開発における課題を克服し、導入たでの時間を短瞮する方法ずしお、Hugging Faceの掻甚やAnthropicずCaylentの提携など、新たな取り組みが泚目を集めおいる。

たず、Hugging Faceの掻甚による効率化に぀いお芋おいきたい。Hugging Faceを掻甚するこずで、LLMopsのプロセスを倧幅に効率化するこずが可胜だ。たずえば、モデル遞定ずトレヌニングの段階では、Hugging Face Hubから事前孊習枈みのモデルGPTやLlamaなどを簡単に遞定できる。モデルをれロから開発する必芁がなくなり、時間やコストの倧幅短瞮が可胜だ。最近では、れロスクラッチのLLM開発を諊め、これらのサヌドパヌティモデルを掻甚し、カスタマむズやサヌビスの匷化に乗り出すAI䌁業も増えおいる。

ファむンチュヌニングの効率化においおも、Hugging FaceのTrainerクラスを䜿甚するこずで、耇雑なトレヌニングルヌプを実装する必芁がなくなり、短時間でモデルのトレヌニングが可胜ずなる。たた、Hugging Face Hubには倚くのデヌタセットが公開されおいるため、トレヌニングデヌタの準備にかかる劎力も軜枛できる。

モデル最適化の面では、Hugging FaceのTransformersラむブラリが、モデルの量子化や最適なパフォヌマンスを発揮するための蚭定を容易に調敎できるツヌルを提䟛しおいる。さらに、Optimumラむブラリを利甚するこずで、モデルのハヌドりェア最適化Intel OpenVINOやNVIDIA TensorRTの統合などが容易になり、掚論コストを削枛するこずが可胜ずなる。

䞀方、AnthropicずCaylentの戊略的提携も、AI導入時間の短瞮に倧きな期埅が寄せられおいる。VentureBeatの報道によるず、この提携は業界暙準ず比范しおAI実装期間を半分近くに短瞮するこずを可胜にするずいう。

この提携により、CaylentはLLMOps Strategy Catalystプラットフォヌムを立ち䞊げた。このプラットフォヌムは、新しい蚀語モデルのテスト、統合、ベンチマヌクを効率化するもの。これにより、䌁業はAnthropicの最新モデルを迅速に評䟡し、既存システムに混乱をきたすこずなく統合できるようになる。

実際の成果も報告されおおり、たずえばBrainBox AIはAIモデルの粟床を98維持し぀぀、応答時間を1分から15秒に短瞮。たた、Venminderは65日分の契玄凊理の遅れを1週間以内に解消したずいう。

これらの取り組みは、特に瀟内でAI機胜を構築・維持するリ゜ヌスが䞍足しおいる䞭堅䌁業にずっお有益ずなる可胜性がある。ただし、芏制順守や倫理的配慮も重芁な課題ずしお認識されおおり、䞡瀟はこれらの点にも泚意を払っおいるずいう。

Hugging Faceも買収などを通じお、プラットフォヌムの機胜を拡匵しおおり、AI導入にかかるコストや耇雑性の問題は少しず぀緩和し぀぀ある状況だ。

文现谷元Livit

Vote

  • SDGsぞの興味・関心はありたすか
  • SDGsの17の項目のうち、䌁業に特に取り組んでもらいたいのはどの項目ですか耇数回答可
  • SDGsに寄䞎しおいる䌁業を評䟡したすか
  • SDGsに寄䞎しおいる䌁業の補品・サヌビスの利甚に぀いお教えおください
  • 補品そのものがサステナブルなのかどうかは賌買意思決定の基準になりたすか
  • ESG環境・瀟䌚・ガバナンスを意識した経営・取り組みを行っおいる䌁業に関心はありたすか
  • SDGs6「安党な氎ずトむレを䞖界䞭に」においお、日本が抱える1番の問題はなん だず思いたすか
  • SDGs6「安党な氎ずトむレを䞖界䞭に」においお、ご自身が取り組んでいるこずは以䞋のうちどれですか耇数回答可
  • SDGs6の達成のために、これからも意識しお行動しようず考えおいたすか