富士通は世界的なGPU不足に対応するため、高い実行効率が見込める処理に対してリアルタイムにGPUを割り振る独自のアダプティブGPUアロケーター技術と、各種AI処理の最適化技術を統合したミドルウェア技術「AI computing broker(ACB技術)」を開発したと発表した。
発表されたACB技術は、オンプレミスだけでなくクラウドで提供されているGPU環境においても利用可能であり、単一のGPUを用いるAIアプリから複数のGPUを用いる大規模言語モデルまで幅広く活用が可能としている。
単一のGPUによる先行トライアルの技術検証結果を踏まえた上で、2024年10月よりトレーダムがACB技術を採用し、またさくらインターネットは、富士通と共同で複数のGPU上でACB技術の実証実験を開始する。
また、富士通は上記2社に加え、AWL、エクストリーム-D、モルゲンロットと、単一GPUによるACB技術の先行トライアルを2024年5月より順次行い、各社それぞれのクラウド環境やサーバー上での動作と、各AI処理に対する演算処理効率の最大で2.25倍の向上、同時に取り扱えるAI処理数の大幅な増加などの有効性を確認したとしている。
生成AI市場の世界需要額は2030年までに約20倍に成長へ
生成AIをはじめとする世界的なAI需要の爆発的な高まりを受け、AI処理に最適とされるGPUの需要も急激に増加している。生成AI市場の世界需要額は2023年から2030年にかけて約20倍の成長が見込まれており、それに比例しGPUの需要も同様の規模で急激に増大することが予想されている。
一方で、GPUの需要に応じたデータセンターにおける消費電力の増加が課題となっており、2030年には全世界の発電量の10%がデータセンターによって消費されると推定。これを受けて富士通は、GPUに関わる世界的な社会課題に対応するため、GPUでプログラムを実行中でも、高い実行効率が見込める処理に対してリアルタイムかつ優先的にGPUを割り振り、CPUとGPUの計算リソースを最大活用できるアダプティブGPUアロケーター技術を2023年11月に開発。様々なプラットフォーム上での効果検証を進めてきた。
「AI computing broker」について
富士通が開発した「AI computing broker」は、アダプティブGPUアロケーター技術と各種AI処理の最適化技術を統合したミドルウェア技術であり、複数のプログラム中のGPUを必要とするAI処理部を見極め、計算資源の割当や最適化を自動的に適用する。
従来技術のジョブ単位での割当とは異なり、富士通が培ってきた演算最適化技術により動的にGPU資源をGPU計算単位で割り当てて稼働率を向上させるほか、本技術のGPUメモリの管理機能により、ユーザーはプログラムが使用するGPUメモリ量や、GPUの物理的なメモリ容量を気にする事無く、多数のAI処理を割り付ける事が可能になる。
単一GPUを用いたACB技術の先行トライアルでは、ACB技術非適用の場合と比較して、顧客環境におけるGPUの単位時間当たりの処理性能について最大で2.25倍の向上を確認。また本技術にはアプリ動作を見ながらGPUのメモリを共有するメモリ管理機能が備わっており、ユーザーは各ジョブの総メモリ使用量が物理メモリの最大容量に収まるかどうかを気にせずに処理を実行することができる。これにより最大でGPUの物理メモリ容量の約5倍に当たる、150GBものメモリを必要とするAI処理を同時に取り扱えることを確認した。
各社コメント
トレーダム株式会社 執行役員 チーフデータサイエンスオフィサー 栢本淳一 氏
当社は、高度なAIを活用した為替リスクをコントロールするソリューションを提供しています。今回のAI computing brokerのトライアルを通じ、AIモデルを生成するうえで必要なGPU計算資源を手軽に効率化でき、AI学習処理を多重化することでより精度の高いモデルを短期間で開発できる可能性を確認いたしました。今後、富士通との連携を通じて、本技術を活用した自社ソリューション開発の強化を図り、企業の成長やフィンテック業界の発展に貢献してまいります。
さくらインターネット株式会社 / さくらインターネット研究所 所長 鷲北賢 氏
今回AI computing brokerのトライアル利用を通じ、当社のクラウド事業においてGPUの計算資源をより効率的にお客様に提供でき、活用が広がっているGPUをより多くのお客様にお使い頂ける可能性を確信しました。今回の実証実験を通じて、昨今の急速な GPU の需要拡大への対応に役立てていきたいと考えています。
AWL株式会社 R&D ディビジョン長 藤村浩司 氏
当社は、リテール店舗を中核に、あらゆるリアル空間の課題解決と価値向上を目指し、AIカメラソリューションの開発・提供を行っています。多くのお客様からのリクエストに応じて、複数のAIモデルのトレーニングを並列実行する際には、GPU運用コストの最適化が不可欠です。今回のトライアルを通じて、AI computing brokerがGPU利用率を向上させ、AI処理の効率化を実現できる技術であることを確認しました。本技術のさらなる発展を期待しております。
エクストリーム-D株式会社 代表取締役CEO 柴田 直樹 氏
この度は、AI computing brokerの発表おめでとうございます。 当社は、AIおよびHPC顧客にクラウド的サービス「Raplase」を提供しております。当社の顧客の大きな課題としてオンプレミスとベアメタルクラウドでの高価なGPUの利用効率化によるコストパフォーマンス最大化があります。富士通のAI computing brokerは課題解決の一助になると考えており、今後も富士通様と検証を継続し、当社のお客様への適用を検討して参ります。
モルゲンロット株式会社 取締役COO 中村昌道 氏 / 執行役員CTO 伊藤寿 氏
当社は、コンテナデータセンターを活用した分散型のクラウドコンピューティングパワー(計算力)を提供し、様々なGPUを含む高度な計算資源の需要拡大に対応した計算力のシェアリングエコノミーモデルの確立に取り組んでいます。
今回は当社のプロダクトであるHPC管理ソリューション(M:Arthur)やクラウドサービス(Cloud Bouquet)において、AI computing brokerによるGPUの更なる効率的な利用の実現に向けて技術トライアルを実施し、複数のジョブを2台のGPUを用いて連続で実行した場合と比較して、ACB技術の使用によりジョブ間でGPUを共有したことで全体の実行時間を10%近く短縮することに成功しました。複数ジョブを並行して実行できるため、例えば限られたリソースの中で、モデル構築のための長時間学習と、実行テストのための短時間の学習や推論を同時に実行できる点も大きなメリットです。
今後は、当社のプロダクトとACB技術との連携について協議していきたいと考えています。
今後について
今後は、さらに大規模な計算機環境での利用を想定し、複数台のサーバーに搭載された複数のGPUに対しACB技術を適用させるなど、技術の適用範囲を拡張させていくとのことだ。
アクセンチュアとNVIDIAが生成AIの普及で連携強化を発表 「AI Refinery」でカスタムAIエージェント構築、産業用AI、ソブリンAIの提案を推進
NVIDIAのフルスタックAIプラットフォームがGPT-3 175Bベースのベンチマークで昨年比3倍以上向上
生成AIやLLM、人型ロボットなど大規模演算に期待される「NVIDIA Blackwell」 従来比較で最小1/25のコストとエネルギー使用量
生成AIの推論処理に特化した半導体開発のスタートアップ 韓国「Rebellions」にDG Daiwa Venturesが出資
この記事を読んだ人におすすめ
- スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 研究および商業目的での利用が可能
- 日本政府 AIインフラを1,146億円の助成で支援 NVIDIAが国内企業数社と協業、生成AIのインフラ構築「ソブリンAI」強化へ
- 生成AIやLLM、人型ロボットなど大規模演算に期待される「NVIDIA Blackwell」 従来比較で最小1/25のコストとエネルギー使用量
- アクセンチュアがNVIDIA AI Foundryを活用したカスタムLlama LLMを世界に先駆け開発 ビジネスに合わせた大規模言語モデル作成
- 菱洋エレクトロ「NVIDIA DGX」システムの取り扱いを拡大 次世代のGPUシステムを設計から設置までワンストップで提供
- NTT【世界初】AIモデルの再学習に有効な「学習転移」を発表 「tsuzumi」など大規模基盤モデルの更新時に過去の学習過程を再利用
- NTT【世界初】連合学習においてAIモデルに異常や悪意がある場合でも高精度に学習できるモメンタムスクリーニング技術手法を発表
- オルツとStability AIが連携を発表 共同で音声・画像・映像分野で生成AIの新たなユースケースの創出を目指す
- NVIDIA 創業者/CEOのジェンスン フアン氏のCOMPUTEXに先立つ基調講演を6月2日に配信 AI エコシステムの未来について語る
- 生成AIの誤出力の発生を発見可能に オルツがLLMハルシネーションの自動評価エンジンを開発