分散型 AI 推論 — 次世代のコンピューティング

Vineeth Varughese

執筆者

Vineeth Varughese

February 13, 2025

Vineeth Varughese

執筆者

Vineeth Varughese

Vineeth Varughese is Cloud Product Marketing Lead in Asia-Pacific and Japan at Akamai.

AI トレーニングから AI 推論へと向かって動いています。
AI トレーニングから AI 推論へと向かって動いています。

2024 年には、人工知能(AI)のイノベーションがかつてないほど爆発的に進展し、多くの人々がその急速な進歩に畏敬の念を抱くようになりました。テクノロジー大手は、より高性能な大規模言語モデル(LLM)のトレーニングに最も強力な GPU を確保しようと競い合い、その結果、現在 AI は世界の至る所にシームレスに入り込んできています。

新しい AI 企業、モデル、アプリケーションが渦巻く中、明確に現れている 1 つのトレンドがあります。それは、 AI トレーニングから AI 推論へと向かう動きです。Bloomberg は、AI 推論が 2032 年度までに 1.3 兆米ドル規模の市場に成長すると予測しており、これは他の多くの最近のレポートでも同様に指摘されています。この市場の変化は、2025 年が 分散型 AI 推論を加速させる年になることを示唆しています

継続的な改善と適応のサイクル

トレーニングは、堅牢な AI モデルの構築において重要なものであり続けますが、将来的には、これらのモデルを展開して企業や消費者にリアルタイムで実用的な知見や成果を提供する技術である、推論に重点が置かれるようになるでしょう。同時に、エッジからトレーニングプロセスに動的なフィードバックループを注入することで、継続的なモデル改善と適応のサイクルが促進されます。 

AI 推測の活用方法

AI 推論 は、AI が有望な可能性から実世界にインパクトを与える実用的なアプリケーションへと変わる、転換点となります。 Akamai のお客様は、さまざまな業界やユースケースで AI 推論を採用しています。例えば、次のようなものがあります。 

  • スマートシティ:トラフィックフローを最適化して輻輳を軽減し、安全性を高め、インテリジェントな監視によって公共セキュリティを向上させます

  • 自律走行車:瞬時の判断を実現し、効率的な走行を促進します

  • 製造業におけるモノのインターネット(IoT)と製造:予測メンテナンスを実装してダウンタイムを防止し、リアルタイムビデオ分析によって品質管理を強化します

  • スマートリテール:高度にパーソナライズされたショッピング体験を提供し、スマートなチェックアウトと在庫管理により運用を合理化します

  • ヘルスケアおよび遠隔医療:患者をリアルタイムでモニタリングし、画像処理によって診断を加速し、高度なウェアラブルデバイスの実現を支援します

  • メディアおよびエンターテイメント:パーソナライズされたコンテンツをキュレーションし、リアルタイムの動画トランスコーディングとライブストリームの強化を実現します

これらの例は、AI 推論を使用して顧客が達成できることのほんの一部に過ぎません。エッジコンピューティングが進化し続ける中、さまざまな分野でさらに革新的なアプリケーションが期待されます。

AI 推論に関する共通の課題 

このようなイノベーションの実現により、レイテンシー、コスト、スケーラビリティなど、共通の課題がいくつか生じています。Akamai では、さまざまな状況で何十年にもわたり、これらの問題を解決してきました。

十分にトレーニングされた AI モデルのアウトプットを大衆が求める規模と応答性のレベルで提供するには、汎用化された大量の GPU を集約型データセンターに統合するアプローチでは、もはや不十分です。推論アーキテクチャをユーザーにより近づけるためには、まったく新しいパラダイムを採用する必要があります。つまり、分散型クラウドモデルです。

分散型クラウドモデルによる AI 推論の提供

AI 推論を 分散型クラウド モデルによって提供する際は、次のように特殊な点を考慮します。 

  • レイテンシーと応答性:集約型クラウドデータセンター間でデータをやり取りすると、ユーザー体験に悪影響を及ぼし、ビジネス機会の損失につながる可能性があります。分散型アーキテクチャを採用することで、推論の応答時間を短縮します。

  • リソースの制約:エッジデバイスは、電力、ストレージ、および演算能力の制約に直面しています。これらの制限内で堅牢なパフォーマンスを提供する、軽量で効率的な AI モデルを導入することが重要です。

  • セキュリティとデータプライバシー:ローカルでのデータ処理は、転送中のデータの露出を減らすことでセキュリティを強化します。これは、厳格なデータの地域性とプライバシー規制を遵守する必要があるヘルスケア、金融、政府などの業界で特に重要です。

  • スケーラビリティと分散型アーキテクチャ:AI アプリケーションをホストする分散型ロケーションの数が増えるにつれて、ネットワーク全体での AI モデルの管理と更新がますます複雑になります。モデルの導入と保守に対応するスケーラブルなソリューションが不可欠です。

  • 帯域幅とコスト効率:AI 推論は分散型で実行されるため、集約型クラウドサーバーに送信されるデータ量が大幅に削減されます。これにより、ネットワークの輻輳が緩和されるだけでなく、データ転送とストレージのコストを大幅に削減できます。

これらの考慮事項は、分散型かつ非集約型のクラウドインフラに AI を導入する際の重要な要素であり、ビジネスで AI を効果的に利用したいと考える組織の注目を集めています。

Akamai の堅牢なエコシステムがパフォーマンスとスケーラビリティを実現

Akamai では、世界で最も 分散されたクラウドを構築しています。30 年近くにわたって開発されてきた当社の広範なグローバルインフラには、25 を超えるコアコンピューティング地域、急速に拡大する一連の分散型コンピューティングロケーション、4,000 以上のエッジポイントが含まれます。この堅牢なエコシステムは、現在と将来の組織の AI 推論のニーズを満たすために不可欠です。

顧客は高パフォーマンスを要求していますが、従来のクラウドベンダーでよく見られる法外な予算超過の問題に対してはますます警戒感を持っています。 Akamai Cloud は、この高まる懸念に応えるように設計されています。

Akamai は、AI 推論タスクに高価でオーバースペックな汎用 GPU を備蓄する代わりに、バランスのとれた GPU 代替品として以下を提供することを選択しました。 Nvidia の RTX 4000 Ada シリーズ GPU は、パフォーマンスとコスト効率の両方を兼ね備えており、AI 推論や小規模言語モデルの実行、メディアトランスコーディングなどの特殊なワークロードに最適です。

強力でコスト効率の高いアプローチ

このアプローチにより、お客様のコスト効率を維持しながら、ユーザーに近いレベルで優れた AI 機能を提供することができます。当社のテストでは 生成 AI である Stable Diffusion モデルを実行した場合、従来の パブリック・クラウド・ プロバイダーで利用可能な同等の GPU 代替品と比較して、80% 以上のコスト削減が実現しました。

このアプローチは最も強力でコスト効率に優れた成果をもたらし、新たな AI ユースケースを促進するものと考えています。

分散推論は、AI の使用方法を再考するものです

Akamai では、AI の有用性をさらに高める取り組みを続ける中で、分散型推論は単なる技術的な進歩ではなく、AI の使い方を再考する基礎となるものであると考えています。集約型でリソース集中的なコンピューティングから、分散型エッジコンピューティングへと移行する潮流は避けられるものではなく、既に進行しています。

Akamai は、この変革をただ眺めているのではなく、積極的にこの変革を形作っています。当社は、グローバルな分散型ネットワークの強み、戦略的なクラウドコンピューティングへの投資(推論用に最適化された GPU を含む)、パフォーマンスとコスト効率に対する深い理解を組み合わせることで、企業が AI 推論の真の可能性を引き出すことに注力しています。

組織は、 AI 推論を導入すべきかどうか ではなく、 どのように 導入すべきかが問題であると認識しています。エッジはもはや単なるデータの行先ではなく、AI が最も影響力のあるリアルタイムの知見を提供する主な舞台になりつつあります。次世代のコンピューティングへようこそ。

詳細はこちら

AI 推論のパフォーマンスベンチマークの詳細に興味がありますか?詳しくは 当社のホワイトペーパーをお読みください



Vineeth Varughese

執筆者

Vineeth Varughese

February 13, 2025

Vineeth Varughese

執筆者

Vineeth Varughese

Vineeth Varughese is Cloud Product Marketing Lead in Asia-Pacific and Japan at Akamai.