カリフォルニア州サンノゼ(AP)-Virtanaは火曜日、AIエージェントや大規模言語モデルに企業運用のフルスタック可視化を提供するモデルコンテキストプロトコル(MCP)サーバーの最新版を発表した。このプラットフォームは、OpenAIのChatGPTやAnthropicのClaude、GoogleのGemini、MicrosoftのCopilotなどのモデルにも対応し、アプリケーション、インフラ、AIワークロード全体にわたって意思決定を可能にする。

このシステムの中心には、サービス、ネットワーク、ストレージ、クラウドリソースの相互作用を追跡する動的なマップであるシステム依存関係グラフが位置している。Virtanaのチーフプロダクトオフィサーであるアミトカム・ラティ氏は、「プラットフォームは、孤立したアラートにとどまらず、システム自体の構造化された理解を提供する必要がある」と語った。MCPサーバーは、このグラフをAIシステムが関係性を分析し、自律的に行動できる標準インターフェースとして公開している。

従来の監視ツールは、インフラ、アプリケーション、クラウドメトリクスなど、ドメインごとにデータを分離して管理していた。Virtanaは、そのテレメトリを1つのグラフに統一している。AIエージェントはこのグラフを直接クエリし、自然言語のクエリを正確なデータ取得と運用の提案に翻訳する。Virtanaの担当者は、これにより、マシンがスケールで変更を調整し、リアルタイムでコスト最適化を実施できると述べている。

MCPサーバーは、AIエージェントの主要なタスクをサポートしている。システムの健康状態に関する根拠のあるデータを取得し、依存関係を検討して障害の連鎖を特定し、優先順位付けされたアクションプランを生成し、ハイブリッド環境全体にわたって最適化を実行できる。例えば、エージェントはGPUクラスターからデータパイプラインを通じてユーザー向けアプリケーションに遅延が発生していることを追跡し、人間の介入なしにリソースを再ルーティングできる。

Virtanaの幹部は、企業がAIをIT運用に統合するにつれて、MCPの採用が拡大していると指摘している。従来のダッシュボードは人間にとって十分に役立つが、機械速度で文脈を必要とする自律システムには不十分である。Virtanaのアプローチは、観測をAIのインフラとして、単なるレポートとしてではなく扱っている。

Virtanaのプラットフォームは、アプリケーション、サービス、データパイプライン、GPU、CPU、ネットワーク、ストレージの可視化を、ハイブリッドおよびマルチクラウド環境にわたって提供している。性能、コスト、ユーザーへの影響を即座に相関させている。グローバル2000社や公共部門のグループは、オンプレミス、クラウド、エッジデプロイメントにおいてリスクを低減し、レジリエンスを高め、DevOpsを簡素化するためにこのプラットフォームに依存している。

ラティ氏は、このグラフの背後にある特許取得済みのフルスタック最適化アーキテクチャを強調した。このアーキテクチャは、高精度なテレメトリをインポートし、エージェンティックAIを用いてイベントインテリジェンスを適用し、自律的なインサイトを提示する。会社の幹部は、この深さに匹敵する提供者は他にないと主張している。

この発表は、AIネイティブな運用への推進の流れの中でのものである。企業はAIワークロードが急増する中、断片化されたツールに苦しみながらも、VirtanaはMCPサーバーを橋渡しとして位置づけ、LLMが信号ではなく全体のシステムを理解できるようにしている。製品資料によると、早期導入者からは、インシデント解決の加速とスマートなリソース配分の報告がある。

Virtanaはサンノゼを拠点として、世界中の主要な企業を対象にサービスを提供している。MCPサーバーは、以前のリリースを基盤にし、主要LLMや自動化プラットフォームとの互換性を拡張している。幹部は、このサーバーが業界の自律的なIT環境への移行を加速するものになると予測している。