캘리포니아 샌호세(AP) — Virtana는 2일 모델 컨텍스트 프로토콜(MCP) 서버의 최신 버전을 발표하며 AI 에이전트와 대규모 언어 모델이 기업 운영에 대한 전체적인 시야를 갖도록 했다. 이 플랫폼은 OpenAI의 ChatGPT, Anthropic의 Claude, Google Gemini, Microsoft Copilot 등 다양한 모델에 Virtana의 도구를 제공해 애플리케이션, 인프라, AI 워크로드에 걸쳐 결정을 내릴 수 있도록 했다.

이 시스템의 핵심은 시스템 종속도 그래프로, 서비스, 네트워크, 스토리지, 클라우드 자원 간 상호작용을 추적하는 동적 지도이다. Virtana의 제품 총괄 책임자 Amitkumar Rathi는 이 구조가 단절된 경고를 넘어선 것이라고 말했다. ‘플랫폼은 시스템 자체에 대한 구조적 이해를 제공해야 한다’고 Rathi는 설명했다. MCP 서버는 이 그래프를 AI 시스템이 관계를 분석하고 자율적으로 행동할 수 있는 표준 인터페이스로 노출한다.

기존 모니터링 도구는 도메인별로 데이터를 분리해 저장하는 경우가 많다. 인프라 여기, 애플리케이션 저기, 클라우드 지표 저기. Virtana는 이 텔레메트리 데이터를 하나의 그래프로 통합한다. AI 에이전트는 이를 직접 쿼리해 자연어 질문을 정확한 데이터 추출과 운영 추천으로 변환한다. Virtana 관계자는 이로 인해 기계가 대규모로 변화를 조율할 수 있게 되며, 실시간으로 문제 해결 우선순위를 설정하고 비용 최적화를 수행할 수 있다고 밝혔다.

MCP 서버는 AI 에이전트의 핵심 작업을 지원한다. 시스템의 건강 상태에 대한 기반 자료를 검색하고 종속성에 대해 분석해 실패가 연쇄적으로 일어날 수 있는 점을 파악하고, 우선순위를 정한 행동 계획을 생성하며, 하이브리드 환경에서 최적화를 수행할 수 있도록 한다. 예를 들어, 에이전트는 GPU 클러스터에서 데이터 파이프라인을 거쳐 사용자 인터페이스 애플리케이션에 이르는 지연을 추적한 후, 인간의 개입 없이 자원을 재배치할 수 있다.

Virtana의 경영진은 MCP 서버 채택이 기업이 AI를 IT 운영에 통합하면서 증가하고 있다고 지적했다. 전통적인 대시보드는 인간에게는 충분히 유용하지만, 기계 속도로 맥락을 필요로 하는 자율 시스템에는 부족하다. Virtana의 접근법은 관찰을 AI 인프라로 보고, 단순한 보고서로만 보지 않는다는 점이다.

Virtana 플랫폼은 하이브리드 및 멀티클라우드 환경을 지원하며, 애플리케이션, 서비스, 데이터 파이프라인, GPU, CPU, 네트워크, 스토리지에 대한 시야를 제공한다. 성능, 비용, 사용자 영향을 즉시 상호 연관한다. 글로벌 2000 기업과 공공 부문 단체는 이 플랫폼을 통해 온프레미스, 클라우드, 엣지 배포에서 위험을 줄이고 회복력을 높이며 DevOps를 단순화한다.

Rathi는 그래프 뒤에 있는 특허받은 전체 스택 최적화 아키텍처를 강조했다. 이 아키텍처는 고정밀 텔레메트리 데이터를 수집하고, 에이전트 AI를 통해 이벤트 인텔리전스를 적용하며, 자율적인 통찰을 제공한다. 회사 관계자들은 이 깊이를 따라가는 다른 제공업체가 없다고 주장했다.

이 출시는 AI 네이티브 운영에 대한 추진력이 있는 가운데 이루어졌다. 기업들은 AI 워크로드가 급증하면서 분산된 도구에 직면해 있다. Virtana는 MCP 서버를 다리로 보고, LLM이 신호가 아닌 전체 시스템을 파악할 수 있도록 했다. 제품 문서에 따르면 초기 채택자는 문제 해결 속도가 빨라지고 자원 배분이 더 똑똑해졌다고 보고했다.

Virtana는 샌호세에 기반을 두고 전 세계 주요 기업을 서비스하고 있다. MCP 서버는 이전 출시를 기반으로 상위 LLM과 자동화 플랫폼과의 호환성을 확장하고 있다. 경영진은 이로 인해 산업이 자율적으로 관리되는 IT 환경으로의 이동이 가속화될 것으로 기대하고 있다.