Virtana kündigte am Dienstag die neueste Version ihres Model Context Protocol (MCP) Servers an, mit dem AI-Agenten und große Sprachmodelle eine vollständige Übersicht über Unternehmensoperationen erhalten. Die Plattform macht die Tools von Virtana für Modelle wie OpenAI’s ChatGPT, Anthropic’s Claude, Googles Gemini und Microsofts Copilot zugänglich, wodurch diese Entscheidungen über Anwendungen, Infrastruktur und AI-Arbeitslasten treffen können.
Im Zentrum steht ein System-Abhängigkeitsgraph, ein dynamisches Kartenwerk, das Interaktionen zwischen Diensten, Netzwerken, Speicher und Cloud-Ressourcen verfolgt. Laut Amitkumar Rathi. Chief Product Officer von Virtana, ermöglicht diese Struktur einen strukturierten Verständnis des Systems selbst. ‘Plattformen müssen eine strukturierte Übersicht des Systems selbst liefern’, sagte Rathi. Der MCP-Server stellt diesen Graphen als Standard-Schnittstelle für AI-Systeme bereit, um Beziehungen zu analysieren und autonom zu handeln.
Traditionelle Überwachungstools trennen oft Daten nach Bereichen — Infrastruktur hier, Anwendungen dort, Cloud-Metriken anderswo. Virtana normalisiert diese Telemetrie in einen einzigen Graphen. AI-Agenten können diesen direkt abfragen und natürliche Sprachanfragen in präzise Datenabfragen und operative Empfehlungen übersetzen. Virtana-Beamte sagten, dies ermögliche Maschinen, Änderungen im großen Stil zu orchestrieren, von der Priorisierung von Korrekturen bis hin zur Echtzeit-Optimierung von Kosten.
Der Server unterstützt AI-Agenten bei Schlüsselaufgaben. Er ermöglicht es ihnen, datengestützte Informationen zur Systemgesundheit abzurufen, Abhängigkeiten zu analysieren, um Kettenreaktionen von Fehlern zu erkennen, priorisierte Handlungspläne zu erstellen und Optimierungen über hybride Umgebungen hinweg durchzuführen. Zum Beispiel könnte ein Agent einen Slowdown von einem GPU-Cluster über Datenpipelines bis zu Anwendungen, die Nutzer benutzen, verfolgen und Ressourcen ohne menschliches Eingreifen umleiten.
Virtana-Manager bemerkten, dass die Adoption des MCP wächst, während Unternehmen AI in ihre IT-Betriebsabläufe integrieren. Traditionelle Dashboards dienen Menschen gut genug, aber sie sind für autonome Systeme, die Kontext in Maschinengeschwindigkeit benötigen, nicht ausreichend. Virtanas Herangehensweise betrachtet Observability als Infrastruktur für AI, nicht nur als Bericht.
Virtanas Plattform umfasst hybride und multikloudbasierte Umgebungen mit Sichtbarkeit in Anwendungen, Dienste, Datenpipelines, GPUs, CPUs, Netzwerke und Speicher. Sie korreliert Leistung, Kosten und Nutzerauswirkungen sofort. Unternehmen der Global 2000 und öffentliche Sektoren verlassen sich darauf, um Risiken zu reduzieren, Resilienz zu erhöhen und DevOps in On-Premises-, Cloud- und Edge-Bereitstellungen zu optimieren.
Rathi hob die patentierte Full-Stack-Optimierungsarchitektur hinter dem Graphen hervor. Sie verarbeitet hochgenaue Telemetrie, wendet agente-basierte AI für Ereignisintelligenz an und liefert autonome Erkenntnisse. Kein anderer Anbieter erreicht diese Tiefe, sagten Unternehmensbeamte.
Der Start erfolgt im Kontext eines Schubs für AI-native Betriebsabläufe. Unternehmen kämpfen mit fragmentierten Tools, während AI-Arbeitslasten explodieren. Virtana positioniert den MCP-Server als Brücke, die LLMs ermöglicht, ganze Systeme zu verstehen, nicht nur Signale. Frühe Anwender berichten laut Produktunterlagen über schnellere Lösung von Vorfällen und intelligente Ressourcenverteilung.
Virtana, mit Sitz in San Jose, bedient große Unternehmen weltweit. Der MCP-Server baut auf früheren Veröffentlichungen auf und erweitert die Kompatibilität mit führenden LLMs und Automatisierungsplattformen. Manager erwarten, dass er den Branchenwechsel hin zu selbstverwalteten IT-Umgebungen beschleunigt.
Kommentare
Noch keine Kommentare
Be the first to share your thoughts