Anthropic untersucht einen Bericht, wonach eine kleine Gruppe unbefugten Zugang zu seinem Claude Mythos-Modell erhielt – das KI-Tool, das laut dem Unternehmen zu mächtig ist, um es der Öffentlichkeit zugänglich zu machen, wie die BBC berichtet.

Sicherheitsbedenken bei KI-Modellen

„Wir untersuchen einen Bericht. Der behauptet. Dass unbefugter Zugang zum Claude Mythos Preview über einen unserer Drittanbieter-Umgebungen erfolgte“, teilte das Unternehmen in einer Erklärung. Es gibt derzeit keinen Hinweis darauf. Dass Schadakteure das Modell in die Hände bekamen, und Anthropic betont, dass es keine Beweise dafür gibt, dass seine Systeme betroffen sind.

Doch die Meldung über den Zugang durch nicht autorisierte Benutzer wirft Fragen auf, ob große KI-Unternehmen ihre fortschrittlichen Modelle vor unerlaubtem Zugriff schützen können, while Laut Raluca Saceanu, Geschäftsführerin des Cyber-Sicherheitsunternehmens SmartTech, war dies „vermutlich aufgrund einer Missbrauchung des Zugangs und nicht durch einen klassischen Hack“ geschehen.

Verwendung von KI-Modellen für Cyber-Sicherheit

Anthropic hat das Mythos-Modell an einige Technologie- und Finanzunternehmen freigegeben, um diese vor der angeblichen Fähigkeit des Modells zu schützen, Schwachstellen auszunutzen, while Doch das setzt voraus, dass diese Unternehmen ihren Zugang strikt kontrollieren.

Laut Bloomberg hatte die betroffene Person bereits Zugriff auf Anthropics KI-Modelle, weil sie für einen Drittanbieter gearbeitet hatte; Das Medium berichtete außerdem, dass die Gruppe das Modell seit ihrem Zugang nutzt, allerdings nicht für Hackerangriffe, da sie nicht entdeckt werden will.

„Wenn mächtige KI-Tools außerhalb ihrer vorgesehenen Kontrollen genutzt werden, ist das Risiko nicht nur ein Sicherheitsvorfall, sondern auch die Ausbreitung von Fähigkeiten, die für Betrug, Cyber-Missbrauch oder andere schädliche Aktivitäten eingesetzt werden könnten“, sagte Saceanu.

Weitere Implikationen für KI-Sicherheit

Bei einem großen Cyber-Sicherheitskongress am Mittwoch betonte Richard Horne, Leiter des UK National Cyber Security Centre (NCSC), dass KI-Tools die Sicherheit erhöhen können; Er forderte die Teilnehmer von CyberUK auf, sich nicht vor neuen KI-Angriffen zu fürchten, sondern sich auf die Grundlagen der Cyber-Sicherheit zu konzentrieren.

„Wie wir in den Medien in den letzten Tagen gesehen haben, ermöglichen KI-Modelle rasch die Entdeckung und Ausnutzung bestehender Schwachstellen in großem Umfang, was zeigt, wie schnell sie die Grundlagen der Cyber-Sicherheit aufdecken werden, die noch nicht ausreichend adressiert sind“, sagte er. Horne wiederholte damit ähnliche Warnungen aus den vergangenen Jahren, etwa die Dringlichkeit, Software regelmäßig zu aktualisieren und veraltete IT-Systeme zu ersetzen.

Im selben Event forderte der Sicherheitsminister Dan Jarvis KI-Unternehmen auf, mit der Regierung zusammenzuarbeiten, um sicherzustellen, dass KI genutzt wird, um kritische Netzwerke vor Angriffen zu schützen. Alle mächtigsten und fortschrittlichsten KI-Modelle, sogenannte Frontier-KI, werden außerhalb des Vereinigten Königreichs entwickelt, wobei die führenden Unternehmen in den USA oder China ansässig sind. Das bedeutet. Dass das UK auf Unternehmen wie Anthropic angewiesen ist, um Zugang zu Mythos zu erhalten, und keine Kontrolle über dessen Entwicklung, Training oder Veröffentlichung hat.

OpenAI hat ebenfalls ein Cyber-Sicherheitsmodell namens GPT 5.4 Cyber, das als sehr leistungsfähig gilt. Die Reden auf CyberUK betonten zudem weiterhin die Bedrohung durch staatliche und hacktivistische Angriffe, insbesondere von Russland und China. Das NCSC warnt, dass Cyberkrieg inzwischen zur „Heimatfront“ der Verteidigung im Vereinigten Königreich geworden ist, wobei jüngere Ereignisse wie die Angriffe aus dem Iran zeigen, dass Cyberkrieg in modernen Konflikten immer wichtiger wird.

Weitere Berichterstattung von Imran Rahman-Jones.

Anthropic hat bestätigt, dass es einen Bericht untersucht, wonach unbefugte Benutzer Zugang zu seinem Mythos-Modell erhielten, was Risiken für die Cyber-Sicherheit darstellt, wie eine weitere Quelle berichtet. Der US-Startup-Unternehmen gab die Erklärung nach einer Meldung von Bloomberg ab, wonach eine kleine Gruppe von Personen Zugang zum Modell erhielt, das nicht der Öffentlichkeit zugänglich gemacht wurde, weil es Cyber-Angriffe ermöglichen könnte.

„Wir untersuchen einen Bericht, der behauptet, dass unbefugter Zugang zum Claude Mythos Preview über eine unserer Drittanbieter-Umgebungen erfolgte“, sagte Anthropic. Bloomberg berichtete, dass eine „kleine Anzahl“ von Benutzern in einem privaten Online-Forum Zugang zu Mythos erhielt, am gleichen Tag, an dem Anthropic ankündigte, das Modell an einige Unternehmen, darunter Apple und Goldman Sachs, freizugeben, um es zu testen.

Es wurde berichtet, dass die anonymisierten Benutzer Zugang zu Mythos über die Zugriffsrechte eines Mitarbeiters bei einem Drittanbieter von Anthropic erhielten und Methoden nutzten, die von Cyber-Sicherheitsforschern eingesetzt werden. Die Gruppe habe keine Cyber-Sicherheits-Prompts auf das Modell angewandt und sei mehr daran interessiert, „mit der Technologie zu spielen“, als Unruhe zu stiften, so Bloomberg, das die Behauptungen durch Screenshots und eine Live-Demo bestätigte.

Trotzdem wird die Nachricht über den möglichen Sicherheitsverstoß Behörden beunruhigen, die Bedenken hinsichtlich der Fähigkeit von Mythos, Chaos zu stiften, bereits angemeldet haben, und Fragen aufwerfen, wie schädliches Technologiepotenzial verhindert werden kann, das in falsche Hände gerät. Kanishka Narayan, der UK-AI-Minister, sagte, britische Unternehmen sollten sich um die Fähigkeit des Modells Sorgen machen, Schwachstellen in IT-Systemen zu erkennen – was Hacker dann ausnutzen könnten.

Das Modell wurde von der weltweit führenden Sicherheitsbehörde für die Technologie, dem UK AI Security Institute (AISI), geprüft, das letzte Woche warnte, dass Mythos in Bezug auf die Cyber-Bedrohung einen „Schritt nach oben“ gegenüber früheren Modellen darstelle. AISI sagte, dass Mythos Angriffe durchführen könne, die mehrere Aktionen erfordern und Schwachstellen in IT-Systemen ohne menschliche Intervention entdecken könne; normalerweise würden solche Aufgaben Tagen dauern, wenn menschliche Fachkräfte sie ausführen würden. Mythos war das erste KI-Modell, das erfolgreich eine 32-Schritte-Simulation eines Cyber-Angriffs durchführte, die von AISI erstellt wurde, und löste das Rätsel in drei von zehn Versuchen.