Sicherheitslücken bei führenden KI-Tools: Neue Analyse zeigt auf
Einführung in Sicherheitsrisiken von KI-Anbietern
Eine aktuelle Studie des Business Digital Index (BDI) beleuchtet die zunehmende Nutzung von großen Sprachmodellen (LLMs) durch Unternehmen weltweit. Diese Technologien werden häufig zur Optimierung von Prozessen, zur Erstellung von Inhalten und zur Unterstützung der Mitarbeitenden eingesetzt. Bei der Untersuchung stellte sich heraus, dass etwa 58 Prozent der Nutzer bereits zwei oder mehr Anbieter ausprobiert haben. Trotz dieser Verbreitung gibt es ernste Bedenken hinsichtlich der Cybersicherheit der eingesetzten Tools, die von den BDI-Forschern analysiert wurden. Die Relevanz dieser Untersuchung ist unbestritten, da Fehler in der Sicherheitsarchitektur gravierende Folgen für die Unternehmen nach sich ziehen können.
Analyse der Cybersicherheitsstandards
In der Studie wurden die Cybersicherheitsstandards von zehn bekannten LLM-Anbietern überprüft. Dabei sind prominente Unternehmen wie OpenAI, Claude und Perplexity vertreten. Die Forschung beruhte ausschließlich auf öffentlich zugänglichen Informationen, deren Analyse spezielle Scans, IoT-Suchmaschinen und Reputationsdatenbanken einbezog. Das Ergebnis der Untersuchung ist alarmierend: Nur die Hälfte der LLM-Anbieter erzielte die Bestnote A in Bezug auf ihre Sicherheitsstandards. Im Gegensatz dazu wurden OpenAI und 01.AI mit der Note D bewertet, während Inflection AI sogar mit der schlechtesten Bewertung F abschnitt. Der Durchschnitt aller Anbieter lag bei 88 von 100 möglichen Punkten.
Potenzielle Gefahren für Unternehmensdaten
Die Studie weist darauf hin, dass viele der derzeit verwendeten KI-Tools möglicherweise weniger sicher sind, als Unternehmen annehmen. Dies kann zu einer Gefährdung sensibler Daten und der Unternehmensreputation führen. Über 45 Prozent der Anfragen, die sensible Daten betreffen, werden über persönliche Konten versendet, was die Kontrolle der Sicherheitsstandards erschwert und häufig unentdeckt bleibt. Eine erhöhte Nutzung von LLM-Tools ohne verbindliche Sicherheitsmaßnahmen erhöht das Risiko erheblich, da jedes unerlässliche System als potenzielles Einfallstor für Cyberangriffe dienen kann. Das Missmanagement von Daten und Verstößen gegen die Sicherheitsprotokolle ist nicht nur ein technisches Problem; es kann auch das Vertrauen der Stakeholder in die Unternehmensführung ernsthaft untergraben.
Datenverstöße und Zugangskontrollen
Die Analyse offenbarte auch, dass fünf der zehn Anbieter in der Vergangenheit mit Datenverstößen konfrontiert waren. OpenAI verzeichnete die meisten Vorfälle, darunter eine Datenpanne, die nur neun Tage vor der Untersuchung stattfand. Perplexity AI war betroffen von einer Verletzung, bei der 190 Unternehmenszugänge kompromittiert wurden. Eine weitere kritische Beobachtung ergab, dass die Wiederverwendung von Passwörtern durch Mitarbeiter die Sicherheitslage verschärft hat. Diese Problematik war besonders ausgeprägt bei Perplexity AI und EleutherAI, wo ein hoher Anteil an Mitarbeitern gehackte Passwörter wiederverwendet hat.
Hosting als Sicherheitsrisiko
Ein zusätzlicher Bereich, in dem viele LLM-Anbieter Schwächen aufwiesen, ist das Hosting ihrer Systeme. Mit Ausnahme der Unternehmen AI21 Labs und Anthropic hatten fast alle anderen Anbieter signifikante Sicherheitsprobleme in diesem Bereich. Besonders kritisch ist, dass ein großer Teil der Systeme in der Cloud gehostet wird, was die Anfälligkeit für Cyberangriffe erhöht. Diese Konfiguration hat unmittelbare Auswirkungen auf die Gesamtbewertung der Cybersicherheit, was die Notwendigkeit von robusten Sicherheitsprotokollen unterstreicht.
Regionale Unterschiede und Wettbewerbsfähigkeit
Ein weiterer Aspekt der Untersuchung sind die regionalen Unterschiede in der Cybersicherheit. Amerikanische KI-Anbieter erzielten im Durchschnitt einen Wert von 87,5, während chinesische Anbieter nur auf 79,5 kamen. Keiner der chinesischen Anbieter erhielt eine Bewertung besser als C, was auf erhebliche Sicherheitsmängel hinweist. Das Beispiel der DeepSeek AI-Sicherheitsverletzung ist besonders aufschlussreich, da es zeigt, wie Schwachstellen bei KI-Anbietern größere Unternehmensangriffe ermöglichen können. Die Erkenntnisse deuten darauf hin, dass sich die Bedrohungen durch aktezielle Angriffe zunehmend auf die Ausnutzung von Schwächen in LLMs konzentrieren.
Führende Anbieter im Sicherheitsranking
Die sichersten LLM-Anbieter, darunter AI21 Labs, Perplexity AI und Anthropic, sind in den USA und Israel ansässig. Inflection AI, ein US-amerikanisches Unternehmen, schneidet hingegen besonders schlecht ab und zeigt, dass selbst lokale Anbieter große Sicherheitsherausforderungen haben. Diese Unterschiede im Sicherheitsprofil der Anbieter werden weiterhin an Bedeutung gewinnen, da Unternehmen sich zunehmend der Möglichkeiten und Risiken von KI-Technologien bewusst werden müssen.
Fazit: Bedeutung der Cybersicherheit bei KI-Anbietern
Die Analyse des Business Digital Index verdeutlicht die kritischen Sicherheitsrisiken, die mit der Nutzung von KI-Tools verbunden sind. Unternehmen sind gefordert, ihre Sicherheitsstrategien zu überdenken und sicherzustellen, dass sie ausreichend gegen potenzielle Bedrohungen gewappnet sind. Die Schwachstellen in den Systemen der LLM-Anbieter machen deutlich, dass eine erhöhte Wachsamkeit und kontinuierliche Verbesserungen hinsichtlich der Sicherheit erforderlich sind.