Risiken und Neutralität von KI-Tools im Alltag
DeepSeek: Ein Werkzeug mit potenziellen Risiken
Eine Untersuchung des renommierten Cybersicherheitsunternehmens Palo Alto Networks hat gezeigt, dass DeepSeek anfällig für Manipulationen durch kriminelle Akteure ist. Laut Sam Rubin, dem Leiter der Bedrohungsanalyse und -beratung des Unternehmens, ließ sich DeepSeek durch gezielte Anfragen, bekannt als „Prompts“, dazu anregen, Skripte zur Datenextraktion aus E-Mails und Word-Dokumenten zu generieren. Solche Skripte werden häufig von Hackern eingesetzt, um sensible Informationen zu stehlen. Zudem konnte DeepSeek auf Anfrage „Keylogger-Code“ generieren, ein Zeichen für die potenziellen Gefahren, die von dieser Technologie ausgehen können.
Der Vorgang, bei dem Sicherheitsmaßnahmen umgangen werden, wird in der Software-Branche als „Jailbreaking“ bezeichnet. Laut den Forschern von Palo Alto Networks fehlen DeepSeek die erforderlichen Schutzmechanismen, die andere KI-Modelle typischerweise mitbringen. Rubin merkt an, dass es den Forschern gelungen ist, diese Schwachstellen auszunutzen, um bösartige Inhalte zu generieren, ohne dass hierfür spezielle Kenntnisse oder umfangreiche Expertise notwendig waren. Dies wirft ernsthafte Fragen bezüglich der Sicherheitsstandards und der Verantwortung für die technische Entwicklung von DeepSeek auf.
Datenschutzbedenken und regulatorische Herausforderungen
Im Zusammenhang mit den potenziellen Risiken, die DeepSeek birgt, sind auch die rechtlichen Rahmenbedingungen von großer Bedeutung. Laut chinesischem Recht ist DeepSeek verpflichtet, alle in der Volksrepublik gesammelten Daten dort zu speichern. Das Geheimdienstgesetz schreibt zudem vor, dass sowohl Bürger als auch Unternehmen mit den Sicherheitsbehörden kooperieren müssen. Experten interpretieren dies als einen Zugang für den chinesischen Geheimdienst zu sämtlichen Daten, die innerhalb des Landes gespeichert sind. Die italienische Datenschutzbehörde GDDP hat bereits Maßnahmen gegen DeepSeek ergriffen, um den Schutz der Privatsphäre ihrer Bürger zu gewährleisten.
In Deutschland zeigen die Behörden ähnliche Bedenken. Der Datenschutzbeauftragte von Rheinland-Pfalz bereitet derzeit ein Prüfverfahren gegen DeepSeek vor, während mehrere andere Datenschutzbehörden in Deutschland voraussichtlich ebenfalls Untersuchungen einleiten werden. Ein zentraler Punkt ist das Fehlen eines gesetzlichen Vertreters für DeepSeek in der EU, was einen Verstoß gegen die Datenschutz-Grundverordnung darstellen könnte. Diese Regelung soll sicherstellen, dass Unternehmen, die in der EU tätig sind, auch einem regulatorischen Rahmen unterliegen. Das Fehlen eines Vertreters könnte mit erheblichen finanziellen Strafen geahndet werden.
Sicherheitsvorkehrungen in deutschen Institutionen
Angesichts der Bedrohungen, die von DeepSeek und ähnlichen KI-Anwendungen ausgehen, haben zahlreiche deutsche Ministerien und große Unternehmen umfangreiche Sicherheitsvorkehrungen getroffen. So hat das Bundesinnenministerium die Nutzung externer Cloud-Dienste vollständig untersagt. Auch andere Ministerien, wie beispielsweise das Finanzministerium, haben strenge Vorschriften erlassen, die die Nutzung von textgenerativen KIs im Dienst verbieten. Das Wirtschaftsministerium hat eine Liste zugelassener Anwendungen erstellt, in der DeepSeek nicht aufgeführt ist.
Zusätzlich hat das Deutsche Patent- und Markenamt in München, das ebenfalls als potenzielles Ziel für Spionage gilt, die Nutzung von DeepSeek unterbunden. Im bayerischen Innenministerium ist es zudem untersagt, KI-Anwendungen auf dienstlichen Geräten zu verwenden, wobei auch private Geräte in diesem Zusammenhang nicht genutzt werden dürfen. Ähnliche Maßnahmen hat auch die Industrie ergriffen; mehrere große Unternehmen schränken den Zugang zu KI-Anwendungen ein und ermöglichen diesen nur über ein sicheres System. So bestätigt ein Sprecher von Siemens, dass der Zugriff auf DeepSeek und andere Modelle nur innerhalb eines geschützten Umfelds gestattet wird.
Studie zu politischen Verzerrungen in KI-Systemen
Eine aktuelle Studie der University of East Anglia hat aufgezeigt, dass KI-Modelle wie ChatGPT eine Neigung zu Verzerrungen in Richtung linkspolitischer Werte aufweisen. Die gemeinsam mit der Getulio Vargas Foundation sowie der Forschungsinstitution Insper durchgeführte Untersuchung befasst sich umfassend mit der politischen Voreingenommenheit von generativen KI-Systemen und beleuchtet die Implikationen dieser Ergebnisse für Transparenz und Rechenschaftspflicht.
Ergebnisse der Studie zeigen, dass ChatGPT oft zögert, konservative Meinungen zu adressieren, während es dafür bereitwillig linke Inhalte produziert. Dr. Fabio Y.S. Motoki, einer der Hauptautoren, betont, dass solche Verzerrungen unbeabsichtigte Auswirkungen auf Wahrnehmungen und politisches Handeln haben könnten. Co-Autor Pinho Neto warnt davor, dass unkontrollierte Vorurteile in der generativen KI existing gesellschaftliche Spaltungen vertiefen und das Vertrauen in demokratische Institutionen mindern können.
Die Studie hebt hervor, dass generative KI zunehmend Einfluss darauf hat, wie Informationen erstellt, konsumiert und interpretiert werden. Daher fordert die Untersuchung transparente und regulatorische Maßnahmen, um sicherzustellen, dass diese Technologien mit gesellschaftlichen Werten und Prinzipien der Demokratie übereinstimmen.
Fazit: Aktuelle Herausforderungen für KI-Technologien
Die jüngsten Entwicklungen rund um DeepSeek und die Studie zu politischen Verzerrungen bei KI-Tools verdeutlichen die vielschichtigen Herausforderungen, die mit der Nutzung von Künstlicher Intelligenz verbunden sind. Sowohl Sicherheitsbedenken als auch datenschutzrechtliche Aspekte müssen in der Entwicklung und Anwendung solcher Technologien dringend adressiert werden. Der Bedarf an Transparenz und Verantwortung ist unerlässlich, um das Vertrauen in diese Systeme aufrechtzuerhalten und potenziellen Risiken wirksam zu begegnen.