Europol und die Strategie der Datenbeschaffung

Europol verfolgt das strategische Ziel, durch massenhafte Datenbeschaffung zum „Kriminalinformationszentrum“ der EU zu avancieren. Kritiker werten diese Vorgehensweise als mögliche Strategie zur umfassenden Überwachung und Datenakkumulation. Zentrale Aspekte dieser Strategie umfassen den Zugang zu einer Vielzahl von personenbezogenen Daten sowie die wachsenden Ambitionen im Bereich der Künstlichen Intelligenz (KI).

Das 2023 veröffentlichte Strategiepapier der Behörde hebt hervor, dass die umfangreiche Datensammlung aus EU-Datenbanken, die Informationen über EU-Bürger*innen und Migrant*innen enthält, mit der Nutzung von KI-Tools in einem engen Zusammenhang steht. Seit 2021 verfolgt Europol das ambitionierte, jedoch weitestgehend im Verborgenen agierende Ziel, automatisierte Modelle zu entwickeln, um die Polizeiarbeit in den EU-Mitgliedstaaten grundlegend zu verändern. Die Analyse interner Dokumente wirft dabei ernste Fragen hinsichtlich des Einflusses dieser Entwicklungen auf die Privatsphäre der Bürger*innen und die ordnungsgemäße Aufsicht über die Polizeiarbeit auf.

Nach Rückmeldung von Europol ist die Behörde bestrebt, ihre Innovationskraft im Bereich der Strafverfolgung auszubauen, um nationale Behörden bei der Bekämpfung von schwerer und organisierter Kriminalität sowie Terrorismus zu unterstützen.

Massendaten und KI-Entwicklung

In den letzten Jahren spielte Europol eine Schlüsselrolle bei der Zerschlagung sicherer Kommunikationssysteme, wie beispielsweise EncroChat und ANOM. Diese Operationen führten zur Erfassung riesiger Datenmengen, was die Behörde anregte, KI-Tools zu entwickeln, um die Ermittlungen effizienter zu gestalten. Insbesondere die Operationsdaten von EncroChat, die über 60 Millionen Nachrichten umfassten, bieten eine Dimension, die eine manuelle Auswertung und Analyse kaum noch zulässt.

Im September 2021 führte die Europäische Datenschutzbehörde eine Inspektion durch, um die ersten Schritte Europols in der KI-Entwicklung zu überprüfen. Dabei kamen Bedenken hinsichtlich der Überwachung und Dokumentation der Algorithmen-Tests zum Vorschein. Trotz der Ambitionen zählte der Einsatz solcher Technologien nicht zu den genehmigten Mandaten der Behörde. Die Untersuchung ergab, dass Datenschutzvorkehrungen verletzt worden sind und dass der Dokumentationsaufwand während der Entwicklungsphase der KI-Modelle nicht adäquat war.

Das ursprüngliche Programm, das im Februar 2021 aufgrund von Bedenken seitens der Datenschutzbehörde eingestellt wurde, zielte darauf ab, die EncroChat-Daten für maschinelles Lernen zu verwenden. Die Erkenntnisse ergeben sich aus dokumentierten Inspektionen, die die Praktiken von Europols KI-Entwicklung in Frage stellen.

Die Rolle von Thorn und der private Sektor

Europol zeigt große Ambitionen, in der Weiterentwicklung von KI-Technologien auch mit privaten Unternehmen zusammenzuarbeiten. Besonders hervorzuheben ist die enge Beziehung zur US-amerikanischen Organisation Thorn, die ein KI-gestütztes Erkennungssystem für Kinderpornografie entwickelt hat. Die Zusammenarbeit zwischen Europol und Thorn zeigt potenzielle Risiken, die mit solch engen Partnerschaften verbunden sind. Thorn setzte sich für den Gesetzesvorschlag zur Chatkontrolle ein, der die Überprüfung von Nutzerinhalten durch Kommunikationsdienstanbieter vorschrieb.

Die E-Mail-Korrespondenz zwischen Thorn und Europol, die durch Informationsfreiheitsanfragen offengelegt wurde, stützt die Annahme, dass die Behörde eine Art „privaten Rückkanal“ aufbaut. Thorn gab umfangreiche Einblicke in seine technischen Planungen, die im Zusammenhang mit den KI-Initiativen von Europol stehen.

Das wachsende Interesse und die Unterstützung von Thorn bei der Weiterentwicklung der KI-Technologien von Europol weckt Bedenken hinsichtlich einer möglichen Beeinflussung und der Grundsätze der Transparenz und Verantwortung in der Strafverfolgung.

Transparenz und Aufsicht

Europols Mangel an offener Kommunikation bezüglich seiner Daten- und KI-Entwicklungen wirft ernsthafte Bedenken hinsichtlich der Rechenschaftspflicht auf. Die Behörde hat sich wiederholt geweigert, wichtige Unterlagen bereitzustellen, wie etwa Datenschutzfolgenabschätzungen und Protokolle interner Sitzungen. In vielen Fällen wird die Veröffentlichung mit dem Verweis auf öffentliche Sicherheit oder interne Entscheidungsprozesse gerechtfertigt, was von externen Beobachtern als unzureichend erachtet wird.

Zusätzlich hat die Einführung der Position des Grundrechtsbeauftragten bei Europol zwar formal eine Kontrollinstanz geschaffen, jedoch wird diese als ineffektive Maßnahme betrachtet, um die Herausforderungen der zunehmenden Anwendung digitaler Technologien zu bewältigen. Die Empfehlungen des Beauftragten sind nicht bindend und erhalten keine ausreichende Durchsetzungskraft innerhalb der Behörde.

Die Beobachtungen von Menschenrechtsorganisationen zeigen, dass Europols interne Aufsicht nicht in der Lage ist, den Ansprüchen an Transparenz und Rechenschaftspflicht im Zeitalter der Digitalisierung gerecht zu werden. Die Erfahrungen und Einschätzungen der „Joint Parliamentary Scrutiny Group“ verdeutlichen weiter, wie schwierig es ist, die Risikobewertung der KI-Nutzung durch Europol systematisch zu überprüfen.

Fazit: Herausforderungen und Zukunftsaussichten

Europols Bestrebungen zur Integration von KI-Technologien in die Polizeiarbeit stehen vor erheblichen Herausforderungen. Während die Ambitionen im technologischen Bereich wachsen, zeigen sich gleichzeitig gravierende Defizite in den Bereichen Datenschutz, Transparenz und Kontrolle. Es bleibt abzuwarten, welche Maßnahmen ergriffen werden, um den rechtlichen Rahmen und die Aufsicht über die Nutzung dieser Technologien zu stärken. Die Entwicklungen der kommenden Jahre könnten über die Zukunft der Polizeiarbeit in Europa entscheiden und müssen daher dringend aufmerksam verfolgt werden.