DatenschutzInternationalIT-SicherheitNetzpolitik

CSAM-Scans: Scharfe Kritik an Apples Plänen

Die Lockdowns des vergangenen Jahres und der damit verbundene Digitalisierungsschub haben sich in vielerlei Hinsicht durchaus positiv auf ein erweitertes Online-Leben ausgewirkt.

Doch es gibt Aspekte, die einerseits weniger thematisiert werden und andererseits jedoch besonders gravierende negative Effekte im ganz realen Leben mit sich bringen – unter anderem Missbrauch im und durch das Internet.

Zunehmende Fallzahlen während der Pandemie

Europol hatte im Juni 2020 einen Bericht veröffentlicht, der zeigt, dass sexueller Missbrauch online bzw. mithilfe digitaler Möglichkeiten im Zusammenhang mit der Isolation während der Lockdowns und der einhergehenden (noch stärkeren) Verlagerung von Aktivitäten in das Internet stark zugenommen haben.[1] Die deutliche Steigerung der Fälle, die das US-amerikanische National Center for Missing and Exploited Children (NCMEC) an Europol seit Anfang März 2020 weitergeleitet hatte, wird als Indiz für ein gestiegenes Vorkommen insgesamt gewertet.[2] Vor allem Inhalte, die von den Opfern selbst für ihre Freunde erstellt und auf Social Media-Plattformen veröffentlicht wurden sowie Content, zu dem sie gedrängt wurden, werden in einschlägigen Foren geteilt und Tipps für die erfolgreiche Manipulation von Kindern und Jugendlichen – beispielsweise im Zusammenhang mit Videochats oder Messengern – ausgetauscht.[3]

Die Europäische Wirtschafts- und Sozialausschuss (EWSA) hat im vergangenen Jahr zu dem „Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über eine vorübergehende Ausnahme von bestimmten Vorschriften der Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates hinsichtlich der Verwendung von Technik durch Anbieter nummernunabhängiger interpersoneller Kommunikationsdienste zur Verarbeitung personenbezogener und anderer Daten zwecks Bekämpfung des sexuellen Missbrauchs von Kindern im Internet“ wie folgt Stellung genommen: Die vorgeschlagene Verordnung müsse verhältnismäßig sein und „auf bewährte Technik beschränkt bleiben, die von Anbietern nummernunabhängiger interpersoneller Kommunikationsdienste zu diesem Zweck bereits vor dem Inkrafttreten der Verordnung regelmäßig verwendet worden ist.“[4] Zudem müsse die Verarbeitung auf das „unbedingt erforderliche Maß beschränkt“ werden.

Der EWSA beanstandete jedoch auch die Befristung der Ausnahmeregelung bis 2025 und betonte, dass entsprechende Vorkehrungen zum Schutz der Privatsphäre von Kindern zeitnah umgesetzt werden müssten. Unter anderem regte er die Einrichtung eines auf der Arbeit von Europol aufbauenden eigenen Europäischen Zentrums zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern sowie einen offenen Wettbewerb zur Entwicklung quelloffener Tools, Industrienormen und möglicher neuer Lösungen zur Aufdeckung und Meldung von Missbrauchsfällen an.[5]

Apple will iCloud-Fotos automatisch scannen

Der Tech-Konzern hatte vor kurzem angekündigt, sämtliche Fotos von iPhone-, i-Mac- oder iPad-Nutzerinnen und -Nutzern vor dem Upload in die Cloud nach Child Sexual Abuse Material (CSAM) zu scannen.

Journalistenverbände kritisieren diese Pläne scharf: Die Durchsuchung der digitalen Speicher der Endgeräte schaffe eine „weltweite Infrastruktur für Überwachung und Zensur“.[6] Die damit verbundenen Möglichkeiten können ohne weiteres auch für andere Überwachungszwecke missbraucht werden, so sie denn einmal etabliert sind und die Büchse der Pandora geöffnet ist.[7]

Ein Skandal, gerade für das Unternehmen, das sich in puncto Privatsphäre in der Vergangenheit als vertrauenswürdige – bessere – Alternative u.a. zu Googles Android OS positioniert hatte.[8]

Der Bundestagsausschuss Digitale Agenda bezeichnet das Vorhaben als „gefährlichen Weg“, der die „sichere und vertrauliche Kommunikation“ untergrabe.[9] Die zwischenzeitlich veröffentlichte Beteuerung, das Verfahren sei minimalinvasiv, ein manuelles (menschliches) Überprüfen einzelner Bilder werde nur bei mehreren Treffern unabhängiger Kontrollstellen eingeleitet und Forderungen, wonach auch andere Inhalte außer Missbrauchsdarstellungen an Behörden weitergeleitet werden sollen, würde durch Apple abgelehnt, kann die Bedenken jedoch nicht zerstreuen.[10] Die berechtigte Sorge unter anderem mit Blick auf den Investigativjournalismus sowie Aktivistinnen und Aktivisten, nach Pegasus[11] damit der nächsten Überwachungswelle ausgesetzt zu werden, bleibt.[12]

Das Vertrauen der Nutzerinnen und Nutzer in die Vertraulichkeit ihrer Kommunikation wird zunehmend zerstört und das Internet zum „größten Überwachungsinstrument der Geschichte“.[13]

Das geplante CSAM-Scan-System verstoße gegen die bestehenden Regeln der DSGVO, der e-Privacy-Richtlinie und die Unionsgrundrechte, Journalistenverbände haben bereits mit einem Schreiben (unter anderem) an die Europäische Kommission dazu aufgerufen, das Projekt jedenfalls in Europa zu stoppen.[14]

Fazit

Dass ein strenges und gründliches Vorgehen gegen Missbrauch selbst sowie gerade auch gegen Personen, die entsprechende Videos und Fotos verbreiten, unabdingbar ist, steht wohl außer Frage. Die Schwierigkeit liegt im Erkennen einschlägiger Fälle – der Ansatz von Apple könnte hierbei durchaus hilfreich sein, auch wenn zu bedenken ist, dass ein Ausweichen auf andere Cloud-Dienste dessen Wirksamkeit einen Strich durch die Rechnung machen könnte. Auch vor diesem Hintergrund muss man sich die Frage stellen, ob ein anlass- und unterschiedsloses Scannen sämtlicher Fotos – immerhin ist hier von 1,65 Milliarden aktiver Nutzerinnen und Nutzer nur des iPhones die Rede[15] – nicht einen zu starken Eingriff in die Privatsphäre von unzähligen unbescholtenen Menschen bedeuten würde.

Die Kritik ist daher durchaus angebracht. Es bleibt abzuwarten, ob Apple die angekündigten Pläne tatsächlich gegen den globalen Widerstand seiner Kundschaft durchsetzen wird und ob das Unternehmen das System in Europa einführen dürfen wird.


[1] Europol, EXPLOITING ISOLATION: Offenders and victims of online child sexual abuse during the COVID-19 pandemic, 19.06.2020; vgl. auch Europol, Exploiting isolation: sexual predators increasingly targeting children during Covid pandemic, Pressemitteilung vom 19.06.2020.

[2] Vgl. Europol, EXPLOITING ISOLATION: Offenders and victims of online child sexual abuse during the COVID-19 pandemic, 19.06.2020, S. 6.

[3] Vgl. Europol, Exploiting isolation: sexual predators increasingly targeting children during Covid pandemic, Pressemitteilung vom 19.06.2020.

[4] COM(2020) 568 final 2.5, dort auch zum Folgenden.

[5] Vgl. COM(2020) 568 final 1.5 f.

[6] Vgl. Reuter, Apple fällt um, Netzpolitik.org, 09.08.2021.

[7] Vgl. Reuter, Apple fällt um, Netzpolitik.org, 09.08.2021.

[8] Vgl. Beuth e.al., Durchsucht Apple bald alle meine iPhone-Fotos?, Spiegel Online, 06.08.2021.

[9] Vgl. Becker, „Große Gefahr“: CSAM-Scanning auf iPhones stößt auf Kritik aus dem Bundestag, Heise Online, 17.08.2021.

[10] Vgl. Greis, Apple nennt neue Details zum Foto-Scan auf iPhones, Golem.de, 14.08.2021.

[11] Siehe hierzu nur Reuter/Beckedahl, Der Staatstrojaner-Skandal im Überblick, Netzpolitik.org, 20.07.2021.

[12] Vgl. Becker, iPhone meldet Missbrauchsfotos: Journalisten sehen Verstoß gegen Pressefreiheit, Heise Online, 16.08.2021.

[13] Vgl. Becker, „Große Gefahr“: CSAM-Scanning auf iPhones stößt auf Kritik aus dem Bundestag, Heise Online, 17.08.2021

[14] Vgl. Becker, iPhone meldet Missbrauchsfotos: Journalisten sehen Verstoß gegen Pressefreiheit, Heise Online, 16.08.2021.

[15] Vgl. Becker, Apple: iPhones mit über einer Milliarde aktiver Nutzer, Heise Online, 28.01.2021.

Sämtliche Links wurden zuletzt am 18.08.2021 abgerufen.