Schenken Sie ein Jahr Lesefreude! Mit dem DATUM-Weihnachtsabo.

Das Ende einer Kampagne

Die EU hat das weltweit erste Regelwerk zu Künstlicher Intelligenz ausverhandelt. Wie überfällig das war, zeigt ausgerechnet eine andere Verordnung, für die Ashton Kutcher und andere Techlobbyisten intensiv in Brüssel geworben hatten.

·
Illustration:
Aliaa Abou Khaddour
DATUM Ausgabe März 2024

Während in den USA gerade die ersten großen Wellen von Deepfake-Pornos und KI-generiertem Telefonbetrug grassieren, verordnet sich Europa die weltweit erste umfassende Gesetzgebung zur ›Künstlichen Intelligenz‹. Der ›AI Act‹, so die Brüsseler Kurzbezeichnung für die KI-Verordnung, hatte Anfang Februar trotz großer Differenzen die letzte Hürde genommen, die ständigen Vertreter der Mitgliedsstaaten nahmen den mit dem EU-Parlament ausgehandelten Kompromisstext schließlich an. 

Seit Monaten ist ein übergreifender Wille zum Konsens zwischen den Delegationen der Mitgliedsstaaten und den EU-Parlamentariern kaum zu übersehen. Das Vordringen von KI-Anwendungen in die breite Öffentlichkeit und der KI-Boom der letzten Jahre hatten den AI Act letztlich angestoßen. In allen EU-Institutionen hatte sich die Erkenntnis durchgesetzt, dass angesichts des enormen Missbrauchspotenzials dieser Technologie eine Regulierung überfällig war. In den USA war bis jetzt nichts Vergleichbares zu sehen, außer einer reichlich allgemein gehaltenen ›Executive Order‹ von Präsident Joe Biden und der Ankündigung einer ›AI Bill of Rights‹. Bidens Präsidialerlass ist nicht viel mehr als eine Aufforderung an den US-Kongress, eine KI-Regelung unter diesen Vorgaben zu diskutieren. Angesichts der im Herbst bevorstehenden Präsidentschaftswahlen könnte eine Regulierung frühestens in einem Jahr starten.

Die Dringlichkeit einer Regulierung für Europa demonstrierte ausgerechnet eine weitere EU-Verordnung, die parallel zum AI Act erstellt wurde. In dieser ›Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern‹ wird ›Künstliche Intelligenz‹ zwar kein einziges Mal erwähnt. Das gesamte Regulierungsvorhaben basierte jedoch vollständig auf dem Einsatz und der Funktionalität von KI-Applikationen, die einfach stillschweigend vorausgesetzt wurden. Diese Methode, technische Schlüsselbegriffe durch ›technikneutrale‹ Formulierungen zu ersetzen oder sie überhaupt ganz auszusparen, hat eine lange Tradition in Brüssel. Zum Einsatz kommt sie immer dann, wenn es in einer EU-Verordnung um technische Überwachungsmaßnahmen oder Eingriffe in Freiheitsrechte geht. Im Fall der Verordnung gegen Kindesmissbrauch gab es für diese Art der Begriffsverschleierung allen Grund. 

Die Verordnung, für die der Abgeordnete Patrick Breyer (Piratenpartei) den Begriff ›Chatkontrolle‹ geprägt hatte, startete mehr als ein halbes Jahr nach der KI-Verordnung. Der Kontrollausschuss der EU-Kommission hatte den Verordnungsentwurf der Kommission wegen massiver rechtlicher Bedenken monatelang blockiert. Als EU-Kommissarin Ylva Johansson (SPE) ihre vorgeblich gegen Kindesmissbrauch gerichtete Verordnung dann im Mai 2022 präsentieren konnte, waren im AI Act die KI-Risikoklassen bereits definiert. Wie bei EU-Regulierungen üblich folgt auch die KI-Verordnung einem risikobasierten Ansatz. Die KI-Anwendungen sind in drei Risikoklassen eingeteilt, die mit ansteigenden Auflagen verbunden sind, wie verpflichtende Folgenabschätzungen, Dokumentations- und Meldepflichten, Sicherheitsaudits sowie Auskunfts- und Einspruchsrechte von Betroffenen.

In der Hochrisikoklasse listet der AI Act eine ganze Reihe von KI-Anwendungen aus dem Bereich von Polizei und Strafverfolgung auf. Ganz oben in Anhang III, der sich auf Artikel 6 der KI-Verordnung zu Risikoklassen bezieht, finden sich ›biometrische Systeme zur Identifikation von natürlichen Personen ohne deren Zustimmung‹. Gemeint ist damit Videoüberwachung mit Gesichtserkennung auf öffentlichen Plätzen. Dahinter folgen ›Verhaltens- und Emotionserkennungssysteme‹, insbesondere wenn diese als ›Polygraphen‹, also Lügendetektoren eingesetzt werden. Im Katalog der als illegal eingestuften KI-Anwendungen ist im Wesentlichen die EU-Grundrechtecharta abgebildet, die wiederum eng an die Europäische Menschenrechtskonvention angelehnt ist. KI-Systeme dürfen zum Beispiel grundsätzlich nicht zum ethnischen oder religiösen Profiling eingesetzt werden, KI-gestützte Verhaltensanalyse- und Emotionserkennungssysteme sind wiederum in Schulen und am Arbeitsplatz verboten.

Im gesamten Hochrisikokatalog wie auch unter den verbotenen Anwendungen findet sich jedoch kein auch nur annähernd so monströses Vorhaben wie der Entwurf zur Chatkontrolle aus dem Innenressort von Kommissarin Ylva Johansson (SPE). Um Bilder und Videos von Kindesmissbrauch auf ihren Plattformen zu entdecken, sollten die Anbieter von Chatservices verpflichtet werden, ihre Sicherheitsmechanismen zum Schutz der User, nämlich die Ende-zu-Ende-Verschlüsselung, zu deaktivieren. Sodann sollten sämtliche Kommunikationen der Benutzer samt allen Videos und Bildern von einer KI eingelesen und danach klassifiziert werden, wie wahrscheinlich sie den Tatbestand von Kindesmissbrauch erfüllen. Das Gros dieses von den KI-Algorithmen als verdächtig aussortierten Materials wird auf das unter Minderjährigen beliebte ›Sexting‹ zurückzuführen sein. Laut offiziellen Zahlen stammen mehr als 40 Prozent der in Deutschland gemeldeten Fälle von ›Kinderpornographie‹ nämlich von Minderjährigen selbst. Dazu kommen alle möglichen Videos und Bilder von Kindern mit Erwachsenen von Strandurlauben, Pfadfindercamps, Sportveranstaltungen usw. Auch das berühmte Baby auf dem Eisbärfell und so manche Madonna mit dem Jesuskind wären mit dabei, wie jedes Bild, auf dem nackte oder wenig bekleidete Kinder oder Jugendliche mit Erwachsenen zu sehen sind. Im Verordnungstext selbst ist weder von Verschlüsselung noch von KI die Rede, sondern es wird ganz einfach ›Durchsuchung‹ als Begriff benutzt. Das grenzt an Irreführung, denn durchsucht wird hier nichts, sondern es wird eingelesen, kopiert, mit den Benutzerprofilen von Sender und Empfänger verknüpft und im Begriffsfeld ›Kindesmissbrauch‹ abgespeichert.

Wie aus begleitenden Erläuterungen hervorgeht, sah der Plan danach die folgenden Schritte vor: Was die KI-Algorithmen als potenzielles Missbrauchsmaterial errechnen und markieren, sollte en gros an eine neue EU-Behörde in Den Haag zur Überprüfung übermittelt werden. KI-Systeme produzieren je nach Komplexität der Aufgabestellung und vor allem je nach Volumen der analysierten Datensätze unterschiedlich viele falsche Treffer. Wenn KI-Anbieter mit (angeblichen) Trefferraten von mehr als 90 Prozent Genauigkeit werben, dann heißt das eben nicht, dass dieses KI-System zufriedenstellend funktioniert, sondern dass es für die skizzierten Pläne unbrauchbar ist: Bei zig Millionen Videos und Bildern, die täglich etwa auf der WhatsApp-Plattform zirkulieren, ergäbe das nämlich ein paar hunderttausend Fälle, die pro Tag von Menschen überprüft werden müssten. 

Das sollten etwa hundert Mitarbeiter eines neu zu schaffenden ›EU Centre‹ in Den Haag leisten, das über ein gleichfalls neues Datennetz mit den Innenministerien aller Mitgliedsstaaten verbunden werden sollte. Für die Finanzierung wurde von der Kommission ein dotierter Fonds eingerichtet, man rechnete mit Kosten von rund 825 Millionen Euro – pro Jahr. Über dieses Netz sollten dann die Anzeigen wegen Kindesmissbrauchs an die nationalen Polizeibehörden gehen und vice versa Abfragen der Datenbanken zu Kindesmissbrauch im Centre ermöglicht werden.

Kaum eine EU-Verordnung hatte je zuvor so viel Kritik zur Folge gehabt wie diese Form der Chatkontrolle. Als eine der ersten hatte Österreichs Justizministerin Alma Zadić (Grüne) die Verordnung als vom Prinzip her grundrechtswidrig abgelehnt, mehrere andere Innen- und Justizministerinnen schlossen sich ihr an. ›Die absichtliche Schwächung von verschlüsselter Kommunikation öffnet weiterem Missbrauch Tür und Tor‹, schrieb der deutsche Bundesbeauftragte für Datenschutz, Ulrich Kelber, in einer ersten Reaktion auf Twitter. ›Der Entwurf der Kommission ist nicht vereinbar mit unseren europäischen Werten und kollidiert mit geltendem Datenschutzrecht‹, so Kelber, der selbst Informatiker ist. Er werde sich ›auf nationaler und europäischer Ebene dafür einsetzen, dass die Verordnung in dieser Form nicht kommt.‹ Im europäischen Parlament gab es eine Welle der Kritik aus allen Fraktionen, doch Kommissarin Johansson gab sich ungerührt und verteidigte ihr Vorhaben einer KI-Kontrolle aller Kommunikationen in einer Pressekonferenz, zumal ja mittlerweile Trefferquoten von 99,9 Prozent erreicht seien. Woher sie diese Zahlen hatte, die in der Fachwelt für Spott und ungläubiges Staunen sorgten, gab Johansson nicht bekannt. Direkt danach, nämlich im Sommer 2022, trat dann eine ganze Reihe von Kinderschutz-NGOs an die Öffentlichkeit, von denen die Organisation Thorn die bekannteste war, weil sich US-Schauspieler Ashton Kutcher für sie engagierte. Diese teils gerade erst gegründeten NGOs appellierten nacheinander an die Öffentlichkeit, die armen, missbrauchten Kinder nicht im Stich zu lassen, von denen man so viele retten könnte, würden nur endlich die neuen KI-Technologien eingesetzt, die schon längst verfügbar seien.

Auf diesem Niveau wurde die Stimmungsmache bis in den Herbst des Jahres 2022 betrieben und erreichte ihren Höhepunkt mit einer einschlägigen PR-Veranstaltung unter dem Titel ›Tech to keep children safe online‹ im EU-Parlament. Dafür konnten die Veranstalter die Vizepräsidentin des EU-Parlaments Eva Kaili (SPE) gewinnen, Kutcher war live zugeschaltet, dann wurden abwechselnd grauenhafte Verbrechen an unschuldigen Kindern beschworen und Lösungen durch KI-Technologien angepriesen. Und eine solche KI-Lösung hatte Thorn gerade günstig im Angebot, denn diese Kinderschutz-Organisation vermarktet ihre KI-Software in großem Stil an Plattformen wie Amazon, Regierungsorganisationen, Universitäten, Gesundheitsportalen etc. Spätestens da wurde auch arglosen Beobachtern klar, dass es primär um geschäftliche Interessen ging und dass die Kinderschutzorganisation Thorn weit eher ein mit Venture-Kapital finanziertes Start-up war, das mit seiner KI-Software ›Safer‹ gute Geschäfte machte.

Während die KI-Verordnung in den Parlamentsausschüssen bereits Konturen annahm, drehte sich der Wind für die erste EU-Verordnung, die auf dem Einsatz von KI basieren sollte. Wenige Wochen nach ihrem Auftritt saß Eva Kaili wegen Korruptionsverdachts in Untersuchungshaft, nachdem in ihrem Brüsseler Apartment Reisetaschen mit Hunderttausenden Euro gefunden wurden. Die Anti-Betrugsbehörde hatte Kaili und 20 weitere Beschuldigte aus dem Umfeld der Sozialdemokratie schon monatelang im Visier gehabt, der Fall wurde als ›Qatargate‹ bekannt. Von da an ging es mit der geplanten Verordnung bergab.

Erst stellte sich heraus, dass die absurd hohe Trefferquote von 99,9 Prozent aus einem Verkaufsprospekt von Thorn stammte. Im Innenausschuss des Parlaments kam die Chatkontrolle nicht voran, im Ministerrat war man von einer Einigung noch genau so weit entfernt wie zu Beginn, und Kommissarin Johansson geriet mehr und mehr in die Defensive. Im Spätsommer 2023 musste Ashton Kutcher bei Thorn Abschied nehmen, nachdem bekannt geworden war, dass Kutcher vor Gericht für einen verurteilten Vergewaltiger interveniert hatte. Endgültig zum Skandal aber mutierte diese vorgebliche Kinderschutzverordnung, als ein Nachrichtenblog namens Balkan Insight und mehrere europäische Medien das Lobby-Netzwerk dahinter aufgedeckt hatten: Es war eine unwahrscheinliche Allianz aus KI-Firmen, Venture-Kapital, NGOs, PR-Agenturen, Sicherheitsbehörden, EU-Parlamentariern und ihren Mitarbeitern sowie Beamten der EU-Kommission. 

Sämtliche Kinderschutz-NGOs, die bei der EU-Kommission für die Chatkontrolle lobbyiert hatten, wurden von ein- und derselben Stiftung namens ›Oak Foundation‹ finanziert, insgesamt war diese Kampagne 14 Millionen Dollar schwer. Der für die Chatkontrolle zuständige Top-Beamte aus Johanssons Ressort saß gleichzeitig im Vorstand einer der Kinderschutz-Organisationen, die Lobbying dafür betrieben. Zwei Europol-Beamte wechselten überhaupt die Seiten und heuerten bei den Lobbys an. Obendrein wurde von Beamten der Kommission auf ›X‹ eine verdeckte Werbekampagne für Kinderschutz durch Chatkontrolle in mehreren EU-Staaten gefahren. Die Zielgruppen wurden dabei so ausgewählt, dass Überwachungsgegner diese Kampagne möglichst nicht zu Gesicht bekamen. Als auch das noch ans Licht kam, wurde es dem Parlament zu bunt. Der Ausschuss für Bürgerrechte, Inneres und Justiz lehnte es ab, sich weiter mit der Chatkontrolle zu beschäftigen, und drückte Kommissarin Johansson sein Missfallen über ihre Vorgangsweise aus. Beim EU-Ombudsmann wurde eine ganze Reihe von Beschwerden wegen ›Maladministration‹ gegen Kommissarin Johansson eingereicht.

Die KI-Verordnung dagegen befand sich da schon in den finalen Trilogverhandlungen zwischen Ministerrat, EU-Parlament und Kommission. Die Verhandler des Parlaments hatten dabei zusehen müssen, wie der Ministerrat die Auflagen und Richtervorbehalte etwa für den Einsatz biometrischer Identifikationssysteme in öffentlichen Räumen nacheinander zusammenstrich. Und wie bei allen bisherigen Regulierungen zu Überwachungsthemen der letzten Jahrzehnte hatte Frankreich unter dem Titel ›nationale Sicherheit‹ noch eine Generalausnahme für die Geheimdienste erreicht. Trotz solch gravierender inhaltlicher Differenzen wollten die Parlamentarier jedoch kein Scheitern der weltweit ersten Gesetzgebung zu Anwendungen ›Künstlicher Intelligenz‹ riskieren.   

Und dann war da noch die letzte große Hürde im Ministerrat, genauer gesagt in dessen operativem Arm auf Beamtenebene, im Rat der ständigen Vertretungen (COREPER). Deutschland und Frankreich hatten die KI-Verordnung dort bis zuletzt blockiert und Ausnahmen für sogenannte KI-Basismodelle (›foundation models‹) von der Regulierung gefordert, da angeblich Wettbewerbsnachteile für europäische Unternehmen drohten. Mit Aleph Alpha und Mistral verfügen Deutschland und Frankreich über Start-ups, deren riesige Basismodelle durchaus mit jenen von Google, Meta oder Open–AI mithalten können. Von diesen Großmodellen können dann deutlich schlankere KIs abgeleitet werden, die für spezielle Aufgaben trainiert werden. Da beim Einsatz von solchermaßen spezialisierten KI-Systemen etwa im Gesundheitsbereich oder als technische Instrumente der Strafverfolgung sensible persönliche Daten verarbeitet werden, sind diese Anwendungen im AI Act erheblichen Auflagen unterworfen. Angesichts dessen könne es nicht angehen, dass die den KI-Spezialanwendungen zugrunde liegenden Basismodelle gänzlich im regelfreien Raum entwickelt würden, während die abgeleiteten Modelle reguliert würden, so das Argument der Mehrheit im Rat. In der Folge zogen erst Deutschland und dann auch Frankreich ihre Vorbehalte gegen die ausverhandelte Verordnung zurück.

Der weitere Fahrplan ist damit nun klar: Mitte April kommt die KI-Verordnung zur finalen Abstimmung ins Plenum des EU-Parlaments, es folgen erst eine Absegnung im Ministerrat und dann die Veröffentlichung im Amtsblatt. 20 Tage danach tritt die weltweit erste gesetzliche Regelung zum Einsatz von ›Künstlicher Intelligenz‹ EU-weit in Kraft. Die Mitgliedsstaaten haben danach 24 Monate Zeit, von den EU-Vorgaben nationale Gesetze abzuleiten, für die es auch entsprechenden Spielraum gibt. So steht es Österreich wie allen anderen Mitgliedsstaaten etwa frei, Videoüberwachung mit KI-Gesichtserkennung auf öffentlichen Plätzen zu verbieten, oder andere KI-Anwendungen mit verschärften Auflagen zu versehen. Die Umsetzung der KI-Verordnung wird völlig davon abhängen, welche Partei im Jahr 2025 in Österreich die Justizministerin oder den Justizminister stellt. Und was die Chatkontrolle betrifft, so ist davon auszugehen, dass die nächste EU-Kommission, die im Herbst bestimmt wird, das KI-Desaster mit der Chatkontrolle möglichst schnell vergessen will. Angesichts der Bestimmungen des AI Acts, der dann in Kraft ist, wäre jeder Versuch einer Neuauflage aussichtslos. •

Sie können die gesamte Ausgabe, in der dieser Artikel erschien, als ePaper kaufen:

Diese Ausgabe als ePaper für € 6,00 kaufen