Derzeit wird auf den letzten Metern am AI Act, der KI-Verordnung der EU, gearbeitet, um die Verabschiedung noch vor der Europawahl im Juni 2024 möglich zu machen. Er soll das weltweit erste Gesetz werden, das Künstliche Intelligenz umfassend reguliert. Der Entwurf kommt aktuell auf rund 900 Seiten – hier als Mensch den Überblick zu behalten, ist schon eine Herausforderung. Grundsätzlich soll der AI Act einen risikobasierten Regulierungsansatz verfolgen. Bestimmte Hochrisiko-Anwendungen von KI sollen demnach ganz verboten werden; und je unbedenklicher ein KI-System wird, desto weniger streng soll es reguliert werden.
Werfen wir zuerst einen Blick auf die positiven Seiten des Verordnungs-Entwurfs: Im Allgemeinen stärkt die KI-Verordnung den Schutz von Grundrechten und insbesondere den Datenschutz. Zum Beispiel soll sich jeder bei einer nationalen KI-Aufsichtsbehörde beschweren dürfen, wenn man seine Rechte verletzt sieht. Anbieter von besonders riskanten KI-Systemen müssen ihre Technologien auf Risiken prüfen, ausreichend transparent gestalten und unter menschliche Aufsicht stellen. Öffentliche Gesichts-Datenbanken durch das gezielte Auslesen von Gesichtsbildern aus dem Internet dürfen nicht erstellt werden. Und „Predictive Policing“ – das ist der Versuch, aus polizeilichen Daten Vorhersagen abzuleiten, wie hoch das Risiko ist, dass eine bestimmte Person eine Straftat begeht – wird auch untersagt.
Auf der Minusseite ist zu verbuchen, dass biometrische Überwachung nicht pauschal verboten werden soll – mithilfe z.B. öffentlicher Kameras könnten dann Menschen automatisch anhand ihrer Gesichter oder ihrer Gangart erkannt werden. Eine Echtzeit-Identifikation soll, wenn auch erst nach Zustimmung eines Richters, schon dann erlaubt sein, wenn nur die Annahme besteht, dass eine „spezifische, erhebliche und unmittelbare“ Bedrohung für die physische Sicherheit einer Person verhindert werden kann oder wenn eine Person gesucht wird, die wegen des Verdachts auf Mord, schwere Körperverletzung oder Kinderpornografie gesucht wird.
Noch überwachungsfreudiger ist der aktuelle Verordnungsentwurf bei der Auswertung von Videomaterial im Nachhinein: Auf archivierten Aufnahmen von Überwachungskameras könnten dann Menschen biometrisch identifiziert werden, sobald sie irgendeiner Straftat verdächtigt werden. Für die erstmalige Identifizierung soll nicht einmal eine besondere Genehmigung notwendig sein – erst wenn man eine bereits bekannte, gesuchte Person identifizieren möchte, soll eine richterliche Erlaubnis erforderlich sein. Die soll allerdings auch nachträglich, bis zu 48 Stunden nach der erfolgten Sicherstellung des Materials, noch eingeholt werden können.
Kritiker bezeichnen den Gesetzentwurf als „eine dystopische Zukunft eines misstrauischen High-Tech-Überwachungsstaats“, der Menschen direkt einschüchtern könnte, frei ihre Meinung zu sagen, zu demonstrieren, zu reisen usw., weil man potenziell nirgendwo mehr anonym unterwegs sein kann. Und auch KI ist noch lange nicht 100 Prozent treffsicher, was die Identifikation von Menschen betrifft. Derweil finden die Systeme schon jetzt an immer mehr Flughäfen Verbreitung, damit man nicht mehr seine Bordkarte ständig griffbereit haben muss.
Kommen wir nun zur automatisierten Emotionserkennung. Mit ihr kann man z.B. Studierende vor dem Bildschirm überwachen, mutmaßlich aggressive Personen aus einer Menschentraube fischen oder Menschen bei der Passkontrolle beim angeblichen Lügen ertappen. Wissenschaftler haben jedoch erhebliche Zweifel daran, dass man aus Gesichtsregungen tatsächliche Gefühle einer Person ablesen kann. Die Technologie soll daher zwar als „hochriskant“ eingestuft werden und wird damit vielen Auflagen unterworfen, doch verboten soll sie nicht sein, nur auf der Arbeit und im Bildungsbereich. Das EU-Parlament wollte sie auch bei Sicherheitsbehörden und Grenzkontrollen verbieten. Beim Thema Migration, Grenzsicherung und Asyl soll sie nun sogar bedeutend großzügiger eingesetzt werden – oder wenn die „nationale Sicherheit“ gefährdet sein soll, die jedoch auf EU-Ebene gar nicht einheitlich definiert ist. Autokratische EU-Regierungen wie in Ungarn könnten sich dann nach Belieben selbst gefährlichste KI-Systeme genehmigen und anlasslos biometrische Massenüberwachung oder Social Scoring wie in China anordnen (wie sie es mit der Spionagesoftware Pegasus bereits im Ansatz getan haben).
Hoffen wir, dass einige Verschärfungen es dann doch nicht in den finalen Gesetzestext schaffen…