Insights

Implikationen des E.U. Artificial Intelligence Act (AIA) für Video Analytics

Einleitung in Video Analytics and regulatorische Faktoren

Mit der rasanten Weiterentwicklung der KI-Systeme werden die technischen Möglichkeiten im Bereich Videoanalyse (VA) expandieren. Neben den Fortschritten bei Anwendungen zur Steigerung der betrieblichen Effizienz sowie zur Verbesserung der Sicherheit beobachtet M2P auch aufmerksam die Rechtslage zur Gewährleistung des Datenschutzes.

Um Vorschriften für KI-Systeme auf EU-weiter Ebene festzulegen, führt das Europäische Parlament derzeit eine Debatte über die Umsetzung der Gesetz über künstliche Intelligenz (AIA). In diesem Zusammenhang möchten wir in diesem Artikel Antworten auf zwei wichtige Fragen geben:

  1. Was ist der Artificial Intelligence Act (AIA)?
  2. Wie wirkt sich die AIA auf Anwendungsfälle der Videoanalyse aus?

Dieser Artikel konzentriert sich speziell auf grundlegende rechtliche Aspekte der Videoanalyse. Es sei darauf hingewiesen, dass bestimmte Anwendungen, beispielsweise in der Medizin oder im autonomen Fahren, hier nicht behandelt werden. Es ist auch wichtig anzuerkennen, dass es sich um ein vorläufiges Gesetz handelt, das derzeit geprüft wird und möglicherweise nicht alle Aspekte abdeckt.

Regulierung von Datenverarbeitungssystemen in der EU: Aktuelle Rechtslage

In der Europäischen Union ist der Umgang mit personenbezogenen Daten in Videoanalysesystemen durch Kapitel II (Artikel 5 — 11) der Allgemeine Datenschutzverordnung (GDPR))[7]. Die DSGVO wurde 2016 in Kraft gesetzt und ist seit Mai 2018 in Kraft. Sie bildet den grundlegenden Rahmen für den Datenschutz innerhalb der EU. Dennoch fehlen ihr umfassende Richtlinien zur Bewältigung der technischen, ethischen und datenschutzrechtlichen Herausforderungen sowie Transparenzanforderungen im Zusammenhang mit künstlicher Intelligenz.

Regulierung von KI-Systemen durch das neue Gesetz

Aus den oben genannten Gründen ist die Europäische Union derzeit dabei, einen neuen Legislativvorschlag auszuarbeiten, der als Gesetz über künstliche Intelligenz (AIA). Sein vollständiger Titel lautet „Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften über künstliche Intelligenz und zur Änderung bestimmter Gesetzgebungsakte der Union“[1]. Der Vorschlag fand überwältigende Unterstützung und wurde in der ersten Lesung vor dem Europäischen Parlament am 14. Juni 2023 mit 499 Ja-Stimmen, 93 Enthaltungen und 28 Nein-Stimmen angenommen[2].

Im Rahmen ihrer umfassenderen digitalen Strategie plant die EU, künstliche Intelligenz (KI) zu regulieren, um die Entwicklung und Nutzung dieser innovativen Technologie unter verbesserten Bedingungen zu erleichtern. In dem Entwurf wird betont, dass KI „kann eine Vielzahl von wirtschaftlichen und gesellschaftlichen Vorteilen für das gesamte Spektrum von Branchen und sozialen Aktivitäten bringen“[[1].

Die Interpretation von KI durch das Europäische Parlament

Das Europäische Parlament definiert sein Verständnis von KI anhand von drei Schlüsselkonzepten. Die Definition in Anhang I der AIA[4] ist ein breites, umfassendes System, das auf maschinellem Lernen, Logik oder Statistik basiert, wie in Abbildung 1 dargestellt.

Abbildung 1: Konzeptbasierte Klassifizierung von Systemen, die KI-Technologie verwenden, gemäß dem Artificial Intelligence Act (AIA)

Das erklärte Ziel der EU ist es sicherzustellen, dass KI-Systeme sicher, transparent, rückverfolgbar, unvoreingenommen, und umweltbewusst. KI-Systeme sollten nicht vollständig automatisiert sein, sondern unter menschlicher Kontrolle bleiben, um potenziellen Schaden zu vermeiden[3]. In der Praxis würde die aktuelle Version des Gesetzes beispielsweise die Verwendung von Gesichtserkennungssoftware einschränken[2]. Darüber hinaus werden Systeme, die ihrem Wesen nach als mäßig risikoreich gelten, aber nicht unsicher genug sind, um ein vollständiges Verbot zu rechtfertigen, strengeren Vorschriften unterliegen. Beispielsweise müssten Betreiber von KI-Anwendungen wie OpenAI, Inc. (das ChatGPT betreibt) mehr Details zu ihren Trainingsdaten angeben und zusätzliche Maßnahmen ergreifen, um die Textgenerierung im Zusammenhang mit illegalen Inhalten einzuschränken[6].

Geltungsbereich und betroffene Interessengruppen

Die AIA legt eine klare Trennung fest zwischen Anbieter und Benutzer von KI-Systemen — Zu den Anbietern gehören alle juristischen Personen, Behörden, Institutionen oder andere Parteien, die entweder an der Entwicklung eines KI-Systems beteiligt sind oder dessen Entwicklung überwachen. Diese Vorschriften gelten, sobald die KI in der Union eingesetzt wird, unabhängig davon, ob sich die beteiligten Parteien in einem Drittland befinden oder dort ansässig sind[5].

Das neue Gesetz klassifiziert KI-Systeme in vier Risikokategorien

Darüber hinaus klassifiziert das Gesetz über künstliche Intelligenz Systeme, die KI verwenden, nach ihrem Risikoniveau. Die spezifischen Vorschriften hängen von der einem System zugewiesenen Kategorie ab. In Abschnitt 5.2.2 werden drei geltende Risikoniveaus beschrieben: „Inakzeptables Risiko“, „hohes Risiko“ und „niedriges oder minimales Risiko“ (siehe Abbildung 2). Insbesondere die ersten beiden Kategorien sind relevant für Kamerasysteme, die in der gesamten Transportbranche eingesetzt werden, insbesondere für solche, die in kritischen Infrastrukturen wie Flughäfen eingesetzt werden. Im folgenden Absatz wird die Kategorisierung der Systeme mit den beiden schwerwiegendsten Risikograden („inakzeptabel“ und „hoch“) verglichen.

Abbildung 2: Risikobasierte Klassifizierung von KI-Systemen gemäß AIA

Gemäß Artikel 5 stellen KI-Systeme eine inakzeptables Risiko wenn das Risiko so hoch ist, dass sie gänzlich verboten sind. Zu dieser Kategorie gehören beispielsweise sogenannte „soziale Bewertungssysteme“. Des Weiteren“Die Verwendung von biometrischen Fernidentifikationssystemen in Echtzeit in öffentlich zugänglichen Räumen zum Zwecke der Strafverfolgung ist ebenfalls verboten.“[[1] mit einer begrenzten Anzahl von Ausnahmefällen. Ausnahmen können beispielsweise gewährt werden, wenn die Identifizierung erst nach einer längeren Zeit erfolgt, zur Verfolgung schwerer Verbrechen verwendet wird und von einem Richter genehmigt wird[3].

Gemäß Artikel 6[1], Anlagen II und III[4], KI-Systeme werden klassifiziert als hohes Risiko wenn sie die folgenden zwei Bedingungen erfüllen:

  1. KI-Systeme, die in Produkten eingesetzt werden, die gemäß den EU-Produktsicherheitsvorschriften erfasst wurden. Dazu gehören Luftfahrtprodukte, Fahrzeuge, medizinische Geräte oder Aufzüge;
  2. KI-Systeme, die in einer EU-Datenbank registriert sein müssen.

In Anhang III des Gesetzentwurfs werden die folgenden Anwendungen, die als KI-Systeme mit hohem Risiko eingestuft werden, eindeutig spezifiziert:

  1. Biometrische Identifizierung und Kategorisierung natürlicher Personen:
  2. KI-Systeme, die für die biometrische Fernidentifikation natürlicher Personen „in Echtzeit“ und „nachträglich“ verwendet werden sollen.
  3. Management und Betrieb kritischer Infrastrukturen:
  4. KI-Systeme, die als Sicherheitskomponenten bei der Verwaltung und dem Betrieb des Straßenverkehrs sowie der Wasser-, Gas-, Wärme- und Stromversorgung eingesetzt werden sollen[4].

Risikoklassifizierung eines KI-Systems am Beispiel der Videoanalyse

Im Folgenden finden Sie eine visuelle Darstellung, die die Klassifizierung eines KI-Systems für Videoanalyse-Anwendungsfälle gemäß dem AIA-Gesetzesentwurf skizziert (siehe Abbildung 3). Zur besseren Übersichtlichkeit wurden die folgenden Begriffe aus der AIA zitiert:

  • „Biometrisches Fernidentifikationssystem“ bezeichnet ein KI-System zur Identifizierung natürlicher Personen aus der Ferne durch den Vergleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank enthaltenen biometrischen Daten [...];
  • „Strafverfolgung“ bezeichnet Tätigkeiten der Strafverfolgungsbehörden zur Verhütung, Untersuchung, Aufdeckung oder Verfolgung von Straftaten oder zur Vollstreckung strafrechtlicher Sanktionen, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit;
  • Die in Artikel 6 Absatz 1 genannten Bedingungen für die Einstufung als Hochrisikosystem lauten wie folgt:
    • das KI-System soll als Sicherheitsbauteil eines Produkts verwendet werden oder ist selbst ein Produkt, das unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fällt;
    • das Produkt, dessen Sicherheitsbauteil das KI-System ist, oder das KI-System selbst als Produkt, muss im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union einer Konformitätsbewertung durch Dritte unterzogen werden[4].
Abbildung 3: Schematischer Prozess zur Risikoklassifizierung von KI-Videoanalysesystemen gemäß AIA

Zusammenfassung und Fazit zu den Anwendungsfällen der Videoanalyse im Rahmen des AIA-Gesetzesentwurfs

Zusammenfassend lässt sich sagen, dass der aktuelle Gesetzesentwurf darauf hindeutet, dass der Einsatz von Videoanalysen mit künstlicher Intelligenz potenziell praktikabel ist, jedoch strengen Vorschriften unterliegt. Angesichts der Tatsache, dass Videoanalysesysteme von Unternehmen aus den Bereichen Reisen, Transport und Logistik überwiegend in öffentlich zugänglichen Räumen und häufig in kritischen Infrastrukturen eingesetzt werden, dürften sie zumindest als Hochrisikosysteme eingestuft werden. Um die Einhaltung der DSGVO- und AIA-Standards aufrechtzuerhalten, ist es unerlässlich, die festgelegten Anforderungen für KI-Systeme mit hohem Risiko zu erfüllen.

Nächste Schritte zur Fertigstellung des Gesetzesentwurfs: Politischer Prozess

Trotz einer erfolgreichen Abstimmung im Europäischen Parlament hat das Gesetz noch einen langen Weg vor sich, bis es verabschiedet wird. In der EU wird ein Prozess stattfinden, der als Triloge bekannt ist und Diskussionen zwischen Gesetzgebern, Kommissionsbeamten und Vertretern der Mitgliedstaaten beinhalten wird. Es ist wahrscheinlich, dass die aktuelle Version des Gesetzes über künstliche Intelligenz, das aufgrund seines umfassenden Anwendungsbereichs auf Widerstand großer Technologieunternehmen gestoßen ist, vor seiner endgültigen Verabschiedung erheblichen Änderungen unterzogen wird. M2P wird die Debatten im Europäischen Parlament genau verfolgen, um fundierte Ratschläge zu Fragen im Zusammenhang mit der Regulierung von KI in Kamerasystemen abzugeben und daraus Konsequenzen für den Einsatz künstlicher Intelligenz in solchen Systemen abzuleiten.

Quellen

[1] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 — (01.10.2023)

[2] https://www.politico.eu/article/facial-recognition-artificial-intelligence-act-ai-issue-european-parliament/#:~:text=The%20European%20Commission%27s%20AI%20Act,children%2C%20dangerous%20criminals%20and%20terrorists — (10.10.2023)

[3] https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence — (10.10.2023)

[4] https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_2&format=PDF — (18.10.2023)

[5] https://eu-digitalstrategie.de/ai-act/ — (20.10.2023)

[6] https://www.nytimes.com/2023/06/14/technology/europe-ai-regulation.html

[7] https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:32016R0679 — (06.11.2023)

Speak to an expert

Get in touch with our expert team to explore how we can help your organization become fit for the future.