Gastbeitrag
Testen von Künstlicher Intelligenz
Gesetzliche Regelungen und Aufbau entsprechender Forschungskapazitäten notwendig

Während in den Feuilletons (und Science Fiction Filmen nach wie vor munter darüber spekuliert wird, was passieren wird, wenn Künstliche Intelligenz, kurz KI oder AI (für Artificial Intelligence) ) (demnächst) Bewusstsein erlangt haben wird, wird in der wirklichen Welt intensiv darüber nachgedacht – und dies mit Erfolg  –  wie man die real vorfindliche KI vernünftig kontrollieren kann. Ich kann und will mich hier in die technischen Details der Kontrolle nicht einmischen, sondern will auf  eine zentrale gesetzlich-organisatorische Voraussetzung für eine effektive Kontrolle hinweisen den Zugang zu den Daten, mit denen KI „trainiert“ wird und die sie produziert. Ohne diesen Zugang kann es keine vernünftige Kontrolle geben, und für diese Kontrolle muss auch institutionalisierte Forschungskapazität aufgebaut werden.

Im Bereich der gesetzlichen Regulierung hat die Europäische Kommission seit letztem Jahr viel getan; zuletzt mit dem Vorschlag eines „Data Acts“. Und auch im Koalitionsvertrag der Ampel-Bundesregierung finden sich wichtige Ansätze, auch hinsichtlich der Forschungsförderung, die hoffentlich angesichts vieler anderer Probleme, die akut politische Kraft erfordern, nicht vergessen werden.

Die Daten-Verordnung (im englischen Sprachgebrauch Data Act: DA) und die (KI Verordnung (im englischen Sprachgebrauch: Artificial intelligence Act: AIA) sind die letzten von bislang fünf Vorschlägen, mit denen die Europäische Kommission die digitale Wirtschaft regeln will. Die fünf Vorschläge berühren in unterschiedlicher Weise die Verbraucherpolitik und das Verbraucherrecht. Der Data Governance Act (DGA) regelt die Möglichkeit, persönliche Daten von einem Treuhänder verwalten zu lassen, der Digital Market Act (DMA) will die Macht der großen Plattformen beschränken, der Digital Services Act (DSA) regelt die Haftung der Internetprovider neu, die KI Verordnung schließlich will u.a. sicherstellen, dass KI nicht die physische und psychische Gesundheit beeinträchtigt.

Wie kann KI transparent und prüfbar gemacht werden, und damit regulierbar? Der Entwurf der EU-Verordnung zur Regulierung Künstlicher Intelligenz (Artificial Intelligence Act – AIA) formuliert klar und deutlich das Ziel, dass KI, die für Menschen kritisch sein kann (etwa Kreditscoring, staatlich kontrolliert und ggf. sogar verboten werden soll. Nun fragen sich viele: ist das nicht aussichtslos angesichts der Tatsache, dass KI „selbstlernend“ sei und sich über kurz oder lang menschlicher Kontrolle entziehen wird? Die Antwort ist: nein. KI ist keineswegs selbstlernend, sondern sie wird von Menschen trainiert. Und dieses Training und seine Ergebnisse kann man durchaus kontrollieren. Dass dies auch geschieht, ist aber nicht selbstverständlich, da die Entwickler und Anwender von KI dies gerne mit dem Hinweis auf Geschäftsgeheimnisschutz abwehren. Man  muss aber den Programm-Code einer KI-Software gar nicht kennen, sondern  kann die relevanten Erkenntnisse anhand der verarbeiteten Daten und der daraus abgeleiteten Entscheidungen gewinnen. Auch der Datenschutz kann dabei selbstverständlich gewahrt werden. Aber zu den konkreten Möglichkeiten der Kontrolle sagt der EU-Entwurf des Artificial Intelligence Acts wenig. Für eine Kontrolle notwendig ist, dass die Daten, die kritische KI-Systeme verarbeiten, per Gesetz ebenso zugänglich gemacht werden müssen wie die Entscheidungen, die die KI-Systeme daraus ableiten (z. B. über die Vergabe eines Kredits oder das Sperren von Inhalten im Netz).

Die Voraussetzungen, um KI-Systeme systematisch testen und auf ihre Kritikalität, d. h. die Relevanz für unser Zusammenleben, überprüfen zu können, muss der Gesetzgeber aber erst noch schaffen. Er muss den Zugang zu Daten rechtlich und technisch sicherstellen, d.h.  er muss diejenigen Daten, die KI als Input benutzt und als Output ausgibt, zugänglich machen. Es bedarf hierfür erstens eines Datenzugangsanspruchs von Forschung und Wissenschaft sowie zweitens standardisierter Schnittstellen, die es erlauben, dass sich Forscher und ggf. auch eine staatliche Aufsicht, wie sie beispielsweise im Digital Services Act der EU vorgesehen ist, systematisch anschauen können, zu welchen Entscheidung die KI bei einer bestimmten Datenkonstellation kommt. Wenn man so will, ist das ein weiterer Datentyp, für den eine gesetzliche Regulierung und leistungsfähige Forschungseinrichtungen notwendig sind: neben den Daten der amtlichen Statistik und der staatlich finanzierten Forschung, die in Deutschland unter dem Dach der Nationalen Forschungsinfrastruktur (NFDI)  gut zugänglich sind, geht es um Daten in den Händen Privater, und dabei auch und gerade um In- und Output von KI-Systemen.

Die Zugänglichkeit der KI-Daten wäre in Deutschland kein Novum. Es finden sich Vorbildregelungen im Netzwerkdurchsetzungsgesetz, im Urheberrechts-Diensteanbieter-Gesetz sowie im Straßenverkehrsgesetz, das durch Vorschriften zum autonomen Fahren ergänzt wurde. Damit wird ausdrücklich der Zugang der freien Forschung zu den beim autonomen Fahren produzierten Daten geregelt. Mit Hilfe dieser Daten kann die KI geprüft werden, die autonome Fahrzeuge steuert. Die Daten sollen laut Gesetzentwurf in anonymisierter Form vom Kraftfahrt-Bundesamt bereitgestellt werden, das darauf auch vorbereitet ist, da es ein Forschungsdatenzentrum als Schnittstelle zur unabhängigen Forschung betreibt, das vom Rat für Sozial- und Wirtschaftsdaten (www.ratswd.de) zertifiziert wurde (https://www.kba.de/DE/Statistik/Forschungsdatenzentrum/Ansprechpartner/ansprechpartner_node.html).

Derartige Infrastrukturlösungen im Zusammenspiel mit wirksamen Datenzugangsansprüchen und standardisierten Schnittstellen sollten nicht nur zur Kontrolle er KI in autonomen Fahrzeugen gesetzlich vorgesehen sein, sondern Datenzugangsansprüche und standardisierten Schnittstellen sollten zur Überprüfung jeglicher KI gesetzlich verankert werden! Von den schon heute bestehenden juristischen und technischen Zugangslösungen können und müssen wir lernen, um KI beherrschen zu können.

Richtig am Data Act ist, dass klar gesagt wird, dass die relevanten Daten für die freie Forschung zugänglich gemacht werden können. Denn nur das Betrachten von Einzelfällen reicht nicht aus, sondern durch Forschung müssen die Strukturen offen gelegt werden, die in den Daten stecken, mit denen KI-Systeme trainiert werden, und es müssen die Strukturen der Entscheidungen, die KI-Systeme fällen, analysierbar sein. Leider ist der Data Act, der sich nur auf das Internet of Things (IoT) bezieht, hier viel zu eng. An dieser Stelle ist der Koalitionsvertrag der Ampel-Bundesregierung allerdings höchst interessant. Dabei ist zunächst der folgende Abschnitt auf S. 21 des Vertrags von Interesse:

„Das ungenutzte Potential, das in zahlreichen Forschungsdaten liegt, wollen wir effektiver für innovative Ideen nutzen. Den Zugang zu Forschungsdaten für öffentliche und private Forschung wollen wir mit einem Forschungsdatengesetz umfassend verbessern sowie vereinfachen und führen Forschungsklauseln ein. Open Access wollen wir als gemeinsamen Standard etablieren. Wir setzen uns für ein wissenschaftsfreundlicheres Urheberrecht ein. Die Nationale Forschungsdateninfrastruktur wollen wir weiterentwickeln und einen Europäischen Forschungsdatenraum vorantreiben. Datenteilung von vollständig anonymisierten und nicht personenbezogenen Daten für Forschung im öffentlichen Interesse wollen wir ermöglichen.“

Mit der expliziten Erwähnung eines Forschungsdatenzugangs legt die Bundesregierung einen wichtigen Grundstein für die als notwendig erachteten Transparenzanforderungen und Kontrollmöglichkeiten von
automatisierten Entscheidungsverfahren. Diese sind u.a. relevant für Kredit-Scoring (das im Vertrag auf S. 170 diesbezüglich angesprochen wird) und im Kontext der Kontrolle von KI und deren Regulierung. Ohne freie Forschung sind Transparenz und Kontrolle nicht zu realisieren. Zur Scoring-Problematik findet sich im Abschnitt “Finanzieller Verbraucherschutz und Altersvorsorge” auch die folgende Passage:

„Wir werden umgehend prüfen, wie die Transparenz beim Kredit-Scoring zugunsten der Betroffenen erhöht werden kann. Handlungsempfehlungen werden wir zeitnah umsetzen.“

Darüber hinaus wird auf der S. 17 die Problematik „Nutzung von Daten und Datenrecht“ im Koalitionsvertrag wie folgt angesprochen:

„Die Potenziale von Daten für alle heben wir, indem wir den Aufbau von Dateninfrastrukturen unterstützen und Instrumente wie Datentreuhänder, Datendrehscheiben und Datenspenden gemeinsam mit Wirtschaft,
Wissenschaft und Zivilgesellschaft auf den Weg bringen. (…) Ein Dateninstitut soll Datenverfügbarkeit und –standardisierung vorantreiben, Datentreuhändermodelle und Lizenzen etablieren.“

Angemerkt sei, dass Schnittstellen natürlich auch ohne gesetzliche Grundlagen geschaffen werden können, wenn die Entwickler bzw. Anwender eines KI-Systems dies geschäftspolitisch für sinnvoll halten oder aus gesellschaftspolitischer Verantwortung heraus Transparenz für notwendig halten. So haben z. B. die Entwickler von MAGMA (Multimodal Augmentation of Generative Models through Adapter-based Finetuning) den Code ihres Systems auf GITHUB freigeschaltet (https://github.com/Aleph-Alpha/magma) und zudem sollen auch technisch weniger versierte Personen bald die Möglichkeit bekommen, die Fähigkeiten der KI direkt per Schnittstelle zu testen.

Ganz wichtig (und deswegen wird die KI-Kontrolle mühsam sein) ist:  Für die verschiedenen Gegenstandsbereiche (z. B. Kredit-Scoring, autonomes Fahren, Dating-Agenturen) braucht es unterschiedliche und spezifische politische Diskurse und Gesetze  und spezifische Regulierungsagenturen. Statt mit Generalklauseln mit Einzelfallbetrachtungen und –gesetzen  zu arbeiten  ist zwar nicht nur juristisch unelegant, sondern schafft auch systematisch Regelungslücken, die ausgenutzt werden können (so z. B. im Sport, wo Doping durch eine Negativliste definiert ist, die einen Anreiz darstellt sich Neues einfallen zu lassen, aber angesichts der Heterogenität des in Rede stehenden Feldes sind Einzelfallregelungen unvermeidlich.

Was auch notwendig ist, ist eine forschungspolitische Diskussion wie die entsprechende Forschungs- und Analysekapazität aufgebaut und auf Dauer finanziert werden kann, die eine regelhafte effektive Kontrolle von KI ermöglicht. „Datenlabore“, die in jedem Bundesministerium eingerichtet werden sollen, um  die Verwaltungsdaten besser zu nutzen. werden auf Grundlagenforschung als Basis angewiesen sein. Es wird nicht ausreichen, dass z. B. der TÜV entsprechende Kapazität aufbaut (und die Stiftung Warentest dies eigentlich auch tun müsste). Es liegt nahe, im Bereich der dauerhaft finanzierten außeruniversitären Forschung  entsprechende anwendungsorientierte KI-Prüf-Kapazitäten aufzubauen, insbesondere im Bereich der auf Wissenstransfer und Politikberatung spezialisierten Helmholtz Gemeinschaft und/oder der Leibniz Gemeinschaft.

Gert G. Wagner

Gert G. Wagner

Senior Research Fellow am Deutschen Institut für Wirtschaftsforschung (DIW Berlin) und Max Planck Fellow am MPI für Bildungsforschung in Berlin
Gert G. Wagner

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.