Künstliche Intelligenz (KI) lässt sich gemäß der EU-Kommission (AI HLEG, 2018) definieren als „vom Menschen designtes System, welches in der physischen und digitalen Welt durch die Aufnahme von Einflüssen der externen Umwelt agiert, die dort gesammelten strukturierten und unstrukturierten Daten interpretiert und auf Basis dieser Daten und unter Berücksichtigung vorher festgelegter Parameter Entscheidungen trifft und dabei die besten Maßnahmen ableitet, um ein vorab gesetztes komplexes Ziel zu erreichen“.
Durch immer schnellere Fortschritte in der Forschung greift solche KI zunehmend in das menschliche Leben ein. Der Mensch verbringt den Großteil seines Lebens am Arbeitsplatz; und eben hier kommt KI in Form von Automatisierung und Unterstützung von Wertschöpfungsprozessen verstärkt zum Einsatz und damit auf ihn zu. Da KI dabei eigenständige Entscheidungen innerhalb von im Voraus festgelegten Programmierungen trifft, bedarf es dringend eines ethischen Ordnungsrahmens im Umgang mit KI an unseren Arbeitsplätzen. Sechs zentrale ordnungsethische Leitlinien werden hier vorgestellt:
Erstens: KI darf nicht in die Freiheit der Entscheidungen des einzelnen Individuums eingreifen!
Insbesondere die moralische Vertretbarkeit der Entscheidungen, die KI für uns trifft, muss diskutiert werden. KI selbst ist nach heutiger Auslegung keine moralische Agentin, da für eine solche Definition zentrale ethische Konzepte und Schlüsselbegriffe auf die Technologie übertragbar sein müssten. Moralische Agenten sind zuvorderst durch emotionale und soziale Intelligenz gekennzeichnet, die sie befähigt, ihre Wahl und ihr Verhalten nach moralischen Faktoren zu bestimmen. Zudem sind bei KI im Gegensatz zum Menschen keine Interessen vorhanden (Kamin/Neumann, 2021). KI wird vor diesem Hintergrund nicht als moralische Agentin betrachtet, weil ihr die Autonomie in den Entscheidungen, die Interessen und die eigene Motivation fehlen. Durch schnelle Fortschritte in der Weiterentwicklung der Technologie und der programmierten Fähigkeit, zwischen richtig und falsch zu entscheiden, wird KI allerdings zunehmend autonomer. Moralische Gesichtspunkte lassen sich jedoch nach heutigem Stand in diese Entscheidungen nicht implementieren. Für diese ist nach wie vor der Mensch hinter der Technologie zuständig. Die Moral des Menschen wird durch Werte und Normen geleitet, gibt ihm Freiheiten, sichert seine Rechte durch Gesetze und über den Gesetzesrahmen hinaus.
Bei einem großflächigen Einsatz von KI ist es wichtig, dass diese nach unseren Werten und Normen handelt, wenn wir ihr bedeutungsvolle Entscheidungen anvertrauen. Aus diesem Grunde stellte die Expertengruppe für künstliche Intelligenz im April 2019 ethische EU-Leitlinien im Umgang mit KI auf. Diese Leitlinien beinhalten ethische Grundsätze wie die Achtung der menschlichen Autonomie, die Vermeidung von Schaden durch KI, Fairness und die Erklärbarkeit durch Transparenz der Prozesse (Hochrangige Expertengruppe für künstliche Intelligenz, 2019). Doch muss KI in seinen Entscheidungen dem Menschen aber weiterhin Freiheitsspielräume lassen, damit dieser seine Interessen und Präferenzen ausleben kann. Denn selbst bei einheitlichen Werten und Normen in einer Gesellschaft sind die Interessen und Präferenzen der Menschen unterschiedlich. In die sich daraus ergebene Vielfalt der Entscheidungen sollte KI nicht eingreifen – selbst dann nicht, wenn die Entscheidungen der Menschen offenkundig irrational und falsch sind. In liberalen Gesellschaftsordnungen muss es jedem Menschen erlaubt und möglich sein, Fehler zu machen, wie auch irrationale Entscheidungen zu treffen.
Dies bedeutet zum Beispiel im Hinblick auf die Arbeitsplatzkontrolle durch KI, dass im Zielkonflikt zwischen dem durch die Kontrollmaßnahmen verbesserten Arbeitsschutz und der ohne diese Maßnahmen verbleibenden Privatsphäre dem einzelnen Beschäftigten letztlich die Wahl überlassen werden sollte, ob und inwieweit er eine totale Kontrolle seiner Arbeitsumgebung für einen maximalen Arbeitsschutz akzeptiert (Kamin/Neumann, 2021). Die willentliche Inkaufnahme von Arbeitsunfällen mag den Einzelnen zwar aus gesellschaftlicher Sicht schlechter stellen, aber wenn sie präferenzgerecht erfolgt, hat der Einzelne das Recht hierzu, auch dann, wenn er sich irrational hiermit selbst schadet.
Zweitens: Die Haftungsfrage ist vor dem Einsatz von KI vom Gesetzgeber zu klären!
Der moralische Kompass der Entscheidungen von KI obliegt dem Menschen hinter der Maschine. Da die Wertschöpfungskette jedoch immer komplexer wird, erschwert sich mitunter auch eine eindeutige Zuweisung der Verantwortung – und dementsprechend auch der Haftung. Da KI immer autonomer wird und größtenteils eigenständig agiert, fehlt es dem Menschen an direkter Kontrolle. Dort, wo Entscheidungen getroffen werden, passieren auch Fehler, die zu Schäden führen können. Wer übernimmt jedoch die Haftung in einem solchen Schadensfall, und könnte KI diese als eigene Rechtspersönlichkeit selbst übernehmen? Eine erste Überlegung wäre es, die Haftung den Verantwortlichen hinter der Technik zuzuweisen – somit wären Programmierer, Hersteller oder Nutzer in der Verantwortung (Scheufen, 2019). In diesem Falle würden Gesetze wie § 823 Absatz 1 BGB (Haftung für Sachen) oder das Produkthaftungsgesetz greifen (Janal, 2016).
KI übernimmt aber zunehmend anspruchsvollere Aufgaben, welche sie dem Status des Verrichtungsgehilfen, für den der Geschäftsherr haftet, annähert (BDA, 2018). Damit das Gesetz anwendbar ist, müsste KI als Gehilfe untergeordnet werden und somit die Zurechnungsnorm nach § 278 BGB greifen. Der Geschäftsherr haftet nach dieser Norm für das Verschulden von Dritten genauso wie für sein eigenes, welches in § 823 Absatz 1 BGB geregelt ist und die Pflicht der Verkehrssicherung vorsieht (Janal, 2016). Die Verkehrssicherungspflicht ist allerdings eine weitere Grauzone, in welcher es eine rechtliche Regelung insbesondere in Anbetracht des Einsatzes von KI bedarf. Eine weitere Möglichkeit, die derzeit diskutiert wird, beinhaltet die Einführung einer dritten, neuen Rechtspersönlichkeit, der sogenannten „ePerson“. Da Schäden durch KI in den meisten Fällen jedoch auf das menschliche Handeln zurückgeführt werden können, wird diese Option eher kritisch betrachtet und lässt sich bislang nicht rechtfertigen (Scheufen, 2019).
Die Haftung für mögliche Schäden, welche durch KI verursacht werden, muss indes vor jedem Einsatz von KI eindeutig geklärt werden. Dazu ist festzulegen, inwieweit der Erschaffer, der Programmierer, der Hersteller, der Anwender, der Nutzer oder die KI selbst für die Kompensation entsprechender Schäden aufkommen muss. Möglich wären für KI ähnliche Konstruktionen wie die der Gesellschaft mit beschränkter Haftung, in denen KI in bestimmten Einsatzbereichen mit einer Haftungshöchstgrenze versehen wird, wozu die benötigten Mittel zur Kompensation von Schäden an geeigneter Stelle vorab hinterlegt werden müssen. KI hätte insofern dann quasi ein zurechenbares Privateigentum, auf das sie im Schadensfall zurückgreifen kann. Bis zur Höhe dieses Eigentums haftet KI dann. Haftungsbeschränkungen sind für den Einsatz von KI wichtig, weil ohne Haftungsbeschränkungen risikoaverse Menschen auch vor sinnvollen Einsatzfeldern von KI zurückschrecken, weil sie das Risiko des Schadensfalles subjektiv als zu hoch erachten (Kamin/Neumann, 2021).
Drittens: Diskriminierung durch KI sollte durch Datenmanipulation gegengewirkt werden!
Mit dem Einsatz von KI stellt sich die Frage nach Diskriminierung und Chancengleichheit neu. KI sollte aktiv einen Beitrag zur Chancengleichheit und zur Verhinderung von Diskriminierung leisten. Entsprechende Programmierungen sind also nicht nur darauf zu prüfen, dass es nicht zu zusätzlicher Diskriminierung kommt, sondern auch darauf, dass KI hilft, bestehende Diskriminierung abzubauen. So könnte beim Einsatz von KI in Bewerbungsverfahren für Führungspositionen der Datensatz, aus dem KI lernt, so konfiguriert werden, dass in den Daten, auf die KI zurückgreift, mehrheitlich Frauen Führungspositionen einnehmen. Dies erfordert zwar eine Manipulation der Datensätze, doch werden die Datensätze, aus denen KI lernt, ohnehin subjektiv vom Menschen festgelegt (Kamin/Neumann, 2021).
Die mangelnde Fairness im Einsatz von KI ist ein wiederkehrender Kritikpunkt. Besonders anfällig für solche Diskriminierung sind beispielsweise das maschinelle Lernen und algorithmische Entscheidungen. Um solche Verzerrungen zu vermeiden, ist es zunächst notwendig, die Frage zu klären, wie diese überhaupt zustande kommen. Für bestimmte Entscheidungsverfahren werden abhängige und unabhängige Variablen bestimmt, die dabei helfen, Korrelationen in großen Datensätzen zu finden. Dabei kann es dazu kommen, dass eine Minderheit oder ein Geschlecht diskriminierend behandelt wird, wenn die entsprechende Gruppe von KI aufgrund ihrer niedrigeren oder höheren Korrelationen mit der abhängigen Variable aussortiert oder in den Fokus gerückt wird. So kann es im Einsatz von KI-Systemen in Bewerbungsverfahren dazu kommen, dass Männer für einen Beruf bevorzugt werden, da ihr Profil eher mit den Kriterien zusammenpasst. Diese Entscheidung trifft KI auf Basis historischer Trainingsdaten und mag Frauen somit den Zugang zu einer reellen Chance im Bewerbungsprozess verweigern. Der Programmierung von KI werden diese diskriminierenden Standards zwar nicht implementiert, da sie jedoch selbstständig Datenmengen hinzuzieht und auswertet, kann es zu diskriminierenden Rückschlüssen und Entscheidungen durch KI kommen (Borgesius, 2018). Der Gender Pay Gap ist ein Beispiel hierfür: Er ist in Deutschland heute immer noch deutlich zu erkennen (Destatis, 2021). Inwieweit der Einsatz von KI diesen positiv oder negativ beeinflusst, ist noch unklar. Mögliche Verzerrungen im Hinblick auf die Chancengleichheit sind jedoch bekannt. Dem kann und sollte gegengewirkt werden, indem die Daten, auf die KI zurückgreift, entsprechend kontrolliert, man könnte auch sagen, zugunsten der Chancengleichheit manipuliert werden.
Viertens: Transparenz und Nachvollziehbarkeit müssen aktiv überwacht werden!
Der Einsatz von KI wird zu erheblichen Informationsasymmetrien zwischen Programmierern und Anwendern führen. Transparenz und Nachvollziehbarkeit der Programmierung und der Werte und Normen des Programmierers sind für die Erklärbarkeit der Entscheidungen von KI wesentlich. Zudem müssen die Entscheidungen ständig auf ihre moralische Qualität hinterfragt werden, weil KI sich selbst weiterentwickelt. Aufgrund fehlender Sachkenntnisse kann der einzelne Anwender eine solche Beobachtung und Überprüfung nicht leisten. Es bedarf daher eigentlich einer unabhängigen gesellschaftlichen Institution, die für diese Überwachung zuständig ist. Um die Überwachung leisten zu können, benötigt die Institution Zugang zu den genutzten Daten. Hier stellt sich insbesondere das Dilemma zwischen Datenschutz und dem Einsatz sowie der Kontrolle von KI. Der Unabhängigkeit der Institution wird daher große Bedeutung zukommen (Kamin/Neumann, 2021). Der Datenschutz darf kein Hemmnis für den optimalen Einsatz von KI werden, dafür bedarf es eines modernen und flexiblen Rahmens. Der Mensch hat ein Recht auf den Schutz seiner personenbezogenen Daten und auch seiner Privatsphäre. Um ein umfassendes Sicherheitsgefühl möglich zu machen, müssen staatliche Einrichtungen jedoch jederzeit, soweit notwendig, auf diese zugreifen können, um die Sicherheit der Gesellschaft zu wahren.
Fünftens: Datenschutz und Fortschritt müssen durch entsprechende Regeln ausbalanciert werden!
KI lebt vom Rückgriff auf große Datenmengen. Wer für die Einrichtung von KI viele Daten zur Verfügung hat, erhält hiermit einen nicht aufholbaren Startvorteil. Es ist zu befürchten, dass es im Bereich der Herstellung von KI zu ähnlichen Marktmachtstrukturen kommt wie bei den heutigen Internetgiganten. Über die Regulierung solcher Konzerne sollten sich Gesellschaften vorab Gedanken machen und nicht, wie es bisher der Fall ist, nach deren Entstehen (Kamin/Neumann, 2021). Der Mensch kann diese Datensätze zwar bestimmen und beschränken, trotzdem ist eine hundertprozentige Kontrolle so gut wie unmöglich. Im Mittelpunkt der Diskussion stehen aus diesem Grunde zwei zentrale Fragen zum Thema Datenschutz: Zum einen die Frage danach, wie der Datenschutz ausgelegt werden sollte, um insbesondere sensible personenbezogene Daten zu schützen, und zum anderen, ob eine solche rechtliche Beschränkung dem Fortschritt und den Möglichkeiten von KI im Weg steht. Zum Schutz bei der Verarbeitung personenbezogener Daten wurde im Jahr 2016 die Datenschutzgrundverordnung (DSGVO) verabschiedet. Durch die Fortschritte in der Weiterentwicklung der Technologien, insbesondere KI, sind die Anforderungen an dieses Gesetz gewachsen. Bislang gibt es keinen speziellen Bezug auf KI in der Datenschutzgrundverordnung. Die Gegensätzlichkeit zwischen Datenschutz und Sicherheitsbedürfnis adressiert einen dringenden Anpassungsbedarf.
Der Datenschutz versucht die Privatsphäre zu wahren, während das Sicherheitsbedürfnis der Sammlung notwendiger Daten sowie die Aus- und Bewertung dieser entspricht. Ziel der Datenethik ist es, die Gegensätze anzunähern und ethische Standards im Datenumgang einzubetten. KI wird hier als algorithmisches System betrachtet. Die Datenethikkommission stellt zudem klar, dass ethisch nicht akzeptable Auswirkungen nicht nur aufgrund der Verarbeitung von personenbezogenen Daten zustande kommen, sondern auch im Umgang mit nicht-personenbezogenen Trainingsdaten (Datenethikkommission, 2019).
Sechstens: Kompensation für die Verlierer am Arbeitsmarkt sorgt für eine größere Akzeptanz des Fortschritts!
Der Einsatz von KI wird mit einem erheblichen Strukturwandel verbunden sein. Die Konsequenzen für einzelne Betroffene, die ihren Arbeitsplatz verlieren und deren Qualifikation sich entwertet, aber auch für die Weltwirtschaft, in der es zu erheblicher Verschiebung von Produktionsschritten kommen wird, sind enorm. Dies wird zu steigenden Einkommensdisparitäten führen und die gesellschaftliche Akzeptanz eines sinnvollen Einsatzes von KI aushöhlen, wenn keine Kompensationsmechanismen vorgesehen sind. Daher sollte frühzeitig über anreizkompatible Umverteilungsmechanismen nachgedacht werden (Kamin/Neumann, 2021). Seit einigen Jahren wird diskutiert, inwieweit Arbeitsplätze von KI bedroht werden. Erste Erkenntnisse zeigten bereits, dass die Übernahme gesamter Berufsbilder durch KI unwahrscheinlich ist, sondern es sich vielmehr um die Übertragung einzelner Tätigkeiten auf KI handelt (Bonin et al., 2015). Routineaufgaben können hierbei am einfachsten von KI übernommen werden, da sie repetitive und gleichbleibende Tätigkeiten umfassen. Die Frage ist an dieser Stelle, welche Voraussetzungen für eine solche Aufgabenteilung gegeben sein müssen, damit KI wirklich alle Routineaufgaben übernimmt und welche Beschäftigten hiervon betroffen sind. Ob menschliche Arbeitskraft im Unternehmen durch Automatisierung ersetzt wird, hängt von den Instandhaltungs- und Arbeitskosten sowie der Verfügbarkeit von KI und Arbeitskräften ab. Einfluss auf die faktische Entscheidung zur Automatisierung im Unternehmen haben somit auch die Arbeitslosenquote sowie der vorherrschende Fachkräftemangel. In Deutschland ist die Arbeitslosigkeit unter Geringqualifizierten hoch, den Unternehmen mangelt es hingegen an Fachkräften (Bundesagentur für Arbeit, 2019). Dieser Fachkräftemangel hemmt bislang noch den Einsatz von KI in Unternehmen, da neben dem fachlichen Knowhow und dem Verständnis der Technologien auch die wertvolle Ergänzung der KI mit ihr bislang mangelnden persönlichen und sozialen Schlüsselqualifikationen fehlt. Ist der Einsatz von KI in der Einkommensverteilung aber erst klar erkennbar, dann werden die Gruppen, die hiervon betroffen sind, gegen eine Ausweitung von KI opponieren. Hierbei könnte es sich ersten Anzeichen nach um weitere Teile der Mittelschicht handeln. Um sie dauerhaft vom Einsatz von KI zu überzeugen, ist es sinnvoll, vorab zu klären, wie durch KI entstehende Einkommensdisparitäten verhindert werden können.
Hinweis: Eine ausführliche Analyse der Begründung dieser Implikationen findet sich im Beitrag:
Kamin, A. und M. Neumann (2021): Ordnungsethische Prinzipien für den Einsatz von Künstlicher Intelligenz in der Arbeitswelt, Jahresband des Fachbereichs Wirtschaft der Jade Hochschule Wilhelmshaven, Oldenburg, Elsfleth, S. 211-234.
Sonstige Quellen
AI HLEG (2018): A Definition of AI: Main Capabilities and Scientific Disciplines, Brüssel: Europäische Kommission.
BDA – Bundesvereinigung der Deutschen Arbeitgeberverba?nde (2018): Germany Reloaded – Wie Wirtschaft und Bescha?ftigte von der Digitalisierung profitieren ko?nnen, Berlin: BDA.
Bonin, H./ T. Gregory und U. Zierahn (2015): U?bertragung der Studie von Frey/Osborne (2013) auf Deutschland, Endbericht, Mannheim.
Borgesius, F. (2018): Discrimination, Artificial Intelligence and Algorithmic Decision-making, https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73, Zugriff: 18.03.2021.
Bundesagentur fu?r Arbeit (2019): Fachkra?fteengpassanalyse, https://statistik.arbeitsagentur.de/Statistikdaten/Detail/201906/arbeitsmarktberichte/fk-engpassanalyse/fk-engpassanalyse-d-0-201906-pdf.pdf, Zugriff: 13.04.2021.
Datenethikkommission (2019): Gutachten der Datenethikkommission, https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf?__blob=publicationFile&v=6, Zugriff:29.06.2021.
Destatis (2021): Gender Pay Gap, https://www.destatis.de/DE/Themen/Arbeit/Arbeitsmarkt/Qualitaet-Arbeit/Dimension-1/gender-pay-gap.html, Zugriff: 16.12.2021.
Hochrangige Expertengruppe fu?r ku?nstliche Intelligenz (2019): Ethik-Leitlinien fu?r eine vertrauenswu?rdige KI, https://op.europa.eu/de/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1, Stand: April 2019; Zugriff: 29.06.2021.
Janal, R. (2016): Die deliktische Haftung beim Einsatz von Robotern – Lehren aus der Haftung fu?r Sachen und Gehilfen, in: Gless, S./K. Seelmann (Hrsg.): Intelligente Agenten und das Recht, Robotik und Recht Band 9, S. 141-162.
Scheufen, M. (2019): Ku?nstliche Intelligenz und Haftungsrecht: die e-Person aus o?konomischer Sicht, Wirtschaftsdienst, Jg. 99, Nr. 6, S. 411-414.
- Homeoffice und Produktivität - 9. Juli 2024
- Die freie Wahl zwischen Home-Office und Präsenzarbeit - 19. Dezember 2022
- Wettbewerb der Hochschulen
Die Perspektive im Bundesbildungsbericht 2022 - 10. Juli 2022
Ja, Diskriminierung durch Diskriminierung entgegenwirken und im Namen vorgeblicher Gerechtigkeit immer weiter diskriminieren, das kann ja nur ein voller Erfolg werden.
Wenn man einfach mal außer Acht läßt, das eine unglaublich benachteiligte Gruppe im Schnitt 32 Stunden pro Woche arbeitet, statt 41 wie die Vergleichsgruppe und dafür doch tatsächlich Gehaltsnachteile hat und auch nicht so flott in hohe Positionen aufrückt, dann ergibt das ja auch alles total Sinn,
Wir sollten in Zukunft nur die Abkürzung AP statt AI verwenden: Automated Parasitism.