Blogheader Menschenrechte

Neue Publikation: Künstliche Intelligenz und Menschenrechte im Unternehmenskontext

Von Sarah Hechler und weiteren Autor:innen
18.10.2023

Das UN Global Compact Netzwerk Deutschland (UN GCD), der deutsche Ableger der weltweit größten Nachhaltigkeitsinitiative, hat eine neue Publikation zu Künstlicher Intelligenz und Menschenrechten veröffentlicht, die Handlungsempfehlungen für Unternehmen formuliert. Sarah Hechler (UN GCD) und Alexander Kriebitz (TU München) fassen die zentralen Inhalte und Ergebnisse der Publikation zusammen.

In den letzten Jahren hat sich die Künstliche Intelligenz (KI) rapide weiterentwickelt. Die wachsende Verbreitung von KI-Systemen in gesellschaftlich relevanten Bereichen hat eine breite Debatte über die ethischen und menschenrechtlichen Risiken von KI angestoßen. Unternehmen spielen hier eine zentrale Rolle, da sie nicht nur KI-Lösungen entwickeln, sondern auch aktiv in deren Anwendung involviert sind. Beim Einsatz dieser Technologien kann es allerdings zu Menschenrechtsverletzungen kommen, zum Beispiel wenn Individuen aufgrund ihres Geschlechts oder ihres sozio-ökonomischen Hintergrunds von einem KI-System benachteiligt werden oder KI-Lösungen eingesetzt werden, um Menschenrechte gezielt auszuhebeln. Fälle dieser Art zu verhindern, ist ein primäres Ziel von unternehmerischen Sorgfaltspflichten.

Viele Unternehmen orientieren sich in ihren Sorgfaltsprozessen an Gesetzesvorhaben wie dem aktuellen Entwurf einer europäischen KI-Verordnung (EU AI Act). Ein Hauptproblem bleibt dennoch bestehen. Denn die Gesetzgebung im Bereich KI ist lokal begrenzt. Nach wie vor fehlen weltweite Mindeststandards für die Entwicklung und den Einsatz von KI. Das stellt insbesondere international agierende Unternehmen, die mit verschiedenen rechtlichen Rahmenwerken konfrontiert werden, vor eine große Herausforderung.

Dennoch gibt es bestehende internationale menschenrechtliche Prinzipien, an denen sich Unternehmen orientieren können. Die zehn Prinzipien des UN Global Compact sowie die UN-Leitprinzipien für Wirtschaft und Menschenrechte etablieren seit geraumer Zeit Vorgaben, die Unternehmen dazu verpflichten, Menschenrechte in ihren Geschäftstätigkeiten zu achten und zu schützen. Es gibt somit bereits ethische Leitplanken, wenn es um unternehmerisches Handeln im globalen Kontext geht. Die Frage ist nur, was menschenrechtliche Sorgfaltspflichten für die Anwendung und den Einsatz von KI konkret bedeuten sollen. In unserer Publikation leiten wir aus den bestehenden Rahmenwerken Handlungsempfehlungen ab. Hierzu gehören die Notwendigkeit, eine Risikoanalyse durchzuführen, Präventions- und Abhilfemaßnahmen einzuleiten und das Thema KI und Menschenrechte transparent nach außen zu kommunizieren. Was das bedeuten soll, stellen wir im Folgenden kurz dar.
 

Risikoanalyse:

Die UN-Leitprinzipien verlangen von Unternehmen, eine Risikoanalyse ihrer Geschäftstätigkeiten im Hinblick auf menschenrechtliche Risiken durchzuführen. Im Fall von KI bedeutet das, dass ein Unternehmen erstens die Entwicklung und den Einsatz darauf überprüft, ob die Weitergabe von bestimmten KI-Systemen Risiken für beispielsweise verfolgte oder marginalisierte Personengruppen entfaltet. Zweitens sollen Unternehmen überprüfen, ob durch eine unzureichende Berücksichtigung von Menschenrechten in der Entwicklung von KI-Lösungen Menschenrechte verletzt werden. Das wäre zum Beispiel der Fall, wenn Datensätze, auf die eine KI-Lösung zugreift, nicht ausreichend repräsentativ sind und es deswegen zu Diskriminierungsfällen kommt. Drittens sollen Unternehmen das Risiko von Menschenrechtsverletzungen in Folge des Einsatzes von KI-Systemen untersuchen.
 

Präventions- und Abhilfemaßnahmen:

Eine Risikoanalyse reicht allerdings nicht aus, um KI menschenrechtskonform zu entwickeln oder einzusetzen. Rahmenwerke wie die UN-Leitprinzipien verpflichten Unternehmen dazu, bei der Identifizierung von Risiken konkrete Präventions- und Abhilfemaßnahmen einzuleiten. Sinnvolle Maßnahmen wären hierbei die Entwicklung von unternehmensweiten Standards für die Zusammenarbeit mit externen Partnern zu KI-Projekten, die Definition von Beschaffungsstandards bei der Beauftragung von externen Dienstleistern zur Entwicklung von KI-Lösungen oder die Definition einer international gültigen Unternehmensrichtlinie im Umgang mit KI, vor allem wenn es um die Einstellung oder Beförderung von Mitarbeiter:innen geht.
 

Kommunikation und Transparenz:

In den letzten Jahren hat die Kommunikation von Nachhaltigkeitsthemen und dem Schwerpunkt Wirtschaft und Menschenrechte besonders stark zugenommen. Auch im Bereich KI haben Unternehmen die Verantwortung, die Gesellschaft über den Einsatz, Risiken, aber auch Abhilfe und Präventionsmaßnahmen aufzuklären, die mit dem Einsatz und der Entwicklung von KI einhergehen. Damit ist die transparente Kommunikation und das Einholen der Zustimmung von Betroffenen ein weiterer essenzieller Teil unternehmerischer Sorgfaltspflichten.
 

Deep Dive: Medizinische Anwendung von KI

Insbesondere der Bereich Medizin steht im Fokus der aktuellen Forschung und Entwicklung von KI (siehe dazu auch Themenseite „KI in der Medizin“ auf dem KI-Campus). Tatsächlich hat sich hier in den letzten Jahren einiges getan. Das gilt besonders für KI-gestützte Diagnosen, die auf der Analyse von Patient:innendaten basieren, aber auch für die Unterstützung bei der Auswahl von geeigneten Behandlungsmethoden. Dennoch gibt es auch hier menschenrechtliche Risiken. So kann die Verfügbarkeit von Patiente:innendaten mit dem sozioökonomischen Hintergrund von Personen korrelieren. Für Patient:innen mit Migrationshintergrund oder mit einem geringeren Einkommen sind möglicherweise weniger Daten vorhanden. Die mangelnde Berücksichtigung dieser Aspekte kann dazu führen, dass die Prognosen von KI für diese Personengruppe weniger zuverlässig sind und somit gesundheitliche Risiken für Betroffene unter- oder überschätzt werden.

Sollte dies der Fall sein, sind Präventions- und Abhilfemaßnahmen einzuleiten. Eine Maßnahme kann sein, auf die Unterschiede in der Diagnosefähigkeit von KI aufmerksam zu machen und gleichzeitig konkret weitere Datenquellen – Selbstauskünfte, die fehlende Daten bestmöglich abdecken sollen – bei der automatisierten Datenanalyse heranzuziehen, um die Einschätzung von KI zu verbessern. Zudem ist bei Anwendungsfällen in der Medizin besonders auf den Datenschutz zu achten.

Auch wenn Künstliche Intelligenz ein großes Potenzial für die Realisierung von Menschenrechten hat, birgt die Entwicklung und der Einsatz von KI Risiken. Deswegen sollten Unternehmen frühzeitig die Thematik KI in ihre bestehenden menschenrechtlichen Sorgfaltsprozesse integrieren. Hierbei können sie sich an etablierten internationalen Standards orientieren.
 

Zur Publikation „Künstliche Intelligenz und Menschenrechte – Handlungsempfehlungen für Unternehmen“
 

Weiterführende Lernangebote auf dem KI-Campus:

Sarah Hechler
Sarah Hechler
UN Global Compact Netzwerk Deutschland


Sarah Hechler arbeitet seit Mai als Junior-Beraterin für das UN Global Compact Netzwerk Deutschland (UN GCD). Gemeinsam mit ihrem Kollegen Richard Hülsmann betreut sie den Themenbereich Menschenrechte & Arbeitsnormen.

Alexander Kriebitz
Alexander Kriebitz
Technische Universität München

Dr. Alexander Kriebitz arbeitet als Dozent und wissenschaftlicher Mitarbeiter an der Technischen Universität München (TUM) im Themenbereich "Wirtschaft und Menschenrechte". Der aktuelle Fokus seiner Arbeit liegt auf der Interpretation von menschenrechtlichen Sorgfaltspflichten bei der Entwicklung und Nutzung von KI-Systemen.