Mail

KI zwischen Chancen, Datenbias und rechtlichen Verpflichtungen

Oft unbemerkt und doch omnipräsent: Künstliche Intelligenz (KI) ist aus unserem Alltag nicht mehr wegzudenken. Uns werden Musik- und Video-Empfehlungen vorgeschlagen, wir benutzen eine Gesichtserkennungssoftware zum Freischalten unseres Smartphones und erfreuen uns am Spam-Filter, der wenigstens einen Teil der E-Mails von reichen Erben aus exotischen Ländern aussortiert.

KI als Chance

In unserer Geschäftswelt etabliert sich KI in rasender Geschwindigkeit: Schon 2019 beschäftigten sich laut einer Umfrage des Fraunhofer-Instituts rund drei Viertel der befragten Betriebe mit dem Thema. Mehr als 15% hatten bereits eine KI-Anwendung im Einsatz, Tendenz stark steigend. Viele Beobachter bescheinigen KI gar das Potential, ein wesentlicher Treiber für den Industriestandort Deutschland zu werden.

KI ist weitaus diverser, als es das viel zitierte Beispiel des autonomen Fahrens suggeriert.

KI sorgt für einen immensen Entwicklungsschub und die Palette an bereits eingesetzten Anwendungen ist weitaus diverser, als es das viel zitierte Beispiel des autonomen Fahrens suggeriert: In der Produktion werden automatisierte Prozesse mit selbstentscheidenden Maschinen bestückt und ganze Herstellungsanlagen zu sogenannten „Smart Factories“ umgewandelt. Logistikunternehmen greifen immer öfter auf KI-basierte Lösungen zurück, um die Lagerhaltung effizienter zu gestalten, Liefertermine optimal zu planen und Touren aufeinander abzustimmen. Im Sales und Marketing kann KI dadurch unterstützen, Kundenanfragen aus verschiedenen Kanälen automatisch zu kategorisieren, weiterzuleiten oder samt maßgeschneiderten Antwort- oder Lösungsempfehlungen automatisch weiterzubearbeiten, oder aber realisiert personalisierte Produkte und Preiskombinationen.

KI ist anders

Das Herzstück von KI sind mathematisch-statistische Modelle, die mit vorgegebenen Trainingsdaten, also einer Vielzahl an Beispielen, für eine bestimmte Fragestellung optimiert werden. Bei KI-Modellen werden Entscheidungen also nicht von fest vordefinierten fachlichen Regeln getrieben, sondern von Mustern, die ein mathematisches Verfahren automatisch aus verfügbaren Daten extrahiert.

Der Treiber für KI sind implizite Muster in Trainingsdaten, nicht mehr explizit definierte fachliche Regeln.

Dieses Vorgehen macht KI so flexibel und anwendbar für Probleme, die vormals nicht oder nur schwer lösbar waren. Es hat jedoch einen Preis: Anders als bei „klassischen“ IT-Verfahren ist eine KI-basierte Lösung typischerweise eine „Blackbox“. Man kann nicht ohne weiteres nachvollziehen, wieso oder auf Basis welcher Kombination aus spezifischen Trainingsdaten sie eine Entscheidung trifft.

KI birgt Risiken

Insbesondere wenn KI-basierte Lösungen immer eigenständiger handeln und in Entscheidungen involviert sind, die Einfluss auf uns Menschen, unsere Lebensführung und Persönlichkeitsentfaltung haben, dann ist ihr Einsatz nicht mehr nur eine Frage technischer Umsetzbarkeit. Die zugrunde liegenden Daten bergen das Risiko, Verzerrungen, sogenannte Biases, zu enthalten. Diese Biases haben Ungleichbehandlungen und Diskriminierungen zur Folge, können die scheinbare Neutralität und Objektivität in Zweifel ziehen oder auch die gesamte Produktivsetzung der Lösung gefährden.

Biases haben Ungleichbehandlungen und Diskriminierungen zur Folge und gefährden die Produktivsetzung von KI-basierten Lösungen.

Die folgenden Biases sollten beachtet werden:

Historical Bias: Ein Risiko beim Einsatz von KI besteht darin, dass diskriminierende Entscheidungen aus der Vergangenheit reproduziert werden. KI-Modelle lernen auf Basis von Trainingsdaten. Wenn diese Datensätze bereits Ungleichheiten enthalten, wird auch die KI sich ein entsprechendes Verhalten antrainieren. So lernte bspw. der Recruiting-Algorithmus eines Online-Versandhauses Bewerbungen mit Merkmalen, die auf eine weibliche Person schließen lassen, abzulehnen, da auch in der Vergangenheit überwiegend Männer eingestellt wurden.

Representation Bias: Ein weiteres Risiko besteht in der Auswahl und Zusammenstellung der Datensätze, die zum Training des KI-Modells verwendet werden. Werden bestimmte Personengruppen in den Trainingsdaten unter- oder überrepräsentiert, spiegelt sich das auch in den Ergebnissen wider, die von der KI erzeugt werden. Bei kommerziellen Gesichtserkennungssystemen wurde bspw. aufgedeckt, dass Personen mit dunkler Hautfarbe oft deutlich schlechter erkannt wurden, weil die Trainingsdaten vornehmlich Gesichter mit heller Hautfarbe umfassten.

Algorithmic Bias: Risiken können auch bei der Entwicklung der KI-Modelle entstehen. Wenn die zu berechnende Zielvariable des KI-Modells eine schwer greifbare Größe darstellt, kommt es zu ungenauen Ergebnissen und im schlimmsten Fall zu Benachteiligungen bestimmter Personengruppen. Gerade bei komplexen Vorgaben, wie der „Kreditwürdigkeit“ von Antragstellern, fällt die Definition einer Funktion schwer, die das zu berechnende Problem adäquat abbilden kann.

Feedback Loops: Alle zuvor genannten Risiken können durch Feedbackschleifen lernender Systeme über Zeit noch verstärkt werden. Wenn etwa Daten über die Recruiting-Entscheidungen wieder in das System zurückgeführt werden, so wird die KI noch darin bestärkt, beim nächsten Mal genauso zu handeln.

Neben diesen datengetriebenen Biases gibt es zweifellos weitere Aspekte, die sowohl KI-Systeme als auch andere Arten von Software betreffen, sei es Datenschutz, technische Robustheit oder Transparenz. Auch sie können sich zu einem Risiko entwickeln.

Rechtliche Pflichten beim Einsatz von KI

Die Risiken von KI sind auch vom Gesetzgeber nicht unbemerkt geblieben. Sowohl auf Bundes- als auch auf internationaler Ebene wurden verschiedene Initiativen auf den Weg gebracht, um ethische und rechtliche Auswirkungen dieser neuartigen Technologien zu bewerten und Handlungsempfehlungen für deren Einsatz abzuleiten.

Regulatorische Anforderungen sehen einen risikobasierten Ansatz vor, um den Einsatz von ethisch fragwürdigen Anwendungen zu verhindern.

Ein regulatorischer Meilenstein wurde im April 2021 erreicht, als die EU-Kommission einen umfassenden Verordnungsvorschlag zum Umgang mit KI-Anwendungen veröffentlichte. Der Vorschlag zielt darauf ab, unerwünschte Risiken von KI zu minimieren und den Einsatz von ethisch fragwürdigen Anwendungen zu verhindern. Er sieht einen risikobasierten Ansatz vor, der das Ausmaß und die Intensität der erforderlichen Maßnahmen zum Schutz der Betroffenen ins Verhältnis setzt zu dem Risiko, das von einer bestimmten KI-Anwendung ausgeht. Als Verordnungsvorschlag wird das Dokument zwar aktuell noch von den anderen EU-Institutionen begutachtet, es ist jedoch davon auszugehen, dass der Verordnungsvorschlag mittelfristig umgesetzt wird und anschließend direkt gilt, also nicht erst noch in deutsches Recht übersetzt werden muss.

Fazit

Wir empfehlen unseren Kunden, bereits heute die sich abzeichnenden rechtlichen Vorgaben sowie die zugrundeliegenden ethischen Prinzipien als zentrale Fragestellungen in ihren KI-Vorhaben zu berücksichtigen: Auch unabhängig von der rechtlichen Dimension können bspw. Diskriminierungseffekte, die aus der Nichtberücksichtigung dieser Fragestellungen resultieren, die produktive Einführung einer KI-basierten Lösung komplett blockieren.

In KI-Vorhaben sollten bereits heute die ethischen Prinzipien und sich abzeichnenden rechtlichen Vorgaben als zentrale Fragestellungen kontinuierlich berücksichtigt werden.

Diese rechtlichen und ethischen Fragestellungen sollten kontinuierlich, d.h. von Identifikation bis zur Umsetzung und dem Betrieb von KI-basierten Lösungen, berücksichtigt werden. In vielen Fällen ist hierfür zunächst die Schaffung von geeigneten organisatorischen Strukturen sowie die Einführung neuer Tools und Prozesse im Unternehmen nötig.

Aber es lohnt sich: KI bietet große Chancen für bestehende und innovative Vorhaben, die durch die Beachtung dieser Fragestellungen nicht ausgebremst, sondern sogar weiter verbessert werden können!

Ein mögliches, ganzheitliches Framework zur kontinuierlichen Berücksichtigung ethischer und rechtlicher Vorgaben in KI-Vorhaben stellen wir im Artikel Der KI-Funnel als Vorgehensmodell zur Bewertung und Umsetzung von KI-Vorhaben vor.


Titelbild: Tara Winstead von Pexels