Künstliche Intelligenz bietet Chancen für eine Vielzahl innovativer und erfolgreicher Anwendungen. Gleichzeitig sind KI-Vorhaben nicht frei von Risiken und Pflichten. Worauf müssen Unternehmen bei der Anwendung dieser neuen Technologie achten?
KI als Chance
In unserer Geschäftswelt etabliert sich KI in rasender Geschwindigkeit: Schon 2019 beschäftigten sich laut einer Umfrage des Fraunhofer-Instituts rund drei Viertel der befragten Betriebe mit dem Thema. Mehr als 15% hatten bereits eine KI-Anwendung im Einsatz, Tendenz stark steigend. Viele Beobachter bescheinigen KI gar das Potential, ein wesentlicher Treiber für den Industriestandort Deutschland zu werden.
KI ist weitaus diverser, als es das viel zitierte Beispiel des autonomen Fahrens suggeriert.
KI sorgt für einen immensen Entwicklungsschub und die Palette an bereits eingesetzten Anwendungen ist weitaus diverser, als es das viel zitierte Beispiel des autonomen Fahrens suggeriert: In der Produktion werden automatisierte Prozesse mit selbstentscheidenden Maschinen bestückt und ganze Herstellungsanlagen zu sogenannten „Smart Factories“ umgewandelt. Logistikunternehmen greifen immer öfter auf KI-basierte Lösungen zurück, um die Lagerhaltung effizienter zu gestalten, Liefertermine optimal zu planen und Touren aufeinander abzustimmen. Im Sales und Marketing kann KI dadurch unterstützen, Kundenanfragen aus verschiedenen Kanälen automatisch zu kategorisieren, weiterzuleiten oder samt maßgeschneiderten Antwort- oder Lösungsempfehlungen automatisch weiterzubearbeiten, oder aber realisiert personalisierte Produkte und Preiskombinationen.
KI ist anders
Das Herzstück von KI sind mathematisch-statistische Modelle, die mit vorgegebenen Trainingsdaten, also einer Vielzahl an Beispielen, für eine bestimmte Fragestellung optimiert werden. Bei KI-Modellen werden Entscheidungen also nicht von fest vordefinierten fachlichen Regeln getrieben, sondern von Mustern, die ein mathematisches Verfahren automatisch aus verfügbaren Daten extrahiert.
Der Treiber für KI sind implizite Muster in Trainingsdaten, nicht mehr explizit definierte fachliche Regeln.
Dieses Vorgehen macht KI so flexibel und anwendbar für Probleme, die vormals nicht oder nur schwer lösbar waren. Es hat jedoch einen Preis: Anders als bei „klassischen“ IT-Verfahren ist eine KI-basierte Lösung typischerweise eine „Blackbox“. Man kann nicht ohne weiteres nachvollziehen, wieso oder auf Basis welcher Kombination aus spezifischen Trainingsdaten sie eine Entscheidung trifft.
KI birgt Risiken
Insbesondere wenn KI-basierte Lösungen immer eigenständiger handeln und in Entscheidungen involviert sind, die Einfluss auf uns Menschen, unsere Lebensführung und Persönlichkeitsentfaltung haben, dann ist ihr Einsatz nicht mehr nur eine Frage technischer Umsetzbarkeit. Die zugrunde liegenden Daten bergen das Risiko, Verzerrungen, sogenannte Biases, zu enthalten. Diese Biases haben Ungleichbehandlungen und Diskriminierungen zur Folge, können die scheinbare Neutralität und Objektivität in Zweifel ziehen oder auch die gesamte Produktivsetzung der Lösung gefährden.
Biases haben Ungleichbehandlungen und Diskriminierungen zur Folge und gefährden die Produktivsetzung von KI-basierten Lösungen.
Die folgenden Biases sollten beachtet werden:
Historical Bias: Ein Risiko beim Einsatz von KI besteht darin, dass diskriminierende Entscheidungen aus der Vergangenheit reproduziert werden. KI-Modelle lernen auf Basis von Trainingsdaten. Wenn diese Datensätze bereits Ungleichheiten enthalten, wird auch die KI sich ein entsprechendes Verhalten antrainieren. So lernte bspw. der Recruiting-Algorithmus eines Online-Versandhauses Bewerbungen mit Merkmalen, die auf eine weibliche Person schließen lassen, abzulehnen, da auch in der Vergangenheit überwiegend Männer eingestellt wurden.
Representation Bias: Ein weiteres Risiko besteht in der Auswahl und Zusammenstellung der Datensätze, die zum Training des KI-Modells verwendet werden. Werden bestimmte Personengruppen in den Trainingsdaten unter- oder überrepräsentiert, spiegelt sich das auch in den Ergebnissen wider, die von der KI erzeugt werden. Bei kommerziellen Gesichtserkennungssystemen wurde bspw. aufgedeckt, dass Personen mit dunkler Hautfarbe oft deutlich schlechter erkannt wurden, weil die Trainingsdaten vornehmlich Gesichter mit heller Hautfarbe umfassten.
Algorithmic Bias: Risiken können auch bei der Entwicklung der KI-Modelle entstehen. Wenn die zu berechnende Zielvariable des KI-Modells eine schwer greifbare Größe darstellt, kommt es zu ungenauen Ergebnissen und im schlimmsten Fall zu Benachteiligungen bestimmter Personengruppen. Gerade bei komplexen Vorgaben, wie der „Kreditwürdigkeit“ von Antragstellern, fällt die Definition einer Funktion schwer, die das zu berechnende Problem adäquat abbilden kann.
Feedback Loops: Alle zuvor genannten Risiken können durch Feedbackschleifen lernender Systeme über Zeit noch verstärkt werden. Wenn etwa Daten über die Recruiting-Entscheidungen wieder in das System zurückgeführt werden, so wird die KI noch darin bestärkt, beim nächsten Mal genauso zu handeln.