Logo Mittelstand Digital Zentrum WertNetzWerke
Blog

KI und Ethik – Chancen für den Mittelstand

Eine menschliche und eine digitale Hand bewegen sich aufeinander zu

Künstliche Intelligenz (KI) ist in aller Munde. Durch die zunehmende Nutzung von KI-Systemen werden auch die ethischen Herausforderungen dieser Technologie deutlicher. Dadurch müssen sich auch immer häufiger kleine und mittlere Unternehmen (KMU) die Frage nach verantwortungsvollem und richtigem Handeln im Umgang mit KI stellen.

Künstliche Intelligenz (KI) wird bereits an unterschiedlichen Stellen im Mittelstand eingesetzt, um Prozesse zu erleichtern, zu automatisieren oder um eine Planungsgrundlage für zukünftige Entscheidungen zu schaffen. Dieser KI-Einsatz bringt großen Nutzen, aber auch hohe Risiken mit sich. Daher ist es für mittelständische Unternehmen wichtig, die ethischen Aspekte von KI-Lösungen von Anfang an – schon bei dem Design von KI-Systemen – mitzudenken. Ansonsten besteht beispielsweise die Gefahr, dass Reputations- und Vertrauensverluste entstehen, die zu einer sinkenden Akzeptanz bei Kund:innen und Gesellschaft führen.

KI wird zwar auf Computern entworfen und betrieben, entwickelt werden sie aber von Menschen. Denn: Bereits bei der Vorauswahl der Trainingsdaten für KI-Systeme fällt der Mensch ein subjektives Urteil, wodurch sich Meinungen und Einstellungen bspw. der Entwickler:innen auf die Systeme übertragen und es zu Verzerrungen kommt. Dies kann ohne jede Absicht geschehen, dennoch große Folgen haben. Um Probleme im Vorhinein zu vermeiden, sollten mittelständische Unternehmen KI-Anwendungen präventiv auf ihr Schadenspotenzial untersuchen.

Ansatzpunkte für KI-Ethik

KI-Systeme, die nicht auf die ethischen Implikationen ihrer Entscheidungen untersucht werden, können gravierende soziale, psychische, berufliche, medizinische und finanzielle Schäden verursachen. Die nachfolgenden Beispiele zeigen einige „Schmerzpunkte“ und Ansatzpunkte für KI-Ethik:

Beispiel: Geschlechtsspezifische Unterscheidung

Soll eine KI lernen, Bilder von Personen nach ihrem Geschlecht zu unterscheiden, so muss ein Mensch vorher Bilder auswählen, die dem System verdeutlichen, worin der Unterschied bestehen könnte. Die Festlegung von Kriterien für diese Unterscheidung treffen die an der Systementwicklung beteiligten Personen, wobei subjektive Aspekte in die Kriterien einfließen können. So ist beispielsweise bereits die Einteilung in ein binäres Geschlechtsmodell (Mann - Frau) individuell sowie uneinheitlich und wird der Realität von einer Vielzahl unterschiedlicher Geschlechtstypen nicht gerecht.

Beispiel: Autonomes Fahren

Bei selbstfahrenden Autos wird Künstliche Intelligenz u. a. für Entscheidungen im Gefahrenfall eingesetzt. Bei der Vorauswahl potenziell relevanter Kriterien für diese Entscheidungskompetenzen sind menschliche Verzerrungen möglich. Daher wurde bereits gesetzlich festgelegt, dass die Biografie gefährdeter Personen keine Rolle spielen darf, wenn sich ein Auto entscheiden muss, ob es eher Schaden bei seinen Insass:innen oder Schaden bei anderen Verkehrsteilnehmenden in Kauf nehmen soll.

Beispiel: Recruiting

KI unterstützt den Recruiting-Prozess von Unternehmen u. a. bei der Vorselektion von Bewerbungsunterlagen. Diese erfolgt auf Basis von Merkmalen, die aus den Unterlagen bisheriger Bewerber:innen abgeleitet wurden. Ein auf dieser Grundlage trainiertes KI-System kann jedoch dazu führen, dass ein Unternehmen nicht zeitgemäß auf sich verändernde Qualifikationen reagiert.

Beispiel: KI im Gesundheitswesen

Medizinische KI-Systeme, bei deren Trainingsdaten das Geschlecht kein vordergründiges Auswahlkriterium war und die aufgrund dessen insbesondere auf den männlichen Körper trainiert sind, können zu einer geringeren Qualität der Behandlung von Frauen und anderen Gruppen führen.

Beispiel: Kreditvergabe

KI-Lösungen, die die Kreditwürdigkeit von Personen einschätzen, können Vorurteile replizieren, die aus der Gewichtung einzelner Kriterien für die Beurteilung entstehen. Das kann Auswirkungen auf die Einstufung der Kreditwürdigkeit verschiedener Personengruppen haben.

KI-Ethik-Kodizes als Leitfäden für Unternehmen

Eine Vielzahl an Problemen entsteht unbeabsichtigt durch die Übertragung menschlicher Vorurteile und impliziter Hintergrundannahmen. KI-Systeme sind eben nicht, wie oft angenommen, objektive Beobachter der Welt, die ein Urteil frei von menschlichen Schwächen fällen. Sie sind vielmehr zwangsläufig durch ihre Entwickler:innen und Trainings- sowie Testdaten vorgeprägt. Dies ist einer der Gründe, warum sich KI-Ethik in den letzten Jahren als neues Anwendungsfeld in Unternehmen herausgebildet hat.

Erste Ansätze für Unternehmen sind selbst KI-Ethik-Kodizes als ethische Rahmenordnungen für den Einsatz von Künstlicher Intelligenz. Sie sind nicht als Checklisten zu verstehen, sondern vielmehr als Leitfäden, durch die grundlegende ethische Werte bereits bei der Entwicklung von KI-Anwendungen berücksichtigt und operationalisiert werden sollen. Dabei besteht die Herausforderung darin, schwer messbare, aber wichtige Faktoren zu erfassen: Wie operationalisieren und messen wir beispielsweise Respekt? Was passiert, wenn eine Automatisierungs-KI trotz wichtiger Vorkehrungen zu einer Bevorteilung oder Benachteiligung von Menschengruppen führt? Wie geht man damit um, wenn Künstliche Intelligenz die Ursachen für strukturelle Diskriminierung verschärft?

KMU können die aktuelle Diskussion nutzen, um als Pioniere fortschrittliche und gerechte Systeme zu entwickeln und/oder einzusetzen. Größere Unternehmen wie die Telekom und Bosch haben bereits KI-Ethik-Leitfäden veröffentlicht, welche die Mittelständler:innen bedarfsgerecht als Ausgangspunkt und Blaupause nutzen können.


Autorin: Elisa Maria Entschew/Sarah Kilz
Copyright: ©Tumisu / pixabay.com

Newsletter-Icon Kontakt-Icon Lupen-Symbol