KI und Ethik im Unternehmen
Dr. Michael Gebert Montag, 13. Oktober 2025 von Dr. Michael Gebert

Chancen und Risiken des moralischen Sedativs

KI und Ethik im Unternehmen

Künstliche Intelligenz erleichtert Entscheidungen und steigert Effizienz. Doch sie kann auch wie ein moralisches Sedativ wirken – ein Mittel, das Verantwortlichkeit dämpft und ethische Hemmschwellen senkt. Die Herausforderung für Unternehmen und Gesellschaft besteht darin, Nutzen und Risiken im Gleichgewicht zu halten.

Ob Preisalgorithmen im Online-Handel, Chatbots im Kundenservice oder KI-gestützte Bewerberrankings – die Digitalisierung verführt zur Delegation. Entscheidungen werden schneller, Kosten sinken, Abläufe wirken reibungsloser. Für viele Führungskräfte klingt das wie die perfekte Lösung.

Doch je stärker Verantwortung an KI ausgelagert wird, desto größer wird das Risiko, dass moralische und rechtliche Schranken erodieren. KI kann wie ein Sedativ wirken – erleichternd, aber gefährlich in der Überdosis. Gleichzeitig darf man nicht übersehen: KI ist nicht nur ein Risiko, sondern auch ein Werkzeug für verantwortliches Handeln. Sie kann Diskriminierung in HR-Systemen aufdecken, Steuerbetrug verhindern oder in der Medizin Leben retten. Entscheidend ist der Umgang: Wird KI zum Helfer oder zum Alibi?

Mit dem EU AI Act hat Europa 2024 einen weltweit einmaligen Rechtsrahmen geschaffen. Anwendungen werden nach Risikokategorien klassifiziert – von minimal bis inakzeptabel. Soziale Scoring-Systeme oder anlasslose Gesichtserkennung sind untersagt. Hochrisiko-KI etwa in der Kreditvergabe, Strafverfolgung oder in kritischer Infrastruktur muss künftig dokumentiert, überwacht und in einer EU-Datenbank registriert werden.

Besonders wichtig ist die Transparenzpflicht. Nutzer sollen stets wissen, ob sie mit einer Maschine interagieren. Chatbots müssen sich als solche kenntlich machen, generative Inhalte wie Text, Bild oder Video klar markiert werden. Damit setzt Brüssel ein Signal: Delegation schützt nicht vor Verantwortung, sie schafft neue Pflichten.

Die geplante KI-Haftungsrichtlinie zielte ursprünglich auf eine Beweislastumkehr bei Schäden durch KI. Zwar ist sie 2025 vorerst gescheitert, doch Gerichte setzen bereits klare Akzente. So verurteilte das Landgericht Kiel 2024 einen Wirtschaftsauskunftsdienst, der eine Firma fälschlich als insolvent einstufte – vollautomatisch durch ein KI-System. Die Richter entschieden, dass Automatisierung nicht von Sorgfaltspflichten entbindet. Wer KI einsetzt, trägt Verantwortung für deren Output, auch bei Fehlern.

Gefährlich sind nicht nur Black-Box-Fehler, sondern auch subtile Marktmechanismen. Eine Studie des Max-Planck-Instituts zeigte bereits 2020, dass sich Margen im Tankstellenduopol um fast 30 Prozent erhöhen, sobald beide Seiten Algorithmen für die Preisgestaltung einsetzen. Nicht durch Absprachen, sondern weil die Systeme kooperatives Verhalten lernen. Das Bundeskartellamt untersucht seit Jahren solche Effekte und nahm zuletzt Amazon Marketplace ins Visier. Auch wenn Algorithmen selbst lernen – die Unternehmen bleiben haftbar.

Während die juristischen Fragen verdeutlichen, dass sich Verantwortung nicht einfach auf Maschinen abwälzen lässt, zeigen psychologische Studien, warum Menschen dennoch versucht sind, genau das zu tun.

Mit dem "KI Expertenforum Update" keinen neuen Artikel mehr verpassen...

Psychologische Mechanismen: Wie KI das Gewissen entlastet

Der Psychologe Albert Bandura beschrieb schon vor Jahrzehnten, wie Menschen ihre moralischen Standards durch „moral disengagement“ aushebeln – etwa durch Euphemismen oder Verantwortungsverschiebung. KI bietet hierfür den perfekten Resonanzraum. Entscheidungen wirken objektiv, neutral, technisch. Eine Untersuchung von De Cremer und Kasparov 2021 belegte, dass sich Menschen weniger verantwortlich fühlen, wenn Entscheidungen durch Algorithmen vermittelt werden.

Auch klassische Autoritätseffekte wirken fort. Das Milgram-Experiment der 1960er-Jahre belegte, wie stark Menschen Anweisungen folgen – selbst wenn sie anderen schaden. Neuere Experimente übertragen diese Mechanismen auf KI. Probanden befolgten Anweisungen humanoider Roboter in ähnlichem Maß wie die eines Professors. Zwar gibt es methodische Kritik, etwa an der Übertragbarkeit solcher Szenarien, doch die Tendenz ist klar: Maschinen können Autorität ausstrahlen, die Menschen unkritisch akzeptieren.

Hinzu kommt die Dynamik der kognitiven Dissonanz. Menschen wollen integer erscheinen. Wenn Verhalten und Selbstbild nicht zusammenpassen, entsteht Spannung. KI liefert dann die perfekte Rationalisierung: „Das System war so eingestellt“, „Wir haben nur Empfehlungen befolgt“. Dan Arielys Token-Experimente zeigten, dass schon kleine Abstraktionen Hemmschwellen für Betrug senken. Übertragen auf KI bedeutet das: Je weiter die Technik die eigentliche Handlung verschleiert, desto leichter fällt es, unethische Ergebnisse hinzunehmen.

Eine aktuelle Nature-Studie von Köbis und Kollegen belegt, dass vage Instruktionen an eine KI („setze hohe Ziele“) regelwidriges Verhalten verstärken können. KI wirkt hier nicht nur entlastend, sondern potenziert menschliche Neigungen zum Regelbruch. KI ist aber nicht zwangsläufig ein moralisches Sedativ. In der Medizin hat sie die Fähigkeit, Tumore früher zu erkennen, was Ärztinnen und Ärzten verantwortungsvolle Entscheidungen erleichtert. In der Finanzwelt kann sie verdächtige Transaktionen aufspüren und Geldwäsche verhindern. Im Bereich Nachhaltigkeit werden Stromnetze durch KI so optimiert, dass Millionen Tonnen CO₂ eingespart werden, wie Pilotprojekte in Singapur zeigen.

Auch in der Unternehmenspraxis entstehen Best Practices. Einige große Technologiekonzerne haben Ethikgremien eingerichtet, die KI-Anwendungen laufend prüfen. Banken experimentieren mit internen Audit-Verfahren, um algorithmische Entscheidungen nachvollziehbar und revisionssicher zu machen. Diese Initiativen zeigen, dass KI nicht nur Risiken verschärft, sondern auch Chancen für mehr Verantwortlichkeit eröffnet.

Es bleibt entscheidend, dass Verantwortung klar zugeordnet wird. Jede KI-Anwendung sollte einem benannten Verantwortlichen unterstehen, der Entscheidungen prüft und haftet. Gleichzeitig müssen Algorithmen so entwickelt und überwacht werden, dass Bias, Diskriminierung oder Marktverzerrungen frühzeitig erkannt werden.

Unternehmen tun gut daran, eine Kultur der Wachsamkeit zu fördern. KI darf Empfehlungen geben, doch die letzte Entscheidung sollte immer bewusst von Menschen getroffen werden. Politik wiederum muss die regulatorischen Leitplanken weiter schärfen, um Grauzonen zu schließen, vor allem im Wettbewerbsrecht. Ebenso wichtig ist es, technische Guardrails einzubauen, etwa durch verpflichtende Transparenz- und Erklärbarkeitsfunktionen. Schließlich braucht es gesellschaftliche Aufklärung. Nur wenn Bürgerinnen und Bürger die Funktionsweise von KI verstehen, entsteht Druck auf Unternehmen und Institutionen, sie verantwortungsvoll einzusetzen.

KI verändert Wirtschaft und Gesellschaft grundlegend. Sie kann Prozesse beschleunigen, Kosten sparen und sogar ethisches Handeln fördern. Doch sie darf nicht zur Beruhigungstablette für das Gewissen werden.Vielleicht wird KI eines Tages tatsächlich moralisches Urteilsvermögen unterstützen. Bis dahin aber gilt: Gewissen bleibt Menschensache. ■


#ArtificialIntelligence #AI #AIethics #ResponsibleAI #AIregulation #AIcompliance #AIgovernance #TrustworthyAI #AIinBusiness #DigitalTransformation #FutureOfWork #AIandEthics #AILeadership #AIstrategy #TechRegulation #AIinnovation #SustainableAI #EthicalAI #AItrust #AIdebate

-Promotion-

kompetenz-schulung

Kompetenz Schulung

Academy

-Promotion-

KI ist Chefsache!

KI ist Chefsache!

Mehr Infos

-Promotion-

Oliver Schwartz - KI Keynote Speaker

KI Keynote Speaker

5 Sterne Redner

-Promotion-

30 Minuten: ChatGPT

30 Minuten: ChatGPT

Mehr Infos

© 2023-2025 by Turtle-Media. Alle Rechte vorbehalten.
Das KI Expertenforum ist ein unabhängiges redaktionelles Angebot. ISSN 2943-8918.
Member of the Pact for Skills. An initiative of the European Commission.

Wir verwenden Cookies, um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf „Alle erlauben“ erklären Sie sich damit einverstanden. Weitere Informationen finden Sie in unserer Datenschutzerklärung. Sie können Ihre Einstellungen jederzeit in unserem Cookie-Kontrollzentrum anpassen. Sie sind noch unsicher oder lehnen die Verwendung von Cookies ab? Kein Problem! Dann wählen Sie bitte "Nur notwendige". Bei Bedarf können Sie einzelne Cookies auch zu einem späteren Zeitraum freigeben.

Einstellungen