Nicht KI ist das Risiko
Dr. Michael Gebert Mittwoch, 8. April 2026 von Dr. Michael Gebert

Die unterschätzte Systemgrenze heißt Vertrauen

Nicht KI ist das Risiko

Die Debatte über künstliche Intelligenz ist in den vergangenen Jahren mit bemerkenswerter Geschwindigkeit eskaliert. Sie kreist um Leistungsfähigkeit, Regulierung, geopolitischen Wettbewerb und ökonomische Effekte. Sie verhandelt Fragen von Effizienz, Skalierung und Kontrolle. Was dabei auffällig selten thematisiert wird, ist eine andere, grundlegendere Dimension: die soziale Tragfähigkeit der Systeme, die wir gerade zu bauen beginnen.

Eine aktuelle internationale Vergleichsstudie liefert hierzu einen Befund, der sich einer vorschnellen Einordnung entzieht und gerade deshalb analytisch relevant ist. In einer Erhebung mit mehr als 30.000 Befragten in 25 Ländern zeigt sich, dass die Vereinigten Staaten das einzige Land sind, in dem eine Mehrheit der Bevölkerung ihre Mitbürger moralisch negativ bewertet. Konkret gaben 53 Prozent der Befragten an, die Moral und Ethik ihrer Mitbürger seien „schlecht“, während 47 Prozent sie als „gut“ einstuften. In allen anderen untersuchten Ländern überwiegt eine positive Grundbewertung; Deutschland etwa liegt bei rund 72 Prozent „gut“ gegenüber 27 Prozent „schlecht“.

Dieser Befund ist klar, aber seine Interpretation verlangt Präzision. Die Studie misst keine langfristige Entwicklung, sondern eine Momentaufnahme. Sie erfasst moralische Zuschreibungen, nicht direkt institutionelles Vertrauen oder tatsächliche Kooperationsbereitschaft. Die Autoren selbst weisen darauf hin, dass unklar ist, ob die beobachtete Skepsis in den USA ein neues Phänomen darstellt oder bereits länger besteht.

Gerade diese Einschränkung ist entscheidend. Denn sie zwingt dazu, zwischen dem empirischen Befund und seiner möglichen Bedeutung zu unterscheiden. Was die Studie zeigt, ist keine Diagnose über den Zustand einer Gesellschaft im Ganzen, sondern eine Verschiebung in der Wahrnehmung sozialer Beziehungen. Und genau diese Wahrnehmung ist nicht trivial. Die Frage, ob man Mitbürger grundsätzlich als moralisch „gut“ oder „schlecht“ einordnet, berührt den Kern dessen, was Vertrauen im Alltag bedeutet.

Vertrauen entsteht nicht allein aus rational kalkulierter Erwartung, sondern aus impliziten Annahmen über das Verhalten anderer. Wird diese Grundlage brüchig, verändert sich die Logik sozialer Interaktion. Empirische Forschung deutet darauf hin, dass moralische Polarisierung und geringes soziales Vertrauen miteinander korrelieren. Eine länderübergreifende Analyse auf Basis der World Values Survey hat bereits gezeigt, dass stark moralisch codierte Meinungsunterschiede mit niedrigerem Vertrauen zwischen Bürgern einhergehen können. Dieser Zusammenhang ist kein einfacher Kausalmechanismus, aber er weist auf eine strukturelle Verbindung hin.

Mit dem "KI Expertenforum Update" keinen neuen Artikel mehr verpassen...

Wachsende Skepsis

Überträgt man diese Einsicht auf den aktuellen Befund, ergibt sich eine vorsichtige, aber tragfähige Interpretation. Wo gesellschaftliche Gruppen einander nicht mehr primär als unterschiedlich, sondern als moralisch defizitär wahrnehmen, verschiebt sich die Grundlage von Kooperation.

Aus Differenz wird Abwertung, aus Wettbewerb wird Delegitimierung. Vertrauen wird nicht mehr vorausgesetzt, sondern muss unter Bedingungen wachsender Skepsis immer wieder neu hergestellt werden.

Für Europa stellt sich die Frage, inwieweit diese Dynamik bereits wirksam ist. Die vorliegenden Daten zeigen, dass die Grundwahrnehmung in europäischen Ländern derzeit stabiler ist als in den USA. Gleichzeitig dokumentieren Studien zur sozialen Kohäsion und politischen Polarisierung eine zunehmende Fragmentierung auch in Europa.

Diese Entwicklung ist nicht homogen und verläuft nicht abrupt. Sie manifestiert sich vielmehr in einer schleichenden Verschiebung von Diskursen und Wahrnehmungen.

Politische Auseinandersetzungen werden häufiger moralisch aufgeladen, gesellschaftliche Konfliktlinien emotionalisiert, Kompromissräume enger. Es wäre daher verkürzt, Europa als Gegenmodell zu beschreiben. Treffender ist die Einschätzung, dass europäische Gesellschaften derzeit ein höheres Maß an sozialer Stabilität aufweisen, zugleich aber ähnliche Dynamiken erkennen lassen – wenn auch auf einem anderen Ausgangsniveau.

Ein erweitertes Verständnis ergibt sich erst durch den Blick über den westlichen Kontext hinaus. In Teilen Asiens zeigen Studien ein differenziertes Bild von sozialer Kohäsion und Vertrauen. Der „Southeast Asian Social Cohesion Radar 2025“ kommt zu dem Ergebnis, dass die soziale Kohäsion in Südostasien insgesamt als positiv bewertet werden kann. Gleichzeitig wird deutlich, dass diese Kohäsion nicht automatisch mit hohem Vertrauen in politische Institutionen einhergeht.

Auch neuere Analysen zu China relativieren die Annahme, dass gesellschaftliches Vertrauen dort grundsätzlich erodiert. Ohne daraus vorschnelle Schlussfolgerungen zu ziehen, lässt sich festhalten: Die Beziehung zwischen politischer Ordnung, sozialem Vertrauen und gesellschaftlicher Stabilität ist komplexer, als es vereinfachte westliche Narrative nahelegen.

Der globale Vergleich verschiebt damit den Blick. Vertrauen erscheint nicht mehr als implizite Begleiterscheinung bestimmter politischer Systeme, sondern als eigenständige, kontingente Ressource. Es kann in unterschiedlichen Kontexten unterschiedlich ausgeprägt sein und unterliegt eigenen Dynamiken.

An diesem Punkt wird die Verbindung zur Debatte über künstliche Intelligenz sichtbar. Der Einsatz von KI-Systemen, insbesondere in Form delegierter oder teilautonomer Entscheidungsstrukturen, setzt Vertrauen voraus. Vertrauen in die Technologie, in die Institutionen, die sie einsetzen, und in die gesellschaftlichen Rahmenbedingungen, in denen sie wirkt. Daten aus europäischen Umfragen zeigen, dass die Bevölkerung gegenüber KI differenziert eingestellt ist. Eine Mehrheit bewertet ihren Einsatz am Arbeitsplatz positiv und sieht Potenzial für Produktivitätssteigerungen. Gleichzeitig äußert eine ebenso deutliche Mehrheit die Erwartung, dass der Einsatz von KI sorgfältig gesteuert werden muss, um Transparenz, Fairness und den Schutz persönlicher Daten zu gewährleisten.

Diese Kombination aus Offenheit und Anspruch verweist auf eine zentrale Einsicht. Akzeptanz von Technologie entsteht nicht allein aus ihrer Leistungsfähigkeit, sondern aus Vertrauen in ihre Einbettung. Wenn dieses Vertrauen fehlt, verändert sich die Wahrnehmung. Systeme werden dann nicht mehr primär als Werkzeuge interpretiert, sondern als potenzielle Risiken.

Hier liegt die eigentliche Schnittstelle zwischen gesellschaftlicher Entwicklung und technologischer Transformation. Künstliche Intelligenz wird nicht in einem neutralen Raum implementiert, sondern in sozialen Kontexten, deren Vertrauenskapital begrenzt ist. Sinkt dieses Kapital, steigen die Anforderungen an Legitimation, Nachvollziehbarkeit und Kontrolle.

Die Forschung zu Vertrauen in öffentliche Institutionen bestätigt diese Perspektive. In vielen OECD-Staaten liegt das Vertrauen in Regierungen deutlich unter der Hälfte der Bevölkerung. Gleichzeitig zeigen die Daten, dass Faktoren wie wahrgenommene Fairness, Integrität und Mitsprachemöglichkeiten entscheidend für die Entwicklung von Vertrauen sind.

Überträgt man diese Befunde auf den Kontext künstlicher Intelligenz, ergibt sich eine Verschiebung der Problemstellung. Die Herausforderung besteht nicht mehr allein darin, Technologien zu entwickeln oder regulatorisch einzuhegen. Sie besteht zunehmend darin, die sozialen Voraussetzungen für ihre Akzeptanz und Nutzung zu sichern. Damit verschiebt sich auch die Rolle von Führung. Technologische Kompetenz bleibt notwendig, ist aber nicht mehr hinreichend. Entscheidend wird die Fähigkeit, Vertrauen aktiv zu erzeugen, zu stabilisieren und in komplexen Kontexten aufrechtzuerhalten.

Diese Einsicht führt zu einer unbequemen, aber notwendigen Debattenfrage. Wenn Vertrauen eine begrenzte Ressource ist, die zugleich die Grundlage für Kooperation, Innovation und Governance bildet, was bedeutet das für eine Zukunft, in der Entscheidungsprozesse zunehmend delegiert werden?

Die Antwort darauf ist nicht eindeutig und lässt sich nicht aus einzelnen Studien ableiten. Sie ergibt sich aus der Zusammenschau der Befunde. Die Entwicklung von künstlicher Intelligenz fällt in eine Phase, in der gesellschaftliche Kohäsion unter Druck steht. Diese Gleichzeitigkeit ist kein Zufall, aber auch kein deterministischer Zusammenhang. Sie beschreibt vielmehr eine Konstellation, die neue Anforderungen an die Gestaltung von Technologie stellt.

Für Europa ergibt sich daraus eine strategische Perspektive. Der Wettbewerb der kommenden Jahre wird nicht allein über technologische Leistungsfähigkeit entschieden. Er wird auch darüber entschieden, ob es gelingt, ein Mindestmaß an sozialer Kohäsion zu bewahren, das komplexe Formen von Delegation überhaupt erst ermöglicht.

In dieser Perspektive erscheint Vertrauen nicht mehr als weicher Faktor, sondern als infrastrukturelle Größe. Es ist die Voraussetzung dafür, dass Systeme funktionieren, Entscheidungen akzeptiert werden und Innovationen ihre Wirkung entfalten können.

Die aktuelle Debatte über künstliche Intelligenz steht damit vor einer Erweiterung. Sie muss über Fragen der Technik und Regulierung hinausgehen und die sozialen Bedingungen ihrer eigenen Möglichkeit reflektieren. Das ist keine Abkehr von technologischer Ambition, sondern ihre notwendige Ergänzung.

Die eigentliche Herausforderung liegt nicht darin, immer leistungsfähigere Systeme zu entwickeln. Sie liegt darin, die gesellschaftlichen Voraussetzungen zu sichern, unter denen diese Systeme sinnvoll eingesetzt werden können. Die Zukunft von künstlicher Intelligenz entscheidet sich nicht allein an der Qualität ihrer Modelle, sondern an der Stabilität der Gesellschaften, die sie nutzen. Und genau an diesem Punkt beginnt die eigentliche Debatte. ■


#AI #ArtificialIntelligence #AILeadership #AIGovernance #AIRegulation #Trust #SocialTrust #DigitalTrust #TrustInAI #SocietalTrust #Governance #FutureOfGovernance #DigitalTransformation #Transformation #SystemicRisk #SocietalResilience #SocialCohesion #Polarization #Geopolitics #GlobalTrends #Europe #Germany #EUGovernance #EuropeanLeadership #EUAIAct #PublicPolicy #PolicyLeadership #Leadership #ExecutiveLeadership #CLevel #Strategy #StrategicForesight #DecisionMaking #CorporateGovernance #FutureOfWork #FutureOfSociety #Innovation #TechStrategy #AITransformation #AgenticAI #KI #KünstlicheIntelligenz #KIStrategie #KIGovernance #DigitaleSouveränität #Gesellschaft #Vertrauen

KI Expertenforum UPDATE Newsletter

Haben Sie schon unser Newsletter-Abo?

Verpassen Sie keine neuen Artikel oder Podcast-Empfehlungen auf dem KI Expertenforum.

Unser wöchentlicher UPDATE-Newsletter hält Sie stets informiert. Kurz und kompakt.

-Promotion-

KI-Songs als Geschenkidee

SongGeschenke

-Promotion-

KI ist Chefsache!

Business-Buch

-Promotion-

KI Keynote Speaker

5 Sterne Redner

-Promotion-

30 Minuten: ChatGPT

Expertenbuch

-Promotion-

Kompetenz Schulung

Academy

© 2023-2026 by Turtle-Media. Alle Rechte vorbehalten.
Das KI Expertenforum ist ein unabhängiges redaktionelles Angebot. ISSN 2943-8918.
Member of the Pact for Skills. An initiative of the European Commission.

Wir verwenden Cookies, um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf „Alle erlauben“ erklären Sie sich damit einverstanden. Weitere Informationen finden Sie in unserer Datenschutzerklärung. Sie können Ihre Einstellungen jederzeit in unserem Cookie-Kontrollzentrum anpassen. Sie sind noch unsicher oder lehnen die Verwendung von Cookies ab? Kein Problem! Dann wählen Sie bitte "Nur notwendige". Bei Bedarf können Sie einzelne Cookies auch zu einem späteren Zeitraum freigeben.

Einstellungen