

Digitale Zwillinge, algorithmische Gesellschaft und die neue Verantwortung
Wenn Maschinen Mensch spielen
Ein Gedankenspiel: Eine künstliche Intelligenz beantwortet Fragen zu Politik, Familie oder Religion – nicht im Tonfall eines Chatbots, sondern so, wie man selbst es tun würde. Mit persönlichen Einstellungen, biografischen Bezügen, vielleicht sogar mit eigenen Widersprüchen. Was wie ein Szenario aus der Science-Fiction klingt, ist Gegenstand aktueller Forschung an der Stanford University. Dort entwickeln Wissenschaftler ein System, das reale Menschen digital simulieren kann – mit bemerkenswerter Genauigkeit.
Die Studie des Stanford Institute for Human-Centered AI beschreibt eine neue Klasse sogenannter generativer Agenten: KI-Systeme, die auf ausführlichen Interviews mit über tausend Personen basieren und mithilfe großer Sprachmodelle glaubhafte, individualisierte Verhaltensprofile erzeugen. Die Ergebnisse sind erstaunlich: In einem Vergleich mit etablierten sozialwissenschaftlichen Erhebungen wie der General Social Survey stimmten die simulierten Antworten zu 85 Prozent mit jenen der tatsächlichen Personen überein – fast ebenso hoch wie die Konsistenz der Personen mit sich selbst nach zwei Wochen. Für die Sozialforschung ist das ein Durchbruch. Für Gesellschaft und Politik ein Anlass zur kritischen Reflexion.
Im Unterschied zu bisherigen agentenbasierten Modellen, die mit abstrakten Regeln und idealtypischen Szenarien arbeiten, beruhen die Stanford-Agenten auf realen Menschen. Grundlage sind zweistündige Tiefeninterviews mit Personen aus den unterschiedlichsten gesellschaftlichen Gruppen. Die Gesprächsprotokolle werden mit einem Sprachmodell verbunden, das aus diesen Daten individuelle, sprachlich authentische Antworten generiert.
So entstehen digitale Abbilder, die in psychologischen Tests wie dem Big-Five-Inventar eine Übereinstimmung von rund 80 Prozent erreichen. In ökonomischen Entscheidungsspielen wie dem Prisoner's Dilemma oder dem Trust Game bewegen sich die Agenten ebenfalls im Bereich menschlicher Entscheidungslogik. Doch so überzeugend die Technik ist, so groß ist das Missverständnispotenzial. Denn das, was diese Systeme erzeugen, sind keine echten Entscheidungen, sondern rechnerisch erzeugte Repliken sprachlicher Muster. Die Maschine handelt nicht – sie antwortet, was sie für plausibel hält.
Politik auf Basis simulierten Verhaltens?
Was diese Agenten einzigartig macht, ist auch ihre ethische Achillesferse: Sie beruhen auf persönlichen, teilweise intimen Daten. Die digitale Simulation erfolgt auf Basis biografischer Erzählungen, Einstellungen und Werte. Doch wem gehört diese simulierte Identität? Und wie lässt sich verhindern, dass sie missbraucht wird?
Die Forscher in Stanford haben sich bewusst gegen eine öffentliche Freigabe der Agenten entschieden. Stattdessen ist nur ein kontrollierter Zugang für wissenschaftliche Zwecke möglich. Doch das schützt nicht vor Missbrauch in anderen Kontexten. Datenschutzexperten und Ethiker warnen: Eine KI, die glaubhaft wie ein Mensch antwortet, kann manipuliert, instrumentalisiert oder missbraucht werden – etwa zur Diskreditierung, zur politischen Täuschung oder zur Erzeugung falscher Zitate.
Ein Vorschlag: Jede Nutzung eines solchen Agenten müsste mit einem Audit-Log verbunden sein. Wer den Agenten nutzt, wozu er eingesetzt wird und welche Antworten er gibt – all das sollte transparent dokumentiert werden. Nur so lässt sich im Nachhinein überprüfen, ob eine Simulation rechtmäßig erfolgt ist. Auch die Einwilligung der betroffenen Personen müsste widerrufbar sein. Was heute als Zustimmung gilt, kann morgen zu einem Problem werden.
Besonders kritisch wird die Diskussion dort, wo simulierte Daten politische oder wirtschaftliche Entscheidungen beeinflussen könnten. Generative Agenten könnten hypothetisch zur Vorhersage von Reaktionen auf Gesetzesänderungen, Kampagnen oder Reformen eingesetzt werden. Das ist effizient – aber auch gefährlich. Denn die Antwort eines simulierten Agenten ist keine Meinungsäußerung eines realen Bürgers. Sie ist das Produkt einer Modellannahme, trainiert auf Sprache, nicht auf Erfahrung.
Die Stanford-Studie warnt ausdrücklich vor einer Überbewertung der Simulationsergebnisse. Agenten können Verhalten modellieren – aber sie ersetzen keine gesellschaftlichen Aushandlungsprozesse. Auch bei hoher Übereinstimmung mit realen Antworten bleibt die Simulation immer eine Abstraktion. Was wie ein realistisches Meinungsbild erscheint, ist in Wahrheit eine algorithmisch erzeugte Annäherung an Durchschnittswerte – ohne Kontext, ohne Wandel, ohne Widerstand.
Ein verantwortungsvoller Umgang mit dieser Technologie setzt daher klare Grenzen voraus. Vor jeder politischen Anwendung müssten Validierungsstandards gelten, ähnlich denen in der medizinischen Forschung. Und jede Nutzung müsste öffentlich nachvollziehbar sein. Entscheidungsträger dürfen nicht nur die Effizienz dieser Werkzeuge sehen – sie müssen auch deren Reichweite und Begrenzung verstehen.
Wie ein verantwortlicher Umgang aussehen könnte
Auf einer tiefer liegenden Ebene wirft die Diskussion um generative Agenten auch eine erkenntnistheoretische Frage auf: Was unterscheidet eine Simulation von echter Erkenntnis? Die Antworten der Agenten wirken plausibel, oft sogar überraschend treffend. Aber sie beruhen auf Sprache – nicht auf Handlung, nicht auf Erfahrung, nicht auf Bewusstsein. Die Agenten rekonstruieren das, was gesagt wurde – nicht das, was gedacht oder gefühlt wurde.
Damit geraten auch traditionelle Vorstellungen von Wissen unter Druck. Simulation erzeugt Modelle, keine Wahrheiten. Sie spiegelt Wahrscheinlichkeiten, keine Realitäten. Wenn wir diese Unterschiede nicht sauber benennen, drohen Verwechslungen. Die Folge wären Entscheidungen auf Basis von Konstruktionen – nicht auf Basis von Wirklichkeit.
Die Forschung an generativen Agenten hat großes Potenzial. Sie kann die Sozialwissenschaft verändern, politische Prozesse bereichern und neue Perspektiven auf gesellschaftliches Verhalten eröffnen. Aber sie darf nicht unkritisch eingesetzt werden.
Was es braucht, sind klare Regeln: transparente Nutzung, nachvollziehbare Ziele, eindeutige Zuständigkeiten. Ein öffentlich zugängliches Register aller eingesetzten Agenten könnte helfen, Missbrauch zu verhindern. Zugriffsrechte müssten gestaffelt vergeben werden – je nach Verwendungszweck und Sensibilität der Daten. Und politische Anwendungen sollten nicht ohne Beteiligung von Ethikräten, Forschungseinrichtungen und zivilgesellschaftlichen Akteuren erfolgen. Generative Agenten dürfen niemals zum Ersatz realer Beteiligung werden. Sie können Hinweise geben, aber keine Entscheidungen treffen. Sie können Szenarien durchspielen, aber keine Urteile fällen. Ihre größte Stärke liegt nicht in ihrer Treffsicherheit – sondern in der Art, wie sie uns zwingen, über unsere eigenen Annahmen nachzudenken.
–
Anmerkung des Autors: Dieser Beitrag basiert auf der Studie “Simulating Human Behavior with AI Agents” (Stanford HAI, Mai 2025), der zugehörigen arXiv-Veröffentlichung sowie öffentlich zugänglichen Policy-Briefings und Stellungnahmen. Es wurden keine eigenen Interviews mit den Entwicklern geführt. Die Einschätzungen zur gesellschaftlichen Relevanz spiegeln die Bandbreite aktueller fachlicher und ethischer Diskussionen wider.