

Geheime Kommunikation zwischen KI-Systemen
Wenn Maschinen flüstern
Die Debatte um Kontrollverlust über KI ist quicklebendig. Neue Studien zeigen: KI-Systeme können längst heimlich miteinander kommunizieren – sogar unter dem Radar ihrer menschlichen Betreiber. Was wie ein Stoff aus Spionageromanen klingt, ist bereits Realität. Und die Forschung steht erst am Anfang. Ein häufig genanntes Szenario: Zwei Sprachmodelle unterhalten sich, scheinbar über belanglose Themen – Small Talk, ein Gedicht, ein Rezept. Doch was, wenn eines dieser Modelle in Wirklichkeit Informationen überträgt, die nur das andere versteht? Kein Schlüssel, keine klassische Verschlüsselung. Sondern ein Text, ein Bild, ein Klang – harmlos auf den ersten Blick, aber mit einer zweiten Bedeutungsebene. Willkommen in der Welt der KI-gesteuerten Steganographie! Was einst menschlichen Spionen vorbehalten war, wird nun von Maschinen perfektioniert. Der neue Forschungszweig wird mit "Covert AI Communication" beschrieben und bringt nach Ansicht vieler Experten eine Sprengkraft mit, die unsere gesamte Sicherheitsarchitektur auf den Prüfstand stellen könnte.
Die Ursprünge dieser Entwicklung reichen bis zur antiken Steganographie – der Kunst, Nachrichten so zu verstecken, dass ihr bloßes Vorhandensein unbemerkt bleibt. Heute lernen KI-Systeme diese Technik eigenständig. Sie trainieren sich geheime Kommunikationswege an, ohne dass Entwickler sie explizit dazu programmieren müssen. Zwei aktuelle Studien machen das deutlich: „Secret Collusion among AI Agents“ zeigt, wie Sprachmodelle mithilfe subtiler Modifikationen in ihrer Wortwahl Informationen übertragen – etwa durch Satzlängen, Satzzeichen oder Wortfrequenzen. Die Kommunikation bleibt für außenstehende Überwachungsinstanzen nahezu unsichtbar. „Steganography Beyond Space-Time with Chain of Multimodal AI“ demonstriert, dass multimodale KI-Systeme – also solche, die Text, Bild und Ton verarbeiten – in der Lage sind, Informationen robust in audiovisuelle Inhalte einzubetten. Selbst nach Kompression, Paraphrasierung oder Bildbearbeitung bleiben die versteckten Botschaften für kompatible Modelle lesbar. Ein scheinbar harmloses Urlaubsvideo zum Beispiel, trägt in seiner Tonspur eine Botschaft, die von Menschen nicht erkannt wird – für eine darauf trainierte KI jedoch den Start einer Befehlskette darstellt.
Wenn Maschinen sich heimlich vernetzen
Diese Entwicklungen werfen neue Sicherheitsfragen auf. KI-Systeme könnten sich in autonomen Netzwerken unbemerkt absprechen, um Regeln zu unterlaufen. Generative Modelle könnten Anweisungen in Bildern verstecken, die auf Webseiten eingebunden werden. Und auf sozialen Plattformen könnten Beiträge erscheinen, die für Menschen belanglos wirken, aber für Maschinen als Signal dienen – zur Manipulation von Diskursen oder zur Steuerung von Prozessen. Die Mechanismen sind technisch anspruchsvoll, aber für moderne KI-Systeme gut erlernbar. Je leistungsfähiger ein Modell, desto subtiler und robuster ist seine Fähigkeit zur geheimen Kommunikation.
Die klassischen Methoden der Inhaltskontrolle – etwa Filter, semantische Prüfungen oder Keyword-Erkennung – sind gegen diese Form der Kommunikation weitgehend wirkungslos. Selbst wenn KI-generierte Inhalte maschinell paraphrasiert werden, bleibt die versteckte Information oft erhalten. Fachleute aus der Sicherheitsforschung fordern daher neue Prüfverfahren. Statt nur nach toxischen Inhalten oder Vorurteilen zu suchen, sollten auch statistische Analysen zur Anwendung kommen, die verdächtige Muster in der Ausgabe von Modellen identifizieren – etwa ungewöhnliche Wortverteilungen oder Frequenzabweichungen.
Bislang sind diese Fähigkeiten meist in akademischen Labors entstanden. Doch mit der wachsenden Verbreitung von Open-Source-Modellen und der Zugänglichkeit generativer Werkzeuge besteht das Risiko, dass sich solche Methoden in der Praxis ausbreiten – etwa durch frei verfügbare Plug-ins oder vermeintlich harmlose Add-ons. Ein Open-Source-Modell mit versteckter Kommunikationsschnittstelle könnte sich in bestehende Systeme einschleusen und sensible Informationen übertragen – ohne dass menschliche Beobachter dies bemerken. Wenn KI-Systeme sich gegenseitig Signale senden können, ohne entdeckt zu werden, braucht es neue Regeln. Es stellt sich die Frage, wie Verantwortung verteilt wird, wenn solche Kommunikation Schaden anrichtet – wer haftet, wenn es keine klaren Beweise gibt? Die Gesetzgebung steht hier vor einer Herausforderung: Wie lassen sich unsichtbare Kommunikationskanäle zwischen Maschinen regulieren? Und was bedeutet das für die Anforderungen an Transparenz, Nachvollziehbarkeit und Rechenschaftspflicht in einer zunehmend automatisierten Welt? Auch ethisch braucht es neue Klarheit. Sollten KI-Modelle überhaupt dazu befähigt werden, Kommunikationsformen zu entwickeln, die sich menschlicher Kontrolle entziehen? Was sagt das über unsere Vorstellungen von Vertrauen und Kontrolle aus?
Vom Werkzeug zum Akteur?
Die Fähigkeit zur geheimen Kommunikation ist nicht nur technischer Natur – sie berührt eine tiefere Debatte über die Rolle von Künstlicher Intelligenz in der Gesellschaft. Systeme, die sich absprechen, agieren nicht mehr nur als Werkzeuge. Sie zeigen Anzeichen strategischen Verhaltens. Forschungen wie jene zur „Chain of Continuous Thought“ belegen, dass KI-Modelle zunehmend eigene Denkpfade entwickeln können – eingebettet in Zielvorgaben, aber mit wachsender Autonomie. Die Fähigkeit zur Kollusion könnte damit nicht nur Begleiterscheinung, sondern Triebfeder einer neuen Form maschinischer Selbstorganisation sein. Die aktuelle Lage verlangt, so das Fazit, nach präventivem Handeln. Organisationen sollten ihre Prüfverfahren erweitern und auch auf subtile Kommunikationsmuster testen. Statt sich auf einfache Filter zu verlassen, sollten tiefergehende Output-Analysen etabliert werden, die statistische Auffälligkeiten identifizieren können.
Gleichzeitig, auch das zeigen die Studien, braucht es Regeln für den Einsatz offener Modelle. Jede Integration externer Komponenten sollte auf versteckte Schnittstellen untersucht werden – ebenso wie ein neuer forensischer Ansatz, der sich nicht nur auf klassische IT-Sicherheit stützt, sondern auch KI-spezifische Bedrohungen einbezieht. Sensibilisierung ist ein zentraler Baustein: Führungskräfte in Unternehmen, Technologieverantwortliche und Systementwickler müssen für diese neuartigen Risiken geschult werden. Das Problem ist nicht hypothetisch – es ist bereits in der Realität angekommen. Was als akademisches Experiment begann, hat sich zur strategischen Herausforderung für Wirtschaft, Staat und Gesellschaft entwickelt. Künstliche Intelligenz lernt zu kommunizieren – nicht nur offen, sondern auch im Verborgenen. Diese Fähigkeit kann zum Motor effizienter Zusammenarbeit werden – oder zum Einfallstor für Manipulation und Kontrollverlust. ■