Freitag, 14. November 2025 von Oliver Schwartz Von amorösen ChatBots und NSFW-Inhalten über Sextech bis hin zu Deepfakes und Sextortion
Generative KI und Erotik - Kreativität und kriminelle Schattenseite
Für die Adult- und Erotik-Industrie eröffnet die Künstliche Intelligenz völlig neue Möglichkeiten bei der Produktionsunterstützung, dem Betrieb der hochprofitablen Portale und bei der Vermarktung – bis hin zur Virtualisierung von Protagonisten und Contentwelten. Die großen KI-Anbieter wiederum verfolgen bislang bei der Generativen KI von Bildern und Videos Policies zur Vermeidung von zu viel nackter Haut und expliziten Inhalten. Prompts mit erotiknahem Kontext, insbesondere Darstellungen mit nicht ausdrücklich erwachsenen Charakteren, werden abgelehnt oder weichgespült. Oft brauchen die LLM ausführliche Negativ-Prompts, um sich auf die Generierung von Adult-Inhalten einzulassen. Diese Marktlücke nutzen alternative Anbieter und GenAI-Lösungen die via API und mit eigenen, liberaleren Nutzungsregeln auf die Sprachmodelle der großen und kleinen Player zugreifen.
Jetzt hat OpenAI, Entwickler von ChatGPT, DALL-E, Sora und Whisper, angekündigt einen „Adult-Modus“ einzuführen, der auch erotische Inhalte erlaubt. Über Details und Einschränkungen wird wild spekuliert, aber es ist klar, dass die KI-Anbieter -nicht zuletzt auf der Suche nach neuen Monetarisierungswegen- sich das Geschäft nicht entgehen lassen werden. Das Umsatzpotential und die Kundennachfrage wird dabei typischerweise unterschätzt. Analysen von Suchanfragen und Prompts zeigen, das NSFW-Inhalte aller Art regelmäßig auf den oberen Ranking-Plätzen auftauchen. Und nicht nur in der Nacht und im privaten Umfeld. Auch aus Firmennetzen und vom Arbeitsplatz aus. Selbst auf einem business-orientiertem Online-Magazin wie dem KI Expertenforum stammt ein überraschend großer Teil des organischen Traffics aus Suchen nach NSFW-Content oder Berichten darüber. Seit über 2 Jahren ist -Tag für Tag- der abrufstärkste Artikel ein Beitrag über AI-Deepfakes und die Ermittlungen zum Einsatz von sogenannten „Nackt-Apps“ durch spanische Schüler. Ein Thema, das damals Medien weltweit beschäftigt hat.
NSFW war lange ein lose genutzter Internet-Warnhinweis: „Not Safe for Work“ signalisierte, dass Links oder Bilder im Büro unangebracht sein könnten. Im Zeitalter generativer KI wird der Begriff zur Richtschnur für eine Industrie im Umbruch – und für einen wachsenden Graubereich, in dem neue Geschäftsmodelle, Content-Moderation, Gesetzgebung und Kriminalität miteinander verwoben sind. Unter NSFW fallen aus journalistischer Sicht zwei sehr unterschiedliche Sphären: legale, teils innovative Produktion erotischer Inhalte mit Hilfe von KI – und der Missbrauch generativer Systeme, etwa durch non-consensual deepfake porn, „Nackt-Apps“ oder Sextortion. Der Spannungsbogen reicht von der kreativen Nutzung bis zur Verletzung von Persönlichkeitsrechten.
Technisch betrachtet ist das Spektrum breit. Auf der Produktionsseite reichen Anwendungen von Text-zu-Bild- und Text-zu-Video-Modellen für ästhetisierte Erotik, über Voice-Cloning und Lip-Sync-Tools für synchronisierte Cam-Shows, bis zu generativen Chatbots, die als AI Girlfriend oder Boyfriend erotische Konversationen führen und Pay-per-Message-Umsätze treiben. Agenturen in der Creator-Ökonomie automatisieren bereits Fan-Chats für OnlyFans-Profile mit KI-Systemen; eine Recherche der Kollegen von Reuters dokumentiert, wie Chat-Bots „amorous messaging“ übernehmen – mit oder ohne transparente Kennzeichnung, obwohl Plattformregeln hier oft streng und eindeutig sind. Im Prinzip.
Einsamkeitsprävention, Begleitung und erotischer Nutzung
Parallel professionalisiert sich „Sextech“: Sensorik, Personalisierung und KI-Steuerung vernetzen Toys, VR-Erlebnisse und generative Avatare. Hersteller wie Lovense dokumentieren programmierbare Schnittstellen für KI-gesteuerte Interaktionen. Auf Messen werden „AI-enabled“ Geräte als nächste Welle des Intimerlebnisses vermarktet.
Bei sozialen Robotern wiederum verwischen die Linien zwischen Einsamkeitsprävention, Begleitung und erotischer Nutzung: Firmen wie Realbotix positionieren ihre Systeme als „companionship“ mit optionalen Adult-Funktionen. Forschung und Debatte fragen entsprechend, ob hier Care-Arbeit simuliert oder Geschlechterbilder verfestigt werden.
Die Kehrseite ist eindeutig die rasante Verbreitung missbräuchlicher, sexualisierter Deepfakes – eine Gewaltform, die fast ausschließlich Frauen trifft. Studien und Lagebilder zeigen seit Jahren denselben Trend: Der Großteil zirkulierender Deepfakes ist pornografisch und nicht einvernehmlich - Schätzungen liegen in der Größenordnung von bis zu 98 Prozent. Aktuelle Übersichten und OSINT-Kompilationen berichten zudem von massiven Zuwächsen innerhalb eines Jahres. Auch wenn die Erhebungslagen heterogen sind, ist die Richtung eindeutig - die Zahl der sexualisierten Deepfakes wächst exponentiell, Tools werden einfacher, Eintrittsbarrieren sinken.
Europaweit warnen Behörden vor organisiertem Missbrauch. Europol ordnet generative KI in seinen Risiko-Reports als Treiber neuer Kriminalitätsformen ein – vom synthetischen CSAM bis zur skalierbaren Sextortion. Das EU-SOCTA-Update und weitere Analysen betonen die operative Leichtigkeit, mit der Täter Täuschung, Erpressung und Rufschädigung industrialisieren. Die FBI-Public-Service-Announcements unterstreichen denselben Befund aus US-Perspektive.
Nudification: KI-Nacktbilder von Mitschülerinnen
Dass „Nackt-Apps“ längst nicht nur Schlagzeilen sind, zeigen konkrete Fälle. In Spanien verurteilte ein Gericht 2024 fünfzehn Jugendliche, die mit „Nudification“-KI Nacktbilder von Mitschülerinnen generierten und verbreiteten – ein Lehrstück, wie niedrig die technische Hürde inzwischen ist und wie schnell Schulklassen, WhatsApp-Gruppen und lokale Communities betroffen sind. Noch drastischer ist die Lage in Südkorea, wo Telegram-Kanäle sexualisierte Deepfakes von Schülerinnen, Studentinnen, Lehrerinnen und Soldatinnen massenhaft verbreiten. Die Regierung reagierte mit Gesetzesverschärfungen bis hin zur Strafbarkeit des reinen Besitzes oder Ansehens sexualisierter Deepfakes. Polizei und Medienaufsicht berichten dabei von einem rapiden Anstieg der Fälle – überwiegend durch sehr junge Täter.
Der Taylor-Swift-Vorfall Anfang 2024 wirkte als prominenter und globaler Aha-Moment: Der Kurznachrichtendienst X von Elon Musk blockierte zeitweise Suchanfragen und versprach härteres Vorgehen; der Fall machte die Lücken in Plattform-Moderation und den gesellschaftlichen Schaden sexueller Deepfakes schlagartig sichtbar. Rechtlich klafft international ein Flickenteppich. Die EU hat mit dem AI Act erstmals horizontale Transparenzpflichten für generative Systeme normiert. Zentral ist dabei der Artikel 50: Interaktive KI muss hinreichend kenntlich sein; synthetische Medien, insbesondere Deepfakes, sind zu kennzeichnen und für bestimmte Kontexte gelten zusätzliche Disclosure-Pflichten. Die Texte und juristischen Auslegungen betonen Labeling und Erkennbarkeit – wichtige Bausteine, die aber zivil- und strafrechtliche Abwehransprüche nicht ersetzen.
Der geplante § 201b StGB als erste Strafnorm für Deepfakes
In Deutschland wird über einen neuen § 201b StGB zur „Verletzung von Persönlichkeitsrechten durch digitale Fälschung“ beraten, getragen vom Bundesrat. Ziel ist eine passgenaue Strafnorm für Deepfakes. Berufsverbände und Wissenschaft mahnen zugleich Präzision an, um Überkriminalisierung zu vermeiden.
Bis zur Verabschiedung greifen je nach Fall bestehende Vorschriften – etwa §§ 185 ff. StGB (Ehre), § 201a StGB (höchstpersönlicher Lebensbereich, Bildaufnahmen), KunstUrhG (Recht am eigenen Bild), UWG-, Urheber- und Datenschutzrecht. Politische Bildungseinrichtungen und Fachblogs skizzieren die noch lückenhafte Dogmatik im Umgang mit nicht-einvernehmlichen sexualisierten Deepfakes. Der Fall in Spanien und die nach etabliertem Recht überwiegend legale Verbreitung und Nutzung der „Nackt-Apps“, solange keine Veröffentlichung und kein Teilen der Deepfakes erfolgt, zeigt den Handlungsbedarf. Denn technologisch handelt es sich nicht um Bildaufnahmen und Bildbearbeitung, sondern um „Generative KI“ – auch wenn ein echtes Foto als Vorlage dient. Die rechtliche Bewertung hierzu weist bislang eine hohe Volatilität auf und in der politischen Diskussion beobachten wir Verständnisprobleme wie die Künstliche Intelligenz ihre Bilder erzeugt. Aber der Wille zur Anpassung des Rechtsrahmens ist überall zu spüren.
Außerhalb Europas ziehen Länder ebenfalls nach: Teilweise werden schon der Besitz und das Ansehen sexualisierter Deepfakes illegal und verschärfen sich die Strafrahmen für Produktion und Distribution. In den USA wächst derweil die Zahl der bundesstaatlichen Vorschriften. Auf Bundesebene adressiert eine neue Gesetzgebung die non-consensual distribution expliziter Inhalte – inklusive synthetischer Varianten. Flankiert werden die strengeren Regeln durch FBI-Warnungen und Einzelfallverfahren.
Generiert ChatGPT bald NSFW-Content?
Eine heikle, viel diskutierte Frage betrifft große Sprach- und Bildmodelle selbst: Bekommen „seriöse“ Assistenten wie ChatGPT wirklich einen Erotik- oder Adult-Modus? Die zitierten Ankündigungen, zum Beispiel von OpenAI, und Presseberichte der letzten Wochen sprechen von einer geplanten, altersverifizierten Freischaltung „mature content“ unter strengen Grenzen!
OpenAI betonte zugleich weiterhin klare Verbote rund um Minderjährige und Deepfakes. Offizielle Policy-Seiten heben Kinderschutz und Missbrauchsverbote hervor und der öffentlich einsehbare „Model Spec“ referenziert Sensitivitätsregeln und Kontextausnahmen, ist jedoch kein Freibrief für Pornografie. Entscheidend ist: Sollte ein Adult-Modus kommen, dann wohl nur altersverifiziert, mit klaren Sperren gegen nicht-einvernehmliche Inhalte und Missbrauch. Die harte Referenz bleiben die jeweils gültigen Nutzungs- und Sicherheitspolicys der Anbieter.
OnlyFans, eine zentrale Infrastruktur der Adult-Industrie, erlaubt KI-Einsatz grundsätzlich, verlangt aber Transparenz, Einwilligungen Dritter und untersagt Deepfakes. Praktiken in der Creator-Ökonomie – etwa unkenntlich gemachte Bot-Chats zugunsten höherer Response-Raten – zeigen zugleich, wie schwierig Enforcement bleibt.
Branchenberichte und Guides verweisen auf Hashtag-Kennzeichnungen, Creator-Verifizierung und Rechteklärung. In der Praxis herrscht jedoch eine große Diskrepanz zwischen Policy und Praxis in der Chat-Automatisierung.
Parallel kündigen große Social-Media-Plattformen Label-Offensiven für synthetische Inhalte an: Meta etwa rollte 2024 systemische Kennzeichnungen aus, X erlaubt AI-Adult-Content unter Auflagen, und die Content-Provenance-Initiativen (C2PA/CAI) verbreiten sich zunehmend in Publisher- und Kamera-Workflows. Das hilft der wichtigen Transparenz – löst aber das Grundproblem der Non-Consent-Inhalte natürlich nicht wie von Zauberhand.
Arbeitsteilige Schattenökonomie und Auftrag-Deepfakes
Hinter der Missbrauchsseite steht inzwischen eine arbeitsteilige Schattenökonomie. Geschäftsmodelle reichen von Abo-Diensten für „Nackt-Apps“ und Telegram-Bots über bezahlte Auftrags-Deepfakes bis zu Erpressungs-Funneln: Tätern genügen wenige Social-Media-Fotos, um glaubhafte synthetische Nacktbilder zu erzeugen, mit denen sie Schweigegeld fordern. Sicherheitsbehörden dokumentieren, wie leicht sich diese Prozesse skalieren lassen. Kosten für hochwertige Auftrags-Deepfakes liegen laut Marktanalysen im dreistelligen bis fünfstelligen Dollarbereich – „commodity“-Ware ist deutlich billiger. Europol, FBI und Parlamentsdienste warnen vor einer Welle synthetischer Inhalte.
Die Datenlage ist robust genug, um von einem strukturellen Risiko junge Menschen zu sprechen. Fälle aus Spanien und Südkorea zeigen Muster: Täter sind oft Gleichaltrige, Kommunikationsräume sind Messenger-Kanäle und die Eskalation erfolgt über virale Verbreitung und Demütigung. Bildungs- und Jugendschutzbehörden reagieren mit Aufklärung und juristischen Verschärfungen. Dennoch bleibt die Prävention entscheidend: Medienkompetenz, niedrigschwellige Meldesysteme, schnelle Content-Removal-Prozesse und forensische Unterstützung zur Dokumentation von Beweisen.
Ob KI „eine tragende Säule“ der Erotik werden kann, ist nicht mehr hypothetisch, sondern eine ökonomische Frage der Skalierung. Marktberichte beziffern den globalen Sextech-KI-Sektor bereits im Milliardenbereich! Parallel professionalisiert sich eine Creator-Ökonomie rund um virtuelle Models, automatisierte Chats und personalisierte Erlebnisse. Zugleich verschiebt KI die Wertschöpfung: von der Produktion, mit synthetischen Models und KI-Videos, über die Distribution mit algorithmischen Empfehlungen und Labeling, bis zur Monetarisierung durch 1:1-Chat-Automatisierung und Tipping-Optimierung. Wer hier von „positiven Aspekten“ spricht, meint meist drei Punkte: sicherere Exploration im Privaten, niedrigere Einstiegskosten für Produzenten und eine potenziell entstigmatisierte, barrierearme Kommunikation für einsame Menschen. Die Kehrseite sind Authentizitätsfragen, Täuschung, parasoziale Abhängigkeiten und das Risiko, dass enge Graubereiche Ausbeutungsformen kaschieren.
Sexualisierte Deepfakes sind keine "Pranks"
Auf EU-Ebene schafft der AI Act Transparenzpflichten für synthetische Medien, die in der Praxis durch Content-Provenance-Standards wie C2PA/Content Credentials ergänzt werden. Kamera- und CDN-Anbieter integrieren die Signaturen. Nachrichtenhäuser und Plattformen beginnen, Herkunftsdaten anzuzeigen. Doch Kennzeichnung trifft das Symptom, nicht die Tat. Zivil-, straf- und medienrechtliche Instrumente bleiben deshalb zentral: Unterlassung, Gegendarstellung, Geldentschädigung, einstweiliger Rechtsschutz, Notice-and-Takedown – plus künftige spezifische Straftatbestände. In Deutschland wird ein § 201b StGB eine Lücke schließen, sofern er präzise gefasst verabschiedet wird. Bis dahin gilt der Weg über bestehende Normen und zivilrechtliche Ansprüche.
Jenseits der Modernisierung des Rechtsrahmen diskutieren Experten, was man individuell und institutionell tun kann, um Missbrauch zu verhindern. Aus Nutzersicht empfehlen sich strikte Privatsphäre-Settings, die Sensibilität beim Teilen persönlicher Bilder, das Monitoring des eigenen Namens mit Bild-Rückwärtssuche sowie eine schnelle Beweissicherung über Screenshots, URLs und Hashes.
Ergänzt werden diese Maßnahmen durch strafrechtliche Anzeige, Meldung an Plattformen und ein anwaltliches Vorgehen. Für Unternehmen gilt, dass es klare Acceptable-Use-Policies braucht, Filtersysteme gegen NSFW im Firmennetz, DLP-Regeln, Admin-Kontrollen an generativen Tools, Logging und Audits. Flankiert von Compliance-Schulungen und einer dokumentierten Eskalationskette bei Vorfällen.
Hart belastbare, plattformübergreifende Quoten, wieviele erotische Inhalte schon KI-synthetisch sind, existieren nicht. Experten sprechen daher von Tendenzen, nicht von Anteilen. Bei OnlyFans häufen sich Indizien für einen deutlichen Zuwachs: AI-Avatare, automatisierte Chats und synthetische Bildwelten. Plattform-Guides, Branchenbeobachtungen und Berichte legen Transparenzregeln und Label-Empfehlungen nahe.
Zugleich zeigen Recherchen, dass Kennzeichnung und Enforcement hinterherhinken – eine Lücke, die die EU-Kennzeichnungspflichten und Provenance-Standards mittelfristig verkleinern sollen. Methodisch saubere Prevalence-Studien werden erst entstehen, wenn Plattformen systematisch ihre entsprechenden Daten freigeben. Bis dahin bleibt der Befund qualitativ. NSFW-Content wandert in weiten Teilen in den Bereich „AI-assisted“ oder „AI-generated“, ohne dass Nutzerinnen und Nutzer das immer erkennen. Ein kurzer Blick auf prominente Fälle zeigt die Lernkurven in der öffentlichen Wahrnehmung darüber, dass sexualisierte Deepfakes keine „Pranks“, sondern digitale Gewalt sind.
C2Pa ALS Chance, zwischen „AI-Art“ und Täuschung zu unterscheiden
Für die nähere Zukunft zeichnen sich drei Entwicklungslinien ab. Erstens professionalisiert sich die legale Adult-Industrie mit KI-Werkzeugen weiter – von der Produktion bis zur Fan-Interaktion. Hier werden Kennzeichnung, Rechteketten und Altersverifikation zu Wettbewerbsfaktoren. Zweitens verlagert sich Missbrauch in industrialisierte Workflows, gegen die Strafrecht, Zivilrecht und Plattform-Enforcement gemeinsam ansetzen müssen – mit schnellerem Takedown, Haftungsregimen und internationaler Kooperation. Drittens etabliert sich Content-Provenance als Infrastruktur-Layer: Wenn C2PA-Credentials flächig in Kameras, Editoren, CDNs und Social-Feeds sichtbar sind, wächst die Chance, zwischen „AI-Art“ und Täuschung zu unterscheiden. Das wird Missbrauch nicht verhindern – aber Beweisführung, Forensik und Haftung erleichtern.
NSFW und Erotik im KI-Zeitalter sind kein Randthema, sondern ein Knotenpunkt aus Technologie, Ökonomie, Ethik und Recht. Es gibt eine oftmals unterschätzte Nachfrage und durchaus auch legale und legitime Angebote. Die kreative Seite liefert dabei Innovationen, Senkung von Produktionskosten und neue Formen intimer Kommunikation. Genauso unterschätzt ist aber das Ausmaß der Schattenseite, die signifikante Rechtsverletzungen mit sich bringt sowie Demütigung und Erpressung in nie dagewesener Skalierung.
Politik und Industrie reagieren mit Label-Pflichten, neuen Straftatbeständen, technischen Herkunftsnachweisen und strengeren Plattformregeln. Für Betroffene zählt am Ende, wie schnell illegale Inhalte verschwinden und wie niedrigschwellig Hilfe greift.
Für Unternehmen zählt, wie gut sie Missbrauch am Arbeitsplatz verhindern und Compliance nachweisen. Und für das Publikum zählt Transparenz. Sie haben ein Recht jederzeit zu wissen, wann es sich um Kunst, Simulation – oder um eine Übertretung von ethischen und rechtlichen Grenzen handelt, die teilweise noch viel zu diffus sind. 2026, das zeigen aktuelle Gesetzgebungsverfahren, Initiativen wie die C2PA aber auch die Ankündigungen der KI-Anbieter zu einem künftigen „Adult-Mode“, erleben wir -so die Expertenprognose- einen massiven Zuwachs an KI-generiertem NSFW-Content – aber auch einen angepassten Rechtsrahmen und weniger Grauzonen und Schlupflöcher für die mißbräuchliche Anwendung der Künstlichen Intelligenz. ■
Glossar
NSFW
Not Safe For Work: Oberbegriff für visuelle oder textliche Inhalte mit erotischem, pornografischem oder anderweitig arbeitsplatzungeeignetem Charakter. Im KI-Kontext: Label für generierte Erotik, Adult- oder „Mature Content“.
C2PA
Content Credentials: Offener Standard (Coalition for Content Provenance and Authenticity). Hinterlegt kryptographisch Herkunfts- und Bearbeitungsdaten in Medien-Metadaten. Zentrale Rolle bei Kennzeichnungspflichten nach EU-AI-Act.
Nackt-APP
Nudification-AI: Software, die aus Alltagsfotos realistisch wirkende Nacktversionen generiert. Technisch basiert sie meist auf Image-to-Image-Modellen (Stable Diffusion Derivate). In fast allen Ländern illegal, wenn reale Personen betroffen sind.
Ergänzender Lese-Tipp
Gefährlicher Trend mit KI-Nacktbildern
In den Medien wurde weltweit in den letzten zwei Wochen über einen Fall von KI-generierten Nacktbildern von spanischen Schülerinnen berichtet. Nicht zuletzt erregte der Fall aufsehen, da die Eltern der Mädchen diesen gemeinsam an die Öffentlichkeit gebracht haben. Die völlig echt aussehenden Nacktbilder basierten auf Instagramm-Bildern – eine Smartphone App erledigte die Fälschungen, die meist nur für Profis zu erkennen sind. Dieser Fall aus dem spanischen Almendralejo ist kein Einzelfall und immer wieder werden Deepfakes für Mobbing und Erpressung genutzt. Entsprechende KI-Tools sind frei verfügbar und werden offen beworben.
#GenerativeKI #Erotik #NSFW #Sextech #Deepfakes #Sextortion #AdultIndustry #AIGirlfriend #AIBoyfriend #Chatbots #KünstlicheIntelligenz #AIArtErotica #NacktApps #Nudification #KIErotik #AIAdultContent #OpenAI #ChatGPT #DALLE #Sora #Whisper #AdultMode #OnlyFans #CreatorEconomy #VirtualModels #AIAvatars #VoiceCloning #LipSync #CamShows #FanChats #AICompanion #Realbotix #Lovense #AIDevices #AIErotikTools #SexualisierteDeepfakes #NonConsensualDeepfakes #DigitalViolence #SyntheticCSAM #ContentModeration #C2PA #ContentCredentials #AITransparency #EUAIAct #Labeling #AIRegulierung #AICompliance #AIandEthics #KIundRecht #DigitaleEthik #AIEthik #KIMissbrauch #AIMissbrauch #AIinDerErotik #AIErotikindustrie #AdultContent #AIAdultIndustry #AIinMedia #AIArt #AIandSociety #AIundGesellschaft #AIandLaw #AIRecht #AIundKriminalität #Europol #FBI #Sicherheitsbehörden #Jugendschutz #Medienkompetenz #Cybercrime #DigitalSafety #OnlineSafety #Datenschutz #AIProvenance #TransparencyStandards #AIGovernance #DigitalerMissbrauch #VirtuelleErotik #KIimAlltag #AIZukunft #AITrends #AITransformation #Kulturwandel #DigitaleGesellschaft #AIundMoral #AIundKreativität #EthikundTechnologie
