Die Europäische Kommission hat ein offizielles Verfahren gegen die Plattform X gestartet. Anlass sind Vorwürfe rund um die KI-Funktion Grok, die angeblich sexuell explizite Bilder erzeugt und verbreitet haben soll, die eu-baustoffhandel.de berichtet mit guardian.com.
Im Fokus stehen dabei auch mögliche Verstöße gegen europäische Vorschriften zum Schutz von Kindern und Frauen. Die Untersuchung betrifft nicht nur einzelne Inhalte, sondern die grundsätzliche Funktionsweise der KI. Für Brüssel steht die Frage im Raum, ob Risiken ausreichend erkannt und begrenzt wurden.
Die Debatte um KI-generierte Inhalte erreicht damit eine neue Eskalationsstufe. Erstmals rückt eine große Plattform wegen mutmaßlicher Deepfake-Probleme so stark ins Visier der EU.
Grok AI sorgt international für Empörung
Nach Einschätzung von Forschern konnte Grok genutzt werden, um Fotos digital zu manipulieren. Nutzer sollen in der Lage gewesen sein, Frauen und sogar Kinder virtuell zu „entkleiden“ und in sexualisierte Szenarien zu versetzen. Laut Untersuchungen wurden innerhalb kurzer Zeit Millionen solcher Bilder erzeugt. Besonders brisant ist der Vorwurf, dass ein Teil der Inhalte Kindesmissbrauchsmaterial ähneln könnte. Genau dieser Punkt alarmierte EU-Behörden besonders stark.

Ein Experte für digitale Ethik erklärt:
„KI-Systeme ohne wirksame Schutzmechanismen können enorme gesellschaftliche Schäden verursachen. Gerade bei sexualisierten Deepfakes ist die Grenze schnell überschritten.“
Digital Services Act als rechtliche Grundlage
Das Verfahren wurde auf Basis des Digital Services Act (DSA) eröffnet. Dieses EU-Gesetz verpflichtet große Plattformen, Risiken frühzeitig zu bewerten und illegale Inhalte konsequent zu bekämpfen. Die Kommission prüft nun, ob X seinen Pflichten nachgekommen ist. Dabei geht es auch um interne Kontrollsysteme und Moderationsprozesse. Besonders kritisch sehen die Behörden mögliche Lücken bei der Prävention.
Eine EU-Beamtin sagte gegenüber Journalisten:
„Die bisherigen Maßnahmen von X haben uns nicht überzeugt. Wir prüfen, ob Risiken tatsächlich wirksam begrenzt wurden.“
Auch Empfehlungsalgorithmen im Visier
Neben Grok AI weitet die Kommission ihre Untersuchung auf die Empfehlungssysteme von X aus. Diese Algorithmen entscheiden maßgeblich darüber, welche Inhalte Nutzer sehen. Sollten problematische Inhalte verstärkt verbreitet worden sein, könnte das zusätzliche Konsequenzen haben. Die EU will klären, ob algorithmische Verstärkung zur Verbreitung sensibler Inhalte beigetragen hat. Damit rückt das gesamte Ökosystem der Plattform in den Fokus.
Algorithmen sind längst keine neutralen Werkzeuge mehr. Ihre gesellschaftliche Verantwortung wächst mit ihrer Reichweite.
Zentrale Vorwürfe gegen X im Überblick
Die Untersuchung konzentriert sich unter anderem auf folgende Punkte:
- Sexualisierte KI-Bilder ohne Einwilligung
- Mögliche Darstellung von Minderjährigen
- Unzureichende Risikobewertung durch X
- Schwächen bei Moderation und Kontrolle
- Rolle von Empfehlungsalgorithmen
Diese Aspekte entscheiden darüber, ob X gegen europäisches Recht verstoßen hat.
Einschätzungen aus Politik und Zivilgesellschaft
Mehrere EU-Abgeordnete begrüßten das Vorgehen der Kommission. Sie betonen, dass technologische Innovation nicht auf Kosten von Grundrechten gehen dürfe. Besonders der Schutz von Kindern müsse oberste Priorität haben. Organisationen aus der Zivilgesellschaft fordern zudem strengere Regeln für KI-Systeme. Der Fall X könnte als Präzedenzfall dienen.

Eine Parlamentarierin erklärte:
„Wenn glaubwürdige Hinweise auf Missbrauch durch KI vorliegen, muss das Recht konsequent angewendet werden – ohne Verzögerung.“
Reaktion von X auf die Vorwürfe
X wies die Kritik nicht direkt zurück, betonte jedoch sein Engagement für Sicherheit. Das Unternehmen erklärte, man verfolge eine Null-Toleranz-Politik gegenüber sexueller Ausbeutung, unerwünschter Nacktheit und illegalen Inhalten. Zudem arbeite man kontinuierlich an Verbesserungen. Ob diese Aussagen die EU überzeugen, bleibt offen. Die Untersuchung dürfte mehrere Monate in Anspruch nehmen.
Vergleich: Anforderungen der EU und aktuelle Vorwürfe
| EU-Anforderung | Erwartung | Vorwurf im Verfahren |
|---|---|---|
| Risikobewertung | Frühzeitig und umfassend | Unzureichend |
| Kinderschutz | Höchste Priorität | Zweifelhaft |
| KI-Kontrollen | Klare Schutzmechanismen | Lücken vermutet |
| Algorithmische Transparenz | Nachvollziehbar | Prüfung läuft |
Was die Untersuchung für Plattformen bedeutet
Der Fall zeigt, wie ernst die EU die Regulierung digitaler Dienste nimmt. Große Plattformen stehen zunehmend unter Druck, KI-Funktionen sicher zu gestalten. Verstöße könnten empfindliche Strafen nach sich ziehen. Gleichzeitig wächst die Verantwortung gegenüber Nutzern, insbesondere gegenüber schutzbedürftigen Gruppen. Für X geht es nicht nur um rechtliche Folgen, sondern auch um Vertrauen.
Die kommenden Schritte der EU könnten den Umgang mit KI-Inhalten europaweit prägen. Für viele Beobachter ist klar: Der Schutz von Rechten darf kein Kollateralschaden technischer Innovation sein.
