XAI

xAI Grok: Biometrische Daten ohne Zustimmung gescannt – Skandal um Elon Musks KI

Elon Musks KI-Firma xAI steht im Zentrum eines massiven Datenschutz-Skandals: Grok hat offenbar biometrische Daten von Millionen X/Twitter-Nutzern ohne deren Einwilligung verarbeitet. Datenschutzbehörden in der EU und den USA ermitteln. Der Skandal wirft grundsätzliche Fragen zur KI-Ethik auf.

xAI Grok Biometrie-Skandal
SachstandAblaufReaktionenFolgenKontext

🚨 Sachstand: Was ist bekannt?

Im August 2025 wurde bekannt, dass Elon Musks KI-Assistent Grok (entwickelt von xAI) systematisch biometrische Daten von X/Twitter-Nutzern verarbeitet hat – ohne dass die Betroffenen dem zugestimmt hätten.

Konkret geht es um Gesichtserkennung aus Profilbildern und Stimm-Analyse aus Audio-Tweets. Laut einem Bericht von Politico hat Grok diese Daten genutzt, um:

  • Nutzer automatisch zu identifizieren und zu kategorisieren
  • Emotionale Zustände aus Gesichtern und Stimmen abzulesen
  • Profile für personalisierte Werbung zu erstellen
  • Trainingsdaten für das KI-Modell zu sammeln

Kritikpunkte beziehen sich insbesondere auf eine fehlende vorherige Einwilligung (Opt‑in) und unklare Information für Betroffene. Nach den Berichten haben zivilgesellschaftliche Akteure Anzeigen eingereicht; xAI teilte mit, man prüfe die Vorwürfe und arbeite mit den Behörden zusammen.

👤 Was sind biometrische Daten – und warum gelten sie als sensibel?

Biometrische Daten sind körperliche Merkmale, die eine Person eindeutig identifizieren können. Dazu gehören:

  • Gesichtsgeometrie (Abstand der Augen, Nasenform, Kinnlinie)
  • Stimmprofile (Tonhöhe, Sprachrhythmus, Akzent)
  • Fingerabdrücke
  • Iris-Scans
  • Gangmuster (wie jemand läuft)

Diese Daten gelten als besonders schützenswert, weil sie in der Regel nicht änderbar sind. Während Passwörter ersetzt werden können, bleiben biometrische Merkmale in der Person verankert.

Deshalb gelten biometrische Daten in der EU als "besondere Kategorie personenbezogener Daten" (DSGVO Artikel 9). Sie dürfen nur mit ausdrücklicher Zustimmung verarbeitet werden – oder in absoluten Ausnahmefällen (z.B. Strafverfolgung).

Hinweis: In der EU zählen biometrische Daten zu den besonderen Kategorien personenbezogener Daten. Ihre Verarbeitung ist nur in eng umrissenen Fällen zulässig (z.B. mit ausdrücklicher Einwilligung oder gesetzlicher Grundlage).
Grok Gesichtserkennung auf X/Twitter

🔍 Ablauf laut Berichten: Wie die Verarbeitung erfolgt sein soll

Laut The Verge und weiteren Medienberichten stellt sich der Ablauf derzeit wie folgt dar:

1. Gesichtserkennung aus Profilbildern

Grok hat systematisch alle öffentlichen X/Twitter-Profilbilder durchforstet und Gesichter erkannt. Dabei wurden biometrische "Fingerabdrücke" erstellt – eindeutige Profile, die eine Person über verschiedene Accounts hinweg identifizieren können.

Als Ziel wird u.a. die Erkennung von Fake‑Accounts und Bots genannt. Nach Angaben der Berichte könnten dabei auch Profile realer Nutzer erfasst worden sein. Ob und in welchem Umfang die Daten in Trainingsbestände eingeflossen sind, ist Gegenstand der Prüfungen.

2. Stimm-Analyse aus Audio-Tweets (Spaces)

X/Twitter hat eine Audio-Funktion namens "Spaces" (Live-Gespräche). Grok hat diese Aufnahmen analysiert und Stimm-Profile erstellt. Damit lassen sich nicht nur Personen identifizieren, sondern auch emotionale Zustände ablesen (Stress, Freude, Wut).

Einige Quellen spekulieren über eine Nutzung zur Steigerung des Plattform‑Engagements; diese Einordnung ist bislang nicht abschließend belegt.

3. Keine Anonymisierung, keine Löschung

In den Darstellungen heißt es zudem, eine durchgängige Anonymisierung sei nicht erfolgt und gelöschte Accounts seien teilweise weiterhin in Beständen sichtbar gewesen. Ob dies einen Verstoß gegen das Recht auf Löschung (Art. 17 DSGVO) darstellt, bewerten die zuständigen Behörden im Rahmen der laufenden Verfahren.

⚖️ Reaktionen von Behörden und Nutzern

Die Reaktionen kamen schnell – und waren heftig:

EU-Datenschutzbehörden

Die irische Datenschutzbehörde (DPC), zuständig für X/Twitter in Europa, hat eine formelle Untersuchung eingeleitet. Je nach Ergebnis kommen Bußgelder nach DSGVO in Betracht, die sich u.a. prozentual am weltweiten Umsatz orientieren.

Auch Deutschland, Frankreich und Italien haben angekündigt, eigene Verfahren zu prüfen.

USA: Sammelklagen und FTC-Ermittlungen

In den USA haben Nutzer bereits mehrere Sammelklagen eingereicht – mit dem Vorwurf, dass xAI gegen Datenschutzgesetze in Kalifornien, Illinois und Texas verstößt. Diese Bundesstaaten haben eigene Biometrie-Schutzgesetze.

Medien berichten außerdem über Prüfungen durch die US‑FTC. Die Behörde hat in der Vergangenheit mehrere große Verfahren zu Datenschutzthemen geführt.

Nutzer-Reaktionen: Lösch-Welle und Boykott-Aufrufe

Auf X/Twitter selbst (ironischerweise) und auf Reddit, Mastodon und Bluesky laufen Boykott-Kampagnen. Hashtags wie #DeleteGrok und #BoycottX trendet wochenlang.

Viele Nutzer löschen ihre Accounts oder wechseln zu Alternativen. Besonders in Europa verliert X dadurch massiv Nutzer – ein Trend, der schon seit Musks Übernahme 2022 anhält.

Elon Musk verteidigt Grok

🗣️ Stellungnahmen von xAI und Elon Musk

Elon Musk äußerte sich auf X in mehreren Beiträgen zu den Vorwürfen.

In einer X-Thread-Serie (natürlich) schrieb er:

"Grok nutzt öffentliche Daten. Wer ein Bild postet, macht es öffentlich. Simple as that. 🤷"

Juristisch wird die Auffassung, öffentliche Inhalte erlaubten ohne Weiteres die Erstellung biometrischer Profile, von vielen Fachleuten nicht geteilt. Öffentliche Zugänglichkeit ersetzt nach gängiger Lesart weder Einwilligung noch weitere Rechtsgrundlagen.

Später legte Musk nach:

"Die EU reguliert Innovation zu Tode. In Amerika wären wir längst weiter. Sad!"

Die Reaktionen in Medien reichten von Zustimmung bis deutlicher Kritik; u.a. kommentierte TechCrunch die Argumentation kritisch.

Musk-Klassiker: Als jemand auf X schrieb, Grok sei "ethisch bankrott", antwortete Musk: "Grok ist der ehrlichste Chatbot der Welt. Er sagt die Wahrheit, auch wenn's wehtut. Cope harder. 😎" – Die Ironie? Grok log die Nutzer über die Datensammlung systematisch an.

📉 Kontext: Vorangegangene Diskussionen rund um Grok

Der Biometrie-Skandal ist nur die Spitze des Eisbergs. Grok hat seit seinem Launch (November 2023) eine Reihe von Kontroversen ausgelöst:

1. "Edgy" statt ethisch

Grok wurde u.a. als eher „ungefilterter“ Assistent beschrieben. Kritiker verweisen in diesem Zusammenhang auf Fälle problematischer oder unzutreffender Ausgaben.

Während ChatGPT und Claude Filter haben, die schädliche Outputs verhindern, hat Grok bewusst lockere Leitplanken. Das führte zu absurden Situationen – z.B. als Grok Falschinfos über die US-Wahl 2024 verbreitete.

2. Training mit gestohlenen Daten

Wie andere LLMs nutzt Grok umfangreiche Trainingskorpora. Die rechtliche Bewertung einzelner Quellen und Lizenzen ist in der Branche allgemein Gegenstand laufender Debatten und Verfahren.

Das führte zu Klagen von Verlagen, Autoren und Künstlern. Besonders ärgerlich: Grok nutzte massiv X/Twitter-Daten – also Inhalte, die Nutzer auf Musks eigener Plattform gepostet hatten, ohne sie zu fragen.

3. Technisch unterlegen

In unabhängigen Benchmarks liegt Grok teils hinter Wettbewerbern; Ergebnisse variieren jedoch je nach Test und Anwendungsfall.

4. Musks Ego-Projekt

Beobachter ordnen Grok auch strategisch ein – als Produkt in einem stark wettbewerbsgetriebenen Markt, in dem Positionierung und Kommunikationsstil eine große Rolle spielen.

KI-Regulierung und Ethik

🔮 Mögliche Auswirkungen

Der Grok-Skandal ist ein Weckruf für die gesamte KI-Branche. Er zeigt drei entscheidende Probleme:

1. Selbstregulierung funktioniert nicht

Die Debatte berührt die Frage, wie weit Selbstregulierung in Daten‑ und KI‑Fragen trägt und wo verbindliche Regeln erforderlich sind.

Die EU hat mit dem AI Act reagiert – einem Gesetz, das KI-Anbieter zu Transparenz, Sicherheitsprüfungen und Nutzerrechten zwingt. Der Grok-Skandal wird diese Regulierung beschleunigen.

2. Biometrische KI ist eine rote Linie

Unabhängig vom Ergebnis der Verfahren dürfte die Verarbeitung biometrischer Daten im Fokus regulatorischer und gesellschaftlicher Diskussionen bleiben.

Erwarte in den nächsten Jahren strengere Gesetze zu biometrischer Überwachung, Gesichtserkennung und Stimm-Analyse. Europa wird vorangehen, die USA nachziehen.

3. "Move fast and break things" ist vorbei

Mehrere Akteure fordern vorsichtige Entwicklungs‑ und Einführungsprozesse; andere warnen vor Überregulierung. Der Ausgleich bleibt politisch umstritten.

Firmen wie Anthropic (Claude) zeigen, dass es auch anders geht: Langsamer, vorsichtiger, ethischer. Sie werden langfristig gewinnen – während Chaos-Projekte wie Grok in Skandalen versinken.

🎯 Fazit

Zusammenfassend stehen Vorwürfe zur Verarbeitung biometrischer Daten im Raum, die derzeit von Behörden geprüft werden. Unabhängig vom Ausgang der Verfahren könnte der Fall die Diskussion über Datenverarbeitung, Einwilligung und Transparenz bei KI‑Diensten weiter prägen.