🚨 Sachstand: Was ist bekannt?
Im August 2025 berichteten Medien über den KI‑Assistenten Grok (xAI) und mögliche systematische Verarbeitung biometrischer Daten von X/Twitter‑Nutzern – ohne vorherige Einwilligung.
Genannt werden Gesichtserkennung aus Profilbildern und Stimm-Analyse aus Audio-Tweets. Laut einem Bericht von Politico werden als mögliche Nutzungen diskutiert:
- Nutzer automatisch zu identifizieren und zu kategorisieren
- Emotionale Zustände aus Gesichtern und Stimmen abzulesen
- Profile für personalisierte Werbung zu erstellen
- Trainingsdaten für das KI-Modell zu sammeln
Kritikpunkte betreffen insbesondere eine fehlende vorherige Einwilligung (Opt‑in) und unklare Information für Betroffene. Nach den Berichten haben zivilgesellschaftliche Akteure Anzeigen eingereicht; xAI teilte mit, man prüfe die Vorwürfe und kooperiere mit Behörden.
👤 Was sind biometrische Daten – und warum gelten sie als sensibel?
Biometrische Daten sind körperliche Merkmale, die eine Person eindeutig identifizieren können. Dazu gehören:
- Gesichtsgeometrie (Abstand der Augen, Nasenform, Kinnlinie)
- Stimmprofile (Tonhöhe, Sprachrhythmus, Akzent)
- Fingerabdrücke
- Iris-Scans
- Gangmuster (wie jemand läuft)
Diese Daten gelten als besonders schützenswert, weil sie in der Regel nicht änderbar sind. Während Passwörter ersetzt werden können, bleiben biometrische Merkmale in der Person verankert.
Deshalb gelten biometrische Daten in der EU als "besondere Kategorie personenbezogener Daten" (DSGVO Artikel 9). Sie dürfen nur mit ausdrücklicher Zustimmung verarbeitet werden – oder in absoluten Ausnahmefällen (z.B. Strafverfolgung).
🔍 Ablauf laut Berichten
Laut The Verge und weiteren Medienberichten stellt sich der Ablauf derzeit wie folgt dar:
1. Gesichtserkennung aus Profilbildern
Grok soll öffentlich zugängliche Profilbilder analysiert und Gesichter extrahiert haben. Dabei könnten biometrische Muster entstanden sein, die über Accounts hinweg wiedererkennbar sind.
Als Ziel wird u.a. die Erkennung von Fake‑Accounts und Bots genannt. Nach Angaben der Berichte könnten dabei auch Profile realer Nutzer erfasst worden sein. Ob und in welchem Umfang die Daten in Trainingsbestände eingeflossen sind, ist Gegenstand der Prüfungen.
2. Stimm-Analyse aus Audio-Tweets (Spaces)
X/Twitter bietet mit "Spaces" eine Live‑Audiofunktion. Grok soll Aufnahmen ausgewertet und Stimmprofile erstellt haben. Solche Profile können Rückschlüsse auf Identität und potenziell emotionale Zustände erlauben.
Einzelne Quellen diskutieren eine mögliche Nutzung zur Steigerung von Plattform‑Engagement; belastbare Belege hierfür stehen noch aus.
3. Keine Anonymisierung, keine Löschung
Weiterhin wird berichtet, eine durchgängige Anonymisierung habe nicht stattgefunden und gelöschte Accounts seien teils weiter sichtbar gewesen. Ob dies gegen das Recht auf Löschung (Art. 17 DSGVO) verstößt, ist Gegenstand behördlicher Bewertung.
⚖️ Reaktionen von Behörden und Nutzern
Erste Reaktionen folgten rasch:
EU-Datenschutzbehörden
Die irische Datenschutzbehörde (DPC), zuständig für X/Twitter in Europa, hat eine formelle Untersuchung eingeleitet. Je nach Ergebnis kommen Bußgelder nach DSGVO in Betracht, die sich u.a. prozentual am weltweiten Umsatz orientieren.
Auch Deutschland, Frankreich und Italien haben angekündigt, eigene Verfahren zu prüfen.
USA: Sammelklagen und FTC-Ermittlungen
In den USA wurden mehrere Sammelklagen eingereicht – unter Verweis auf Datenschutz‑ und Biometriegesetze einzelner Bundesstaaten (u.a. Kalifornien, Illinois, Texas).
Medien berichten außerdem über Prüfungen durch die US‑FTC. Die Behörde hat in der Vergangenheit mehrere große Verfahren zu Datenschutzthemen geführt.
Nutzer-Reaktionen: Lösch-Welle und Boykott-Aufrufe
Auf Plattformen wie X/Twitter, Reddit, Mastodon und Bluesky kursieren Boykott‑ und Löschaufrufe (u.a. #DeleteGrok, #BoycottX).
Einige Nutzer löschen Accounts oder wechseln zu Alternativen. Langfristige Trenddaten zur Nutzerentwicklung werden separat erhoben und sind nicht Gegenstand dieser Zusammenfassung.
🗣️ Stellungnahmen und Einordnung
Elon Musk äußerte sich auf X in mehreren Beiträgen zu den Vorwürfen.
In einer X-Thread-Serie (natürlich) schrieb er:
"Grok nutzt öffentliche Daten. Wer ein Bild postet, macht es öffentlich. Simple as that. 🤷"
Juristisch wird die Auffassung, öffentliche Inhalte ermöglichten ohne Weiteres die Erstellung biometrischer Profile, vielfach nicht geteilt. Öffentliche Verfügbarkeit ersetzt weder Einwilligung noch andere Rechtsgrundlagen.
Später ergänzte Musk weitere Kommentare:
"Die EU reguliert Innovation zu Tode. In Amerika wären wir längst weiter. Sad!"
Medienreaktionen fielen unterschiedlich aus; TechCrunch kommentierte die Argumentation kritisch.
📉 Kontext: Vorangegangene Diskussionen rund um Grok
Die aktuelle Debatte reiht sich in frühere Diskussionen seit dem Launch (November 2023) ein:
1. "Edgy" statt ethisch
Grok wurde u.a. als eher „ungefilterter“ Assistent beschrieben. Kritiker verweisen in diesem Zusammenhang auf Fälle problematischer oder unzutreffender Ausgaben.
Während ChatGPT und Claude Filter haben, die schädliche Outputs verhindern, hat Grok bewusst lockere Leitplanken. Das führte zu absurden Situationen – z.B. als Grok Falschinfos über die US-Wahl 2024 verbreitete.
2. Training mit gestohlenen Daten
Wie andere LLMs nutzt Grok umfangreiche Trainingskorpora. Die rechtliche Bewertung einzelner Quellen und Lizenzen ist in der Branche allgemein Gegenstand laufender Debatten und Verfahren.
Das führte zu Klagen von Verlagen, Autoren und Künstlern. Besonders ärgerlich: Grok nutzte massiv X/Twitter-Daten – also Inhalte, die Nutzer auf Musks eigener Plattform gepostet hatten, ohne sie zu fragen.
3. Technisch unterlegen
In unabhängigen Benchmarks liegt Grok teils hinter Wettbewerbern; Ergebnisse variieren jedoch je nach Test und Anwendungsfall.
4. Musks Ego-Projekt
Beobachter ordnen Grok auch strategisch ein – als Produkt in einem stark wettbewerbsgetriebenen Markt, in dem Positionierung und Kommunikationsstil eine große Rolle spielen.
🔮 Mögliche Auswirkungen
Der Fall verdeutlicht mehrere Diskussionsstränge in der KI‑Branche:
1. Selbstregulierung funktioniert nicht
Die Debatte berührt die Frage, wie weit Selbstregulierung in Daten‑ und KI‑Fragen trägt und wo verbindliche Regeln erforderlich sind.
Die EU hat mit dem AI Act einen Regulierungsrahmen geschaffen, der Transparenz, Sicherheitsprüfungen und Nutzerrechte adressiert. Der Fall könnte die praktische Auslegung einzelner Vorgaben beeinflussen.
2. Biometrische KI ist eine rote Linie
Unabhängig vom Ausgang der Verfahren dürfte die Verarbeitung biometrischer Daten im regulatorischen und gesellschaftlichen Fokus bleiben.
Es wird über potenziell strengere Regeln zu biometrischer Überwachung, Gesichtserkennung und Stimm‑Analyse diskutiert; regionale Entwicklungen können unterschiedlich verlaufen.
3. "Move fast and break things" ist vorbei
Mehrere Akteure fordern vorsichtigere Entwicklungs‑ und Einführungsprozesse; andere warnen vor Überregulierung. Der Ausgleich ist politisch umstritten.
Anbieter verfolgen unterschiedliche Sicherheits‑ und Governance‑Ansätze. Langfristige Auswirkungen auf Marktpositionen bleiben abzuwarten.
🎯 Fazit
Zusammenfassend stehen Vorwürfe zur Verarbeitung biometrischer Daten im Raum, die von Behörden geprüft werden. Unabhängig vom Ergebnis prägt der Fall Debatten zu Rechtsgrundlagen, Einwilligung und Transparenz bei KI‑gestützten Diensten.