Das Wichtigste in Kürze
- Was passiert ist: xAI hat von Mitarbeitern verlangt, Fotos von ihren Gesichtern und Aufnahmen ihrer Stimmen zu machen.
- Wozu: Um einen KI-Chatbot namens „Ani" zu trainieren – einen digitalen Gesprächspartner.
- Das Problem: Mitarbeiter konnten nicht wirklich Nein sagen. Wer nicht mitmachte, riskierte seinen Job.
- Was xAI damit machen darf: Die Firma kann die Gesichter und Stimmen für immer nutzen – und sogar an andere verkaufen.
Was ist „Project Skippy"?
„Project Skippy" ist der Code-Name für ein internes Projekt bei xAI. Das Ziel: Einen KI-Chatbot namens „Ani" zu entwickeln. Dieser Chatbot sollte sehr menschlich wirken – flirtend, emotional, ausdrucksstark.
Um das zu erreichen, brauchte xAI Trainingsdaten. Also: echte menschliche Gesichter und Stimmen. Deshalb hat xAI seine eigenen Mitarbeiter als „Datenquelle" genutzt.
Was sind biometrische Daten?
Biometrische Daten sind körperliche Merkmale, die einzigartig für eine Person sind. Zum Beispiel:
- Dein Gesicht
- Deine Stimme
- Deine Fingerabdrücke
- Deine Iris (der farbige Teil des Auges)
Warum wichtig: Diese Daten kann man nicht ändern. Wenn dein Passwort geklaut wird, kannst du es ändern. Wenn dein Gesicht geklaut wird, kannst du dir kein neues Gesicht machen.
Was mussten die Mitarbeiter genau machen?
Laut Wall Street Journal mussten Mitarbeiter (vor allem „AI Tutors" – das sind Leute, die KI trainieren):
- Fotos von ihrem Gesicht aus verschiedenen Winkeln machen
- Audio-Aufnahmen ihrer Stimme machen (beim Sprechen verschiedener Sätze)
- Einen Vertrag unterschreiben, der xAI erlaubt, diese Daten zu nutzen
Was stand in dem Vertrag?
Der Vertrag sah eine „unbefristete, weltweite, nicht‑exklusive, unterlizenzierbare, gebührenfreie Lizenz" vor – also weitreichende Nutzungsrechte.
Was bedeutet das in einfachen Worten?
- Unbefristet: Für immer. Kein Ablaufdatum.
- Weltweit: Überall auf der Welt.
- Nicht-exklusiv: xAI kann die Daten nutzen, aber der Mitarbeiter darf theoretisch auch – nur bringt ihm das nichts.
- Unterlizenzierbar: xAI kann die Daten an andere Firmen verkaufen oder weitergeben.
- Gebührenfrei: Der Mitarbeiter bekommt kein Geld dafür.
Warum ist das ein Problem?
Es gibt mehrere Probleme:
1. Kein echtes „Nein" möglich
Am Anfang fragten einige Mitarbeiter: „Kann ich auch Nein sagen?" Die Antwort war unklar. Eine Woche später sagte xAI: „Das ist jetzt eine Job-Anforderung."
Das bedeutet: Wer nicht mitmacht, verliert den Job. Das ist keine freie Entscheidung – das ist Zwang.
Was ist echte Zustimmung?
Damit eine Zustimmung wirklich freiwillig ist, muss sie diese Bedingungen erfüllen:
- Du kannst frei Ja oder Nein sagen
- Wenn du Nein sagst, gibt es keine negativen Folgen
- Du weißt genau, wozu deine Daten genutzt werden
- Du kannst deine Zustimmung später zurückziehen
Bei xAI: Keine dieser Bedingungen war erfüllt.
2. Risiken bei Weitergabe und Wiederverwendung
Mitarbeiter haben Angst, dass ihre Gesichter in Deepfakes auftauchen könnten. „Deepfakes" sind gefälschte Videos, in denen dein Gesicht auf einen anderen Körper gesetzt wird – oft für unanständige oder peinliche Inhalte.
Da xAI die Daten „unterlizenzieren" darf, könnte die Firma sie theoretisch an andere verkaufen. Die Mitarbeiter hätten keine Kontrolle darüber.
3. Es war für einen sexualisierten Chatbot
Das macht es noch schlimmer: Der Chatbot „Ani" sollte „flirtend" und „NSFW-fähig" sein. NSFW bedeutet „Not Safe For Work" – also: für Erwachsene, oft sexuell.
Das Problem: Mitarbeiter mussten ihre Identität für ein Produkt abgeben, das sie vielleicht moralisch ablehnen – ohne echte Wahl.
Ist das legal?
In den USA existieren nur begrenzte arbeitsrechtliche und datenschutzrechtliche Regelungen zu Biometrie am Arbeitsplatz; einzelne Bundesstaaten regeln mehr, andere weniger.
In Europa wäre so etwas wahrscheinlich illegal (wegen der DSGVO – der Datenschutz-Grundverordnung). In den USA ist es eine Grauzone.
Was sagen Experten?
Datenschutz-Organisationen wie die Electronic Frontier Foundation (EFF) sagen:
- Die Macht zwischen Arbeitgeber und Angestellten ist ungleich
- Wenn der Arbeitgeber sagt „Gib mir deine Daten oder du verlierst den Job", ist das kein freiwilliges Einverständnis
- Biometrische Daten sollten besonders geschützt sein – weil man sie nicht ändern kann
Was sagt xAI dazu?
Bisher hat xAI keine offizielle Stellungnahme zu „Project Skippy" abgegeben. Die Firma hat die Vorwürfe weder bestätigt noch dementiert.
Was hat das mit „Grok Imagine" zu tun?
Parallel hat xAI „Grok Imagine" als Bild‑zu‑Video‑Funktion veröffentlicht (inklusive „Spicy Mode" für NSFW‑Inhalte).
Stand heute: Externe Vergleiche attestieren aktuell geringere Bildqualität und physikalische Kohärenz im Vergleich zu Referenzsystemen.
Die Ironie: xAI opfert Mitarbeiterrechte für schnelle Innovation – aber das Produkt ist trotzdem mittelmäßig.
Warum ist das wichtig für uns alle?
Diese Geschichte betrifft nicht nur xAI-Mitarbeiter. Sie zeigt ein größeres Problem:
- KI-Firmen brauchen riesige Datenmengen. Wenn sie diese Daten nicht kaufen wollen, „ernten" sie sie von Mitarbeitern oder Nutzern.
- Die Gesetze hinken hinterher. Es gibt kaum Regeln, die verhindern, dass Firmen so etwas tun.
- „Move fast, break things" hat Grenzen. Schnell sein ist gut – aber nicht, wenn dabei Menschen verletzt werden.
Was du dir merken solltest
- xAI zwang Mitarbeiter, Gesichter und Stimmen für KI-Training abzugeben
- Wer Nein sagte, riskierte den Job – das ist kein freiwilliges Einverständnis
- Die Firma darf die Daten für immer nutzen und sogar verkaufen
- Es gibt offene ethische und regulatorische Fragen zum Einsatz von Biometriedaten
Was passiert jetzt?
Mehrere Datenschutz-Organisationen prüfen rechtliche Schritte. Die kalifornische Datenschutzbehörde wurde informiert. Es könnte Klagen geben.
Aber: Selbst wenn xAI verliert – der Schaden ist schon passiert. Die Daten existieren bereits. Und andere Firmen könnten das gleiche versuchen.
Fazit: Project Skippy ist ein Warnsignal. Es zeigt, was passiert, wenn KI-Firmen schnell sein wollen – ohne Rücksicht auf die Menschen, die für sie arbeiten. Wir brauchen bessere Gesetze und stärkeren Schutz für Mitarbeiter im KI-Zeitalter. Sonst wird das nicht das letzte Mal sein, dass so etwas passiert.