Kurzfassung
Anthropic implementiert eine Identitätsverifikation für Claude-Nutzer und verlangt die Vorlage von behördlichen Ausweisdokumenten sowie teilweise ein Live-Selfie vor dem Zugriff auf bestimmte Plattformfunktionen. Der Verifizierungsprozess wird durch den Drittanbieter Persona Identities abgewickelt und dauert typischerweise unter fünf Minuten. Anthropic betont, dass die Verifikationsdaten nicht für das Training von KI-Modellen verwendet werden und ausschliesslich zur Identitätsbestätigung sowie zur Erfüllung rechtlicher und Sicherheitsverpflichtungen dienen. Das Unternehmen positioniert sich damit als einer der ersten grossen Consumer-KI-Anbieter mit formaler Identitätsverifikation als Zugriffskontrollmechanismus.
Personen
- Pareesa Afreen (Reporterin, The News)
Themen
- Künstliche Intelligenz & Identitätsprüfung
- Datenschutz und Nutzerdaten
- Plattformintegrität und Missbrauchsprävention
Clarus Lead
Die Einführung von Identitätsprüfungen durch Anthropic signalisiert einen Wendepunkt in der Regulierung von Consumer-KI-Plattformen: Während die Branche bislang weitgehend ohne Verifikationshürden operiert, setzt Anthropic nun auf Zugangskontrollen, um Missbrauch zu verhindern und rechtliche Verpflichtungen zu erfüllen. Dies reflektiert wachsenden regulatorischen Druck und potenzielle Verantwortlichkeitsanforderungen, die Anbieter grosser Sprachmodelle künftig erfüllen müssen. Die Intransparenz über betroffene Features verstärkt gleichzeitig Nutzerfragen zur Proportionalität dieser Massnahme.
Detaillierte Zusammenfassung
Anthropic arbeitet mit Persona Identities zusammen, einem Spezialisten für digitale Identitätsinfrastruktur. Die Plattform akzeptiert nur physische Regierungsdokumente mit Lichtbild – Reisepass, Führerschein, Personalausweis oder behördliche Ausweise – von den meisten Ländern. Photocopien, Screenshots, digitale Ausweise, Studentenausweise und Bankkarten werden explizit abgelehnt. Das Selfie-Element dient der Lebendprüfung.
Die Datenverwaltung erfolgt nach Anthropic-Angaben unter strikten Einschränkungen: Das Unternehmen hat Zugriff auf Verifikationsaufzeichnungen, die auf Personas System residieren, erstellt aber keine zusätzlichen Kopien. Zentral ist die Zusicherung, dass Verifikationsdaten nicht in das Modelltraining eingehen – ein wesentliches Differenzierungsmerkmal zu anderen KI-Anbietern. Datenweitergabe an Dritte erfolgt nur für Verifizierungs- und Compliance-Zwecke. Anthropic rahmt die Massnahme als Integritätssicherung statt als Produktfeature ein: „Being responsible with powerful technology starts with knowing who is using it" zitiert die offizielle Mitteilung. Begründet wird dies mit Missbrauchsprävention, Richtliniendurchsetzung und rechtlichen Verpflichtungen. Offen bleibt, welche spezifischen Features die Verifikation auslösen – Anthropic spricht lediglich von „bestimmten Fähigkeiten" und „routinemässigen Integritätsprüfungen".
Kernaussagen
- Anthropic fordert behördliche Ausweisdokumente und Live-Selfies zur Verifizierung ab – ein Novum unter grossen Consumer-KI-Anbietern
- Verifikationsdaten werden nicht für Modelltraining verwendet und unterliegen striktem Datenschutz
- Die betroffenen Features/Funktionen bleiben öffentlich unspezifiziert; Anthropic nennt nur „bestimmte Fähigkeiten"
Kritische Fragen
Datenqualität & Quellenvalidität: Anthropic bestätigt die Verifikationspraxis nur via Support-Post – gibt es unabhängige Dokumentation zur technischen Umsetzung durch Persona?
Interessenskonflikte: Persona Identities ist ein kommerzieller Anbieter – wie transparent sind die Verträge zwischen Anthropic und Persona hinsichtlich Datenzugriff und -löschung?
Umfang & Proportionalität: Anthropic nennt „bestimmte Fähigkeiten" – deckt die Verifikation alle neuen Features, nur High-Risk-Anwendungen, oder nur ein Pilotprogramm? Fehlt hier eine klare öffentliche Dokumentation.
Datensicherheit: Wie lange speichert Persona Selfies und Ausweisbilder? Welche Verschlüsselung schützt diese hochsensiblen Daten in Transit und im Speicher?
Alternativen: Warum verlangt Anthropic physische Selfies statt rein dokumentengestützter Verifikation – ist dies technisch notwendig oder eine Risiko-Einstufung?
Branchennorm: Inwiefern wird diese Verifikation Standard für andere Claude-Wettbewerber (OpenAI, Google), oder bleibt sie Anthropic-spezifisch?
Quellenverzeichnis
Primärquelle: Claude now wants your passport: Here's what Anthropic does with it – The News, 17. April 2026
Verifizierungsstatus: ✓ 17. April 2026
Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 17. April 2026