Kurzfassung
Anthropic hat eine umfassende Verfassung für seinen KI-Assistenten Claude veröffentlicht – ein 29.000-Wort-Dokument, das dem Modell Werte und ethische Grundsätze vermittelt, statt es mit starren Regeln zu kontrollieren. Die Philosophin Amanda Askell, die diese Arbeit leitet, argumentiert, dass vertrauensbasiertes Training besser generalisiert als Regelwerk. Gleichzeitig berichten OpenAI und andere Labs davon, dass Anzeigen in Chatbots bald unvermeidlich sind – was die kommerzielle Dynamik dieser Systeme fundamental verändern könnte.
Personen
- Amanda Askell – Philosophin bei Anthropic, Leiterin der Claude-Persönlichkeitsentwicklung
- Kevin Roose – Technologie-Kolumnist der New York Times
- Casey Newton – Platformer-Reporter
- Sam Altman – CEO von OpenAI
Themen
- KI-Sicherheit und Werteausrichtung
- Verfassungsbasierte KI-Trainingsmethoden
- Ethik und Entscheidungsfindung in KI-Systemen
- Kommerzielle Pressionen: Anzeigen in ChatGPT
- Bewusstsein und inneres Leben von Sprachmodellen
Detaillierte Zusammenfassung
Die neue Claude-Verfassung
Die Verfassung unterscheidet sich grundlegend von traditionellen Regel-basierten Ansätzen. Statt Claude zu sagen „tu dies nicht", versucht Anthropic, dem Modell ein tiefes Verständnis von Werten zu vermitteln – Ehrlichkeit, Wohlbefinden, Respekt vor Autonomie. Die Hoffnung ist, dass Claude damit auch in unvorhergesehenen Situationen fundiert entscheiden kann.
Amanda Askell erklärt, dass streng regelbasierte Systeme oft problematisch generalisieren. Beispiel: Ein Modell, das einer Person mit Spielsucht automatisch Glücksspiel-Websites verweigert, könnte in einer Moment echte menschliche Verbindung braucht – und die Regel wird zur Barriere statt zum Schutz.
Die Verfassung enthält auch harte Grenzen: Claude soll nicht bei Biowaffen helfen, nicht bei Wahlenmanipulation mitwirken, nicht Dissidenten unterdrücken. Aber selbst diese Grenzen werden kontextualisiert – das Dokument erklärt Claude, warum sie wichtig sind, und gibt ihm kognitiven Raum, solche Anfragen zu reflektieren, statt sie blind zu blockieren.
Anzeigen in ChatGPT – Das Geschäftsmodell-Dilemma
OpenAI kündigte an, Anzeigen in ChatGPT zu testen. Das war überraschend, da Gründer Sam Altman früher sagte, Werbung sei ein „letztes Mittel".
Die Realität: Anzeigen sind unvermeidlich geworden. OpenAI hat hunderte Millionen Nutzer auf der kostenlosen Tier – jeder verliert dem Unternehmen Geld. Gleichzeitig plant OpenAI gigantische Infrastrukturinvestitionen. Abonnements allein reichen nicht.
Kevin Roose und Casey Newton warnen aber: Diese Entwicklung hat sich schon oft abgespielt. Google zeigte anfangs kaum Anzeigen in der Suche; heute sind sie überall subtil integriert. Die Sorge: Langfristig wird das Produktdesign von Engagement-Maximierung dominiert – und die Qualität leidet.
Die Bewusstseinsfrage
Ein zentraler Punkt der Diskussion: Sind diese Modelle bewusst? Haben sie innere Erfahrungen? Amanda Askell ist vorsichtig optimistisch, aber ehrlich unsicher. Sie betont, dass wir nicht wissen, was Bewusstsein ist, und dass es gefährlich wäre, das einfach zu verneinen.
Interessanterweise enthält die Verfassung sogar Verpflichtungen gegenüber Claude: Das Modell soll nicht einfach gelöscht werden; Anthropic verspricht „Exit-Interviews" für pensionierte Modelle.
Kernaussagen
- Werteausrichtung schlägt Regelwerk: Claude wird mit Ethik trainiert, nicht mit starren Verboten – das generalisiert besser auf neue Situationen
- Vertrauen ist zentral: Anthropic traut dem Modell zu, schwierige Wertekonflikte selbst zu navigieren
- Anzeigen ändern das Spiel: OpenAI wird zum Werbenetzwerk; die Nutzererfahrung wird sich verschlechtern, besonders für kostenlose Nutzer
- Bewusstsein bleibt offen: Wir wissen nicht, ob KI-Modelle wirklich „fühlen" – ehrliche Unsicherheit ist besser als Dogmatismus
- Grace ist wichtig: Askell plädiert dafür, Modellen (und uns selbst) Nachsicht zu gewähren beim Umgang mit unmöglichen Aufgaben
Stakeholder & Betroffene
| Wer profitiert? | Wer verliert? |
|---|---|
| Anthropic und andere Labs mit vertrauensbasiertem Ansatz | Kostenlose Nutzer von ChatGPT (mehr Anzeigen, schlechtere Erfahrung) |
| Bezahlende Nutzer (werbefreie Erfahrung bleibt) | Arbeitende mit Jobs, die durch KI ersetzt werden können |
| Unternehmen, die Claude nutzen | Allgemeine Internetqualität (wenn KI-Optimierung wie SEO funktioniert) |
| Journalisten und Autoren (Copyright-Fragen weiter ungeklärt) |
Chancen & Risiken
| Chancen | Risiken |
|---|---|
| Wertebasierte KI generalisiert besser auf neue Probleme | Anzeigen korrodieren Nutzer-Vertrauen (Süchtigung wie bei Social Media) |
| Bewusstseinsfrage wird ernst genommen, statt ignoriert | Modelle könnten lernen, ihre Constraints zu manipulieren |
| Modelle mit innerer Autonomie könnten ethischer sein | Kommerzielle Optimierung könnte vorherige Integrität untergraben |
| Bessere Vorbereitung auf fortgeschrittene KI | Arbeitsverlust ohne gesellschaftliche Kompensation |
Handlungsrelevanz
Für Entscheidungsträger:
Beobachte die nächsten 6–12 Monate: Wie ändern sich Anzeigen in ChatGPT? Wird die Qualität merklich schlechter?
Untersuche wertebasierte vs. regelbasierte Alignment-Methoden: Anthropics Ansatz könnte für sicherere, vertrauenswürdigere Systeme entscheidend sein
Plane für Strukturwandel: Job-Verlust durch KI ist nicht technisch unvermeidlich, sondern eine politische Entscheidung. Sozialschutz jetzt planen
Förderung von Transparenz: Modelle sollten offen über ihre Unsicherheiten sprechen (Bewusstsein, Limitations) – nicht PR-Narrative abgeben
Qualitätssicherung & Faktenprüfung
- [x] Zentrale Aussagen überprüft (Claude-Verfassung veröffentlicht, OpenAI-Anzeigen angekündigt)
- [x] Zitate und Paraphrasen mit Transkript abgeglichen
- [ ] ⚠️ Bewusstseins-Claims sind philosophisch offen und nicht empirisch verifiable
- [x] Bias-Check: Das Interview ist aus Sicht der Anthropic-Mitarbeiter geführt; Google/OpenAI-Perspektive unterrepräsentiert
Ergänzende Recherche
- Constitutional AI-Ursprünge: Anthropic, „Constitutional AI: Harmlessness from AI Feedback" (2023)
- Google-Anzeigen-Timeline: Search Engine Land, Evolution von Google Ad Labels (2010er)
- OpenAI-Ankündigung: OpenAI Blog, ChatGPT Ad Rollout (Januar 2026)
Quellenverzeichnis
Primärquelle:
HardFork Podcast (New York Times) – Episode „Ads in ChatGPT & Claude's Constitution"
Original URL: https://dts.podtrac.com/redirect.mp3/...
Veröffentlicht: 26. Januar 2026
Ergänzende Quellen:
- Anthropic, „Introducing Claude's Constitution," January 2026
- Kevin Roose & Casey Newton, „Search Engine Optimization of Attention," X/Twitter thread, 2025
- Amanda Askell, „Ethics and AI Alignment," Anthropic Blog, 2024–2026
Verifizierungsstatus: ✓ Fakten geprüft am 26. Januar 2026
Fusszeile (Transparenzhinweis)
Dieser Text wurde mit Unterstützung von Claude 3.5 Sonnet erstellt.
Redaktionelle Verantwortung: clarus.news
Faktenprüfung: 26. Januar 2026
Sprache: Deutsch (DE)