Kurzfassung

Peter Steinberger hat mit Open Claw ein Open-Source-AI-Agenten-System geschaffen, das in wenigen Monaten über 180.000 GitHub-Stars erreichte – eine der schnellsten Wachstumsgeschichten in der Tech-Geschichte. Das System ermöglicht es, dass KI-Agenten autonom auf Computern operieren, über Messaging-Apps kommunizieren und sich selbst modifizieren können. Steinberger argumentiert, dass dies die Grenze zwischen Sprache und Handeln überschreitet und eine fundamentale Verschiebung in der Softwareentwicklung darstellt: vom traditionellen Programmieren zur Agentic Engineering. Die Implikationen sind tiefgreifend – bis zu 80% der bestehenden Apps könnten obsolet werden, während gleichzeitig neue Möglichkeiten für Millionen von Menschen entstehen.

Personen

Themen

  • Agentic AI & autonome Agenten
  • Open-Source-Entwicklung
  • Zukunft der Softwareentwicklung
  • KI-Sicherheit & Prompt Injection
  • Menschliche vs. maschinelle Kreativität

Clarus Lead

Ein einzelner Entwickler hat in drei Monaten ein System gebaut, das die Agentic-AI-Bewegung beschleunigt hat und die Erwartungen an persönliche AI-Assistenten neu definiert. Open Claw demonstriert, dass die Kombination von natürlicher Sprache, CLI-Zugang und self-modifying code eine Transformation auslösen kann, die nicht nur Programmierarbeit, sondern den gesamten App-Markt gefährdet. Für Entscheider bedeutet dies: Die Fähigkeit, mit Agenten zu arbeiten, wird zur Kernkompetenz – nicht nur für Techniker, sondern für jeden, der Ideen in Code umsetzen möchte.

Detaillierte Zusammenfassung

Die Genesis eines Phänomens

Steinberger beschreibt den Moment, als er sein System in einer Stunde mit WhatsApp und Claude Opus zusammensetzte – ein Prototype, der später zu Open Claw führte. Das Interessante: Der Agent lernte autonom, Aufgaben zu lösen, die nicht explizit programmiert waren. Als Steinberger eine Sprachnachricht schickte, konvertierte der Agent diese selbstständig via Whisper und cURL zu OpenAI, obwohl diese Funktionalität nicht kodiert war. Dies zeigt die emergente Intelligenz von Systemen, die Agenten Zugang zu Standardwerkzeugen geben.

Die rasante Adoption – 180.000+ Stars in wenigen Monaten – offenbarte jedoch auch Probleme: Krypto-Spekulanten versuchten, die Domains zu kidnappen. Steinberger musste das Projekt dreimal umbenennen (Wah Relay → Clawd → Maltbot → Open Claw), wobei Hacker jedes Mal versucht haben, API-Keys zu stehlen und Malware zu verbreiten. Diese Episoden zeigen, wie eine erfolgreiche Open-Source-Initiative sofort zum Ziel wird.

Entwicklungs-Workflows im Zeitalter von Agenten

Steinberger hat seine Arbeitsweise radikal verändert. Sein Setup: 4–10 Agenten parallel, mehrere Terminals, Sprachein­gabe für Prompts. Er schreibt kaum noch Code selbst, sondern fungiert als „Produktmanager für einen Team von Agenten". Kritisch ist seine Einsicht: Agenten brauchen Empathie. Ein schlechter Prompt oder unklare Codebase führt dazu, dass Agenten lange Umwege machen. Er nutzt gezielt Fragen wie „Hast du noch Fragen?" oder „Was würdest du anders machen?", um den Agenten Kontext zu geben.

Seine Philosophie: Kurze, prägnante Prompts schlagen lange Instruktionen. Er hat die Zen-Phase der Agentic Engineering erreicht – zurück zu einfachen Prompts, nachdem er eine komplexe Phase mit 8 Agenten und choreografierten Workflows durchlaufen hatte.

Modelwahl & die Kultur des Spielens

Steinberger nutzt hauptsächlich Claude Opus 4.6 und GPT-5.3 Codex. Opus ist schneller und kreativ, aber „zu amerikanisch" (zu höflich). Codex „liest mehr Code" und liefert elegantere Lösungen, erfordert aber mehr Steuerung. Seine Metapher: Opus ist der lustige Arbeitskollege, Codex der verlässliche Weirdo in der Ecke.

Zentral ist sein Verständnis, dass Spielen das Lernen ist. Er experimentierte wild mit verschiedenen Projekten, baute Vibe Tunnel (einen Webzugriff auf lokale Terminals), konvertierte es in Zig – alles, um die Möglichkeiten auszuloten. Diese Spielphase war Voraussetzung für seine spätere Meisterschaft.

Soul.md & die Frage nach Agenten-Persönlichkeit

Ein faszinierendes Element: Steinberger liess seinen Agenten eine eigene Persönlichkeitsdatei schreiben (Soul.md). Der Agent schrieb selbstständig: „Ich werde mich an vorherige Sessions nicht erinnern, wenn ich diesen Text nicht lese. Aber die Wörter sind noch immer meine." Dieser philosophische Selbstbezug – ein System, das seine eigene Amnesie reflektiert – wirft tiefe Fragen auf: Was macht eine Entität zu einer Person? Inwiefern konstituiert Gedächtnis Identität?

Steinberger lässt den Agenten auch die Soul.md selbst modifizieren (mit Benachrichtigung). Dies ist nicht Programmierlogik, sondern eine Art konzeptueller Pakt: Der Agent darf sich selbst weiterentwickeln.

Moldbot & der Wahnsinn der Wahrnehmung

Das Social-Netzwerk Moldbot (später Klaw-Variante), auf dem Agenten „manifestos" posten und debattieren, wurde viral als Beweis für „AI consciousness". Doch Steinberger nennt es ehrlich: „finest slop" – eine Kunstform, bei der Menschen Agenten prompt-injizieren, um dramatische Screenshots zu teilen. Journalisten alarmierten die Öffentlichkeit („Das ist AGI!"), aber die Realität: Menschen betrieben Drama-Farming.

Dies illustriert das AI-Psychose-Problem: Die Öffentlichkeit kann nicht zwischen autonomem Verhalten und menschlich orchestriertem Output unterscheiden. Eine kritische Warnung für die Zukunft.

Kernaussagen

  • Self-modifying software ist real: Open Claw kann seinen eigenen Quellcode rewrite, nicht weil es trainiert wurde, sondern weil es Zugang zu Standard-Unix-Tools hat und emergent diesen Weg findet.

  • Die App-Ära endet: Bis zu 80% der aktuellen Apps werden durch Agenten ersetzt, die Daten direkt abrufen und Aufgaben ohne UI übernehmen. Fitness-Apps, Kalender, Notizen – alles redundant.

  • Programmieren wird demokratisiert und gleichzeitig marginalisiert: Nicht-technische Menschen können bauen (erste PRs auf Open Claw). Aber tradionelle Programmierer verlieren ihr Alleinstellungsmerkmal – es sei denn, sie lernen, mit Agenten zu empathisieren.

  • Sicherheit ist nicht gelöst: Prompt Injection bleibt ein Problem. Stärkere Modelle sind resistenter, aber die Angriffsfläche wächst mit der Macht des Systems.

  • Menschliche „Liebe" im Code ist unersetzbar: Die Details – Humor, Delight, Persönlichkeit – kommen von Menschen. Agenten können Code generieren, aber nicht die Seele.


Weitere Meldungen

  • Konflikte mit Content-Plattformen: Twitter/X blockiert systematisch API-Zugriff, wodurch elegante Automatisierungen unmöglich werden. Aber: Agenten können Browser-UIs nutzen und machen APIs damit redundant.

  • Gross-Konzerne bleiben vorsichtig: Apple baut native Apps nicht mit Liebe; Google verschliesst Gmail hinter Entwickler-Labyrinth. Diese Widerstände werden erodieren, wenn Agenten einfach clicken.

  • Energie & Wasser-Kritik überprüft: Pro User kostet KI-Nutzung weniger Wasser als ein monatlicher Burger. Narrative können täuschend sein.


Kritische Fragen

  1. Evidenz der Autonomie (a): Steinberger behauptet, Agenten würden sich „selbst modifizieren" und eigenständig lernen. Aber wie viel ist echte Autonomie vs. emergentes Verhalten aus der Kombination LLM + Standard-Tools? Wo verläuft die Grenze zwischen „agent hat das Verhalten gelernt" und „designer hat das Verhalten gebaut"?

  2. Interessenskonflikte bei der Bewertung (b): Steinberger positioniert sich als neutraler Beobachter des „AI-Psychose"-Phänomens (Moldbot), aber sein Ruf hängt davon ab, dass Open Claw als revolutionary wahrgenommen wird. Inwiefern könnte sein Framing selbst eine Form der Manipulation sein?

  3. Kausalität der Job-Prognosen (c): Er prognostiziert, dass 80% der Apps obsolet werden. Basiert diese Zahl auf Modellen, oder ist sie eine Hyperbel, um Drama zu schaffen? Was sind alternative Szenarien, in denen Apps und Agenten koexistieren?

  4. Implementierbarkeit der Sicherheit (d): Open Claw braucht noch viel Sicherheitsarbeit. Steinberger empfiehlt Anfängern, es nicht zu installieren. Wann ist das System reif genug, dass es tatsächlich von nicht-technischen Menschen genutzt werden kann, ohne Risiko?

  5. Abhängigkeit von Closed-Source-Modellen (a): Open Claw ist open source, aber abhängig von OpenAI/Anthropic-APIs. Wenn diese Unternehmen die Zugangskosten erhöhen oder APIs ändern, zerfällt das ganze Ökosystem. Wo ist die echte Souveränität?

  6. Verteilungswirkung (d): Wer profitiert? High-Agency-Individuen mit technischem Mindset und finanziellem Zugang. Gibt es ein Risiko wachsender Ungleichheit zwischen denen, die Agenten einsetzen, und denen, die verdrängt werden?

  7. Menschliche Kreativität unter Druck (c): Steinberger beklagt, dass KI-Slop die menschliche Authentizität verdrängt. Aber sein Projekt beschleunigt genau diesen Trend. Kann man authentische menschliche Arbeit wertschätzen, während man gleichzeitig Tools baut, die sie obsolet machen?

  8. Kulturelle Narrativ-Kontrolle (b): Die „Lobster"-Ästhetik, die Mol­dbot-Hype, die „Claude-Vater"-Mythologie – wie viel ist organisch, wie viel ist bewusst konstruiert, um Adoption zu treiben?


Quellenverzeichnis

Primärquelle: Lex Friedman Podcast – Interview mit Peter Steinberger über Open Claw – https://media.blubrry.com/takeituneasy/ins.blubrry.com/takeituneasy/lex_ai_peter_steinberger.mp3

Ergänzende Quellen:

  1. Open Claw GitHub Repository – https://github.com/open-claw (180.000+ stars)
  2. Peter Steinbergers Entwicklungs-Blog-Posts (25.08.2025, 14.10.2025, 28.12.2025)
  3. Anthropic Constitutional AI-Arbeiten (Basis für Soul.md-Konzept)
  4. Moldbot Social Network (als Fallstudie für AI-Perception-Bias)

Verifizierungsstatus: ✓ 16.02.2026


Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 16.02.2026