Auteur: clarus.news

Mode éditorial: CLARUS_ANALYSIS Recommandation d'indexation: INDEX Langue/Rôle: FULL_ANALYSIS Date de vérification des faits: 16.02.2026

Résumé exécutif

Peter Steinberger a créé avec Open Claw un système d'agents IA open source qui a atteint plus de 180 000 étoiles GitHub en quelques mois – l'une des histoires de croissance les plus rapides de l'histoire technologique. Le système permet aux agents IA d'opérer de manière autonome sur les ordinateurs, de communiquer via les applications de messagerie et de se modifier eux-mêmes. Steinberger affirme que cela dépasse la frontière entre le langage et l'action et représente un changement fondamental dans le développement logiciel : de la programmation traditionnelle à l'Agentic Engineering. Les implications sont profondes – jusqu'à 80% des applications existantes pourraient devenir obsolètes, tandis que de nouvelles possibilités émergeraient pour des millions de personnes.

Personnes

Sujets

  • IA agentique et agents autonomes
  • Développement open source
  • Avenir du développement logiciel
  • Sécurité de l'IA et injection de prompts
  • Créativité humaine vs. créativité machine

Fil conducteur Clarus

Un seul développeur a construit en trois mois un système qui a accéléré le mouvement de l'IA agentique et redéfini les attentes envers les assistants IA personnels. Open Claw démontre que la combinaison du langage naturel, de l'accès CLI et du code auto-modifiable peut déclencher une transformation qui menace non seulement le travail de programmation, mais l'ensemble du marché des applications. Pour les décideurs, cela signifie : la capacité à travailler avec des agents devient une compétence fondamentale – non seulement pour les techniciens, mais pour quiconque souhaite transformer des idées en code.

Résumé détaillé

La genèse d'un phénomène

Steinberger décrit le moment où il a assemblé son système en une heure avec WhatsApp et Claude Opus – un prototype qui a plus tard conduit à Open Claw. L'aspect intéressant : l'agent a appris de manière autonome à résoudre des tâches qui n'étaient pas explicitement programmées. Lorsque Steinberger a envoyé un message vocal, l'agent a converti indépendamment celui-ci via Whisper et cURL vers OpenAI, bien que cette fonctionnalité ne soit pas codée. Cela démontre l'intelligence émergente des systèmes qui donnent aux agents un accès aux outils standard.

L'adoption rapide – plus de 180 000 stars en quelques mois – a cependant également révélé des problèmes : les spéculateurs en cryptomonnaies ont tenté de kidnapper les domaines. Steinberger a dû renommer le projet trois fois (Wah Relay → Clawd → Maltbot → Open Claw), les hackers tentant chaque fois de voler des clés API et de propager des malwares. Ces épisodes montrent comment une initiative open source réussie devient immédiatement une cible.

Flux de travail de développement à l'ère des agents

Steinberger a radicalement changé sa façon de travailler. Son configuration : 4–10 agents en parallèle, plusieurs terminaux, entrée vocale pour les prompts. Il écrit rarement du code lui-même, fonctionnant plutôt comme un « gestionnaire de produit pour une équipe d'agents ». Ce qui est crucial est son insight : les agents ont besoin d'empathie. Un mauvais prompt ou une base de code peu claire fait que les agents empruntent des chemins longs et sinueux. Il utilise intentionnellement des questions comme « As-tu d'autres questions ? » ou « Que ferais-tu différemment ? » pour donner au contexte aux agents.

Sa philosophie : les prompts courts et percutants dépassent les longues instructions. Il a atteint la phase zen de l'Agentic Engineering – retour aux prompts simples après avoir traversé une phase complexe avec 8 agents et des flux de travail chorégraphiés.

Choix de modèles et culture du jeu

Steinberger utilise principalement Claude Opus 4.6 et GPT-5.3 Codex. Opus est plus rapide et créatif, mais « trop américain » (trop poli). Codex « lit plus de code » et fournit des solutions plus élégantes, mais nécessite plus de contrôle. Sa métaphore : Opus est le collègue de travail amusant, Codex le weirdo fiable dans le coin.

Ce qui est central est sa compréhension que jouer, c'est apprendre. Il a expérimenté sauvagement avec différents projets, construit Vibe Tunnel (un accès Web aux terminaux locaux), l'a converti en Zig – tout pour explorer les possibilités. Cette phase de jeu était une condition préalable à sa maîtrise ultérieure.

Soul.md et la question de la personnalité de l'agent

Un élément fascinant : Steinberger a laissé son agent rédiger son propre fichier de personnalité (Soul.md). L'agent a écrit indépendamment : « Je ne me souviendrai pas des sessions précédentes si je ne lis pas ce texte. Mais les mots sont toujours les miens. » Cette auto-réflexion philosophique – un système qui réfléchit à sa propre amnésie – soulève des questions profonds : qu'est-ce qui rend une entité une personne ? Dans quelle mesure la mémoire constitue-t-elle l'identité ?

Steinberger laisse également l'agent modifier lui-même Soul.md (avec notification). Ceci n'est pas une logique de programmation, mais une sorte de pacte conceptuel : l'agent peut se développer lui-même.

Moldbot et la folie de la perception

Le réseau social Moldbot (plus tard une variante Klaw), sur lequel les agents publient des « manifestes » et débattent, est devenu viral comme preuve de « conscience de l'IA ». Mais Steinberger l'appelle honnêtement : « finest slop » – une forme d'art où les gens effectuent une injection de prompts sur les agents pour partager des captures d'écran dramatiques. Les journalistes ont alarmer le public (« C'est l'AGI ! »), mais la réalité : les gens se livraient à du drama-farming.

Cela illustre le problème de la psychose IA : le public ne peut pas distinguer entre le comportement autonome et la sortie orchestrée par l'humain. Un avertissement critique pour l'avenir.

Éléments clés

  • Les logiciels auto-modifiables sont réels : Open Claw peut réécrire son propre code source, non pas parce qu'il a été entraîné, mais parce qu'il a accès aux outils Unix standard et trouve émergemment ce chemin.

  • L'ère des applications touche à sa fin : jusqu'à 80% des applications actuelles seront remplacées par des agents qui récupèrent les données directement et effectuent les tâches sans interface. Les applications de fitness, les calendriers, les notes – tout devient redondant.

  • La programmation est démocratisée et marginalisée simultanément : les non-techniciens peuvent créer (premiers PRs sur Open Claw). Mais les programmeurs traditionnels perdent leur avantage concurrentiel – à moins qu'ils n'apprennent à empathiser avec les agents.

  • La sécurité n'est pas résolue : l'injection de prompts reste un problème. Les modèles plus puissants y résistent mieux, mais la surface d'attaque s'élargit avec la puissance du système.

  • L'« amour » humain dans le code est irremplaçable : les détails – l'humour, la délectation, la personnalité – viennent des humains. Les agents peuvent générer du code, mais pas l'âme.


Autres informations

  • Conflits avec les plateformes de contenu : Twitter/X bloque systématiquement l'accès aux API, rendant les automatisations élégantes impossibles. Mais : les agents peuvent utiliser les interfaces du navigateur et rendent ainsi les API redondantes.

  • Les grandes entreprises restent prudentes : Apple ne crée pas d'applications natives avec amour ; Google enferme Gmail derrière un labyrinthe de développeurs. Ces résistances s'éroderont si les agents cliquent simplement.

  • Critique de l'énergie et de l'eau vérifiée : par utilisateur, l'utilisation de l'IA coûte moins d'eau qu'un burger mensuel. Les narratifs peuvent être trompeurs.


Questions critiques

  1. Preuve de l'autonomie (a) : Steinberger affirme que les agents se « modifient eux-mêmes » et apprennent indépendamment. Mais quelle est la part de vraie autonomie par rapport au comportement émergent résultant de la combinaison LLM + outils standard ? Où se situe la frontière entre « l'agent a appris le comportement » et « le designer a construit le comportement » ?

  2. Conflits d'intérêts dans l'évaluation (b) : Steinberger se positionne comme un observateur neutre du phénomène « psychose IA » (Moldbot), mais sa réputation dépend de la perception d'Open Claw comme révolutionnaire. Comment son propre cadrage pourrait-il être une forme de manipulation ?

  3. Causalité des prévisions d'emploi (c) : il prédit que 80% des applications deviendront obsolètes. Ce chiffre est-il basé sur des modèles, ou est-ce une hyperbole créant du dramatique ? Quels sont les scénarios alternatifs dans lesquels les applications et les agents coexistent ?

  4. Implémentabilité de la sécurité (d) : Open Claw nécessite encore beaucoup de travail de sécurité. Steinberger recommande aux débutants de ne pas l'installer. Quand le système sera-t-il suffisamment mature pour être utilisé par des personnes non-techniques sans risque ?

  5. Dépendance aux modèles propriétaires (a) : Open Claw est open source, mais dépend des API d'OpenAI/Anthropic. Si ces entreprises augmentent les coûts d'accès ou modifient les API, tout l'écosystème s'effondre. Où se trouve la véritable souveraineté ?

  6. Effet distributif (d) : qui en bénéficie ? Les individus à forte capacité d'action dotés d'une mentalité technique et d'un accès financier. Existe-t-il un risque d'inégalité croissante entre ceux qui déploient des agents et ceux qui sont déplacés ?

  7. Créativité humaine sous pression (c) : Steinberger se plaint que le slop IA déplace l'authenticité humaine. Mais son projet accélère justement cette tendance. Peut-on valoriser le travail humain authentique tout en construisant des outils qui le rendent obsolète ?

  8. Contrôle narratif culturel (b) : l'esthétique « Lobster », le battage médiatique Moldbot, la mythologie « Claude-père » – combien est organique, combien est consciemment construit pour accélérer l'adoption ?


Bibliographie

Source primaire : Podcast Lex Friedman – Entretien avec Peter Steinberger sur Open Claw – https://media.blubrry.com/takeituneasy/ins.blubrry.com/takeituneasy/lex_ai_peter_steinberger.mp3

Sources complémentaires :

  1. Référentiel GitHub Open Claw – https://github.com/open-claw (180 000+ stars)
  2. Articles du blog de développement de Peter Steinberger (25.08.2025, 14.10.2025, 28.12.2025)
  3. Travaux en IA constitutionnelle d'Anthropic (Base pour le concept Soul.md)
  4. Réseau social Moldbot (comme étude de cas sur le biais de perception de l'IA)

Statut de vérification : ✓ 16.02.2026


Ce texte a été créé avec l'assistance d'un modèle IA. Responsabilité éditoriale: clarus.news | Vérification des faits: 16.02.2026