Kurzfassung

Im KI-Podcast diskutieren Marie Kilg und Gregor Schmalzried die Architektur eines individuellen KI-Systems als „zweites Gehirn". Das Problem bisheriger Chatbots: Sie lernen nicht kontinuierlich und vergessen Kontextinformationen zwischen Sitzungen. Die Lösung besteht aus drei Komponenten – einem starken Sprachmodell (z.B. Claude Opus, GPT-4.5), einer Systeminfrastruktur mit Skills zur Speicherung von Arbeitsweisen, und einem separaten Wissensspeicher wie Notion oder Obsidian. Nutzer können damit ihre individuellen Anforderungen und Arbeitsabläufe dauerhaft in die KI integrieren, ohne bei jeder Anfrage neue Kontextinformationen eingeben zu müssen.

Personen

  • Marie Kilg (/de/?search=Marie%20Kilg) (Moderatorin, KI-Podcast)
  • Gregor Schmalzried (/de/?search=Gregor%20Schmalzried) (Moderator, KI-Podcast)

Themen

  • Sprachmodelle und kontinuierliches Lernen
  • Prompt Engineering und Skill-Architektur
  • Persönliche Wissensverwaltung
  • Datenschutz und lokale Alternativen

Clarus Lead

Die zentrale Erkenntnis: Grosse Sprachmodelle sind universalgelehrte Generalisten – genau das macht sie mächtig und gleichzeitig unbrauchbar für hochgradig personalisierte Aufgaben. Ein „zweites Gehirn" ist nicht optional für Power-User geworden, sondern notwendig, um die KI überhaupt produktiv zu nutzen. Der Schlüssel liegt darin, Kontext gezielt bereitzustellen, statt die KI bei jeder Frage neu zu unterrichten. Dies eröffnet praktische Anwendungen – von automatisierter Podcast-Vorbereitung bis zur Optimierung von Arbeitsabläufen – die bislang unmöglich waren.


Detaillierte Zusammenfassung

Das Gedächtnis-Problem und bestehende Lösungen

Sprachmodelle werden trainiert und dann „eingefroren" – sie aktualisieren sich nicht wie menschliche Intelligenz. Memory-Funktionen in kommerziellen Chatbots funktionieren wie Spickzettel, sind jedoch starr und kontextunsensitiv: Sie rufen falsche Informationen zum falschen Zeitpunkt ab. Custom Instructions und vordefinierte Assistenten (Custom GPTs, Gems) sind zu rigid für komplexe, adaptive Aufgaben. Das Langzeitchat-Modell („einfach alles in einem Chat lassen") führt zu Kontextüberlastung, höheren Kosten und schlechterer Performance.

Die Dreier-Architektur

Das Fundament ist ein starkes Modell (Claude Opus, GPT-4.5, Gemini 3.1). Diese Grundmodelle bieten Universalkompetenz; die Wahl ist sekundär. Um das Modell wird dann eine Systeminfrastruktur gebaut – entweder Claude Projects, LangDoc, Microsoft Copilot oder Notion. Innerhalb dieser Infrastruktur werden Skills definiert: kleine, wiederverwendbare Anweisungen (z.B. „schreibe in meinem Stil", „recherchiere nach aktuellem Stand", „strukturiere im Podcast-Format"). Skills sind modular und können kombiniert werden; das Modell erkennt selbst, welche Skills für eine Aufgabe relevant sind.

Die dritte Zutat ist ein separater Wissensspeicher – Google Drive, Notion, Obsidian oder Markdown-basierte Systeme. Dieser speichert Kontextdaten, die nicht in das KI-System gehören: persönliche Notizen, Projektdokumentation, historische Daten. Die KI greift auf diesen Speicher zu, wenn nötig, lädt aber nicht permanent alles in ihren Kontext.

Praktische Implementierung und Datenschutz

Ein konkretes Beispiel: Podcast-Vorbereitung. Der Nutzer definiert Skills für „Recherche zu aktuellen Trends", „Vergleich mit bisherigen Episoden" und „Strukturierung nach Podcast-Format". Die KI ruft diese Skills automatisch auf, recherchiert in einer Wissensdatenbank, strukturiert Ergebnisse – ohne dass der Nutzer jedes Mal neu erklären muss, was er tut.

Für Datenschutz können Nutzer eine „Zwei-Gehirn-Strategie" nutzen: Eine Hälfte ist privat (Tagebücher, persönliche Gedanken), die andere ist KI-zugänglich. Alternativ können lokale Modelle auf eigener Hardware ausgeführt werden. Wer sensible Adressbücher oder DSGVO-relevante Daten hat, sollte diese mit einem Häkchen markieren und von der Cloud-KI ausschliessen.

Wachstum ohne Überforderung

Das System sollte modular und iterativ aufgebaut werden: Mit einer sich wiederholenden Aufgabe starten, einen Skill dafür schreiben, später weitere Skills hinzufügen. Zu viele Skills oder zu umfangreiche Automatisierungen am Anfang führen zu Motivationsverlust. Das Ziel ist, wiederkehrende, lästige Aufgaben einmalig zu strukturieren und dann automatisiert laufen zu lassen – ähnlich wie das Einpacken für einen Urlaub: Man überlegt einmal, welche Essentials man braucht, statt jedes Mal alles einzupacken.


Kernaussagen

  • Memory ist nicht Lernen: Bisherige Chatbot-Erinnerungsfunktionen sind statisch und kontextblind; ein echtes „zweites Gehirn" braucht modulare Skills und separate Wissensspeicher.
  • Kontext gezielt, nicht pauschal: Die KI soll nur die Informationen erhalten, die sie für die aktuelle Aufgabe braucht – nicht den kompletten Datenschatz des Nutzers.
  • Modulare Architektur skaliert: Ein stabiles System mit Grundmodell, Systeminfrastruktur und Wissensspeicher ermöglicht Portabilität zwischen KI-Plattformen und bleibt robust, wenn bessere Modelle erscheinen.

Weitere Meldungen

Aleph Alpha von Cohere übernommen: Das deutsche KI-Unternehmen Aleph Alpha wird von der kanadischen Firma Cohere akquiriert. Der Deal wird als „Merger" präsentiert, ist faktisch aber eine Übernahme eines schwächelnden durch ein zehnfach grösseres Unternehmen. Cohere strebt damit besseren Zugang zum deutschen Markt und digitale Souveränität gegenüber den USA an.

Neues Bildgenerierungsmodell von OpenAI: OpenAI hat ein neues Bildmodell veröffentlicht, das Google Gemini und andere Konkurrenten deutlich übertrifft. Test: Eine Anfrage nach einem „Lo-Fi-Bandfoto einer schwedischen Indie-Band" produziert bei OpenAI ästhetisch authentische, reduzierte Ergebnisse; Gemini füllt das Bild mit visuellen Elementen und wirkt künstlich überladener.


Kritische Fragen

  1. Datenqualität & Validierung: Wie stellt ein Nutzer sicher, dass die Skills korrekt funktionieren und die KI die richtigen Informationen aus dem Wissensspeicher abruft – insbesondere wenn Daten über längere Zeit anwachsen?

  2. Interessenskonflikte & Anreize: Zentralisiert ein Nutzer seine gesamte Wissensverwaltung in eine kommerzielle Cloud-Plattform (Claude Projects, Notion), entsteht eine Abhängigkeit. Sind lokale, dezentrale Alternativen (Obsidian, LangDoc) wirtschaftlich lebensfähig für durchschnittliche Nutzer?

  3. Kausalität & Alternativhypothesen: Ist die fehlende kontinuierliche Aktualisierung von Sprachmodellen ein technisches Limit oder ein bewusst auferlegtes Design? Wäre On-Device-Learning datenschutzfreundlicher als zentrale Wissensspeicher?

  4. Umsetzbarkeit & Risiken: Wie viel Zeit und technisches Verständnis braucht ein Durchschnittsnutzer, um ein funktionales zweites Gehirn aufzubauen – und ab wann wird Wartung des Systems selbst zum Overhead?

  5. Sicherheit & Kontamination: Wenn mehrere Skills miteinander interagieren, wie wird verhindert, dass falsche Informationen aus einem Skill in andere „anstecken" oder dass die KI Skills missbräuchlich kombiniert?

  6. Portabilität & Vendor Lock-in: Können Skills und Wissensspeicher wirklich plattformübergreifend transferiert werden, oder entstehen versteckte Abhängigkeiten von proprietären Formaten?


Quellenverzeichnis

Primärquelle: Kilg, Marie & Schmalzried, Gregor. „Wie baue ich mir das perfekte KI-System." Der KI-Podcast. ARD/Neuland. April 2026. https://media.neuland.br.de/file/2117682/c/feed/wie-baue-ich-mir-das-perfekte-ki-system.mp3

Ergänzende Quellen (erwähnt):

  • Anthropic Claude Projects & Skills Dokumentation
  • LangDoc (deutsches KI-Tool-Ökosystem)
  • Obsidian (lokale Markdown-Verwaltung)
  • Notion (Cloud-Wissensverwaltung)

Verifizierungsstatus: ✓ 2026-04-28


Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 2026-04-28