Kurzfassung

DeepSeek, ein chinesisches KI-Startup, hat diese Woche eine bahnbrechende Technik namens Engram vorgestellt, die fundamental verändert, wie grosse KI-Modelle Computerspeicher nutzen. Die Innovation trennt KI-Logik von Wissensdatenbanken und ermöglicht effizientere Verarbeitung auf günstigerer Hardware statt teurer Grafikprozessoren. Tests zeigten beeindruckende Ergebnisse: Bei langkontextigen Tests erreichte Ngram 97% Genauigkeit gegenüber 84% bei traditionellen Modellen. Laut IBM-Analysen könnte diese Entwicklung die Kosten für Model-Vortraining senken und KI-Entwicklung für kleinere Unternehmen zugänglich machen. DeepSeek plant die Veröffentlichung seines V4-Modells Mitte Februar mit Spezialisierung auf Coding-Fähigkeiten.

Personen

Themen

  • Ngram-Technologie
  • KI-Speicheroptimierung
  • Kostenreduktion bei KI-Training
  • V4-Modell-Ankündigung
  • Wettbewerb zwischen China und USA in KI-Entwicklung

Detaillierte Zusammenfassung

Am Dienstag kündigte DeepSeek die Ngram-Technologie an, eine grundlegende Innovation in der Speicherarchitektur von KI-Modellen. Die Technik schafft ein effizienteres Dateisystem, das KI-Fakten separat von komplexen numerischen Operationen verarbeitet und damit die Verarbeitungskapazität des Computers für schwierigere Aufgaben freisetzt.

Die Innovation adressiert einen kritischen Engpass in der KI-Entwicklung: Traditionelle Modelle benötigen massive Mengen hochwertiger Trainingsdaten und enorme Rechenleistung, um einfache Informationen zu verarbeiten und dabei bereits erhebliche Verarbeitungskapazität für triviale Operationen zu verschwenden. DeepSeeks Lösung separiert die KI-Logik von ihrem Wissensspeicher und ermöglicht die Bulk-Datenverarbeitung auf günstigerer Standard-Hardware statt auf teuren Spezialprozessoren.

Praktische Testergebnisse demonstrieren die Überlegenheit des Ansatzes. Auf einem 27-Billionen-Parameter-Modell zeigte Ngram drei bis vier Punkte Verbesserung bei wissenschaftlich intensiven Tätigkeiten und noch stärkere Zuwächse in Rechenbenchmarks. Besonders beeindruckend sind die Ergebnisse bei langkontextigen Tests, die messen, wie gut KI-Systeme Informationen über lange Konversationen hinweg speichern: Ngram erreichte 97% Genauigkeit im Vergleich zu 84% bei traditionellen Modellen.

Das technische Paper wurde persönlich von DeepSeek-Gründer Lianwen Feng geleitet und mit Forschern der Peking University co-verfasst. Die Ankündigung erfolgt inmitten gestiegener Erwartungen bezüglich DeepSeeks nächstem grossem Produktlaunch: Das Unternehmen kündigte an, sein V4-Modell Mitte Februar zu veröffentlichen, das sich auf Coding-Fähigkeiten spezialisiert.

OpenAI hat die Bedeutung von DeepSeeks Momentum erkannt. Laut der South China Morning Post äusserte OpenAIs Intelligenz-Team, dass ein weiterer grosser technologischer Durchbruch aus China bevorstehen könnte. Dabei wurde notiert, dass während die USA weiterhin führende Frontier-Modelle anbieten, China nun ein breites Feld von Near-Frontier-Modellen aufgebaut hat, die aggressiv preisgünstig und einfacher zu implementieren sind.

Die Bedeutung von Ngram geht über technische Errungenschaften hinaus. Laut IBMs Analyse könnte diese Innovation die Kosten für Model-Vortraining senken und würde damit mächtige KI-Entwicklung kleineren Unternehmen und individuellen Entwicklern zugänglich machen, die sich diese Fähigkeiten zuvor nicht leisten konnten. Die Technik könnte revolutionieren, wie KI in der gesamten Industrie skaliert – durch intelligentes Design statt brute-force Rechenleistung.

Kernaussagen

  • Ngram separiert KI-Logik von Wissensdatenbanken und ermöglicht effizientere Verarbeitung auf günstiger Hardware
  • Bei langkontextigen Tests erreichte Ngram 97% Genauigkeit gegenüber 84% bei traditionellen Modellen
  • Die Innovation könnte KI-Entwicklungskosten drastisch senken und kleineren Unternehmen Zugang zu fortgeschrittenen Fähigkeiten ermöglichen
  • DeepSeek plant V4-Modell-Veröffentlichung Mitte Februar mit Coding-Spezialisierung
  • China baut breites Feld konkurrenzfähiger Near-Frontier-Modelle auf, die günstiger und leichter zu deployen sind als US-amerikanische Lösungen

Metadaten

Sprache: Deutsch
Transcript ID: 144
Dateiname: cabinet_01_18_2026.mp3
Original-URL: https://dts.podtrac.com/redirect.mp3/api.spreaker.com/download/episode/69495481/cabinet_01_18_2026.mp3
Erstellungsdatum: 2026-01-19 04:26:25
Textlänge: 3188 Zeichen