Ich hatte letzte Woche zum ersten Mal das Gefühl, dass Claude mich kennt. Nicht als Kulisse oder Trick, sondern weil die Antwort auf einem Kontext basierte, den ich vor zwei Wochen gegeben hatte. Claude Memory ist jetzt für alle Nutzer verfügbar, und in Kombination mit einem Kontextfenster von einer Million Token ändert sich etwas Grundlegendes.
Was Claude Memory tatsächlich macht
Memory bei Claude funktioniert anders als es der Name vermuten lässt. Es ist kein automatisches Langzeitgedächtnis. Claude speichert, was du explizit als merkenswert markierst, oder was Anthropic als dauerhaft relevant identifiziert: Präferenzen, Kontexte, laufende Projekte.
In der Praxis heißt das: Du musst Claude nicht mehr bei jeder Sitzung neu einführen. Wer bist du, was ist dein Unternehmen, was magst du nicht, wie soll Kommunikation aussehen. Diese Infos bleiben.
Das klingt klein. Es ist es nicht. Die meiste Zeit, die in KI-Nutzung verloren geht, steckt im Wiederaufwärmen des Kontexts. Das fällt jetzt weg.
Eine Million Token: Was das konkret bedeutet
Claude Sonnet 4.6 und Opus 4.6 haben jetzt ein Kontextfenster von einer Million Token. Zum Vergleich: Das entspricht etwa 750.000 Wörtern, mehreren hundert Seiten Text, oder einem kompletten mittelgroßen Software-Projekt inklusive aller Dateien.
Was ich damit mache: Ich lade unsere gesamte Codebase in eine Sitzung und arbeite darin. Kein hin und her, kein Suchen nach der richtigen Datei. Claude sieht alles auf einmal.
Andere Anwendungen, die jetzt erst richtig möglich werden:
- Komplette juristische Dokumente analysieren, einschließlich Anhängen und Referenzen
- Ganze Gesprächsverläufe aus Support-Systemen zusammenfassen und auswerten
- Langfristige Projekte mit vollem historischem Kontext weiterführen
- Große Datensätze direkt im Prompt analysieren, ohne Vektorisierung
Das "Needle in a Haystack"-Problem
Mehr Kontext bedeutet nicht automatisch bessere Ergebnisse. Und hier lohnt es sich, ein bekanntes Testverfahren aus der KI-Forschung zu kennen, den sogenannten "Needle in a Haystack"-Test.
Das Prinzip ist simpel: Man nimmt ein sehr langes Dokument, versteckt darin eine einzelne, spezifische Information (die "Nadel"), und fragt das Modell danach. Die Frage ist nicht ob das Modell es weiß, sondern ob es die Information zuverlässig findet, egal wo sie im Dokument versteckt ist.
Das Ergebnis hat Forscher lange beschäftigt: KI-Modelle erinnern sich sehr gut an Informationen am Anfang und am Ende eines langen Kontexts, aber Informationen in der Mitte werden oft übersehen oder unzuverlässig verarbeitet. Ein 500-seitiges Dokument reinzugeben und zu hoffen, dass das Modell Seite 247 genauso zuverlässig verarbeitet wie Seite 1, ist falsch gedacht.
Dieses Phänomen wird auch "Lost in the Middle" genannt. Es wird mit neueren Modellen besser, aber es ist noch da. Die praktische Konsequenz: Wenn du kritische Informationen übergibst, leg sie an den Anfang oder das Ende des Kontexts, nicht in die Mitte. Und für Aufgaben, bei denen eine einzelne versteckte Information zählt, ist ein fokussierter, kurzer Kontext oft zuverlässiger als der maximale.
Außerdem: Mehr Token bedeutet mehr Kosten und mehr Latenz. Für schnelle, interaktive Aufgaben ist ein kleinerer, präziser Kontext oft besser als alles auf einmal reinzuwerfen.
Wie ich diese Features heute einsetze
Konkret in meinem Workflow sieht es so aus: Memory nutze ich, um Projektkontext dauerhaft zu setzen. Welches Framework, welche Konventionen, welche Ziele. Das muss ich einmal definieren, dann gilt es für alle folgenden Sitzungen.
Das lange Kontextfenster nutze ich selektiv. Für Code-Reviews, für die Analyse langer Dokumente, für Sitzungen, in denen ich wirklich den ganzen Überblick brauche. Für schnelle Fragen nehme ich weiterhin einen leeren Kontext.
Der größte praktische Gewinn ist die Kombination: Memory gibt Claude den dauerhaften Rahmen, das lange Kontextfenster gibt ihm den situativen Tiefgang. Zusammen fühlt sich die Interaktion zum ersten Mal wirklich wie Arbeit mit einem informierten Kollegen an, nicht mit einem Reset-Button nach jeder Sitzung.
Was das für deine KI-Arbeit bedeutet
Wenn du Claude regelmäßig nutzt, richte Memory jetzt ein. Schreib einmal auf, wer du bist, was du machst, wie du kommunizieren möchtest. Das ist eine Investition von zehn Minuten mit dauerhaftem Ertrag.
Das lange Kontextfenster lohnt sich vor allem, wenn du mit großen Dokumenten, komplexen Projekten oder wiederkehrenden Analysen arbeitest. Wenn du bisher immer wieder Teile weglassen musstest, weil der Kontext zu klein war, ist das Limit jetzt weg.
Mehr dazu, wie du Claude und andere KI-Tools in deinen Workflow integrierst, findest du in unseren Kursen zur KI-Automatisierung.
Fazit
Memory und 1 Million Token Kontext sind keine Marketingfeatures. Sie lösen echte, alltägliche Probleme in der KI-Arbeit. Wer beides richtig einsetzt, arbeitet schneller, mit weniger Reibung und kommt zu konsistenteren Ergebnissen.
Die KI-Nutzung wird erwachsener. Langsam, aber spürbar.
Josef vom KI Club