Autor: Author: David Latz ·

Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

TLDR

Atkinson und Shiffrin modellierten 1968 das menschliche Gedächtnis als Pipeline — sensorisches Register, Kurzzeitgedächtnis, Langzeitgedächtnis. Wer heute AI-Agenten mit Memory-Systemen ausstattet, baut auf einer Architektur, die als Psychologie längst widerlegt ist. Als Architekturvorlage lebt sie in jeder AI-Agent-Memory weiter.

Reasoning Seed

Ein Reasoning Seed ist ein strukturierter Prompt, den du in dein KI-Reasoning-Tool kopieren kannst (Claude, ChatGPT, Obsidian, Notion). Er enthält die These des Artikels und die zentrale Spannung — bereit für deine eigene Analyse.

A Reasoning Seed is a structured prompt you can copy into your AI reasoning tool (Claude, ChatGPT, Obsidian, Notion). It contains the article's thesis and central tension — ready for your own analysis.

Spannung

Wenn AI-Memory-Architekturen auf einem Gedächtnismodell aufbauen, das als Psychologie widerlegt ist — welche Denkfehler erben wir mit der Architektur?

· Auf LinkedIn diskutieren Discuss on LinkedIn

These

Atkinson und Shiffrin modellierten 1968 das menschliche Gedächtnis als lineare Verarbeitungskette: Sensorisches RegisterKurzzeitgedächtnisLangzeitgedächtnis. Das Modell ist als Psychologie seit den 1970er Jahren weitgehend überholt — Baddeley, Craik und andere haben gezeigt, dass Gedächtnis weder seriell noch passiv funktioniert. Aber als Architekturvorlage ist es untot: Context Windows, Vector Stores, Retrieval-Augmented Generation — die Grundstruktur heutiger AI-Memory-Systeme folgt exakt dieser Pipeline. Das wirft eine unbequeme Frage auf: Wenn das zugrunde liegende Modell die falschen Annahmen über Gedächtnis macht, welche Fehler erben die Systeme, die darauf aufbauen?

Die serielle Pipeline

Das Originalmodell schlägt drei Stufen vor, die Information sequenziell durchläuft. Die erste Stufe — das sensorische Register — hält sensorische Eindrücke für unter einer Sekunde bei unbegrenzter Kapazität. Die mittlere Stufe — das Kurzzeitgedächtnis — bewahrt Information für etwa 20 Sekunden und fasst 5–9 Einheiten. Die letzte Stufe — das Langzeitgedächtnis — bietet unbegrenzte Kapazität bei potenziell permanenter Speicherung. Information, die nicht aktiv verarbeitet wird, zerfällt auf jeder Stufe.

Entscheidend ist die Unterscheidung zwischen Struktur und Kontrollprozessen: Rehearsal (Wiederholung) hält Information im Arbeitsgedächtnis, Encoding (Enkodierung) überträgt sie durch Elaboration ins Langzeitgedächtnis, Retrieval (Abruf) greift gezielt auf gespeichertes Wissen zu. Die Differenzierung zwischen einfacher Wiederholung und elaborierendem Rehearsal — der Verknüpfung neuer Information mit bestehendem Wissen — bleibt für das Design zeitgenössischer Memory-Architekturen relevant, weil nur Letzteres zuverlässig zur Langzeitspeicherung führt.

Die Computer-Metapher kehrt zurück

Das Modell entstand während der kognitiven Revolution der 1960er Jahre, die den Behaviorismus durch informationsverarbeitende Rahmenwerke ersetzte. Atkinson und Shiffrin übernahmen die Architektur von Computersystemen — Input-Buffer, RAM, Festplatte — und projizierten sie auf die Gehirnfunktion. Das war ein bewusst reduktionistischer Schritt, der sich als produktiv erwies: Er machte Gedächtnis modellierbar und experimentell zugänglich.

Dieser Konzepttransfer hat sich inzwischen umgekehrt. Künstliche Intelligenz projiziert Gedächtnismodelle zurück auf Software — und nutzt dabei dieselbe Dreistufigkeit, die Atkinson und Shiffrin von Computern abgeschaut hatten.

Wo das Modell scheitert

Fundamentale Kritik entstand ab den 1970er Jahren:

Diese Einwände sind nicht marginal. Sie betreffen die Kernannahme des Modells: dass Information eine lineare Kette durchlaufen muss, um dauerhaft gespeichert zu werden.

Die Architektur in AI-Systemen

Obwohl als Psychologie überholt, persistiert die Drei-Speicher-Architektur in modernen AI-Systemen:

Atkinson/Shiffrin (1968)AI-Agent-Memory (2024–26)
Sensorisches RegisterInput-Buffer, Prompt-Tokenisierung
KurzzeitgedächtnisContext Window, Working Memory
LangzeitgedächtnisVector Stores, Knowledge Bases, Persistent Memory
RehearsalRetrieval-Augmented Generation, Memory Consolidation
EncodingEmbedding, Chunking, Summarization
Zerfall/VergessenDecay Functions, TTL, Eviction Policies

Die CoALA-Taxonomie (Cognitive Architectures for Language Agents, Princeton, 2023) — ein Framework, das vier Gedächtnistypen für AI-Agenten definiert: Working, Procedural, Semantic und Episodic Memory — verfeinert diese Struktur mit Baddeleys Korrekturen. Aber die Grundidee, dass ein Agent verschiedene Speichersysteme mit unterschiedlichen Kapazitäten und Zugriffszeiten braucht, stammt direkt aus Atkinson/Shiffrin.

Das unterschätzte sensorische Register

AI-Memory-Diskussionen überspringen typischerweise das sensorische Register — dabei löst es ein reales Problem: Filtern vor dem Verarbeiten. Das visuelle Gedächtnis (ikonisches Gedächtnis) hält Eindrücke für etwa 300–500 Millisekunden, das auditorische Gedächtnis (echoisches Gedächtnis) für circa 10 Sekunden. Beides sind modalitätsspezifische Vorfilter, die Relevantes von Irrelevantem trennen, bevor die begrenzte Kapazität des Kurzzeitgedächtnisses beansprucht wird.

In AI-Systemen entspricht das dem Schritt zwischen Rohinput und tokenisiertem Prompt. Die meisten aktuellen Architekturen haben kein explizites Filtering auf dieser Ebene — alles geht direkt ins Context Window. Für multimodale Agenten, die Text, Bilder und Audio gleichzeitig verarbeiten, wird das zum Engpass.

Einordnung

Dieser Text liest ein psychologisches Modell als Architekturvorlage für AI-Memory — aus der Perspektive eines Praktikers, der Knowledge-Systeme baut und dabei die konzeptionellen Vorläufer ernst nimmt. Was diese Perspektive sehen kann: strukturelle Parallelen zwischen kognitionswissenschaftlichen Modellen und Software-Architektur, praktische Implikationen für Memory-Design. Was sie nicht sieht: die empirische Ausdifferenzierung des Modells durch die experimentelle Kognitionspsychologie, die neurobiologische Fundierung von Gedächtnisprozessen und die philosophische Debatte über die Grenzen der Computer-Metapher für mentale Phänomene. Ein Kognitionspsychologe würde die Vereinfachungen in der Analogie-Tabelle vermutlich schärfer kritisieren.

Kritische Einordnung

Was hält stand

Was man einordnen muss

Diskussionsfragen

01 Architektur-Erbe: Wenn das Drei-Speicher-Modell implizit AI-Memory prägt — welche Originalfehler reproduzieren heutige Systeme? Ist die serielle Annahme (Input → Working Memory → Long-Term) noch in heutigen Pipelines eingebaut?

02 Sensorisches Register für AI: Brauchen AI-Agenten explizite Äquivalente zum sensorischen Register — modalitätsspezifische Vorfilter vor Context Windows? Was bedeutet das für multimodale Agenten, die Text, Bilder und Audio gleichzeitig verarbeiten?

03 Vergessen als Designprinzip: Das Original modellierte Zerfall als passiven Verlust. Zeitgenössische Systeme implementieren Vergessen durch aktive Policies (Decay Functions, Eviction). Welcher Ansatz dient Knowledge-OS-Architekturen besser?

04 Levels of Processing statt Speicher: Craik und Lockhart argumentierten, Verarbeitungstiefe — nicht Speicherort — bestimme die Behaltensleistung. Was würde das für AI-Memory-Design bedeuten — Fokusverschiebung von Speicherorten auf Encoding-Verarbeitungstiefe?

Quellen

Glossar

Drei-Speicher-Modell (Atkinson-Shiffrin-Modell) 1968 vorgeschlagenes Modell mit drei seriellen Gedächtnisstufen: Sensorisches Register, Kurzzeitgedächtnis, Langzeitgedächtnis. Historisch einflussreich; psychologisch überholt.

Sensorisches Register Erste Gedächtnisstufe, die sensorische Eindrücke für Bruchteile einer Sekunde hält. Unbegrenzte Kapazität, extrem kurze Retention. Filtert nach Relevanz, bevor Information ins Arbeitsgedächtnis gelangt.

Rehearsal (Wiederholung) Kontrollprozess zur Aufrechterhaltung von Information im Arbeitsgedächtnis. Maintenance Rehearsal ist einfache Wiederholung; Elaborative Rehearsal verknüpft Information mit bestehendem Wissen — nur Letzteres führt zuverlässig zur Langzeitspeicherung.

Levels of Processing Alternatives Modell, das argumentiert, Verarbeitungstiefe — nicht Speicherort — bestimme die Behaltensleistung. Tiefe Verarbeitung erzeugt stabilere Erinnerungen als oberflächliche.

Arbeitsgedächtnismodell (Working Memory) 1974er Weiterentwicklung, die das passive Kurzzeitgedächtnis durch ein aktives System mit phonologischer Schleife, visuell-räumlichem Notizblock, zentraler Exekutive und episodischem Buffer ersetzt.

CoALA 2023er Princeton-Framework, das vier Gedächtnistypen für AI-Agenten definiert — Working, Procedural, Semantic, Episodic Memory — und damit die kognitionswissenschaftliche Tradition fortführt, die mit Atkinson/Shiffrin begann.

Weiter denken.

Keep thinking.

Dieser Artikel endet hier — die Diskussion nicht. Auf ✳︎ Panoptia Labs gibt es strukturierte Diskussionsfragen, die du direkt in dein Reasoning-Tool übernehmen kannst.

Diskussion vertiefen ↗ Go deeper ↗