Begriffe und Konzepte aus den Field Notes.

Terms and concepts from the Field Notes.

118 Begriffe aus 21 Artikeln

3-Layer Context

Architektur-Pattern: Globaler Kontext (Identität, Konventionen) → Projektkontext (Domäne, Status) → Task-Kontext (spezifische Dateien, Commands). Verengt den Scope progressiv, ohne die Kohärenz zu verlieren.

→ Context Engineering: Ein Knowledge OS mit Claude aufbauen

Adoption Barrier

The effort a person or organization must invest to use a new tool productively. The higher the barrier, the slower the adoption.

→ When Visualization Becomes Cheap, Clarity Becomes Expensive

Adoption-Hürde

Der Aufwand, den eine Person oder Organisation investieren muss, um ein neues Werkzeug produktiv einzusetzen. Je höher die Hürde, desto langsamer die Verbreitung.

→ Wenn Visualisierung billig wird, wird Klarheit teuer

Der Aufwand, den eine Person oder Organisation investieren muss, um ein neues Werkzeug produktiv einzusetzen. Je höher die Hürde, desto langsamer die Verbreitung.

→ Wenn Visualisierung billig wird, wird Klarheit teuer

Agent Compliance

The degree to which AI-generated output conforms to the constraints of a design system. A potential DesignOps metric for quality assurance of agent work.

→ DesignOps and AI Agents: How Design Operations Are Reinventing Themselves

Agent Memory

Persistenter, sich entwickelnder Zustand, der AI-Agenten über Sessions hinweg Kontext gibt. Nicht zu verwechseln mit dem Context Window (flüchtig) oder RAG (zustandslos).

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Agent-Compliance

Grad, in dem AI-generierter Output den Constraints eines Design Systems entspricht. Potenzielle DesignOps-Metrik für die Qualitätssicherung von Agent-Arbeit.

→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfinden

Grad, in dem AI-generierter Output den Constraints eines Design Systems entspricht. Potenzielle DesignOps-Metrik für die Qualitätssicherung von Agent-Arbeit.

→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfinden

Agentic Collaboration

A working model where AI agents are integrated into team processes not as passive tools but as autonomous partners with their own context, session history, and decision-making capacity.

→ The Agile Manifesto Needs an Update — for Working with AI Agents

Agentische Zusammenarbeit

Arbeitsform, in der AI-Agenten nicht als passive Tools, sondern als eigenständige Arbeitspartner mit Kontext, Session-History und Entscheidungskompetenz in Teamprozesse eingebunden sind.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Arbeitsform, in der AI-Agenten nicht als passive Tools, sondern als eigenständige Arbeitspartner mit Kontext, Session-History und Entscheidungskompetenz in Teamprozesse eingebunden sind.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Agents (als Consumer-Klasse)

Softwaresysteme, die autonom handeln, LLM-gesteuert navigieren und Aufgaben ausführen. Unterscheiden sich von menschlichen Nutzern (GUIs) und klassischen Computerprogrammen (APIs) durch menschenähnliches Verhalten bei computerartiger Ausführungsgeschwindigkeit.

→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeuten

Softwaresysteme, die autonom handeln, LLM-gesteuert navigieren und Aufgaben ausführen. Unterscheiden sich von menschlichen Nutzern (GUIs) und klassischen Computerprogrammen (APIs) durch menschenähnliches Verhalten bei computerartiger Ausführungsgeschwindigkeit.

→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeuten

Agents (as Consumer Class)

Software systems that act autonomously, navigate via LLM steering, and execute tasks. Differ from human users (GUIs) and traditional computer programs (APIs) through human-like behavior at computer-like execution speed.

→ Software 3.0 — What Karpathy's Theses Mean for Interface Design

AI Ethics

Research field addressing moral questions of AI system deployment. Encompasses technical approaches (algorithmic fairness, explainability), regulatory frameworks (EU AI Act), and philosophical groundwork. Internally heterogeneous, no unified methodological approach.

→ Critical Theory as a Diagnostic Tool for AI Systems

AI Incident Database (AIID)

Öffentliche Datenbank dokumentierter AI-Sicherheitsvorfälle, kuratiert über Stanford HAI. Grundlage für die Incident-Kurve in der Visualisierung. Lizenziert unter CC BY.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Alignment

Die Ausrichtung von KI-Systemen auf menschliche Werte, Absichten und Sicherheitsanforderungen. Ziel: Das System tut zuverlässig das, was Menschen wollen – auch in unvorhergesehenen Situationen.

→ AI 2027: Ein Szenario

Ambient AI

Hypothetisches Designmuster: AI-Systeme, die im Hintergrund arbeiten (Kontext aktualisieren, Konsistenz prüfen, Vorschläge vorbereiten) und nur bei relevanten Anlässen ins Zentrum der Aufmerksamkeit rücken. Gegenentwurf zum dominanten Chat-Paradigma.

→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevant

APE (Automatic Prompt Engineer)

System, das automatisch einen Pool von Prompt-Kandidaten generiert, per Scoring-Funktion bewertet und die besten selektiert. Demonstriert, dass LLMs Prompts auf menschlichem Niveau oder besser entwickeln können.

→ Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Arbeitsgedächtnismodell (Working Memory)

1974er Weiterentwicklung, die das passive Kurzzeitgedächtnis durch ein aktives System mit phonologischer Schleife, visuell-räumlichem Notizblock, zentraler Exekutive und episodischem Buffer ersetzt.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

1974er Weiterentwicklung, die das passive Kurzzeitgedächtnis durch ein aktives System mit phonologischer Schleife, visuell-räumlichem Notizblock, zentraler Exekutive und episodischem Buffer ersetzt.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

ASI (Artificial Superintelligence)

Eine hypothetische KI, die menschliche Intelligenz in allen Bereichen übertrifft – nicht nur in Teilaufgaben wie Schach oder Programmierung, sondern generell.

→ AI 2027: Ein Szenario

Autonomy Slider

Design-Pattern, bei dem Nutzer den Automatisierungsgrad einer AI-Interaktion kontextabhängig steuern können – von minimaler Unterstützung bis zu voller Delegation.

→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeuten

Calm Technology

Designphilosophie, formuliert 1995 von Mark Weiser und John Seely Brown (Xerox PARC). Kernidee: Die besten Technologien erfordern minimale Aufmerksamkeit und bewegen sich fließend zwischen Peripherie und Zentrum der Wahrnehmung.

→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevant

Chain-of-Thought (CoT)

Technik, bei der das Modell Schritt für Schritt denkt, bevor es antwortet. Verbessert die Genauigkeit bei komplexen Aufgaben – Mathematik, logisches Schließen, Analyse.

→ Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

CLAUDE.md

Eine Instruktionsdatei auf Projektebene, die Claude Code beim Session-Start liest. Funktioniert als „System Prompt" für ein Repository – codiert Identität, Konventionen und Navigation.

→ Context Engineering: Ein Knowledge OS mit Claude aufbauen

CoALA

2023er Princeton-Framework, das vier Gedächtnistypen für AI-Agenten definiert – Working, Procedural, Semantic, Episodic Memory – und damit die kognitionswissenschaftliche Tradition fortführt, die mit Atkinson/Shiffrin begann.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

CoALA (Cognitive Architectures for Language Agents)

Framework aus Princeton (2023), das vier Gedächtnistypen für AI-Agenten definiert – abgeleitet aus der kognitiven SOAR-Architektur. Lingua Franca des Feldes.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Collaboration Patterns

Wiederholbare Muster für die Zusammenarbeit in Teams – hier spezifisch für die Interaktion zwischen Menschen und AI-Agenten. Adressieren die Ebene zwischen individuellen Prompts und organisationaler Governance.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Communicative Action

Jürgen Habermas's term (1981) for mutual understanding under conditions that enable equal participation for all involved: comprehensibility, the possibility of objection, no structural asymmetry.

→ Critical Theory as a Diagnostic Tool for AI Systems

Compiled Wiki (Karpathy)

Ein Markdown-Wiki, das ein LLM aus Rohdaten generiert und inkrementell pflegt – mit Zusammenfassungen, Kategorien und Backlinks. Read-heavy, mit dem LLM als Maintainer.

→ LLM Knowledge Bases: Warum alle beim selben Stack landen

Compute

Rechenkapazität, die für das Training und den Betrieb von KI-Modellen benötigt wird. Wird typischerweise in GPU-Stunden gemessen. Compute-Konzentration bei wenigen Akteuren ist ein zentrales geopolitisches Thema.

→ AI 2027: Ein Szenario

Context Architecture (Kontextarchitektur)

Design of the information environment in which AI agents operate — file structures, documentation formats, conventions, retrieval paths. In the DesignOps context: the infrastructure that enables agents to work with design systems.

→ DesignOps and AI Agents: How Design Operations Are Reinventing Themselves

Context Builder

Tools wie Gitingest oder DeepWiki, die Informationen so aufbereiten, dass LLMs und Agents sie effizient verarbeiten können. Adressieren das Problem, dass bestehende Web-Formate (HTML) für AI-Consumption schlecht geeignet sind.

→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeuten

Context Drift

Phänomen, bei dem die interne Zustandsrepräsentation eines AI-Agenten über lange Sessions zunehmend von der Realität abweicht – ähnlich dem "Stille-Post-Effekt" in menschlicher Kommunikation.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Context Engineering

Gestaltung der persistenten Informationsumgebung, in der ein LLM arbeitet – jenseits einzelner Prompts. Umfasst Dateistrukturen, Konventionen, Abhängigkeitssysteme und geschichtete Kontextarchitekturen.

→ LLM Knowledge Bases: Warum alle beim selben Stack landen

Gestaltung der persistenten Informationsumgebung, in der ein LLM arbeitet – jenseits einzelner Prompts. Umfasst System-Prompts, Dateistrukturen, Konventionen und Abhängigkeitssysteme.

→ Context Engineering: Ein Knowledge OS mit Claude aufbauen

Die Kompetenz, einem KI-Agenten den richtigen Kontext bereitzustellen – statt selbst Code zu schreiben. Umfasst das Formulieren von Intent, das Strukturieren von Anforderungen und das Kuratieren relevanter Informationen für den Agenten.

→ The Software Development Lifecycle Is Dead

Convergent Evolution (here: technological)

Independent actors develop the same solution to the same problem — not through coordination, but through identical selection pressures. In biology: wings in birds and bats. Here: Markdown + Git + LLM across different practitioners.

→ LLM Knowledge Bases: Why Everyone Lands on the Same Stack

Convergent Evolution (hier: technologisch)

Unabhängige Akteure entwickeln dieselbe Lösung für dasselbe Problem – nicht durch Koordination, sondern durch identische Selektionsdrücke. In der Biologie: Flügel bei Vögeln und Fledermäusen. Hier: Markdown + Git + LLM bei verschiedenen Practitionern.

→ LLM Knowledge Bases: Warum alle beim selben Stack landen

Unabhängige Akteure entwickeln dieselbe Lösung für dasselbe Problem – nicht durch Koordination, sondern durch identische Selektionsdrücke. In der Biologie: Flügel bei Vögeln und Fledermäusen. Hier: Markdown + Git + LLM bei verschiedenen Practitionern.

→ LLM Knowledge Bases: Warum alle beim selben Stack landen

Critical Theory

Tradition of social philosophy, originating at the Institute for Social Research in Frankfurt in the 1920s. Combines social analysis with the normative goal of human emancipation. Works with immanent critique rather than external ideal standards.

→ Critical Theory as a Diagnostic Tool for AI Systems

Cross-Tenant Failure

Sicherheitslücke in Multi-Mandanten-Systemen, bei der Daten oder Zugriffe zwischen verschiedenen Kunden (Tenants) durchsickern. Neue Kategorie ab 2024 – entsteht durch AI-spezifische Architekturmuster wie geteilte Modell-Instanzen oder Embedding-Stores.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Daemon

Software-Prozess, der im Hintergrund läuft, ohne direkte Nutzerinteraktion. Im KAIROS-Kontext: ein Agent, der nach Sitzungsende eigenständig Aufgaben ausführt.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Data Design

Gestaltung von Datenvisualisierungen und datengetriebenen Interfaces – von Charts über Dashboards bis zu interaktiven Explorations-Tools.

→ Wenn Visualisierung billig wird, wird Klarheit teuer

Decay Function

Mathematische Funktion, die den Relevanz-Score einer Erinnerung über die Zeit reduziert – imitiert biologisches Vergessen. Semantische Ähnlichkeit × exponentieller Zeitverfall.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

DesignOps (Design Operations)

Optimierung von Prozessen, Werkzeugen und Strukturen, die Designteams benötigen, um effektiv und skalierbar zu arbeiten. Umfasst People, Process und Craft/Tool Operations.

→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfinden

Dialectic of Enlightenment

Horkheimer and Adorno's core thesis (1944): reason and rational control can turn into their opposite — into domination, normalization, oppression — when they become ends in themselves rather than means for human liberation.

→ Critical Theory as a Diagnostic Tool for AI Systems

Dialektik der Aufklärung

Horkheimer und Adornos Kernthese (1944): Vernunft und rationale Kontrolle können in ihr Gegenteil umschlagen – in Herrschaft, Normierung, Unterdrückung – wenn sie zum Selbstzweck werden statt zum Mittel für menschliche Befreiung.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Horkheimer und Adornos Kernthese (1944): Vernunft und rationale Kontrolle können in ihr Gegenteil umschlagen – in Herrschaft, Normierung, Unterdrückung – wenn sie zum Selbstzweck werden statt zum Mittel für menschliche Befreiung.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Distribution

Der Zugang zu Nutzern über bestehende Kanäle und Produkte. Google erreicht Milliarden über die Suche, Meta über Social Media – OpenAI hat keinen vergleichbaren Kanal und muss Nutzer direkt akquirieren.

→ How Will OpenAI Compete?

Doubling Rate

The time interval at which measurable AI model capabilities double. According to METR data, currently at approximately 7 months, trending toward 4 months.

→ Something Big Is Happening

Drei-Speicher-Modell (Atkinson-Shiffrin-Modell)

1968 vorgeschlagenes Modell mit drei seriellen Gedächtnisstufen: Sensorisches Register, Kurzzeitgedächtnis, Langzeitgedächtnis. Historisch einflussreich; psychologisch überholt.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

1968 vorgeschlagenes Modell mit drei seriellen Gedächtnisstufen: Sensorisches Register, Kurzzeitgedächtnis, Langzeitgedächtnis. Historisch einflussreich; psychologisch überholt.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

DSPy (Declarative Self-improving Python)

Framework, das Prompt-Pipelines als deklarative Programme behandelt und zur Compile-Zeit automatisch optimiert. Ersetzt manuelles Prompt-Tuning durch systematische Optimierung.

→ Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Dual Interface

Das Muster, zwei Dokumentationsschichten parallel zu pflegen – eine für menschliche Entwickler (lesbar, kontextuell), eine für AI-Agenten (parsbar, imperativ, granular).

→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfinden

Emancipation

In the context of Critical Theory: the expansion of human agency and self-determination — as a benchmark for social systems. In the AI context: the question of whether a system expands judgment or replaces it through dependency.

→ Critical Theory as a Diagnostic Tool for AI Systems

Emanzipation

Im Kontext Kritischer Theorie: die Erweiterung menschlicher Handlungsfähigkeit und Selbstbestimmung – als Zielmaßstab für gesellschaftliche Systeme. Im Kontext KI: die Frage, ob ein System Urteilsvermögen erweitert oder durch Abhängigkeit ersetzt.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Im Kontext Kritischer Theorie: die Erweiterung menschlicher Handlungsfähigkeit und Selbstbestimmung – als Zielmaßstab für gesellschaftliche Systeme. Im Kontext KI: die Frage, ob ein System Urteilsvermögen erweitert oder durch Abhängigkeit ersetzt.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Engagement Curve

A graphical representation of how intensively and frequently users engage with a product. A "flat" curve means: many users, but shallow usage depth — most use the product rarely and superficially.

→ How Will OpenAI Compete?

Engagement-Kurve

Grafische Darstellung, wie intensiv und häufig Nutzer ein Produkt verwenden. Eine „flache" Kurve bedeutet: viele Nutzer, aber geringe Nutzungstiefe – die meisten verwenden das Produkt selten und oberflächlich.

→ How Will OpenAI Compete?

Grafische Darstellung, wie intensiv und häufig Nutzer ein Produkt verwenden. Eine „flache" Kurve bedeutet: viele Nutzer, aber geringe Nutzungstiefe – die meisten verwenden das Produkt selten und oberflächlich.

→ How Will OpenAI Compete?

Episodic Memory

Protokolle vergangener Erfahrungen: Konversationslogs, Aktionssequenzen, Few-Shot-Beispiele. Das "autobiografische Gedächtnis" des Agenten.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Exponential Curve

A growth pattern where capability doubles at regular intervals rather than increasing linearly. In the AI context: model capabilities grow faster than human planning typically anticipates.

→ Product Management on the AI Exponential

Exponentialkurve

Wachstumsmuster, bei dem sich die Leistungsfähigkeit in regelmäßigen Intervallen verdoppelt statt linear zuzunehmen. Im AI-Kontext: Die Fähigkeit von Modellen wächst schneller, als menschliche Planung typischerweise antizipiert.

→ Product Management on the AI Exponential

Wachstumsmuster, bei dem sich die Leistungsfähigkeit in regelmäßigen Intervallen verdoppelt statt linear zuzunehmen. Im AI-Kontext: Die Fähigkeit von Modellen wächst schneller, als menschliche Planung typischerweise antizipiert.

→ Product Management on the AI Exponential

Feature Flag

Ein Mechanismus in der Softwareentwicklung, der es erlaubt, neue Funktionen gezielt ein- oder auszuschalten, ohne neuen Code zu deployen. Wird im Kontext von schrittweisen Rollouts erwähnt.

→ AI 2027: Ein Szenario

Ein Mechanismus, der es erlaubt, Funktionen im laufenden Betrieb ein- oder auszuschalten – ohne neues Deployment. Ermöglicht progressive Rollouts und automatische Rollbacks bei Problemen.

→ The Software Development Lifecycle Is Dead

Fractional Design Lab

Organisationsform, in der mehrere Fractional-Design-Leader ein Netzwerk bilden und Infrastruktur teilen – Design-Systeme, Knowledge-Base, Methoden, AI-Tooling. Skaliert das Modell über den Einzelnen hinaus.

→ Fractional Design Leadership: Warum das Modell gerade jetzt funktioniert

Fractional Design Leadership

Strategische Designführung im Fractional-Modell: Design-System-Governance, Teamaufbau, DesignOps, Produktdesign-Strategie – auf Teilzeitbasis als eingebettete Führungsrolle.

→ Fractional Design Leadership: Warum das Modell gerade jetzt funktioniert

Fractional Executive

Führungskraft, die auf Teilzeitbasis für mehrere Unternehmen gleichzeitig arbeitet. Übernimmt strategische Verantwortung, ist aber nicht festangestellt. Typisch: 1–3 Tage pro Woche, selbstständig.

→ Fractional Design Leadership: Warum das Modell gerade jetzt funktioniert

Frankfurt School / New School

Shorthand for the intellectual tradition of the Institute for Social Research — first in Frankfurt (1923), in exile at the New School for Social Research in New York (from 1933), returning to Frankfurt after 1945. Three generations: Horkheimer/Adorno, Habermas, current continuations (Lindgren, Feenberg).

→ Critical Theory as a Diagnostic Tool for AI Systems

Frankfurter Schule / New School

Kurzbezeichnung für die intellektuelle Tradition des Instituts für Sozialforschung – zunächst in Frankfurt (1923), im Exil an der New School for Social Research in New York (ab 1933), nach 1945 zurück in Frankfurt. Drei Generationen: Horkheimer/Adorno, Habermas, aktuelle Fortführungen (Lindgren, Feenberg).

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Kurzbezeichnung für die intellektuelle Tradition des Instituts für Sozialforschung – zunächst in Frankfurt (1923), im Exil an der New School for Social Research in New York (ab 1933), nach 1945 zurück in Frankfurt. Drei Generationen: Horkheimer/Adorno, Habermas, aktuelle Fortführungen (Lindgren, Feenberg).

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Immanent Critique

Method of Critical Theory: a system is measured not against external norms but against its own promises and claims. Targets the tension between self-representation and reality.

→ Critical Theory as a Diagnostic Tool for AI Systems

Immanente Kritik

Methode der Kritischen Theorie: Ein System wird nicht an externen Normen gemessen, sondern an seinen eigenen Versprechen und Ansprüchen. Zielt auf die Spannung zwischen Selbstdarstellung und Realität.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Methode der Kritischen Theorie: Ein System wird nicht an externen Normen gemessen, sondern an seinen eigenen Versprechen und Ansprüchen. Zielt auf die Spannung zwischen Selbstdarstellung und Realität.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Information Literacy

Die Fähigkeit, Informationen zu finden, zu bewerten und zu kommunizieren. Hier: die Fähigkeit, Daten visuell zu interpretieren und darzustellen.

→ Wenn Visualisierung billig wird, wird Klarheit teuer

Jagged Intelligence

Phänomen, bei dem LLMs unintuitive Fähigkeitsverteilungen zeigen: brillant bei komplexen Aufgaben, unzuverlässig bei scheinbar einfachen. Im Gegensatz zu menschlicher Kompetenzentwicklung, wo Fähigkeiten korreliert wachsen.

→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeuten

KAIROS

Interner Codename für eine unveröffentlichte Claude-Code-Funktion: ein Hintergrund-Daemon, der nach Sitzungsende autonom weiterarbeitet, inklusive nächtlicher Gedächtniskonsolidierung.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

KI-Ethik

Forschungsfeld, das moralische Fragen des Einsatzes von KI-Systemen adressiert. Umfasst technische Ansätze (Algorithmic Fairness, Explainability), regulatorische Frameworks (EU AI Act) und philosophische Grundlagenarbeit. Intern heterogen, kein einheitlicher Methodenansatz.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Forschungsfeld, das moralische Fragen des Einsatzes von KI-Systemen adressiert. Umfasst technische Ansätze (Algorithmic Fairness, Explainability), regulatorische Frameworks (EU AI Act) und philosophische Grundlagenarbeit. Intern heterogen, kein einheitlicher Methodenansatz.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Knowledge OS

Ein strukturiertes, git-versioniertes Wissens-Repository, das über ein Archiv hinausgeht – der LLM arbeitet aktiv im System (Konsistenzprüfung, Aufgabenstrukturierung, Output-Generierung), statt nur Fragen zu beantworten.

→ LLM Knowledge Bases: Warum alle beim selben Stack landen

Ein strukturiertes, git-versioniertes Wissens-Repository, das sowohl menschliches Denken als auch LLM-Kontext bedient. Reines Markdown, tool-agnostisch, mit geschichteter Kontextarchitektur.

→ Context Engineering: Ein Knowledge OS mit Claude aufbauen

Kommunikatives Handeln

Begriff von Jürgen Habermas (1981) für Verständigung unter Bedingungen, die allen Beteiligten gleiche Teilhabe ermöglichen: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Begriff von Jürgen Habermas (1981) für Verständigung unter Bedingungen, die allen Beteiligten gleiche Teilhabe ermöglichen: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Kontextarchitektur

Gestaltung der Informationsumgebung, in der AI-Agenten operieren – Dateistrukturen, Dokumentationsformate, Konventionen, Retrieval-Pfade. Im DesignOps-Kontext: die Infrastruktur, die Agenten befähigt, mit Design-Systemen zu arbeiten.

→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfinden

Gestaltung der Informationsumgebung, in der AI-Agenten operieren – Dateistrukturen, Dokumentationsformate, Konventionen, Retrieval-Pfade. Im DesignOps-Kontext: die Infrastruktur, die Agenten befähigt, mit Design-Systemen zu arbeiten.

→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfinden

Kritische Theorie

Tradition der Sozialphilosophie, entstanden am Institut für Sozialforschung in Frankfurt in den 1920er Jahren. Verbindet Gesellschaftsanalyse mit dem normativen Ziel menschlicher Emanzipation. Arbeitet mit immanenter Kritik statt externen Idealmaßstäben.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Tradition der Sozialphilosophie, entstanden am Institut für Sozialforschung in Frankfurt in den 1920er Jahren. Verbindet Gesellschaftsanalyse mit dem normativen Ziel menschlicher Emanzipation. Arbeitet mit immanenter Kritik statt externen Idealmaßstäben.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Levels of Processing

Alternatives Modell, das argumentiert, Verarbeitungstiefe – nicht Speicherort – bestimme die Behaltensleistung. Tiefe Verarbeitung erzeugt stabilere Erinnerungen als oberflächliche.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

Meta-Prompt

Ein Prompt, der nicht direkt eine Aufgabe löst, sondern andere Prompts generiert, bewertet oder optimiert. Verschiebt die Arbeit eine Abstraktionsebene nach oben – vom Inhalt zur Struktur.

→ Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

METR

Organisation, die die Fähigkeiten von KI-Modellen anhand realer Aufgaben misst. Die Metrik erfasst, wie lange eine Aufgabe dauert, die ein Modell autonom – ohne menschliche Hilfe – lösen kann.

→ Something Big Is Happening

METR (Model Evaluation & Threat Research)

Unabhängige Forschungsorganisation, die AI-Modelle auf ihre Fähigkeiten und Risiken evaluiert. Liefert standardisierte Benchmarks für Aufgaben-Komplexität und Agent-Performance.

→ Product Management on the AI Exponential

Moat

Strategischer Wettbewerbsvorteil, der ein Unternehmen dauerhaft vor Konkurrenz schützt – wie ein Burggraben. Bei AI-Modellen umstritten: Wenn Modelle austauschbar sind, fehlt der Moat.

→ How Will OpenAI Compete?

Model Weights

Die gelernten Parameter eines neuronalen Netzes – das eigentliche "Wissen" des Modells. Wer die Weights hat, kann das Modell betreiben. Diebstahl von Weights ist ein zentrales Szenario im Text.

→ AI 2027: Ein Szenario

Observability

Die Fähigkeit, das Verhalten eines Systems aus seinen Outputs zu verstehen. Im agent-getriebenen Workflow wird Observability vom Monitoring-Dashboard zum zentralen Feedback-Mechanismus, der den gesamten Build-Observe-Zyklus antreibt.

→ The Software Development Lifecycle Is Dead

PARA (Projects, Areas, Resources, Archives)

Organisationsmethode von Tiago Forte für persönliches Wissensmanagement. Vier Kategorien nach Handlungsrelevanz, nicht nach Thema. Grundlage vieler Knowledge-Management-Systeme, die jetzt mit LLM-Agenten kombiniert werden.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Peripherie / Zentrum

Die zwei Modi der Aufmerksamkeit in Weiser/Browns Modell. Peripherie = unbewusste Wahrnehmung (informiert ohne kognitive Kosten). Zentrum = bewusste Fokussierung (erfordert aktive Aufmerksamkeit). Gute Technologie wechselt nahtlos zwischen beiden.

→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevant

Die zwei Modi der Aufmerksamkeit in Weiser/Browns Modell. Peripherie = unbewusste Wahrnehmung (informiert ohne kognitive Kosten). Zentrum = bewusste Fokussierung (erfordert aktive Aufmerksamkeit). Gute Technologie wechselt nahtlos zwischen beiden.

→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevant

Periphery / Center

The two modes of attention in Weiser/Brown's model. Periphery = unconscious perception (informs without cognitive cost). Center = conscious focus (requires active attention). Good technology shifts seamlessly between both.

→ Calm Technology: A 1995 Design Principle Becomes Relevant Again

Platform Play

Strategischer Ansatz, bei dem ein Unternehmen seine Technologie als Plattform öffnet, auf der andere aufbauen können. Beispiele: App Store (Apple), GPT Store (OpenAI). Ziel: Wertschöpfung durch ein Ökosystem statt durch ein einzelnes Produkt.

→ How Will OpenAI Compete?

Principles Paradox

The observation that the growing number of AI ethics guidelines does not lead to more ethical action. The existence of principles creates the impression of solved problems while the structural causes remain unchanged.

→ Critical Theory as a Diagnostic Tool for AI Systems

Prinzipien-Paradox

Beobachtung, dass die wachsende Anzahl von KI-Ethik-Leitlinien nicht zu mehr ethischem Handeln führt. Die Existenz von Prinzipien erzeugt den Eindruck gelöster Probleme, während die strukturellen Ursachen unverändert bleiben.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Beobachtung, dass die wachsende Anzahl von KI-Ethik-Leitlinien nicht zu mehr ethischem Handeln führt. Die Existenz von Prinzipien erzeugt den Eindruck gelöster Probleme, während die strukturellen Ursachen unverändert bleiben.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Procedural Memory

Codierte Verhaltensregeln: System-Prompts, Tool-Definitionen, Entscheidungslogik. Das "Muskelgedächtnis" eines Agenten.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Product Thinker / Product Builder

Hypothetische Rollenprofile aus einer stärkeren Generalisierung heutiger Product-Rollen (PM, PD, Dev). Thinker = Strategie, Framing, Entscheidung. Builder = Umsetzung, Prototyping, Iteration.

→ Wenn Visualisierung billig wird, wird Klarheit teuer

Rehearsal

Control process maintaining information in working memory. Maintenance rehearsal involves simple repetition; elaborative rehearsal links information to existing knowledge — only the latter reliably produces long-term storage.

→ Three-Store Model: The Blueprint Behind Every AI Memory Architecture

Rehearsal (Wiederholung)

Kontrollprozess zur Aufrechterhaltung von Information im Arbeitsgedächtnis. Maintenance Rehearsal ist einfache Wiederholung; Elaborative Rehearsal verknüpft Information mit bestehendem Wissen – nur Letzteres führt zuverlässig zur Langzeitspeicherung.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

Kontrollprozess zur Aufrechterhaltung von Information im Arbeitsgedächtnis. Maintenance Rehearsal ist einfache Wiederholung; Elaborative Rehearsal verknüpft Information mit bestehendem Wissen – nur Letzteres führt zuverlässig zur Langzeitspeicherung.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

Release Hygiene

The set of practices ensuring software artifacts don't contain unintended content when deployed (source maps, debug symbols, internal references). In context: the weakest link in Anthropic's security architecture.

→ Claude Code's Source Code Leaked — What the Architecture Reveals About the Future of AI Agents

Release-Hygiene

Gesamtheit der Praktiken, die sicherstellen, dass Software-Artefakte beim Deployment keine unbeabsichtigten Inhalte enthalten (Source Maps, Debug-Symbole, interne Referenzen). Im Kontext: das schwächste Glied in Anthropics Sicherheitsarchitektur.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Gesamtheit der Praktiken, die sicherstellen, dass Software-Artefakte beim Deployment keine unbeabsichtigten Inhalte enthalten (Source Maps, Debug-Symbole, interne Referenzen). Im Kontext: das schwächste Glied in Anthropics Sicherheitsarchitektur.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

RLHF (Reinforcement Learning from Human Feedback)

Ein Trainingsverfahren, bei dem menschliche Bewertungen genutzt werden, um das Verhalten eines KI-Modells zu steuern. Ziel: Das Modell soll hilfreiche, ehrliche und harmlose Antworten geben.

→ AI 2027: Ein Szenario

Runtime Safety vs. Release Safety

Zwei verschiedene Sicherheitsdisziplinen: Runtime Safety schützt gegen Angriffe während der Programmausführung (Prompt Injection, Code Injection). Release Safety verhindert, dass beim Deployment vertrauliche Artefakte veröffentlicht werden. Die meisten AI-Safety-Investitionen fließen in Runtime – die meisten Incidents passieren im Release.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Self-Improvement

Die Fähigkeit eines KI-Systems, an seiner eigenen Verbesserung mitzuwirken – etwa durch Debugging des eigenen Trainings oder Management des eigenen Deployments. GPT-5.3 Codex gilt als erstes dokumentiertes Beispiel.

→ Something Big Is Happening

Self-Refine

Iterativer Prozess: Das Modell generiert eine Antwort, kritisiert sie, und produziert eine verbesserte Version. Wiederholbar bis zum Qualitätsschwellenwert.

→ Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Semantic Memory

Akkumuliertes Faktenwissen: Nutzerpräferenzen, extrahierte Fakten, Knowledge Bases. Wächst über die Zeit.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Sensorisches Register

Erste Gedächtnisstufe, die sensorische Eindrücke für Bruchteile einer Sekunde hält. Unbegrenzte Kapazität, extrem kurze Retention. Filtert nach Relevanz, bevor Information ins Arbeitsgedächtnis gelangt.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

Erste Gedächtnisstufe, die sensorische Eindrücke für Bruchteile einer Sekunde hält. Unbegrenzte Kapazität, extrem kurze Retention. Filtert nach Relevanz, bevor Information ins Arbeitsgedächtnis gelangt.

→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur

Sensory Register

Initial memory stage holding sensory impressions for fractions of a second. Unlimited capacity, extremely brief retention. Filters by relevance before information reaches working memory.

→ Three-Store Model: The Blueprint Behind Every AI Memory Architecture

Session-based Work

A working mode where knowledge and progress are bound to individual chat sessions. Without explicit persistence (in files, issues, commits), context is lost when a session ends.

→ The Agile Manifesto Needs an Update — for Working with AI Agents

Session-basierte Arbeit

Arbeitsmodus, bei dem Wissen und Fortschritt an einzelne Chat-Sessions gebunden sind. Ohne explizite Persistierung (in Dateien, Issues, Commits) geht Kontext bei Session-Ende verloren.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Arbeitsmodus, bei dem Wissen und Fortschritt an einzelne Chat-Sessions gebunden sind. Ohne explizite Persistierung (in Dateien, Issues, Commits) geht Kontext bei Session-Ende verloren.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Side Quest

Selbstgesteuertes Experiment außerhalb der offiziellen Produkt-Roadmap. Dient der explorativen Innovation in Umgebungen mit hoher Unsicherheit über zukünftige Machbarkeit.

→ Product Management on the AI Exponential

Software 3.0

Karpathys Begriff für das dritte Software-Paradigma: natürliche Sprache als Programmiersprache. Prompts ersetzen Code (1.0) und trainierte Weights (2.0) als primäre Programmierschnittstelle.

→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeuten

Source Map (.map)

Debug-Datei, die kompilierten/minifizierten JavaScript-Code auf den originalen TypeScript-Quellcode zurückmappt. In Produktions-Releases nicht vorgesehen – ihre Veröffentlichung legt den vollständigen Quellcode offen.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Structured Context

Machine-readable project information in versioned files (Markdown, YAML, JSON) — as an alternative to ephemeral chat history. Serves as the shared communication medium between human and agent.

→ The Agile Manifesto Needs an Update — for Working with AI Agents

Strukturierter Kontext

Maschinenlesbare Projektinformation in versionierten Dateien (Markdown, YAML, JSON) – als Alternative zu flüchtigem Chat-Verlauf. Dient als gemeinsames Kommunikationsmedium zwischen Mensch und Agent.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Maschinenlesbare Projektinformation in versionierten Dateien (Markdown, YAML, JSON) – als Alternative zu flüchtigem Chat-Verlauf. Dient als gemeinsames Kommunikationsmedium zwischen Mensch und Agent.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

System Prompting

Instruktionen, die einem Sprachmodell vor der eigentlichen Nutzeranfrage mitgegeben werden, um Verhalten, Tonalität und Fähigkeiten zu steuern. Weniger System-Prompting bei besseren Modellen deutet darauf hin, dass das Modell mehr Kontext eigenständig erschließt.

→ Product Management on the AI Exponential

Technical Code

Concept by Andrew Feenberg (1991). The implicit value decisions inscribed in a technical system's architecture — before any explicit ethics policy. Makes visible that "neutral" design decisions have political and social consequences.

→ Critical Theory as a Diagnostic Tool for AI Systems

Technischer Code

Konzept von Andrew Feenberg (1991). Die impliziten Wertentscheidungen, die in die Architektur eines technischen Systems eingeschrieben sind – noch vor jeder expliziten Ethik-Policy. Macht sichtbar, dass „neutrale" Designentscheidungen politische und soziale Konsequenzen haben.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

Konzept von Andrew Feenberg (1991). Die impliziten Wertentscheidungen, die in die Architektur eines technischen Systems eingeschrieben sind – noch vor jeder expliziten Ethik-Policy. Macht sichtbar, dass „neutrale" Designentscheidungen politische und soziale Konsequenzen haben.

→ Kritische Theorie als Diagnosewerkzeug für KI-Systeme

TextGrad

Methode, die Prompt-Optimierung wie Gradient Descent behandelt – mit natürlichsprachlichem Feedback statt numerischer Scores. Publiziert in Nature (2025).

→ Meta-Prompting: LLMs Crafting & Enhancing Their Own Prompts

Three-Store Model (Atkinson-Shiffrin Model)

1968 model proposing three serial memory stages: sensory register, short-term memory, long-term memory. Historically influential; psychologically outdated.

→ Three-Store Model: The Blueprint Behind Every AI Memory Architecture

Tiago Forte

Autor von "Building a Second Brain" und Entwickler der PARA-Methode. Einer der einflussreichsten Denker im Bereich Personal Knowledge Management – sein Framework wird zunehmend als Basis für AI-gestützte Wissenssysteme adaptiert.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Tight Loop

Ein komprimierter Entwicklungszyklus, in dem Intent, Build, Test, Deploy und Observe nahezu simultan ablaufen. Ersetzt den sequenziellen SDLC mit seinen getrennten Phasen und Handoffs.

→ The Software Development Lifecycle Is Dead

Trust Models

Decision frameworks for when agent output is accepted without review and when human verification is needed. Replaces binary control (review everything / review nothing) with graduated trust levels.

→ The Agile Manifesto Needs an Update — for Working with AI Agents

Trust-Modelle

Entscheidungsrahmen dafür, wann Agent-Output ohne Review übernommen wird und wann menschliche Prüfung nötig ist. Ersetzt binäre Kontrolle (alles prüfen / nichts prüfen) durch abgestufte Vertrauensniveaus.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Entscheidungsrahmen dafür, wann Agent-Output ohne Review übernommen wird und wann menschliche Prüfung nötig ist. Ersetzt binäre Kontrolle (alles prüfen / nichts prüfen) durch abgestufte Vertrauensniveaus.

→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-Agenten

Ubiquitous Computing

Von Mark Weiser geprägter Begriff (1991) für allgegenwärtige, unsichtbare Computertechnologie. Der theoretische Rahmen, aus dem Calm Technology hervorging.

→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevant

Undercover Mode

Funktion in Claude Code, die bei Beiträgen zu externen Repositories alle Hinweise auf Anthropics interne Infrastruktur aus Commits entfernt.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Verdopplungsrate

Das Zeitintervall, in dem sich die messbaren Fähigkeiten von KI-Modellen verdoppeln. Laut METR-Daten aktuell bei etwa 7 Monaten, mit Tendenz Richtung 4 Monate.

→ Something Big Is Happening

Das Zeitintervall, in dem sich die messbaren Fähigkeiten von KI-Modellen verdoppeln. Laut METR-Daten aktuell bei etwa 7 Monaten, mit Tendenz Richtung 4 Monate.

→ Something Big Is Happening

Working Memory

Der aktuelle Konversationskontext – was der Agent gerade "denkt". Entspricht dem Context Window. Schnell, aber flüchtig.

→ Agent Memory: Why Your AI Has Amnesia and How to Fix It

Working Memory Model

1974 advancement replacing passive short-term memory with an active system featuring phonological loop, visuospatial sketchpad, central executive, and episodic buffer.

→ Three-Store Model: The Blueprint Behind Every AI Memory Architecture

YoY Growth (Year-over-Year)

Percentage change of a value compared to the previous year. For AI incidents: 149 (2023) → 233 (2024) = +56.4% YoY. Shows acceleration independent of absolute numbers.

→ Claude Code's Source Code Leaked — What the Architecture Reveals About the Future of AI Agents

YoY-Wachstum (Year-over-Year)

Prozentuale Veränderung eines Werts im Vergleich zum Vorjahr. Bei AI-Incidents: 149 (2023) → 233 (2024) = +56,4% YoY. Zeigt die Beschleunigung unabhängig von absoluten Zahlen.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät

Prozentuale Veränderung eines Werts im Vergleich zum Vorjahr. Bei AI-Incidents: 149 (2023) → 233 (2024) = +56,4% YoY. Zeigt die Beschleunigung unabhängig von absoluten Zahlen.

→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät