Begriffe und Konzepte aus den Field Notes.
Terms and concepts from the Field Notes.
118 Begriffe aus 21 Artikeln
3-Layer Context
Architektur-Pattern: Globaler Kontext (Identität, Konventionen) → Projektkontext (Domäne, Status) → Task-Kontext (spezifische Dateien, Commands). Verengt den Scope progressiv, ohne die Kohärenz zu verlieren.
→ Context Engineering: Ein Knowledge OS mit Claude aufbauenAdoption Barrier
The effort a person or organization must invest to use a new tool productively. The higher the barrier, the slower the adoption.
→ When Visualization Becomes Cheap, Clarity Becomes ExpensiveAdoption-Hürde
Der Aufwand, den eine Person oder Organisation investieren muss, um ein neues Werkzeug produktiv einzusetzen. Je höher die Hürde, desto langsamer die Verbreitung.
→ Wenn Visualisierung billig wird, wird Klarheit teuerDer Aufwand, den eine Person oder Organisation investieren muss, um ein neues Werkzeug produktiv einzusetzen. Je höher die Hürde, desto langsamer die Verbreitung.
→ Wenn Visualisierung billig wird, wird Klarheit teuerAgent Compliance
The degree to which AI-generated output conforms to the constraints of a design system. A potential DesignOps metric for quality assurance of agent work.
→ DesignOps and AI Agents: How Design Operations Are Reinventing ThemselvesAgent Memory
Persistenter, sich entwickelnder Zustand, der AI-Agenten über Sessions hinweg Kontext gibt. Nicht zu verwechseln mit dem Context Window (flüchtig) oder RAG (zustandslos).
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItAgent-Compliance
Grad, in dem AI-generierter Output den Constraints eines Design Systems entspricht. Potenzielle DesignOps-Metrik für die Qualitätssicherung von Agent-Arbeit.
→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfindenGrad, in dem AI-generierter Output den Constraints eines Design Systems entspricht. Potenzielle DesignOps-Metrik für die Qualitätssicherung von Agent-Arbeit.
→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfindenAgentic Collaboration
A working model where AI agents are integrated into team processes not as passive tools but as autonomous partners with their own context, session history, and decision-making capacity.
→ The Agile Manifesto Needs an Update — for Working with AI AgentsAgentische Zusammenarbeit
Arbeitsform, in der AI-Agenten nicht als passive Tools, sondern als eigenständige Arbeitspartner mit Kontext, Session-History und Entscheidungskompetenz in Teamprozesse eingebunden sind.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenArbeitsform, in der AI-Agenten nicht als passive Tools, sondern als eigenständige Arbeitspartner mit Kontext, Session-History und Entscheidungskompetenz in Teamprozesse eingebunden sind.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenAgents (als Consumer-Klasse)
Softwaresysteme, die autonom handeln, LLM-gesteuert navigieren und Aufgaben ausführen. Unterscheiden sich von menschlichen Nutzern (GUIs) und klassischen Computerprogrammen (APIs) durch menschenähnliches Verhalten bei computerartiger Ausführungsgeschwindigkeit.
→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeutenSoftwaresysteme, die autonom handeln, LLM-gesteuert navigieren und Aufgaben ausführen. Unterscheiden sich von menschlichen Nutzern (GUIs) und klassischen Computerprogrammen (APIs) durch menschenähnliches Verhalten bei computerartiger Ausführungsgeschwindigkeit.
→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeutenAgents (as Consumer Class)
Software systems that act autonomously, navigate via LLM steering, and execute tasks. Differ from human users (GUIs) and traditional computer programs (APIs) through human-like behavior at computer-like execution speed.
→ Software 3.0 — What Karpathy's Theses Mean for Interface DesignAI Ethics
Research field addressing moral questions of AI system deployment. Encompasses technical approaches (algorithmic fairness, explainability), regulatory frameworks (EU AI Act), and philosophical groundwork. Internally heterogeneous, no unified methodological approach.
→ Critical Theory as a Diagnostic Tool for AI SystemsAI Incident Database (AIID)
Öffentliche Datenbank dokumentierter AI-Sicherheitsvorfälle, kuratiert über Stanford HAI. Grundlage für die Incident-Kurve in der Visualisierung. Lizenziert unter CC BY.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätAlignment
Die Ausrichtung von KI-Systemen auf menschliche Werte, Absichten und Sicherheitsanforderungen. Ziel: Das System tut zuverlässig das, was Menschen wollen – auch in unvorhergesehenen Situationen.
→ AI 2027: Ein SzenarioAmbient AI
Hypothetisches Designmuster: AI-Systeme, die im Hintergrund arbeiten (Kontext aktualisieren, Konsistenz prüfen, Vorschläge vorbereiten) und nur bei relevanten Anlässen ins Zentrum der Aufmerksamkeit rücken. Gegenentwurf zum dominanten Chat-Paradigma.
→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevantAPE (Automatic Prompt Engineer)
System, das automatisch einen Pool von Prompt-Kandidaten generiert, per Scoring-Funktion bewertet und die besten selektiert. Demonstriert, dass LLMs Prompts auf menschlichem Niveau oder besser entwickeln können.
→ Meta-Prompting: LLMs Crafting & Enhancing Their Own PromptsArbeitsgedächtnismodell (Working Memory)
1974er Weiterentwicklung, die das passive Kurzzeitgedächtnis durch ein aktives System mit phonologischer Schleife, visuell-räumlichem Notizblock, zentraler Exekutive und episodischem Buffer ersetzt.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur1974er Weiterentwicklung, die das passive Kurzzeitgedächtnis durch ein aktives System mit phonologischer Schleife, visuell-räumlichem Notizblock, zentraler Exekutive und episodischem Buffer ersetzt.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturASI (Artificial Superintelligence)
Eine hypothetische KI, die menschliche Intelligenz in allen Bereichen übertrifft – nicht nur in Teilaufgaben wie Schach oder Programmierung, sondern generell.
→ AI 2027: Ein SzenarioAutonomy Slider
Design-Pattern, bei dem Nutzer den Automatisierungsgrad einer AI-Interaktion kontextabhängig steuern können – von minimaler Unterstützung bis zu voller Delegation.
→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeutenCalm Technology
Designphilosophie, formuliert 1995 von Mark Weiser und John Seely Brown (Xerox PARC). Kernidee: Die besten Technologien erfordern minimale Aufmerksamkeit und bewegen sich fließend zwischen Peripherie und Zentrum der Wahrnehmung.
→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevantChain-of-Thought (CoT)
Technik, bei der das Modell Schritt für Schritt denkt, bevor es antwortet. Verbessert die Genauigkeit bei komplexen Aufgaben – Mathematik, logisches Schließen, Analyse.
→ Meta-Prompting: LLMs Crafting & Enhancing Their Own PromptsCLAUDE.md
Eine Instruktionsdatei auf Projektebene, die Claude Code beim Session-Start liest. Funktioniert als „System Prompt" für ein Repository – codiert Identität, Konventionen und Navigation.
→ Context Engineering: Ein Knowledge OS mit Claude aufbauenCoALA
2023er Princeton-Framework, das vier Gedächtnistypen für AI-Agenten definiert – Working, Procedural, Semantic, Episodic Memory – und damit die kognitionswissenschaftliche Tradition fortführt, die mit Atkinson/Shiffrin begann.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturCoALA (Cognitive Architectures for Language Agents)
Framework aus Princeton (2023), das vier Gedächtnistypen für AI-Agenten definiert – abgeleitet aus der kognitiven SOAR-Architektur. Lingua Franca des Feldes.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItCollaboration Patterns
Wiederholbare Muster für die Zusammenarbeit in Teams – hier spezifisch für die Interaktion zwischen Menschen und AI-Agenten. Adressieren die Ebene zwischen individuellen Prompts und organisationaler Governance.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenCommunicative Action
Jürgen Habermas's term (1981) for mutual understanding under conditions that enable equal participation for all involved: comprehensibility, the possibility of objection, no structural asymmetry.
→ Critical Theory as a Diagnostic Tool for AI SystemsCompiled Wiki (Karpathy)
Ein Markdown-Wiki, das ein LLM aus Rohdaten generiert und inkrementell pflegt – mit Zusammenfassungen, Kategorien und Backlinks. Read-heavy, mit dem LLM als Maintainer.
→ LLM Knowledge Bases: Warum alle beim selben Stack landenCompute
Rechenkapazität, die für das Training und den Betrieb von KI-Modellen benötigt wird. Wird typischerweise in GPU-Stunden gemessen. Compute-Konzentration bei wenigen Akteuren ist ein zentrales geopolitisches Thema.
→ AI 2027: Ein SzenarioContext Architecture (Kontextarchitektur)
Design of the information environment in which AI agents operate — file structures, documentation formats, conventions, retrieval paths. In the DesignOps context: the infrastructure that enables agents to work with design systems.
→ DesignOps and AI Agents: How Design Operations Are Reinventing ThemselvesContext Builder
Tools wie Gitingest oder DeepWiki, die Informationen so aufbereiten, dass LLMs und Agents sie effizient verarbeiten können. Adressieren das Problem, dass bestehende Web-Formate (HTML) für AI-Consumption schlecht geeignet sind.
→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeutenContext Drift
Phänomen, bei dem die interne Zustandsrepräsentation eines AI-Agenten über lange Sessions zunehmend von der Realität abweicht – ähnlich dem "Stille-Post-Effekt" in menschlicher Kommunikation.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätContext Engineering
Gestaltung der persistenten Informationsumgebung, in der ein LLM arbeitet – jenseits einzelner Prompts. Umfasst Dateistrukturen, Konventionen, Abhängigkeitssysteme und geschichtete Kontextarchitekturen.
→ LLM Knowledge Bases: Warum alle beim selben Stack landenGestaltung der persistenten Informationsumgebung, in der ein LLM arbeitet – jenseits einzelner Prompts. Umfasst System-Prompts, Dateistrukturen, Konventionen und Abhängigkeitssysteme.
→ Context Engineering: Ein Knowledge OS mit Claude aufbauenDie Kompetenz, einem KI-Agenten den richtigen Kontext bereitzustellen – statt selbst Code zu schreiben. Umfasst das Formulieren von Intent, das Strukturieren von Anforderungen und das Kuratieren relevanter Informationen für den Agenten.
→ The Software Development Lifecycle Is DeadConvergent Evolution (here: technological)
Independent actors develop the same solution to the same problem — not through coordination, but through identical selection pressures. In biology: wings in birds and bats. Here: Markdown + Git + LLM across different practitioners.
→ LLM Knowledge Bases: Why Everyone Lands on the Same StackConvergent Evolution (hier: technologisch)
Unabhängige Akteure entwickeln dieselbe Lösung für dasselbe Problem – nicht durch Koordination, sondern durch identische Selektionsdrücke. In der Biologie: Flügel bei Vögeln und Fledermäusen. Hier: Markdown + Git + LLM bei verschiedenen Practitionern.
→ LLM Knowledge Bases: Warum alle beim selben Stack landenUnabhängige Akteure entwickeln dieselbe Lösung für dasselbe Problem – nicht durch Koordination, sondern durch identische Selektionsdrücke. In der Biologie: Flügel bei Vögeln und Fledermäusen. Hier: Markdown + Git + LLM bei verschiedenen Practitionern.
→ LLM Knowledge Bases: Warum alle beim selben Stack landenCritical Theory
Tradition of social philosophy, originating at the Institute for Social Research in Frankfurt in the 1920s. Combines social analysis with the normative goal of human emancipation. Works with immanent critique rather than external ideal standards.
→ Critical Theory as a Diagnostic Tool for AI SystemsCross-Tenant Failure
Sicherheitslücke in Multi-Mandanten-Systemen, bei der Daten oder Zugriffe zwischen verschiedenen Kunden (Tenants) durchsickern. Neue Kategorie ab 2024 – entsteht durch AI-spezifische Architekturmuster wie geteilte Modell-Instanzen oder Embedding-Stores.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätDaemon
Software-Prozess, der im Hintergrund läuft, ohne direkte Nutzerinteraktion. Im KAIROS-Kontext: ein Agent, der nach Sitzungsende eigenständig Aufgaben ausführt.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätData Design
Gestaltung von Datenvisualisierungen und datengetriebenen Interfaces – von Charts über Dashboards bis zu interaktiven Explorations-Tools.
→ Wenn Visualisierung billig wird, wird Klarheit teuerDecay Function
Mathematische Funktion, die den Relevanz-Score einer Erinnerung über die Zeit reduziert – imitiert biologisches Vergessen. Semantische Ähnlichkeit × exponentieller Zeitverfall.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItDesignOps (Design Operations)
Optimierung von Prozessen, Werkzeugen und Strukturen, die Designteams benötigen, um effektiv und skalierbar zu arbeiten. Umfasst People, Process und Craft/Tool Operations.
→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfindenDialectic of Enlightenment
Horkheimer and Adorno's core thesis (1944): reason and rational control can turn into their opposite — into domination, normalization, oppression — when they become ends in themselves rather than means for human liberation.
→ Critical Theory as a Diagnostic Tool for AI SystemsDialektik der Aufklärung
Horkheimer und Adornos Kernthese (1944): Vernunft und rationale Kontrolle können in ihr Gegenteil umschlagen – in Herrschaft, Normierung, Unterdrückung – wenn sie zum Selbstzweck werden statt zum Mittel für menschliche Befreiung.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeHorkheimer und Adornos Kernthese (1944): Vernunft und rationale Kontrolle können in ihr Gegenteil umschlagen – in Herrschaft, Normierung, Unterdrückung – wenn sie zum Selbstzweck werden statt zum Mittel für menschliche Befreiung.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeDistribution
Der Zugang zu Nutzern über bestehende Kanäle und Produkte. Google erreicht Milliarden über die Suche, Meta über Social Media – OpenAI hat keinen vergleichbaren Kanal und muss Nutzer direkt akquirieren.
→ How Will OpenAI Compete?Doubling Rate
The time interval at which measurable AI model capabilities double. According to METR data, currently at approximately 7 months, trending toward 4 months.
→ Something Big Is HappeningDrei-Speicher-Modell (Atkinson-Shiffrin-Modell)
1968 vorgeschlagenes Modell mit drei seriellen Gedächtnisstufen: Sensorisches Register, Kurzzeitgedächtnis, Langzeitgedächtnis. Historisch einflussreich; psychologisch überholt.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-Architektur1968 vorgeschlagenes Modell mit drei seriellen Gedächtnisstufen: Sensorisches Register, Kurzzeitgedächtnis, Langzeitgedächtnis. Historisch einflussreich; psychologisch überholt.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturDSPy (Declarative Self-improving Python)
Framework, das Prompt-Pipelines als deklarative Programme behandelt und zur Compile-Zeit automatisch optimiert. Ersetzt manuelles Prompt-Tuning durch systematische Optimierung.
→ Meta-Prompting: LLMs Crafting & Enhancing Their Own PromptsDual Interface
Das Muster, zwei Dokumentationsschichten parallel zu pflegen – eine für menschliche Entwickler (lesbar, kontextuell), eine für AI-Agenten (parsbar, imperativ, granular).
→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfindenEmancipation
In the context of Critical Theory: the expansion of human agency and self-determination — as a benchmark for social systems. In the AI context: the question of whether a system expands judgment or replaces it through dependency.
→ Critical Theory as a Diagnostic Tool for AI SystemsEmanzipation
Im Kontext Kritischer Theorie: die Erweiterung menschlicher Handlungsfähigkeit und Selbstbestimmung – als Zielmaßstab für gesellschaftliche Systeme. Im Kontext KI: die Frage, ob ein System Urteilsvermögen erweitert oder durch Abhängigkeit ersetzt.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeIm Kontext Kritischer Theorie: die Erweiterung menschlicher Handlungsfähigkeit und Selbstbestimmung – als Zielmaßstab für gesellschaftliche Systeme. Im Kontext KI: die Frage, ob ein System Urteilsvermögen erweitert oder durch Abhängigkeit ersetzt.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeEngagement Curve
A graphical representation of how intensively and frequently users engage with a product. A "flat" curve means: many users, but shallow usage depth — most use the product rarely and superficially.
→ How Will OpenAI Compete?Engagement-Kurve
Grafische Darstellung, wie intensiv und häufig Nutzer ein Produkt verwenden. Eine „flache" Kurve bedeutet: viele Nutzer, aber geringe Nutzungstiefe – die meisten verwenden das Produkt selten und oberflächlich.
→ How Will OpenAI Compete?Grafische Darstellung, wie intensiv und häufig Nutzer ein Produkt verwenden. Eine „flache" Kurve bedeutet: viele Nutzer, aber geringe Nutzungstiefe – die meisten verwenden das Produkt selten und oberflächlich.
→ How Will OpenAI Compete?Episodic Memory
Protokolle vergangener Erfahrungen: Konversationslogs, Aktionssequenzen, Few-Shot-Beispiele. Das "autobiografische Gedächtnis" des Agenten.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItExponential Curve
A growth pattern where capability doubles at regular intervals rather than increasing linearly. In the AI context: model capabilities grow faster than human planning typically anticipates.
→ Product Management on the AI ExponentialExponentialkurve
Wachstumsmuster, bei dem sich die Leistungsfähigkeit in regelmäßigen Intervallen verdoppelt statt linear zuzunehmen. Im AI-Kontext: Die Fähigkeit von Modellen wächst schneller, als menschliche Planung typischerweise antizipiert.
→ Product Management on the AI ExponentialWachstumsmuster, bei dem sich die Leistungsfähigkeit in regelmäßigen Intervallen verdoppelt statt linear zuzunehmen. Im AI-Kontext: Die Fähigkeit von Modellen wächst schneller, als menschliche Planung typischerweise antizipiert.
→ Product Management on the AI ExponentialFeature Flag
Ein Mechanismus in der Softwareentwicklung, der es erlaubt, neue Funktionen gezielt ein- oder auszuschalten, ohne neuen Code zu deployen. Wird im Kontext von schrittweisen Rollouts erwähnt.
→ AI 2027: Ein SzenarioEin Mechanismus, der es erlaubt, Funktionen im laufenden Betrieb ein- oder auszuschalten – ohne neues Deployment. Ermöglicht progressive Rollouts und automatische Rollbacks bei Problemen.
→ The Software Development Lifecycle Is DeadFractional Design Lab
Organisationsform, in der mehrere Fractional-Design-Leader ein Netzwerk bilden und Infrastruktur teilen – Design-Systeme, Knowledge-Base, Methoden, AI-Tooling. Skaliert das Modell über den Einzelnen hinaus.
→ Fractional Design Leadership: Warum das Modell gerade jetzt funktioniertFractional Design Leadership
Strategische Designführung im Fractional-Modell: Design-System-Governance, Teamaufbau, DesignOps, Produktdesign-Strategie – auf Teilzeitbasis als eingebettete Führungsrolle.
→ Fractional Design Leadership: Warum das Modell gerade jetzt funktioniertFractional Executive
Führungskraft, die auf Teilzeitbasis für mehrere Unternehmen gleichzeitig arbeitet. Übernimmt strategische Verantwortung, ist aber nicht festangestellt. Typisch: 1–3 Tage pro Woche, selbstständig.
→ Fractional Design Leadership: Warum das Modell gerade jetzt funktioniertFrankfurt School / New School
Shorthand for the intellectual tradition of the Institute for Social Research — first in Frankfurt (1923), in exile at the New School for Social Research in New York (from 1933), returning to Frankfurt after 1945. Three generations: Horkheimer/Adorno, Habermas, current continuations (Lindgren, Feenberg).
→ Critical Theory as a Diagnostic Tool for AI SystemsFrankfurter Schule / New School
Kurzbezeichnung für die intellektuelle Tradition des Instituts für Sozialforschung – zunächst in Frankfurt (1923), im Exil an der New School for Social Research in New York (ab 1933), nach 1945 zurück in Frankfurt. Drei Generationen: Horkheimer/Adorno, Habermas, aktuelle Fortführungen (Lindgren, Feenberg).
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeKurzbezeichnung für die intellektuelle Tradition des Instituts für Sozialforschung – zunächst in Frankfurt (1923), im Exil an der New School for Social Research in New York (ab 1933), nach 1945 zurück in Frankfurt. Drei Generationen: Horkheimer/Adorno, Habermas, aktuelle Fortführungen (Lindgren, Feenberg).
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeImmanent Critique
Method of Critical Theory: a system is measured not against external norms but against its own promises and claims. Targets the tension between self-representation and reality.
→ Critical Theory as a Diagnostic Tool for AI SystemsImmanente Kritik
Methode der Kritischen Theorie: Ein System wird nicht an externen Normen gemessen, sondern an seinen eigenen Versprechen und Ansprüchen. Zielt auf die Spannung zwischen Selbstdarstellung und Realität.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeMethode der Kritischen Theorie: Ein System wird nicht an externen Normen gemessen, sondern an seinen eigenen Versprechen und Ansprüchen. Zielt auf die Spannung zwischen Selbstdarstellung und Realität.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeInformation Literacy
Die Fähigkeit, Informationen zu finden, zu bewerten und zu kommunizieren. Hier: die Fähigkeit, Daten visuell zu interpretieren und darzustellen.
→ Wenn Visualisierung billig wird, wird Klarheit teuerJagged Intelligence
Phänomen, bei dem LLMs unintuitive Fähigkeitsverteilungen zeigen: brillant bei komplexen Aufgaben, unzuverlässig bei scheinbar einfachen. Im Gegensatz zu menschlicher Kompetenzentwicklung, wo Fähigkeiten korreliert wachsen.
→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeutenKAIROS
Interner Codename für eine unveröffentlichte Claude-Code-Funktion: ein Hintergrund-Daemon, der nach Sitzungsende autonom weiterarbeitet, inklusive nächtlicher Gedächtniskonsolidierung.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätKI-Ethik
Forschungsfeld, das moralische Fragen des Einsatzes von KI-Systemen adressiert. Umfasst technische Ansätze (Algorithmic Fairness, Explainability), regulatorische Frameworks (EU AI Act) und philosophische Grundlagenarbeit. Intern heterogen, kein einheitlicher Methodenansatz.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeForschungsfeld, das moralische Fragen des Einsatzes von KI-Systemen adressiert. Umfasst technische Ansätze (Algorithmic Fairness, Explainability), regulatorische Frameworks (EU AI Act) und philosophische Grundlagenarbeit. Intern heterogen, kein einheitlicher Methodenansatz.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeKnowledge OS
Ein strukturiertes, git-versioniertes Wissens-Repository, das über ein Archiv hinausgeht – der LLM arbeitet aktiv im System (Konsistenzprüfung, Aufgabenstrukturierung, Output-Generierung), statt nur Fragen zu beantworten.
→ LLM Knowledge Bases: Warum alle beim selben Stack landenEin strukturiertes, git-versioniertes Wissens-Repository, das sowohl menschliches Denken als auch LLM-Kontext bedient. Reines Markdown, tool-agnostisch, mit geschichteter Kontextarchitektur.
→ Context Engineering: Ein Knowledge OS mit Claude aufbauenKommunikatives Handeln
Begriff von Jürgen Habermas (1981) für Verständigung unter Bedingungen, die allen Beteiligten gleiche Teilhabe ermöglichen: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeBegriff von Jürgen Habermas (1981) für Verständigung unter Bedingungen, die allen Beteiligten gleiche Teilhabe ermöglichen: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeKontextarchitektur
Gestaltung der Informationsumgebung, in der AI-Agenten operieren – Dateistrukturen, Dokumentationsformate, Konventionen, Retrieval-Pfade. Im DesignOps-Kontext: die Infrastruktur, die Agenten befähigt, mit Design-Systemen zu arbeiten.
→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfindenGestaltung der Informationsumgebung, in der AI-Agenten operieren – Dateistrukturen, Dokumentationsformate, Konventionen, Retrieval-Pfade. Im DesignOps-Kontext: die Infrastruktur, die Agenten befähigt, mit Design-Systemen zu arbeiten.
→ DesignOps und AI-Agenten: Wie sich Design Operations gerade neu erfindenKritische Theorie
Tradition der Sozialphilosophie, entstanden am Institut für Sozialforschung in Frankfurt in den 1920er Jahren. Verbindet Gesellschaftsanalyse mit dem normativen Ziel menschlicher Emanzipation. Arbeitet mit immanenter Kritik statt externen Idealmaßstäben.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeTradition der Sozialphilosophie, entstanden am Institut für Sozialforschung in Frankfurt in den 1920er Jahren. Verbindet Gesellschaftsanalyse mit dem normativen Ziel menschlicher Emanzipation. Arbeitet mit immanenter Kritik statt externen Idealmaßstäben.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeLevels of Processing
Alternatives Modell, das argumentiert, Verarbeitungstiefe – nicht Speicherort – bestimme die Behaltensleistung. Tiefe Verarbeitung erzeugt stabilere Erinnerungen als oberflächliche.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturMeta-Prompt
Ein Prompt, der nicht direkt eine Aufgabe löst, sondern andere Prompts generiert, bewertet oder optimiert. Verschiebt die Arbeit eine Abstraktionsebene nach oben – vom Inhalt zur Struktur.
→ Meta-Prompting: LLMs Crafting & Enhancing Their Own PromptsMETR
Organisation, die die Fähigkeiten von KI-Modellen anhand realer Aufgaben misst. Die Metrik erfasst, wie lange eine Aufgabe dauert, die ein Modell autonom – ohne menschliche Hilfe – lösen kann.
→ Something Big Is HappeningMETR (Model Evaluation & Threat Research)
Unabhängige Forschungsorganisation, die AI-Modelle auf ihre Fähigkeiten und Risiken evaluiert. Liefert standardisierte Benchmarks für Aufgaben-Komplexität und Agent-Performance.
→ Product Management on the AI ExponentialMoat
Strategischer Wettbewerbsvorteil, der ein Unternehmen dauerhaft vor Konkurrenz schützt – wie ein Burggraben. Bei AI-Modellen umstritten: Wenn Modelle austauschbar sind, fehlt der Moat.
→ How Will OpenAI Compete?Model Weights
Die gelernten Parameter eines neuronalen Netzes – das eigentliche "Wissen" des Modells. Wer die Weights hat, kann das Modell betreiben. Diebstahl von Weights ist ein zentrales Szenario im Text.
→ AI 2027: Ein SzenarioObservability
Die Fähigkeit, das Verhalten eines Systems aus seinen Outputs zu verstehen. Im agent-getriebenen Workflow wird Observability vom Monitoring-Dashboard zum zentralen Feedback-Mechanismus, der den gesamten Build-Observe-Zyklus antreibt.
→ The Software Development Lifecycle Is DeadPARA (Projects, Areas, Resources, Archives)
Organisationsmethode von Tiago Forte für persönliches Wissensmanagement. Vier Kategorien nach Handlungsrelevanz, nicht nach Thema. Grundlage vieler Knowledge-Management-Systeme, die jetzt mit LLM-Agenten kombiniert werden.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItPeripherie / Zentrum
Die zwei Modi der Aufmerksamkeit in Weiser/Browns Modell. Peripherie = unbewusste Wahrnehmung (informiert ohne kognitive Kosten). Zentrum = bewusste Fokussierung (erfordert aktive Aufmerksamkeit). Gute Technologie wechselt nahtlos zwischen beiden.
→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevantDie zwei Modi der Aufmerksamkeit in Weiser/Browns Modell. Peripherie = unbewusste Wahrnehmung (informiert ohne kognitive Kosten). Zentrum = bewusste Fokussierung (erfordert aktive Aufmerksamkeit). Gute Technologie wechselt nahtlos zwischen beiden.
→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevantPeriphery / Center
The two modes of attention in Weiser/Brown's model. Periphery = unconscious perception (informs without cognitive cost). Center = conscious focus (requires active attention). Good technology shifts seamlessly between both.
→ Calm Technology: A 1995 Design Principle Becomes Relevant AgainPlatform Play
Strategischer Ansatz, bei dem ein Unternehmen seine Technologie als Plattform öffnet, auf der andere aufbauen können. Beispiele: App Store (Apple), GPT Store (OpenAI). Ziel: Wertschöpfung durch ein Ökosystem statt durch ein einzelnes Produkt.
→ How Will OpenAI Compete?Principles Paradox
The observation that the growing number of AI ethics guidelines does not lead to more ethical action. The existence of principles creates the impression of solved problems while the structural causes remain unchanged.
→ Critical Theory as a Diagnostic Tool for AI SystemsPrinzipien-Paradox
Beobachtung, dass die wachsende Anzahl von KI-Ethik-Leitlinien nicht zu mehr ethischem Handeln führt. Die Existenz von Prinzipien erzeugt den Eindruck gelöster Probleme, während die strukturellen Ursachen unverändert bleiben.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeBeobachtung, dass die wachsende Anzahl von KI-Ethik-Leitlinien nicht zu mehr ethischem Handeln führt. Die Existenz von Prinzipien erzeugt den Eindruck gelöster Probleme, während die strukturellen Ursachen unverändert bleiben.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeProcedural Memory
Codierte Verhaltensregeln: System-Prompts, Tool-Definitionen, Entscheidungslogik. Das "Muskelgedächtnis" eines Agenten.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItProduct Thinker / Product Builder
Hypothetische Rollenprofile aus einer stärkeren Generalisierung heutiger Product-Rollen (PM, PD, Dev). Thinker = Strategie, Framing, Entscheidung. Builder = Umsetzung, Prototyping, Iteration.
→ Wenn Visualisierung billig wird, wird Klarheit teuerRehearsal
Control process maintaining information in working memory. Maintenance rehearsal involves simple repetition; elaborative rehearsal links information to existing knowledge — only the latter reliably produces long-term storage.
→ Three-Store Model: The Blueprint Behind Every AI Memory ArchitectureRehearsal (Wiederholung)
Kontrollprozess zur Aufrechterhaltung von Information im Arbeitsgedächtnis. Maintenance Rehearsal ist einfache Wiederholung; Elaborative Rehearsal verknüpft Information mit bestehendem Wissen – nur Letzteres führt zuverlässig zur Langzeitspeicherung.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturKontrollprozess zur Aufrechterhaltung von Information im Arbeitsgedächtnis. Maintenance Rehearsal ist einfache Wiederholung; Elaborative Rehearsal verknüpft Information mit bestehendem Wissen – nur Letzteres führt zuverlässig zur Langzeitspeicherung.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturRelease Hygiene
The set of practices ensuring software artifacts don't contain unintended content when deployed (source maps, debug symbols, internal references). In context: the weakest link in Anthropic's security architecture.
→ Claude Code's Source Code Leaked — What the Architecture Reveals About the Future of AI AgentsRelease-Hygiene
Gesamtheit der Praktiken, die sicherstellen, dass Software-Artefakte beim Deployment keine unbeabsichtigten Inhalte enthalten (Source Maps, Debug-Symbole, interne Referenzen). Im Kontext: das schwächste Glied in Anthropics Sicherheitsarchitektur.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätGesamtheit der Praktiken, die sicherstellen, dass Software-Artefakte beim Deployment keine unbeabsichtigten Inhalte enthalten (Source Maps, Debug-Symbole, interne Referenzen). Im Kontext: das schwächste Glied in Anthropics Sicherheitsarchitektur.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätRLHF (Reinforcement Learning from Human Feedback)
Ein Trainingsverfahren, bei dem menschliche Bewertungen genutzt werden, um das Verhalten eines KI-Modells zu steuern. Ziel: Das Modell soll hilfreiche, ehrliche und harmlose Antworten geben.
→ AI 2027: Ein SzenarioRuntime Safety vs. Release Safety
Zwei verschiedene Sicherheitsdisziplinen: Runtime Safety schützt gegen Angriffe während der Programmausführung (Prompt Injection, Code Injection). Release Safety verhindert, dass beim Deployment vertrauliche Artefakte veröffentlicht werden. Die meisten AI-Safety-Investitionen fließen in Runtime – die meisten Incidents passieren im Release.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätSelf-Improvement
Die Fähigkeit eines KI-Systems, an seiner eigenen Verbesserung mitzuwirken – etwa durch Debugging des eigenen Trainings oder Management des eigenen Deployments. GPT-5.3 Codex gilt als erstes dokumentiertes Beispiel.
→ Something Big Is HappeningSelf-Refine
Iterativer Prozess: Das Modell generiert eine Antwort, kritisiert sie, und produziert eine verbesserte Version. Wiederholbar bis zum Qualitätsschwellenwert.
→ Meta-Prompting: LLMs Crafting & Enhancing Their Own PromptsSemantic Memory
Akkumuliertes Faktenwissen: Nutzerpräferenzen, extrahierte Fakten, Knowledge Bases. Wächst über die Zeit.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItSensorisches Register
Erste Gedächtnisstufe, die sensorische Eindrücke für Bruchteile einer Sekunde hält. Unbegrenzte Kapazität, extrem kurze Retention. Filtert nach Relevanz, bevor Information ins Arbeitsgedächtnis gelangt.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturErste Gedächtnisstufe, die sensorische Eindrücke für Bruchteile einer Sekunde hält. Unbegrenzte Kapazität, extrem kurze Retention. Filtert nach Relevanz, bevor Information ins Arbeitsgedächtnis gelangt.
→ Drei-Speicher-Modell: Das Urmodell hinter jeder AI-Memory-ArchitekturSensory Register
Initial memory stage holding sensory impressions for fractions of a second. Unlimited capacity, extremely brief retention. Filters by relevance before information reaches working memory.
→ Three-Store Model: The Blueprint Behind Every AI Memory ArchitectureSession-based Work
A working mode where knowledge and progress are bound to individual chat sessions. Without explicit persistence (in files, issues, commits), context is lost when a session ends.
→ The Agile Manifesto Needs an Update — for Working with AI AgentsSession-basierte Arbeit
Arbeitsmodus, bei dem Wissen und Fortschritt an einzelne Chat-Sessions gebunden sind. Ohne explizite Persistierung (in Dateien, Issues, Commits) geht Kontext bei Session-Ende verloren.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenArbeitsmodus, bei dem Wissen und Fortschritt an einzelne Chat-Sessions gebunden sind. Ohne explizite Persistierung (in Dateien, Issues, Commits) geht Kontext bei Session-Ende verloren.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenSide Quest
Selbstgesteuertes Experiment außerhalb der offiziellen Produkt-Roadmap. Dient der explorativen Innovation in Umgebungen mit hoher Unsicherheit über zukünftige Machbarkeit.
→ Product Management on the AI ExponentialSoftware 3.0
Karpathys Begriff für das dritte Software-Paradigma: natürliche Sprache als Programmiersprache. Prompts ersetzen Code (1.0) und trainierte Weights (2.0) als primäre Programmierschnittstelle.
→ Software 3.0 – Was Karpathys Thesen für Interface Design bedeutenSource Map (.map)
Debug-Datei, die kompilierten/minifizierten JavaScript-Code auf den originalen TypeScript-Quellcode zurückmappt. In Produktions-Releases nicht vorgesehen – ihre Veröffentlichung legt den vollständigen Quellcode offen.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätStructured Context
Machine-readable project information in versioned files (Markdown, YAML, JSON) — as an alternative to ephemeral chat history. Serves as the shared communication medium between human and agent.
→ The Agile Manifesto Needs an Update — for Working with AI AgentsStrukturierter Kontext
Maschinenlesbare Projektinformation in versionierten Dateien (Markdown, YAML, JSON) – als Alternative zu flüchtigem Chat-Verlauf. Dient als gemeinsames Kommunikationsmedium zwischen Mensch und Agent.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenMaschinenlesbare Projektinformation in versionierten Dateien (Markdown, YAML, JSON) – als Alternative zu flüchtigem Chat-Verlauf. Dient als gemeinsames Kommunikationsmedium zwischen Mensch und Agent.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenSystem Prompting
Instruktionen, die einem Sprachmodell vor der eigentlichen Nutzeranfrage mitgegeben werden, um Verhalten, Tonalität und Fähigkeiten zu steuern. Weniger System-Prompting bei besseren Modellen deutet darauf hin, dass das Modell mehr Kontext eigenständig erschließt.
→ Product Management on the AI ExponentialTechnical Code
Concept by Andrew Feenberg (1991). The implicit value decisions inscribed in a technical system's architecture — before any explicit ethics policy. Makes visible that "neutral" design decisions have political and social consequences.
→ Critical Theory as a Diagnostic Tool for AI SystemsTechnischer Code
Konzept von Andrew Feenberg (1991). Die impliziten Wertentscheidungen, die in die Architektur eines technischen Systems eingeschrieben sind – noch vor jeder expliziten Ethik-Policy. Macht sichtbar, dass „neutrale" Designentscheidungen politische und soziale Konsequenzen haben.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeKonzept von Andrew Feenberg (1991). Die impliziten Wertentscheidungen, die in die Architektur eines technischen Systems eingeschrieben sind – noch vor jeder expliziten Ethik-Policy. Macht sichtbar, dass „neutrale" Designentscheidungen politische und soziale Konsequenzen haben.
→ Kritische Theorie als Diagnosewerkzeug für KI-SystemeTextGrad
Methode, die Prompt-Optimierung wie Gradient Descent behandelt – mit natürlichsprachlichem Feedback statt numerischer Scores. Publiziert in Nature (2025).
→ Meta-Prompting: LLMs Crafting & Enhancing Their Own PromptsThree-Store Model (Atkinson-Shiffrin Model)
1968 model proposing three serial memory stages: sensory register, short-term memory, long-term memory. Historically influential; psychologically outdated.
→ Three-Store Model: The Blueprint Behind Every AI Memory ArchitectureTiago Forte
Autor von "Building a Second Brain" und Entwickler der PARA-Methode. Einer der einflussreichsten Denker im Bereich Personal Knowledge Management – sein Framework wird zunehmend als Basis für AI-gestützte Wissenssysteme adaptiert.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItTight Loop
Ein komprimierter Entwicklungszyklus, in dem Intent, Build, Test, Deploy und Observe nahezu simultan ablaufen. Ersetzt den sequenziellen SDLC mit seinen getrennten Phasen und Handoffs.
→ The Software Development Lifecycle Is DeadTrust Models
Decision frameworks for when agent output is accepted without review and when human verification is needed. Replaces binary control (review everything / review nothing) with graduated trust levels.
→ The Agile Manifesto Needs an Update — for Working with AI AgentsTrust-Modelle
Entscheidungsrahmen dafür, wann Agent-Output ohne Review übernommen wird und wann menschliche Prüfung nötig ist. Ersetzt binäre Kontrolle (alles prüfen / nichts prüfen) durch abgestufte Vertrauensniveaus.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenEntscheidungsrahmen dafür, wann Agent-Output ohne Review übernommen wird und wann menschliche Prüfung nötig ist. Ersetzt binäre Kontrolle (alles prüfen / nichts prüfen) durch abgestufte Vertrauensniveaus.
→ Das agile Manifest braucht ein Update – für die Arbeit mit AI-AgentenUbiquitous Computing
Von Mark Weiser geprägter Begriff (1991) für allgegenwärtige, unsichtbare Computertechnologie. Der theoretische Rahmen, aus dem Calm Technology hervorging.
→ Calm Technology: Ein Designprinzip von 1995 wird gerade wieder relevantUndercover Mode
Funktion in Claude Code, die bei Beiträgen zu externen Repositories alle Hinweise auf Anthropics interne Infrastruktur aus Commits entfernt.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätVerdopplungsrate
Das Zeitintervall, in dem sich die messbaren Fähigkeiten von KI-Modellen verdoppeln. Laut METR-Daten aktuell bei etwa 7 Monaten, mit Tendenz Richtung 4 Monate.
→ Something Big Is HappeningDas Zeitintervall, in dem sich die messbaren Fähigkeiten von KI-Modellen verdoppeln. Laut METR-Daten aktuell bei etwa 7 Monaten, mit Tendenz Richtung 4 Monate.
→ Something Big Is HappeningWorking Memory
Der aktuelle Konversationskontext – was der Agent gerade "denkt". Entspricht dem Context Window. Schnell, aber flüchtig.
→ Agent Memory: Why Your AI Has Amnesia and How to Fix ItWorking Memory Model
1974 advancement replacing passive short-term memory with an active system featuring phonological loop, visuospatial sketchpad, central executive, and episodic buffer.
→ Three-Store Model: The Blueprint Behind Every AI Memory ArchitectureYoY Growth (Year-over-Year)
Percentage change of a value compared to the previous year. For AI incidents: 149 (2023) → 233 (2024) = +56.4% YoY. Shows acceleration independent of absolute numbers.
→ Claude Code's Source Code Leaked — What the Architecture Reveals About the Future of AI AgentsYoY-Wachstum (Year-over-Year)
Prozentuale Veränderung eines Werts im Vergleich zum Vorjahr. Bei AI-Incidents: 149 (2023) → 233 (2024) = +56,4% YoY. Zeigt die Beschleunigung unabhängig von absoluten Zahlen.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrätProzentuale Veränderung eines Werts im Vergleich zum Vorjahr. Bei AI-Incidents: 149 (2023) → 233 (2024) = +56,4% YoY. Zeigt die Beschleunigung unabhängig von absoluten Zahlen.
→ Claude Codes Source Code geleakt – Was die Architektur über die Zukunft von AI-Agents verrät