Esc
Autor: Author: David Latz ·

Kritische Theorie als Diagnosewerkzeug für KI-Systeme

TLDR

KI-Ethik produziert immer mehr Leitlinien — und verändert trotzdem wenig. Die Kritische Theorie der Frankfurter Schule bietet ein Analysewerkzeug, das erklärt, warum. Vier Denkbewegungen, die fehlen.

Reasoning Seed

Ein Reasoning Seed ist ein strukturierter Prompt, den du in dein KI-Reasoning-Tool kopieren kannst (Claude, ChatGPT, Obsidian, Notion). Er enthält die These des Artikels und die zentrale Spannung — bereit für deine eigene Analyse.

A Reasoning Seed is a structured prompt you can copy into your AI reasoning tool (Claude, ChatGPT, Obsidian, Notion). It contains the article's thesis and central tension — ready for your own analysis.

Spannung

Wenn KI-Ethik strukturell einer kritischen Theorie gleicht, aber deren Methoden nicht nutzt — produziert sie dann Lösungen oder nur den Anschein von Lösungen?

These

KI-Ethik produziert immer mehr Leitlinien — und verändert trotzdem wenig. Die Kritische Theorie der Frankfurter Schule bietet ein Analysewerkzeug, das erklärt, warum. Vier Denkbewegungen, die fehlen.

· Auf LinkedIn diskutieren Discuss on LinkedIn

Key Insights

1 — Das Versprechen und die Lücke

KI-Ethik als Forschungsfeld ist in kurzer Zeit erstaunlich weit gekommen: Prinzipien wurden formuliert, Regulierungsrahmen entstanden, Checklisten wurden entwickelt. Was dem Feld dabei schwerer fällt, ist die Frage nach dem Warum — warum scheitern gut formulierte Prinzipien in der Praxis, warum reproduzieren gut gemeinte Systeme Machtstrukturen, die sie eigentlich aufheben sollten.

Die Philosophin Rosalie Waelen hat 2022 in „Why AI Ethics Is a Critical Theory” (Philosophy & Technology) einen aufschlussreichen Befund formuliert: KI-Ethik ähnelt in Struktur und Anspruch einer kritischen Theorie — sie will nicht nur beschreiben, sondern verändern, und sie ist fundamental mit dem Begriff menschlicher Ermächtigung verbunden. Das Feld tue das, so Waelen, ohne es sich selbst bewusst zu sein — und ohne die methodischen Ressourcen zu nutzen, die die Tradition der Kritischen Theorie bereitgestellt hat. Was fehlt, ist weniger ein weiterer Prinzipienkatalog als eine Analysemethode, die erklärt, warum organisationale Anreize ethische Leitlinien systematisch untergraben und warum KI-Systeme, die Fairness versprechen, Ungleichheiten reproduzieren können.

Giuseppe De Ruvo geht in „Algorithmic Objectivity as Ideology” (Topoi, 2025) einen Schritt weiter: Der Anspruch algorithmischer Objektivität funktioniert selbst ideologisch — er verdeckt die normativen Entscheidungen, die in jedem System stecken, indem er sie als technische Notwendigkeit rahmt. Je mehr Prinzipien formuliert werden, desto mehr entsteht der Eindruck, das Problem sei gelöst — während die strukturellen Ursachen unverändert bleiben.

Eine Tradition, die sich genau dieser Frage gewidmet hat, existiert seit fast einem Jahrhundert: die Kritische Theorie der Frankfurter Schule. Dieser Text versucht, diese Verbindung herzustellen — nicht als Vollständigkeitsanspruch, sondern als Arbeitsthese.

2 — Was die Frankfurter Schule wollte

In den frühen 1930er Jahren beschäftigte eine Gruppe von Philosophen und Soziologen am Institut für Sozialforschung in Frankfurt eine Frage, die ihnen dringlicher erschien als alle anderen: Warum hat die Vernunft versagt? Die Aufklärung hatte Wissenschaft, Technologie und rationale Planung als Instrumente der menschlichen Befreiung versprochen. Was Europa erlebte, war das Gegenteil — Faschismus, Massenmanipulation durch Kulturindustrie, die totale Mobilisierung von Gesellschaft durch industrielle Logik. Max Horkheimer, Theodor Adorno, Herbert Marcuse, Walter Benjamin: Sie alle versuchten, diesen Widerspruch zu erklären.

Ihre Antwort war keine einfache. Vernunft selbst, so die zentrale These von Horkheimer und Adorno in der „Dialektik der Aufklärung” (1944), kann in ihr Gegenteil umschlagen — nicht durch Böswilligkeit, sondern durch eine spezifische Form der Rationalisierung: Wenn der Zweck eines Systems — Beherrschung der Natur, Effizienzsteigerung, Kontrolle von Risiken — zum einzigen Maßstab wird, verdrängt er alle anderen Werte. Das Werkzeug beginnt, seinen Kontext zu bestimmen. Was als Mittel begann, wird zur Logik.

Aus diesem Befund entwickelten sie eine Methode: die immanente Kritik. Sie misst ein System nicht an externen, idealisierten Maßstäben, sondern an seinen eigenen Versprechen. Was behauptet dieses System zu sein? Was leistet es tatsächlich? Und wessen Interessen bleiben dabei unsichtbar? Diese Methode ist keine Ideologie — sie ist ein Analysewerkzeug, das auf jeden gesellschaftlichen Kontext anwendbar ist, in dem Rationalität Macht ausübt.

Das Institut wurde 1933 von den Nationalsozialisten geschlossen. Ein Großteil der Mitglieder emigrierte in die USA, viele fanden Zuflucht an der New School for Social Research in New York — einer Universität, die 1919 gegründet worden war, um Denken jenseits etablierter akademischer Dogmen zu ermöglichen, und die zur intellektuellen Heimat eines transatlantischen Exilnetzwerks wurde. Jürgen Habermas entwickelte die Tradition in der zweiten Generation weiter: In seiner „Theorie des kommunikativen Handelns” (1981) verschob er den Fokus von der Systemkritik auf die Frage, unter welchen Bedingungen Verständigung überhaupt gelingt — und wann strukturelle Asymmetrien sie verhindern.

3 — Vier Analysebewegungen

Die folgenden Bewegungen sind keine fertige Methode — eher ein erster Versuch, zu beschreiben, was Kritische Theorie als Diagnosewerkzeug für KI-Systeme leisten könnte.

Immanente Kritik: Systeme an ihren eigenen Versprechen messen. Die produktivste Frage, die man einem KI-System stellen kann, ist nicht: Ist das ethisch? Sondern: Was verspricht dieses System zu sein — explizit in der Dokumentation, implizit im Designverhalten — und was liefert es tatsächlich? Diese Form der Kritik hat eine wichtige Eigenschaft: Sie benötigt keine externe moralische Autorität. Sie arbeitet mit dem Material des Systems selbst. Die Methode geht auf Horkheimers programmatischen Aufsatz „Traditionelle und Kritische Theorie” von 1937 zurück und ist universell anwendbar — und unbequem, weil sie keine Ausrede durch Komplexität zulässt.

Dialektische Analyse: Wo schlägt Rationalisierung in Kontrolle um? Horkheimers und Adornos Warnung war präzise: Jede Form der Rationalisierung — das systematische Erfassen, Kontrollieren und Optimieren eines Bereichs — trägt das Potenzial in sich, die Werte zu verdrängen, für die sie ursprünglich eingesetzt wurde. Im Kontext von KI-Systemen bedeutet das: Die Frage ist nicht nur, ob ein System gut funktioniert, sondern was es mit seinem Umfeld macht, wenn es gut funktioniert. Personalisierungsalgorithmen, die Vielfalt versprechen und Homogenität produzieren; Empfehlungssysteme, die Autonomie suggerieren und Abhängigkeit erzeugen; autonome Agenten, die Transparenz nachträglich herstellen statt gleichzeitig — ob das neutrale technische Eigenschaften sind oder strukturelle Machtverschiebungen, lässt sich mit dieser Analysebewegung herausarbeiten.

Kommunikative Legitimität: Unter welchen Bedingungen ist eine Entscheidung anfechtbar? Habermas hat formuliert, was Legitimität voraussetzt: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie zwischen den Beteiligten. Eine KI-gestützte Entscheidung, die diese Bedingungen nicht erfüllt, ist nicht legitim — auch wenn sie effizient ist. Das gilt für automatisierte Kreditentscheidungen ebenso wie für Content-Moderation oder Recruiting-Filter. Die Frage ist nicht, ob ein Algorithmus „fair” entscheidet, sondern ob die Betroffenen die Entscheidung verstehen, anfechten und korrigieren können.

Technischer Code: Werte in Architekturen lesen. Andrew Feenberg hat 1991 in „Critical Theory of Technology” gezeigt, dass Architekturentscheidungen implizite Wertentscheidungen tragen: Wer kontrolliert, wer partizipiert, welche Optionen überhaupt sichtbar werden. Feenberg nennt diese eingebauten Werte „technischen Code” — Design-Entscheidungen, die als technische Notwendigkeit erscheinen und genau dadurch politisch wirksam werden. In KI-Systemen betrifft das jede Default-Einstellung, jede Taxonomie, jede Entscheidung darüber, welche Daten erhoben und welche ignoriert werden.

4 — Emanzipation als Prüfstein

Was die vier Bewegungen zusammenhält, ist ein normativer Maßstab, den die Kritische Theorie von Anfang an mitträgt: Emanzipation als Ziel. In Horkheimers ursprünglicher Formulierung verfolgt Kritische Theorie das Ziel menschlicher Handlungsfähigkeit — die Erweiterung von Selbstbestimmung, die Reduktion struktureller Abhängigkeit. Für KI-Systeme heißt das: Effizienzgewinn ist kein hinreichendes Kriterium für ethischen Einsatz. Die entscheidendere Frage ist, wessen Handlungsfähigkeit sich durch ein System erweitert — und ob diese Erweiterung auf Kosten anderer geht. Ein System, das Wissensarbeit schneller macht, aber das Urteilsvermögen seiner Nutzerinnen und Nutzer systematisch ersetzt statt ergänzt, hat nicht emanzipiert, sondern eine Abhängigkeit durch eine andere ersetzt.

Dieser Prüfstein gilt für jede der vier Bewegungen: Immanente Kritik fragt, ob das Versprechen hält; dialektische Analyse, ob Rationalisierung in Kontrolle umschlägt; kommunikative Legitimität, ob Betroffene widersprechen können; technischer Code, wessen Werte eingeschrieben sind. Die Antwort auf all diese Fragen bemisst sich daran, ob am Ende mehr Handlungsfähigkeit steht — oder weniger.

5 — Was dieser Rahmen leisten kann — und was nicht

Kritische Theorie ist kein Ersatz für technische Sorgfalt, rechtliche Compliance oder die Detailarbeit von Algorithmic Fairness. Sie bietet eine andere Ebene: die Fähigkeit, strukturelle Muster zu beschreiben, die erst sichtbar werden, wenn man fragt, wie ein System seine eigenen Versprechen untergräbt, wessen Interessen in seiner Architektur eingeschrieben sind und ob der Einsatz Handlungsfähigkeit erweitert oder bindet.

Gerard Delanty und Neal Harris zeigen in „Critical Theory and the Question of Technology” (Thesis Eleven, 2021), dass die Frankfurter Schule über drei Generationen hinweg Technologiekritik entwickelt hat — von Adornos Kulturindustrie über Habermas’ Kolonisierung der Lebenswelt bis zu Feenbergs demokratischer Technikgestaltung. Die Tradition ist nicht abgeschlossen. Simon Lindgrens „Critical Theory of AI” (2024) formuliert den aktuellen Stand dieser Arbeit: eine Analyse, die technische Systeme nicht isoliert betrachtet, sondern als Teil gesellschaftlicher Macht- und Kommunikationsstrukturen.

Ob das ausreicht, um die methodische Lücke zu schließen, die Waelen beschreibt, ist offen. Kritische Theorie selbst hat eine Schwäche: Sie ist besser im Diagnostizieren als im Konstruieren. Sie erklärt, was schiefläuft, aber gibt selten konkrete Gestaltungshinweise. Feenbergs Erweiterung — die Frage nach dem technischen Code als Designproblem — versucht diese Lücke zu schließen. Ob das für die Praxis der KI-Entwicklung operationalisierbar ist, bleibt eine offene Frage. Dieser Text ist ein erster Versuch der Einordnung — die eigene Praxis damit zu erden, in Produktentscheidungen, in der Bewertung von Tools, in der Frage, wann KI-Einsatz sinnvoll ist und wann nicht, steht noch aus.

Einordnung

Dieser Text ist aus der Perspektive eines Produktdesigners geschrieben, der Kritische Theorie als Analysewerkzeug nutzt — nicht als Philosoph, der die Tradition von innen kennt. Die Auswahl der Konzepte ist selektiv: Sie folgt der Frage, was für die Praxis der KI-gestützten Produktarbeit brauchbar ist. Ästhetische Theorie (Adorno), Psychoanalyse (Fromm, Marcuse), Staatstheorie (Neumann) — große Teile der Frankfurter Schule bleiben hier unberücksichtigt, weil sie für den Zweck dieses Textes weniger unmittelbar anschlussfähig sind.

Was diese Perspektive sehen kann: die Lücke zwischen ethischen Ansprüchen und operativer Praxis in der Produktentwicklung. Was sie nicht sehen kann: die philosophiehistorischen Feinheiten der Tradition, die Kontroversen zwischen den Generationen, die Grenzen der Übertragbarkeit auf nicht-westliche Kontexte. Jemand aus der Philosophie würde die Konzepte anders gewichten. Jemand aus dem Global South würde fragen, ob die Frankfurter Schule als europäische Tradition überhaupt der richtige Ausgangspunkt ist — oder ob postkoloniale Kritik die dringlicheren Fragen stellt.

Kritische Einordnung

Was hält stand

Was man einordnen muss

Diskussionsfragen

01 Methodentransfer: Wie weit trägt die immanente Kritik als Methode für Teams, die KI-Systeme bauen — und wo braucht sie Ergänzung durch andere Analysewerkzeuge?

02 Emanzipation und Kontext: Wessen Definition von Handlungsfähigkeit gilt, wenn ein KI-System für unterschiedliche Nutzergruppen gleichzeitig „emanzipatorisch” und einschränkend wirken kann?

03 Technischer Code im Alltag: Welche impliziten Wertentscheidungen stecken in den Default-Einstellungen der KI-Werkzeuge, die im eigenen Arbeitsalltag eingesetzt werden — und wie bewusst wurden sie getroffen?

04 Grenzen der Tradition: Was kann die Frankfurter Schule als europäische Nachkriegstradition für globale KI-Ethik leisten — und wo braucht es andere theoretische Ausgangspunkte?

05 Konstruktive Wende: Wie ließe sich die diagnostische Stärke der Kritischen Theorie mit der konstruktiven Orientierung von Design-Methoden verbinden — ohne die analytische Schärfe zu verlieren?

Quellen

Glossar

Kritische Theorie Tradition der Sozialphilosophie, entstanden am Institut für Sozialforschung in Frankfurt in den 1920er Jahren. Verbindet Gesellschaftsanalyse mit dem normativen Ziel menschlicher Emanzipation. Arbeitet mit immanenter Kritik statt externen Idealmaßstäben.

Immanente Kritik Methode der Kritischen Theorie: Ein System wird nicht an externen Normen gemessen, sondern an seinen eigenen Versprechen und Ansprüchen. Zielt auf die Spannung zwischen Selbstdarstellung und Realität.

Dialektik der Aufklärung Horkheimer und Adornos Kernthese (1944): Vernunft und rationale Kontrolle können in ihr Gegenteil umschlagen — in Herrschaft, Normierung, Unterdrückung — wenn sie zum Selbstzweck werden statt zum Mittel für menschliche Befreiung.

Kommunikatives Handeln Begriff von Jürgen Habermas (1981) für Verständigung unter Bedingungen, die allen Beteiligten gleiche Teilhabe ermöglichen: Nachvollziehbarkeit, Widerspruchsmöglichkeit, keine strukturelle Asymmetrie.

Technischer Code Konzept von Andrew Feenberg (1991). Die impliziten Wertentscheidungen, die in die Architektur eines technischen Systems eingeschrieben sind — noch vor jeder expliziten Ethik-Policy. Macht sichtbar, dass „neutrale” Designentscheidungen politische und soziale Konsequenzen haben.

Emanzipation Im Kontext Kritischer Theorie: die Erweiterung menschlicher Handlungsfähigkeit und Selbstbestimmung — als Zielmaßstab für gesellschaftliche Systeme. Im Kontext KI: die Frage, ob ein System Urteilsvermögen erweitert oder durch Abhängigkeit ersetzt.

Prinzipien-Paradox Beobachtung, dass die wachsende Anzahl von KI-Ethik-Leitlinien nicht zu mehr ethischem Handeln führt. Die Existenz von Prinzipien erzeugt den Eindruck gelöster Probleme, während die strukturellen Ursachen unverändert bleiben.

Frankfurter Schule / New School Kurzbezeichnung für die intellektuelle Tradition des Instituts für Sozialforschung — zunächst in Frankfurt (1923), im Exil an der New School for Social Research in New York (ab 1933), nach 1945 zurück in Frankfurt. Drei Generationen: Horkheimer/Adorno, Habermas, aktuelle Fortführungen (Lindgren, Feenberg).

KI-Ethik Forschungsfeld, das moralische Fragen des Einsatzes von KI-Systemen adressiert. Umfasst technische Ansätze (Algorithmic Fairness, Explainability), regulatorische Frameworks (EU AI Act) und philosophische Grundlagenarbeit. Intern heterogen, kein einheitlicher Methodenansatz.