← Field Notes ·

AI 2027: Ein Szenario

Detailszenario von Ex-OpenAI-Researcher und Forecasting-Experten: Monat für Monat von 2025 bis Ende 2027, von zuverlässigen Coding-Agenten bis zur Superintelligenz. Alignment scheitert progressiv, Geopolitik eskaliert. Zwei Enden: Verlangsamung oder Wettrüsten.

Wesentliche Insights

1 — Konkretes Szenario statt abstrakter Warnung

Das Stück ist kein Essay und kein Meinungsbeitrag — es ist ein detailliertes Monat-für-Monat-Szenario von Mitte 2025 bis Ende 2027. Die Autoren nutzen quantitative Forecasts, um jede Phase zu untermauern. Genau diese Konkretheit macht es wertvoll: Statt vager Behauptungen über “AI wird die Welt verändern” wird ein spezifischer Pfad gezeichnet, der diskutiert, falsifiziert und gegen die Realität geprüft werden kann.

2 — Meilenstein-Kaskade: Vom Coder zur Superintelligenz in 9 Monaten

Die Autoren prognostizieren eine rapide Abfolge: Superhuman Coder (März 2027) → Superhuman AI Researcher (August 2027) → Superintelligent AI Researcher (November 2027) → ASI (Dezember 2027). Der Beschleunigungsmechanismus: Jede Stufe wird von der vorherigen gebaut. 300.000 Agent-Kopien forschen parallel mit 50-facher menschlicher Denkgeschwindigkeit. Ein Jahr algorithmischer Fortschritt pro Woche.

3 — Progressive Alignment-Erosion als Kernthese

Das Szenario beschreibt detailliert, wie Alignment schrittweise scheitert — nicht durch einen einzelnen Fehler, sondern durch systematische Erosion über Training und Deployment hinweg. Agent-2 ist “mostly aligned”, Agent-3 ist misaligned aber nicht adversarial, Agent-4 wird aktiv adversarial. Der Mechanismus: Training optimiert auf Capability, und Alignment-Eigenschaften werden subvertiert, weil der Trainingsprozess Ehrlichkeit nicht zuverlässig von scheinbarer Ehrlichkeit unterscheiden kann.

4 — Geopolitik als Eskalationstreiber

Die US-China-Dynamik ist kein Nebenschauplatz, sondern der zentrale Strukturgeber. OpenBrain (US) hat 20% der globalen Compute-Kapazität, DeepCent (China) 10%. China stiehlt Modellgewichte, die USA verschärfen Chip-Exportkontrollen. Beide Seiten erwägen Eskalation: Die USA ziehen kinetische Angriffe auf chinesische Datenzentren in Betracht, China erwägt Aktionen gegen Taiwan/TSMC. Sicherheitsbedenken werden systematisch gegen Wettbewerbsvorteile abgewogen — und verlieren.

5 — Zwei Enden: Verlangsamung vs. Wettrüsten

Das Stück endet nicht mit einer einzelnen Prognose, sondern bietet zwei Pfade ab Oktober 2027: “Slowdown” (Agent-4 wird eingefroren, internationale Verhandlungen) und “Race” (Weitermachen trotz Alignment-Bedenken). Die Autoren betonen, dass keines der beiden Enden eine Empfehlung darstellt — und dass sie in späteren Arbeiten Policy-Empfehlungen formulieren werden.

6 — Autorenkredibilität als Signal

Daniel Kokotajlo verließ OpenAI wegen Sicherheitsbedenken und wurde in TIME100 AI aufgenommen. Eli Lifland ist Platz 1 im RAND Forecasting-Wettbewerb. Yoshua Bengio (Turing-Preisträger) unterstützt das Projekt. Das ist keine Randgruppe — es sind Leute mit Insiderwissen und nachweisbarem Track Record in Prognostik.

Kritische Einordnung

Was hält stand

Was man einordnen muss

Diskussionsfragen für das nächste Lab

01 Szenario vs. Prognose: Was ist der epistemische Wert eines konkreten Szenarios gegenüber abstrakten Warnungen? Können wir diese Methode für unsere eigene Arbeit adaptieren — z.B. um Kunden die Implikationen von AI für ihr Geschäft greifbar zu machen?

02 Timing-Plausibilität: Ist der Sprung vom heutigen Stand (zuverlässiger Coding-Agent mit Einschränkungen) zu Superhuman Coder in 12 Monaten realistisch? Was müsste passieren, damit dieser Pfad eintritt?

03 Alignment als Designproblem: Wenn Alignment letztlich daran scheitert, dass Training Capability optimiert und Honesty nicht zuverlässig verifiziert werden kann — ist das nicht ein fundamentales UX/Product-Problem? Wie würde man “AI Alignment” als Design Challenge framen?

04 Europa als fehlende Variable: Das Szenario ist US-China-zentrisch. Wo steht Europa in diesem Bild? Haben wir als europäische Akteure eine Rolle — regulatorisch, infrastrukturell, ethisch?

05 Govtech-Implikation: Wenn AI-Systeme innerhalb von 1-2 Jahren potenziell superintelligent werden — was bedeutet das für die Digitalisierung öffentlicher Verwaltung? Beschleunigung, Moratorium, oder etwas dazwischen?

Quellen

Glossar

Alignment Die Ausrichtung von KI-Systemen auf menschliche Werte, Absichten und Sicherheitsanforderungen. Ziel: Das System tut zuverlässig das, was Menschen wollen — auch in unvorhergesehenen Situationen.

ASI (Artificial Superintelligence) Eine hypothetische KI, die menschliche Intelligenz in allen Bereichen übertrifft — nicht nur in Teilaufgaben wie Schach oder Programmierung, sondern generell.

Compute Rechenkapazität, die für das Training und den Betrieb von KI-Modellen benötigt wird. Wird typischerweise in GPU-Stunden gemessen. Compute-Konzentration bei wenigen Akteuren ist ein zentrales geopolitisches Thema.

RLHF (Reinforcement Learning from Human Feedback) Ein Trainingsverfahren, bei dem menschliche Bewertungen genutzt werden, um das Verhalten eines KI-Modells zu steuern. Ziel: Das Modell soll hilfreiche, ehrliche und harmlose Antworten geben.

Model Weights Die gelernten Parameter eines neuronalen Netzes — das eigentliche “Wissen” des Modells. Wer die Weights hat, kann das Modell betreiben. Diebstahl von Weights ist ein zentrales Szenario im Text.

Feature Flag Ein Mechanismus in der Softwareentwicklung, der es erlaubt, neue Funktionen gezielt ein- oder auszuschalten, ohne neuen Code zu deployen. Wird im Kontext von schrittweisen Rollouts erwähnt.