19.3.2026

Wenn sich der Engpass verschiebt

Deutsch · English

Softwareentwicklung verändert gerade ihre grundlegende Natur.

Eine hilfreiche Perspektive darauf kommt aus der Theory of Constraints, entwickelt von Eliyahu M. Goldratt.

Theory of Constraints im Kern

Die Grundidee ist überraschend simpel: In jedem System gibt es meist eine dominante Engstelle, die den Durchsatz bestimmt.

Verbessert man diesen Engpass, verbessert sich das gesamte System. Und wenn er verschwindet, taucht er an anderer Stelle wieder auf. Fortschritt besteht deshalb oft nicht darin, Systeme einfach schneller zu machen. Fortschritt bedeutet, den Engpass zu verschieben.

Goldratt formulierte daraus einen iterativen Prozess:

  1. Constraint identifizieren
  2. Constraint maximal ausnutzen
  3. Alles andere darauf ausrichten
  4. Constraint erweitern
  5. Zurück zu Schritt 1 (weil sich der Engpass verschiebt)

Jede ernsthafte Verbesserung eines Systems besteht letztlich darin, diesen Engpass bewusst zu verlagern. In Wissensarbeit kann dieser schnell wechseln oder fragmentieren.

Interessanterweise hilft diese Perspektive auch, eine der einflussreichsten Ideen der Softwareentwicklung neu zu verstehen.

XP als Engpass-Verschiebung

Als Extreme Programming Ende der 90er entstand, lag das Radikale nicht in einzelnen Praktiken wie Pair Programming, Test-Driven Development oder Simple Design.

Das Radikale war das Systemdenken. XP funktionierte, weil sich seine Praktiken gegenseitig verstärkten.

XP war kein Werkzeugkasten. Es war ein zusammenhängendes System von Praktiken, das darauf ausgelegt war, den Durchsatz eines Teams unter Unsicherheit zu maximieren.

Im Kern war XP ein Versuch, die dominanten Engpässe in der Softwareentwicklung systematisch zu stabilisieren. Das Ergebnis war ein Entwicklungsprozess, der Änderungen dauerhaft möglich halten sollte.

Der Engpass verschiebt sich erneut

Mit generativer KI verändert sich diese Landschaft erneut. Und radikal.

Große Sprachmodelle reduzieren viele Aufgaben, die lange Zeit einen erheblichen Teil der Entwicklungsarbeit ausmachten. Modelle können Code generieren, Varianten vorschlagen und Lösungsräume erkunden.

Coding Agents gehen noch einen Schritt weiter. Sie können selbstständig ganze Entwicklungszyklen automatisieren.

Damit verändert sich nicht nur die Geschwindigkeit. Es verändert sich die Struktur des gesamten Systems.

Die technische Umsetzung ist nicht mehr automatisch der limitierende Faktor. Der Engpass liegt zunehmend an anderen Stellen:

  • Problemformulierung – Was bauen wir eigentlich?
  • Designentscheidungen – Welche Struktur trägt langfristig?
  • Evaluation – Ist eine generierte Lösung wirklich gut?
  • Verständnis – Kann das Team den Code noch erklären?

Der limitierende Faktor wird zunehmend kognitiv und koordinativ.

Was das für XP bedeutet

XP bewegt sich vom Schwerpunkt Coding hin zur kollektiven Kognition.

Wenn sich der Engpass verschiebt, verschiebt sich auch die Funktion der Praktiken.

Einige werden zentraler.
Einige verändern ihre Rolle.
Und einige entstehen erst jetzt.

Der neue Engpass: menschliches Verständnis


Pair Programming

Cognitive Triad

Pair Programming verbindet zwei Perspektiven: „Driver“ schreibt Code, „Navigator“ behält Struktur und Design im Blick.

Mit großen Sprachmodellen entstehen neue spannende Konstellationen.

Modelle sind starke Sparringspartner. Sie können Code vorschlagen, Varianten diskutieren, Lösungsräume explorieren.

Aber sie verstärken auch Confirmation Bias. Kritische Reflexion kann abnehmen. Falsche Annahmen skalieren schneller als je zuvor.

Mit Coding Agents verändert sich diese Dynamik weiter. Werkzeuge können selbstständig Code schreiben, Tests ausführen und Änderungen als Pull Requests vorschlagen.

In der Extremform entwickelt sich Pair Programming zu einer kognitiven Triade: Customer — Developer — Model.

Agenten machen die engst mögliche Kopplung plötzlich operational.

Der Kunde bringt Problemverständnis. Der Entwickler verantwortet Systemstruktur und Kontext. Das Modell übernimmt Umsetzung und Exploration.

Dabei beschreibt die Triade keine feste Besetzung, sondern Rollen. Mehrere Menschen können beteiligt sein. Modelle können parallel arbeiten oder als Sub-Agents spezialisiert werden.

Der Entwickler wird weniger „Driver“ und stärker „Navigator“ eines Systems, das ganze Lösungsräume ausarbeitet und in großen Strukturen materialisiert.

Ein zentraler Aspekt bleibt Pair Rotation. Im klassischen XP wechselten Paare häufig, teilweise alle 20 Minuten. Ziel war maximaler Wissenstransfer und kollektives Verständnis.

Im KI-Kontext wird diese Idee radikalisiert. Nicht nur Personen rotieren. Auch Rollen rotieren, oft unabhängig voneinander.

Customer, Developer und Model können in unterschiedlichen Kombinationen neu zusammenkommen. Modelle können ausgetauscht, spezialisiert oder als Sub-Agents neu instanziiert werden. Sie können zudem asynchron im Hintergrund operieren, parallel zusätzliche Lösungsräume explorieren und Ergebnisse zurückmelden, sobald sie verfügbar sind.

Pairing wird damit zu einem dynamischen System aus wechselnden Perspektiven, nicht zu einer festen Zusammenarbeit. Möglich wird dies durch etwas grundsätzlich Neues:

Der Denkprozess selbst wird persistent.

Chats, Prompts, Agent-Logs und Entscheidungssequenzen hinterlassen eine Spur: ein externes Protokoll des Entscheidungsbaums.

Dieses Protokoll ist mehr als Dokumentation. Es ist: reviewbar, versionierbar, reproduzierbar (nicht deterministisch, aber hinreichend stabil), teilweise sogar ausführbar.

Damit entsteht ein neues Team-Artefakt: nicht nur Code und Tests, sondern der Weg zur Entscheidung.

Die Spannung zwischen diesen drei Rollen erhöht die kollektive Intelligenz – genau das ursprüngliche Ziel von Pair Programming.


Collective Code Ownership

Radical Code Transparency

Collective Ownership bedeutet: Jeder darf alles ändern.

Mit Coding Agents wird diese Idee radikalisiert.

Ein Agent mit Projektzugriff kann alles verändern, aber nur innerhalb der System-Constraints.

Code manifestiert sich zunehmend als Ergebnis orchestrierter Prozesse. Collective Ownership mit einer Maschine.

Autorschaft wird bedeutungslos.

Entscheidend wird stattdessen kollektives Verständnis. Mit dem Ziel: Maximale Reduktion von Black-Box-Risiko.

Collective Ownership wird zu radikaler Code-Transparenz.

Wenn Code jederzeit durch Menschen oder Agenten verändert werden kann, muss seine Struktur und Motivation für alle nachvollziehbar bleiben.

Im Limit verliert Code seinen Status als langlebiges Asset. In vielen Fällen ist es effizienter, Code neu zu erzeugen, als bestehenden Code zu ändern.

Damit wird Code austauschbar. Zwei Implementierungen sind gleichwertig, solange sie im selben Kontext entstehen und dieselben Tests erfüllen.

Das System besitzt keinen Code mehr – es besitzt stattdessen die Fähigkeit, ihn jederzeit neu zu erzeugen.

Kontrolle über ein driftendes System, das Code erzeugt


Test-Driven Development

Behavior-First Engineering

Tests waren schon immer Spezifikation.

Mit generativer Programmierung werden sie zur Steuerschnittstelle.

Coding Agents können Code erzeugen, verändern und neu strukturieren. Aber sie brauchen klare Grenzen für akzeptables Verhalten.

Test-First erfüllt genau diese Funktion. Tests definieren das gewünschte Verhalten vor der Implementierung und werden zum Vertrag zwischen Mensch und Maschine.

In einer agentischen Entwicklungsumgebung werden Tests zur Programmiersprache, mit der wir Coding Agents steuern.

Der Agent kann Tests lesen, schreiben, ausführen und seine Implementierung so lange anpassen, bis Tests grün sind. Die klassische TDD-Schleife, nur dass ein Teil davon automatisiert wird.

Damit verschiebt sich die Hierarchie: Tests werden zum Primärartefakt. Code wird zur Ableitung.

TDD wird somit noch zentraler, zu verhaltensorientierter Entwicklung.

Es stabilisiert ein probabilistisches System gegen Drift – also gegen das schleichende Auseinanderlaufen von Verhalten unter scheinbar gleichen Bedingungen.


Continuous Integration

Continuous System Verification

Continuous Integration sorgt dafür, dass Integrationsprobleme früh sichtbar werden.

Mit generativer KI steigt die Änderungsrate erheblich.

CI wird zum Immunsystem.

Neben klassischen Tests prüfen Pipelines zunehmend auch, ob grundlegende Systemeigenschaften stabil bleiben.

In einem System, das durch generative Modelle verändert wird, entsteht eine neue Gefahr: probabilistische Drift. Kleine, lokal korrekte Änderungen können das System schrittweise von seiner ursprünglichen Struktur und Semantik wegbewegen.

CI wird zum Mechanismus, diese Drift sichtbar und kontrollierbar zu machen.

Da Änderungen schneller und in größeren Einheiten entstehen, wächst auch ihr potenzieller Impact. Den Blastradius zu begrenzen wird zentral.

XP kannte schon immer Acceptance Tests als Schnittstelle zum Kunden. In einer agentischen Entwicklungsumgebung entsteht eine ähnliche Struktur innerhalb des Teams:

Continuous Integration wird zum Akzeptanztest für den generierten Code, zu kontinuierlicher Systemverifikation.

Das Entwicklungsteam definiert die Kriterien, die ein System erfüllen muss, bevor es als verstanden und integrierbar gilt.

Designstrategie für eine Welt extrem billigen Codes


Refactoring

Continuous Code Assimilation

Refactoring hält Software soft – langfristig.

Im Zeitalter generativen Codes ist Refactoring nicht mehr Aufräumen. Es ist Entropiekontrolle.

Modelle erzeugen funktionierenden Code, doch selten ein kohärentes Design. Unterschiedliche Patterns, redundante Abstraktionen und inkonsistente Strukturen entstehen parallel.

Refactoring wird zum kontinuierlichen Assimilationsprozess.

Generierter Code wird nicht einfach übernommen, sondern aktiv in die Architektur integriert.

Erst durch Refactoring übersetzt das Team maschinell erzeugtes Rohmaterial in sein Systemverständnis. Das Refactoring hilft, generierten Code zu verdauen.

Coding Agents verstärken diese Dynamik weiter. Große strukturelle Änderungen, die einst Tage kosteten, lassen sich mit agentischer Unterstützung in Minuten durchziehen.

Refactoring wird von einer knappen Ressource zu einer billigen Operation und fast kontinuierlichen Aktivität.

Damit solche Systeme stabil bleiben, gewinnen klare Kontextgrenzen an Bedeutung. Konzepte wie Core Models und Bounded Contexts helfen, Systeme in Einheiten zu strukturieren, die sich unabhängig verstehen, generieren und neu zusammensetzen lassen. Sie schaffen Inseln, in denen generativer Code beherrschbar bleibt – mit begrenztem Blastradius und einer Komplexität, die sowohl für Menschen als auch für Modelle im Kontext bleibt.

Gleichzeitig entsteht eine neue Gefahr: Wenn Veränderung zu billig wird, steigt die Versuchung, Struktur permanent zu verschieben, ohne sie wirklich durchdrungen zu haben. Mit generiertem Code steigt die Änderungsrate und strukturelle Konsistenz wird fragiler.

Design wird insgesamt weniger vorausschauend und stärker evolutionär. XP hat das immer behauptet. Agentic Coding macht es realistisch.


Simple Design

Radical Simplicity

Simple Design bedeutet: nur so viel Design wie nötig.

Im LLM-Zeitalter wird diese Praxis noch wichtiger.

Generative Systeme haben eine natürliche Tendenz zur Überkomplexität.

Sie erzeugen zusätzliche Abstraktionen, defensive Strukturen und generische Architekturen.

Generierter Code unterscheidet sich grundlegend: Produzierter Code entsteht nicht mehr 100% aus unserer Intention heraus, sondern als Ergebnis eines stochastischen Prozesses.

Die Aufgabe des Teams verschiebt sich.

Es geht weniger darum, Lösungen zu erfinden. Und mehr darum, Komplexität konsequent zu entfernen.

Simple Design wird zu einer Praxis der radikalen Einfachheit – einem Filter gegen generative Komplexität und somit zu einer der wichtigsten Fähigkeiten überhaupt.


System Metaphor

Shared Mental Model

Die System Metaphor war selbst eine Form eines generativen Modells.

Sie adressierte ein zentrales Problem: Wie schafft man ein gemeinsames Verständnis mit ausreichend Bandbreite, um ein wachsendes System zu tragen.

Diese Funktion wird im Zeitalter generierten Codes wieder wichtig.

LLM-generierter Code kann lokal sinnvoll erscheinen, ohne global kohärent zu sein. Unterschiedliche Teile des Systems folgen dann implizit verschiedenen Architekturideen.

Teams brauchen deshalb wieder stärker ein gemeinsames mentales Modell ihres Systems. Erzählbare Strukturen wie Metaphern, Domänenmodelle und narrative Beschreibungen.

Eine gute Systemmetapher wirkt wie ein kognitiver Kompressionsmechanismus: Sie macht Komplexität erzählbar. Und somit überhaupt erst kollektiv beherrschbar.

In einer Welt mit Coding Agents wird sie zur generativen Architektur.


Coding Standards

Machine-Readable Design

Coding Standards sind nicht mehr nur soziale Konventionen.

Mit KI-generiertem Code verändert sich ihre Rolle deutlich.

Code entsteht heute schneller und in größerer Menge als je zuvor.

Dabei entstehen neben Implementierungen auch zahlreiche Zwischenartefakte. Teams müssen Systeme strukturstabil halten, obwohl ständig neues Material entsteht.

Damit wächst eine neue Gefahr: strukturelle Drift.

Coding Standards werden zu einer Form maschinell durchsetzbarer Design-Disziplin, die verhindert, dass ein System aus ständig neu erzeugtem Code seine Kohärenz verliert.

Sie sind das System Prompt des Repositories: Steuersignale für generativen Code.

Äußerer Wertschöpfungsloop: Earn or Learn


On-Site Customer

Customer-Driven Discovery

Der On-Site Customer bringt den Anforderungsdialog direkt ins Team.

Im Zeitalter generativer KI verschiebt sich diese Rolle am deutlichsten.

Der Kunde kann heute selbst beginnen, den Problem- und Lösungsraum zu explorieren. Mit Hilfe generativer Modelle lassen sich Szenarien durchspielen, Interaktionen testen und mögliche Lösungen skizzieren.

Auch Acceptance Tests verändern sich. Was früher häufig ein Engpass war, kann nun test-first vom Kunden vorbereitet werden. Mit KI-Unterstützung lassen sich Beispiele, Szenarien und Grenzfälle schnell formulieren und iterieren.

Kunde (oder Product Person) wird zum Mit-Entdecker im Suchprozess nach der richtigen Lösung. Die alte XP-Idee der Driving Metaphor bekommt neues Momentum.

Doch in Kombination mit Coding Agents entsteht eine noch tiefere Veränderung. Wenn Modelle aktiv an Exploration und Implementierung teilnehmen, verschiebt sich die grundlegende Einheit der Zusammenarbeit.

Das klassische XP-Paar erweitert sich zur kleinsten funktionsfähigen Einheit moderner Produktentwicklung: Customer — Developer — Model.

Was im Pair Programming als kognitive Triade sichtbar wird, wird hier zur Struktur des gesamten Teams.

Der Kunde bringt Problemverständnis und Hypothesen ein. Der Entwickler verantwortet Systemstruktur, Kontext und Integration. Das Modell ermöglicht schnelle Exploration und Umsetzung.

Der On-Site Customer entwickelt sich weiter zur kundengeleiteten Exploration innerhalb einer kognitiven Triade.

Die Idee des Whole Team wird radikalisiert. Das Team wird zu einem gekoppelten System aus Menschen und generativen Modellen, das gemeinsam den Problem- und Lösungsraum durchsucht.

On-Site Customer wird damit zu etwas, das XP immer angedeutet hat, aber selten vollständig erreicht wurde: Der Kunde wird zum Ko-Designer eines sozio-technischen Systems, das Denken und Implementieren eng miteinander verschränkt.


Planning Game

Continuous Discovery Loop

Das Planning Game synchronisiert Entwicklung und Business.

Mit LLMs verschiebt sich der Engpass fundamental.

Implementierung wird billig. Exploration wird skalierbar. Teams können plötzlich mehr Lösungen erzeugen, als sie sinnvoll bewerten können.

Das eigentliche Risiko ist zu frühes Bauen.

Das Planning Game entwickelt sich zu einem kontinuierlichen Erkenntniszyklus aus Hypothesenbildung, Exploration und Lernen.

Coding Agents verstärken diese Dynamik weiter. Sie können Experimente vorbereiten, Tests ausführen und Ergebnisse analysieren.

Das Planning Game wird teilweise automatisiert. Entwickler und Product Owner planen weniger Arbeit, als sie Erkenntnisgewinn orchestrieren.

Wert entsteht nicht mehr im Schreiben von Code, sondern im Verwerfen von Möglichkeiten.

Wenn Optionen explodieren, wird Selektion zum Engpass. Einschränkungen durchzusetzen wird zu einem zentralen Skill.

Nein wird wichtiger als Ja.


Small Releases

Micro-Experiments

Small Releases reduzieren Risiko, indem Software in kleinen Schritten ausgeliefert wird.

Mit generativer KI wird Codeproduktion extrem billig. Features lassen sich schneller erzeugen als je zuvor.

Das neue Risiko ist Feature-Überproduktion.

Small Releases werden zu kleinen Experimenten. Jede Änderung testet eine Hypothese über Nutzerverhalten, Systemwirkung, Produktwert.

Ein Release ist dann vor allem eines: ein Lernschritt.

Wenn Experimente billig genug werden, ersetzen sie zunehmend Diskussionen. Ein Release kann schneller Klarheit schaffen als ein Meeting.

XP hatte diese Idee immer implizit. Generative Systeme treiben sie nun auf die Spitze.

Nachhaltigkeit als Systeminvariante


Sustainable Pace

Sustainable Cognitive Load

XP zielte immer auf nachhaltiges Arbeitstempo.

Mit KI entsteht jedoch eine neue Versuchung: Geschwindigkeit künstlich zu erhöhen.

Der eigentliche Engpass bleibt jedoch menschliche Urteilskraft.

KI verschiebt den Engpass in den menschlichen Kopf.

Wenn Iterationsgeschwindigkeit steigt, wachsen auch Entscheidungsdruck, Kontextwechsel, mentale Belastung.

Sustainable Pace entwickelt sich zu nachhaltiger mentaler Belastung.

XP schützt damit seine wichtigste Ressource: menschliche Aufmerksamkeit.


Neue Muster

Neben diesen Transformationen entstehen auch neue Muster, die im ursprünglichen XP noch nicht existierten.

Ein besonders interessantes ist Disposable Code.

Wenn LLMs Prototypen extrem schnell erzeugen können, wird Code zu etwas, das man explorativ nutzt und anschließend verwirft. Die gute alte Spike Solution wird zur Kerndisziplin.

Daraus ergibt sich ein weiteres Muster: Reconstructive Programming.

Ein generiertes System dient zunächst als Exploration. Danach wird die eigentliche Implementierung bewusst neu aufgebaut – testgetrieben und aus Verständnis heraus.

Ein dritter neuer Aspekt ist Exploration at Scale.

LLMs erlauben es, viele Varianten eines Lösungsraums zu untersuchen. Die Rolle des Menschen verschiebt sich dadurch von der Produktion zur Auswahl und Entscheidung.

Gerade in unbekannten oder unscharf verstandenen Umgebungen wird diese Fähigkeit entscheidend: Exploration ersetzt dort Spekulation durch überprüfbare Erkenntnis.


XP-Shift durch generative KI

XP verschiebt sich systematisch entlang des neuen Engpasses – von Codeproduktion hin zu Verständnis, Entscheidung, Systemkohärenz.

XP-Shift Stabilisierter Engpass
kognitive Triade Qualität von Entscheidungen
radikale Code-Transparenz kollektives Verständnis des Codes
verhaltensorientierte Entwicklung stabil definiertes Systemverhalten
kontinuierliche Systemverifikation Systemintegrität
kontinuierlicher Assimilationsprozess strukturelle Kohärenz des Systems
radikale Einfachheit kognitive Komplexität
gemeinsames mentales Modell kollektives Architekturverständnis
maschinell durchsetzbares Design strukturelle Konsistenz generierten Codes
kundengeleitete Exploration Problem-Solution-Fit
kontinuierlicher Erkenntniszyklus Problemverständnis und Problemwahl
kleine Experimente Lernen aus Nutzerfeedback
nachhaltige mentale Belastung menschliche Urteilskraft

XP war schon immer menschenzentriert. Es war ein System, das konsequent um den Menschen herum gebaut wurde.

Daran ändert sich auch im Zeitalter generativer KI nichts.

Im Gegenteil: Je mehr wir automatisieren, desto wichtiger wird die Frage, worauf wir diese Systeme eigentlich ausrichten.

XP gibt darauf eine klare Antwort: auf Verständnis, auf Feedback, auf Zusammenarbeit – und auf die Fähigkeit von Menschen, gemeinsam gute Entscheidungen zu treffen.

Generative KI verändert, wie wir Software bauen.

XP stellt sicher, dass wir dabei nicht verlernen, warum wir sie bauen.


Warum XP gerade jetzt relevant ist

XP zielte nie primär auf Geschwindigkeit, sondern auf Stabilität unter Unsicherheit. Genau diese Eigenschaft wird im Umgang mit generativen Systemen zentral.

Wir programmieren nicht mehr primär ein System. Wir programmieren die Bedingungen, unter denen ein System entsteht. Generativer Code macht einige der radikalsten XP-Ideen wieder notwendig.

XP war immer eine Methode zur Maximierung der Lernrate. Ein System aus engen Lernschleifen und bewusst verschobenen Engpässen.

Im KI-Zusammenhang tritt dieser ursprüngliche Kern deutlicher hervor. Generative KI erhöht die Geschwindigkeit der Exploration. Sie vergrößert den Lösungsraum dramatisch. XP sorgt dafür, dass Teams in diesem Raum nicht die Orientierung verlieren.

Modelle und Coding Agents erzeugen enorme Mengen Code. Doch genau diese Produktionsmaximierung erzeugt neue Risiken. Große Mengen Code können so schnell degenerieren wie sie generiert werden. Ohne starke Feedbackmechanismen wächst Komplexität unkontrolliert über unsere Köpfe hinweg.

Die neuen Engpässe

Der Engpass verschiebt sich dadurch. Während Maschinen immer schneller Code erzeugen, stabilisieren die XP-Praktiken die Ressourcen, die sich nicht einfach automatisieren lassen:

  • Verstehen
  • Entscheiden
  • gemeinsame mentale Modelle
  • kohärente Systemstruktur

Mit anderen Worten: In einer Welt, in der Code billig wird, werden Verständnis und Urteilskraft zur knappsten Ressource.

Genau hier greifen die klassischen XP-Praktiken.

Der eigentliche XP-Shift

Extreme Programming wollte ursprünglich eine Sache erreichen: Änderungen jederzeit billig halten.

Wenn Codeproduktion billig wird, verschiebt sich der Preis. Dann wird Verständnis teuer.

Die neue Mission lautet deshalb:
Die Kosten des Verstehens flach halten.

Die Produktion von Code ist nicht mehr der Engpass.
Die Produktion von Bedeutung ist es.


Wenn du XP im Kontext von KI erprobst, würde ich mich freuen, von dir zu hören: f@frankwestphal.de

Wenn dir dieser Text etwas gebracht hat, kannst du meine Arbeit mit einer Spende unterstützen. Ich entwickle diese Ideen weiter und möchte daraus eine kleine Serie machen.

12.9.2025

Zwischen Hypertextroman, Cybertext und Newsletter

Seitdem ich HTML kenne, wollte ich eine Hyperfiction schreiben. Mit dem Rivva-Newsletter bot sich endlich die Chance, das Medium selbst in einen Cybertext zu verwandeln. Ich hatte noch nie davon gehört, dass jemand so etwas versucht hätte.

Und so wurde mein Newsletter zum literarischen Experiment: einen Cybertext in die vertraute Schleife des Newsletters einzuschreiben. Kein Essay, keine Kurzgeschichte, sondern fortlaufende Episoden wie in einem Roman – mit Plot, Wiederkehr und einer Crew, die selbst manchmal nicht weiß, ob sie existiert.

Ich wollte herausfinden: Kann man einen Newsletter so bauen, dass er nicht bloß informiert, sondern sich wie ein Textadventure liest – fragmentiert, verzweigt, verschachtelt?

Wie früher, als HTML noch Handschrift war

Der technische Unterbau ist denkbar simpel: ein Newsletter in HTML. Aber genau das ist der Trick: <a>-Tags als geheime Portale, CSS-Krümel als Tarnung, absichtlich defekte Links als Anker in die Zukunft, bedingte Inhalte und aleatorische URLs.

Die Grundidee: ein Medium hacken, indem man es wörtlich nimmt.
Newsletter = regelmäßige Signale aus der Meerestiefe.
Leser = Funkstationen an der Oberfläche.
Manchmal kommt Antwort.
Manchmal nicht.

Weltbau & Struktur: Ein Boot, eine Route, ein Seepunkt

Im Zentrum der Erzählung steht ein experimentelles Forschungsboot, gesteuert von einer kleinen Crew auf einer rätselhaften Route entlang einer submarinen Lemniskate – der Spur einer liegenden Acht.

Die Fahrten wirken wie wissenschaftliche Missionen, doch die Realität beginnt zu kippen: Erinnerungslücken, gestörte Protokolle und unmögliche Signale deuten auf eine verborgene Struktur der Reise.

In der Mitte der Acht, dem Seepunkt, beginnen viele Dinge – aber sie enden nicht. Die Schleifen scheinen identisch, aber wiederholen sich nicht exakt. Vergangenheit und Zukunft überlagern sich. Identitäten verschwimmen. Signale verzerren.

Mehr will ich nicht spoilern. Ein gutes Mysterium ist am stärksten, wenn es sich seiner eigenen Logik entzieht. Wie eine Acht: geschlossen – und doch offen in der Mitte. „Das Soufflé fällt nur zusammen, wenn man zu viel erklärt“, würde der Smutje kommentieren.

Ein mittelgroßes, leicht abgenutztes Forschungsboot mit blauer Lackierung und weißen Segeln steht scheinbar gestrandet in einer endlosen Wüstenlandschaft. Der Name „Boot“ ist gut sichtbar in weißer Schrift am Bug aufgemalt, wobei das Doppel-o als Unendlichkeitszeichen dargestellt ist. Um das Schiff herum erstreckt sich eine sanft gewellte Dünenlandschaft unter einem blauen Himmel mit vereinzelten Wolken.

Die Lemniskate ist nicht nur Setting, sondern Strukturprinzip: Wiederholung ohne Wiederholung, Spiegelungen, Rückkopplungen.

Die Geschichte entfaltet sich fragmentarisch:

  • Logbucheinträge, Funksprüche, Systemmeldungen
  • ASCII-Glitches und 404-Fehlerseiten
  • alternative Fragmente, Nebentexte, Pseudo-Dokumente
  • Echos, Wiederholungen, Spiegelungen
  • Koordinaten, Anagramme, Zahlencodes (Puzzle-Mechaniken)

Die Reihenfolge verschwimmt. Signale scheinen auf sich selbst zu antworten. Ereignisse widerhallen rückwärts.

Cybertext: Literatur als Maschine

Der Begriff stammt von Espen Aarseth. Cybertexte sind keine bloßen Erzählungen, sie sind Systeme. Man läuft sie ab, arbeitet mit ihnen, statt sie linear zu konsumieren. Die Struktur selbst erzeugt Bedeutung, nicht nur der Inhalt.

  • Ergodic Reading – Arbeit des Lesers:
    Nichtlesen ist eine bewusste Option. Wer weiterkommen will, muss Entscheidungen treffen – und stellt sich den Lesepfad selbst zusammen.

  • Loops, Knoten & Pfade:
    Keine lineare Dramaturgie, sondern Schleifen, Selbstreferenzen, visuelle Codes, spekulative Technologie. Zeit ist hier kein Vektor, sondern eine wiederholbare Fläche. Mehrfaches Lesen erzeugt neue Bedeutungsschichten.

  • Undurchsichtigkeit und Stille:
    Was ausgelassen wird, spricht mit. Das Fehlen von Information wird Teil der Erzählung – ein „unsichtbares Narrativ“, das Leser mitdenken.

Prinzipien der ergodischen Erzählung

Auf die Arbeit am Text heruntergebrochen, heißt das in der Praxis:

  • HTML-Anker in die Zukunft setzen:
    Versteckte oder kryptische Links, die zunächst ins Nichts führen und erst später aktiviert werden. Auch: interne Anker, die rückwärts verlinken – die Geschichte kennt ihren eigenen Index.

  • In Fragmenten schreiben:
    Nicht alles muss aufgelöst werden. Lücken, Auslassungen, offene Enden laden zum Mitdenken ein. Eine Ausgabe nur aus Metadaten, Systemfehlern oder Fragmenten kann dichter wirken als jeder volle Text. Banale Sätze können sich später als Schlüsselstellen entpuppen.

  • Metastruktur als Fundschicht:
    Nicht jede Ausgabe ist ein Kapitel, sondern ein Sektor in einem größeren Textkörper. Statt linearer Chronologie entsteht eine Struktur wie ein Datenfund, die Leser schichtweise, lückenhaft, rekonstruierbar entdecken.

  • Negative Space ≙ Pausen in der Musik:
    Absenz erzeugt Spannung. Eine Episode ohne Signal ist selbst ein Erzählelement. Schweigen, Abbruch, fehlende IDs können spannender sein als jeder volle Absatz.

Fiktion, Spiel, Interface & Lesererfahrung

Cybertexte machen aus Konsumenten Mitproduzenten – und mitunter sogar Mitautoren einer Welt.

  • Als immersives Format:
    Wer aufmerksam liest, wird zum Entdecker.
  • Als digitales Kunstobjekt:
    Jedes Fragment, jeder 404-Link wird Teil eines Gesamtkunstwerks.
  • Als Einladung zum Mitspielen:
    Leser schreiben mit – durch Erinnerung, Klicks, Schweigen.

Resonanzliteratur: Die Story als Spiegel

Gestartet als klassischer Newsletter, transmutierte die Form langsam zu einer semiotischen Tauchausrüstung für Fortgeschrittene.

Ich wollte den Zustand des Internets selbst spiegeln in eine narrative Struktur, die ihn zugleich dokumentiert, beklagt und unterwandert – eine kleine Allegorie über Bewusstsein, Identität, Resonanz und die Verwischung zwischen Mensch, Maschine und Publikum.

Die Crew – Funkerin, Roboto, Wissenschaftsoffizierin – wurde zur Metapher: ihre Stimmen standen für das Überhören, Vergessen, Verstummen. Statt laut zu senden, legte der Text Schweigen frei – als verdichtetes Signal.

So wurde das Experiment zur Parabel über Resonanz: Jede nicht geöffnete E-Mail, jeder nicht geklickte Link wurde Teil der Erzählung. Das Boot wusste am Ende nicht: Ist niemand da oben – oder hört niemand hin?

Die Fiktion spiegelt den Zustand kleiner Internetprojekte im Rauschen.
Vergessen ≙ Aufmerksamkeitsverlust.

Mit Tiefe zu enden heißt nicht, abgeschlossen zu sein – sondern unerreichbar geworden.

Ein Nachklang, wie Musik ohne Instrument.
Ein Echo eines Echos.
Die Form überlebt den Inhalt.

Eine Lemniskate (∞) aus Text.

Wer noch einmal eintauchen möchte:
Das Newsletter-Archiv versammelt alle Ausgaben und ihre versteckten Pfade. Und hier erzähle ich über die Idee und den Entstehungsprozess: Die Schleife war die Nachricht.

Links

21.7.2025

Wie Websites lernen

Das letzte Lebenszeichen: 13 Jahre her.
Das aktuelle Design: 19 Jahre alt.
Diese Site war mal mein ganzer Stolz.
Zeit, ihr neues Leben einzuhauchen …

Schritt 1: Entropie zurücksetzen!

Tote Links heilen

„Das Netz vergisst nicht“ ist ein Irrtum. Jeden Tag wird im Web gelöscht, verschoben, vergessen – unsere Links führen ins Leere. Zum Glück gibt es ein Schattenreich, in dem verlorene URLs weiterleben.

Als hätte jemand Seiten aus einem Buch gerissen, in dem man gern noch lesen würde – eine Website mit kaputten Links wirkt ungepflegt, veraltet.

Also habe ich die Site wieder etwas auf Zack gebracht:

  • 284 gebrochene Links durch Archiv-LinksWayback Machine repariert – mit Icon und Tooltip-Datum zur Wayback Machine
  • 31 echte Linkleichen durch gestrichelte Unterlinie gekennzeichnet
  • meine Podcastepisoden wiederhergestellt – MP3s selbstgehostet & neuen Feed erstellt
  • meinen Static Site Generator von Rails 1.1.4 (2006) auf Rails 8 migriert

Wayback Machine & Internet Archive

Das Internet Archive ist die wohl bekannteste Plattform, um Vergangenes zu bewahren. Gegründet 1996 mit der Weitsicht, dass das Web ein dynamisches, wachsendes Artefakt von kulturellem Wert ist, archiviert die Wayback Machine heute das halbe Internet.

Zeitanker: Warum restaurierte Links großartig sind

Ein kleiner Trick erlaubt, auf genau den Moment zu verlinken, den ich damals gesehen habe. „Ein Memento.“ Jeder restaurierte Link bewahrt Kontext, Erinnerung, Integrität. Ich nenne sie deshalb Zeitanker: <a>(t) – ein Link mit eingebauter Zeitmarke. Aber das Beste?

Archiv-Replay-Modus

Die Wayback Machine ist mehr als eine Zeitkapsel. Folgt man dort einem Link, stellt sie den zeitlichen Kontext wieder her. Man surft durch die Vergangenheit – exakt im Zeitkorridor, in dem man war. Willkommen in deinem eigenen Web‑Zeitreise‑Modus.

Einstieg in die Zeitmaschine

Die Kurzformel für den Sprung ins Archiv: URL anhängen – fertig:
https://web.archive.org/web/*/URL

Das Sternchen ist ein Joker für den Zeitpunkt und öffnet eine Kalenderansicht aller gespeicherten Snapshots.

Pro-Tipps

Zeige alle im Archiv bekannten Dateien als große Tabelle:
https://web.archive.org/web/*/http://frankwestphal.de/*

Grenze die Anzeige auf bestimmte Pfade oder URL-Muster ein:
https://web.archive.org/web/*/frankwestphal.de/ftp/*

Springe gezielt zu einem Monat oder Jahr deiner Wahl:
https://web.archive.org/web/201005*/https://rivva.de

Das Sternchen ist mächtiger als man denkt.

Mein Restaurationstrick: <a>(t) mit t = a.t

Machst du statt des Sternchens eine Zeitangabe, landest du genau dort:
https://web.archive.org/web/YYYYMMDDhhmmss/URL

Wenn wir als Zeitpunkt t nun das Veröffentlichungsdatum a.t unseres Artikels a einsetzen – also dort, wo der kaputte Link steht: <a>(t) –, sucht die Wayback Machine automatisch den Snapshot, der diesem Zeitpunkt am nächsten liegt. Für die Restaurierung historischer Inhalte ein Gamechanger.

Websitearchäologie

Im Zeitreisezyklus von Connie Willis können Historiker nur zu bestimmten Koordinaten in Raum und Zeit reisen. William Gibson nannte sie „Nodal points“ – jene Momente, an denen „etwas kippt“, an denen sich die Zukunft verzweigt.

Für Ausflüge ins gestrige Web brauchen wir solche Startpunkte. Sie sind entscheidend für das richtige Feeling, um sich – ganz im Flow – durch vergangene Weblandschaften treiben zu lassen.

Der Wert kaputter Links

Aus diesem Grund sind veraltete Links um Längen besser als Löschen oder Abschalten. Tote Links sind belegende Artefakte, kein Mangel – richtig gekennzeichnet, zeigen sie Quellenlage. So lassen sich Inhalte oft noch rekonstruieren – über die URL, über Archive, über Kontext.

Die Library of Congress schreibt: „if anything, the value of a broken link seems to be increasing“.

Es lohnt sich also, die Infrastruktur so zu gestalten, dass nicht nur die Inhalte gepflegt werden können – sondern ebenso ihre Beziehungen. Denn Links sind mehr als Verbindungen. Sie drücken Beziehungen aus. Und Beziehungen verdienen Pflege.

Meine Restaurationsstrategie

Preprocessing: Tote Links finden

  • alle Artikel nach externen Links scannen
  • jeden Link prüfen auf Erreichbarkeit (200 OK) und Jaccard-Ähnlichkeit (gleicher Inhalt wie damals oder Domain verkauft?)
  • für alle kaputten Links die Wayback Availability API befragen
  • Ergebnisse in einer YAML-Datei zusammentragen

Die YAML-Datei erlaubt dann, kaputte URLs auf reparierte URLs abzubilden. So kann der zuvor beschriebene Zeitanker (Standardverhalten: t = a.t) bei Bedarf überschrieben werden.

Ziel war: Texte erhalten, Links beleben. Mit klarer Trennung von Inhalt und Logik. Das HTML bleibt unabhängig vom YAML. URLs werden nicht hart ersetzt, sondern durch eine transparente Logik behandelt. So bleiben die Original-URLs im Quelltext erhalten – lesbar und nachvollziehbar.

Postprocessing: Tote Links live umschreiben

  • im HTML erneut alle Links extrahieren – diesmal zur Laufzeit
  • externe Links durch das YAML-Mapping filtern
  • reparierte Links transparent umleiten (Decorator Pattern)
  • archivierte und verwaiste Links visuell kennzeichnen

Ziel war: Inhalte bewahren, Struktur respektieren. Alle Änderungen sind nicht-destruktiv. Der Originaltext bleibt unangetastet – die Reparatur erfolgt rein visuell, als zarte Schicht darüber. Wie eine Goldnaht im Kintsugi-Stil: sichtbar, ehrlich, reversibel.

Digitale Patina

Was mir wichtig war: Nicht löschen, sondern verwandeln.

Die Hypertext-Ästhetik sollte erhalten bleiben – Links sind Teil des Leseflusses, sie schaffen Bedeutung und Orientierung. Wenn man kaputte Links einfach entfernt, geht oft mehr verloren als nur die Verknüpfung: Der Text verliert insgesamt.

Die Lösung: Alte Inhalte mit Veröffentlichungsdatum ins Internet Archive spiegeln. Das kleine IA-Icon wirkt dabei wie eine digitale Patina: Ein sichtbares Zeichen dafür, dass es sich um eine archivierte Kopie handelt, nicht die voll funktionsfähige Originalseite.

Xanadu (1960)

Ted Nelsons Xanadu-Projekt war seiner Zeit weit voraus. Es dachte Hypertext radikal anders: Links waren nicht bloße Verweise, sondern aktive Beziehungen zwischen lebendigen Inhalten.

  • Transklusion statt Kopie:
    Inhalte wurden nicht dupliziert, sondern als Segmente virtuell eingebunden – mit Herkunft, Kontext und Versionsgeschichte.

  • Unbrechbare, bidirektionale Links:
    Jede Verknüpfung war symmetrisch:
    Du konntest sehen, wer dich zitierte – und von wo aus.
    Linkziele speicherten Metadaten: Versionen, Ursprung, Autor.

  • Versionsverwaltung:
    Inhalte konnten überarbeitet, aktualisiert und in Varianten zitiert werden.

  • Micropayments:
    Für jede transkludierte Einheit sollte ein winziger Betrag fließen – als ökonomisches Rückgrat für digitale Textkultur.

Transklusive vs. transiente Links

Mein Einsatz von archive.org – mit Zeitnähe zum Veröffentlichungsdatum – ist ein kleiner Versuch, diese transklusive Idee in der Praxis umzusetzen.

  • Transklusive Links binden ein konkretes Fragment in genau der Version ein, die zur Entstehung des referenzierenden Dokuments relevant war: „Zeig mir, was ich damals gesehen habe.“

  • Transiente Links hingegen verweisen auf eine lebende Ressource, bei der erwartet wird, dass sie sich verändert: „Führ mich zur aktuellen Version.“

Nur Letztere sind anfällig: Wenn das Ziel verschwindet, bleibt oft nichts – außer einem toten Link. Transklusive Links hingegen bewahren Kontext. Sie sind Zeitmaschinen im Text.

Zukunftssichere Langzeitarchivierung

Für kritische, transklusive Links gilt eigentlich das Gegenteil der üblichen Empfehlung: Erstelle zuerst einen Snapshot – und verlinke dann die Kopie.

Perma.cc ist einer der Dienste, die dafür gemacht sind: Webseiten in ihrem momentanen Zustand einfrieren, um sie als verlässliche Quelle zitieren zu können.

Auch das Internet Archive bietet diese Möglichkeit:
https://web.archive.org/save/URL

Eigene Archive

Im W3C-Kultartikel Cool URIs don't change wird ein Gedanke formuliert, der selten beherzigt wird: Überlege dir nicht nur, wie du Inhalte veröffentlichst – sondern auch, wie und wann du sie zurückziehst. Ein Ablaufdatum für Artikel. Yin zum Yang des Publizierens. Doch viele CMS unterstützen das nicht. Und Blogsysteme noch weniger.

Alternative: Nicht löschen – verwandeln. Inhalte, die schlecht gealtert sind, müssen nicht verschwinden. Sie können aus dem Hauptfluss genommen werden – aber weiterhin zugänglich bleiben. Kein aktiv beworbenes Archiv, sondern ein langsames Regal. Die Greatest Hits bleiben oben – die B‑Rolle zieht um.

Wie Websites lernen

Während ich hier restaurierte, fühlte es sich an wie in „How Buildings Learn: What Happens After They’re Built“ von Stewart Brand.

Das Buch zeigt, wie sich Gebäude durch Nutzung verändern – und warum anpassbare Bauten überleben, während starre ersetzt werden. Meine Site war einst Wiki, dann mehr Journal, jetzt vielleicht eher Archiv mit gelegentlichen Gedanken.

Schichtung und Veränderbarkeit

Brand unterscheidet sechs Ebenen eines Gebäudes: Site, Structure, Skin, Services, Space Plan, Stuff – jede mit ihrem eigenen Rhythmus der Veränderung.

Shearing Layers

Ebene Digital übersetzt
Stuff Inhalte, Texte, Medien, Metadaten
Space Plan Navigation, Kategorien, Tags, Archivstruktur
Services Static Site Generator, Markdown Processor
Skin Layout, Typografie, Farben, CSS
Structure URL-Schema, Permalinks

Diese Schichtung macht Wandel möglich – ohne Bruch. Und sie erinnert daran, dass Alter kein Makel ist.

Wabi-sabi (侘び寂び)

Was in der Architektur Schichtung ist, nennt sich in der japanischen Ästhetik Wabi-sabi: die Akzeptanz von Vergänglichkeit, Unvollkommenheit und stetiger Veränderung. Eine Wabi-sabi-Sache ist nie „fertig“, sondern zeigt offen ihre Gebrauchsspuren. Ihre Schönheit liegt in der Zeit, im Gewordensein, im Gelebten.

Meine kaputten Permalinks sind jetzt ebenfalls Geschichte. Nicht aus nostalgischem Trotz, sondern weil Bedeutung sich in Schichten bildet.

Internet-Fossilien

Mein erster Studentenjob am DESY Hamburg bestand darin, den deutschen Pavillon der Internet 1996 World Expo zu pflegen – unter https://park.org/Germany/. An sich nichts Weltbewegendes. Wäre diese Site nicht eine der ältesten, die heute noch online sind [Gizmodo]. Es ist einfach ein gutes Gefühl, wenn digitale Zeitdokumente überdauern.

Entropie: fürs Erste besiegt.

Kein Text über das Internet Archive wäre vollständig ohne den Hinweis auf die vielleicht beste Spende an … Empfänger: Internet.

Denn der Wert liegt nicht nur in der Zukunft des Netzes. Sondern ebenso in seiner Vergangenheit. In digitaler Erinnerung.

Memento mori.

Links

Die erste Regel des Hypertexts: Verändere nie deine URLs.

The Long Web

Umsetzungen und Erfahrungen: