Warum Schreiben noch immer wichtig ist – und immer wichtiger wird
Das lasse ich mir kurz von einem LLM generieren.
Diesen Satz höre ich mittlerweile täglich. Und ich verstehe ihn – ich nutze selbst AI, lasse mir Code generieren, betreibe eine eigene OpenClaw-Node, lasse mir Bilder generieren. Das ist nicht das Problem. Das Problem ist, was dabei verloren geht.
Schreiben ist Denken – nicht nur Dokumentieren
Wer einen Text verfasst, muss Entscheidungen treffen:
- Welche Reihenfolge ist logisch?
- Wo fehlen mir noch Quellen, wo ist mein Argument dünn?
- Was ist die eigentliche Aussage – und was lasse ich weg?
- Was möchte ich zwischen den Zeilen mitgeben?
Diese Auseinandersetzung zwingt zur Tiefe. Die Wissenschaft belegt das: Mueller und Oppenheimer (Princeton/UCLA) zeigten, dass handschriftlich Mitschreibende bei konzeptionellen Fragen signifikant besser abschnitten – weil sie selektieren und paraphrasieren mussten. Scientific American | PMC
Was in der Softwareentwicklung gerade passiert
Architektur, Spec, Threat Model, Use Cases, Code, Tests, Deployment – alles generiert. Menschenlesbare Dokumentation wird erstellt, weil es Vorschrift ist, nicht weil jemand sie durchdenkt.
Doshi und Hauser zeigten 2024 in Science Advances: KI-gestützte Kreativarbeit wird individuell besser bewertet, führt kollektiv aber zu signifikant ähnlicheren Ergebnissen. PMC | arxiv
Innovation entsteht aus Reibung, aus dem Unbequemen, aus der Auseinandersetzung mit einem Problem, das sich nicht sofort löst. Diese Reibung wird weggeneriert.
Ich hab neulich einen anderen Artikel gelesen, in dem es um ein Ähnliches Thema ging. Man hat in einer Studio komplexe Probleme von mehreren LLMs lösen lassen und mit einer Kontrollgruppe von Menschen verglichen. Auch da hat man festgestellt, dass die LLMs sehr Ähnliche Ergebnisse erziehen, die weit weniger kreativ als die Ergebnisse der Kontrollgruppe war. Ist ja irgendwie auch naheliegend. Alle großen LLMs werden wohl mit Open Source Code auf GitHub und den offiziellen Dokumentationen trainiert worden sein. Damit LLMs dann „korrekten“ Code generieren können, müssen alle LLMs mehr oder weniger ja auch die selben Muster in den Daten gelernt haben. Ich habe ein wenig den Eindruck KI braucht den Menschen als Störenfried um nicht zum Durchschnitt zu tendieren.