Die Kompetenz-Krise.


„Wir finden keine guten Leute mehr.“ Das ist das Mantra vieler CTOs, meistens kurz nachdem sie die Einstiegspositionen gestrichen und durch KI-Lizenzen ersetzt haben. Das Marketing verkauft uns ein Märchen: KI nimmt uns den langweiligen „Boilerplate Code“ ab, damit wir uns auf das Große und Ganze konzentrieren können.

Das ist eine Lüge. Boilerplate ist kein Müll. Boilerplate ist Training. Wer sich nicht durch den Schlamm der Konfiguration wühlt, lernt nie, wie das Framework atmet. Streichen wir diesen Schritt, züchten wir keine Architekten. Wir züchten „Prompt Kiddies“. Sie wissen, wie man die Maschine füttert, aber sie haben keine Ahnung, ob die Antwort giftig ist.

Das Paradoxon des Lernens: Schmerz ist notwendig

Balance lernt man nicht aus dem Physikbuch, sondern durch den Sturz. Der Schmerz im Knie ist der Lehrer, der dem Kleinhirn sagt: „Korrektur eingeleitet.“ Echtes Engineering folgt demselben biologischen Gesetz. Ein tiefes Verständnis für Race Conditions entsteht nicht durch das Konsumieren einer fertigen Lösung. Es entsteht im stundenlangen Debuggen, im Frust, im Ringen mit dem Problem.

Generative KI ist das Opioid der Softwareentwicklung. Sie entfernt den Schmerz. Ein Fehler taucht auf? Copy-Paste in den Chatbot. Lösung da. Ticket zu. Ein kurzer Dopamin-Kick. Aber die entscheidende Synapse – die für das Verständnis – bleibt stumm. Wir bilden Bediener von Code-Mikrowellen aus. Sie können das Essen aufwärmen, aber sie wissen nicht, wie die Strahlung funktioniert.

Uber-Fahrer vs. „The Knowledge“

Um den kognitiven Verfall zu verstehen, lohnt ein Blick nach London. Black-Cab-Fahrer müssen für „The Knowledge“ 25.000 Straßen auswendig lernen. Ihr Hippocampus wächst physisch. Sie haben die Stadt verinnerlicht. Der Uber-Fahrer hingegen hängt am GPS. Fällt das Signal aus, ist er gestrandet.

Wir Entwickler geben gerade kollektiv unser „Knowledge“ auf. Wir outsourcen unser Gehirn an den Copiloten. Doch unsere Software-Landschaften ändern sich schneller als jede Stadt. Wer hier ohne mentales Modell navigiert, den reißt der nächste API-Change in den Graben.

Die gefährlichste Zeile Code: errors='ignore'

Ein konkretes Beispiel, wie KI Inkompetenz maskiert: Ein Junior stößt auf einen UnicodeDecodeError. Ein Senior würde den Hex-Editor öffnen, das Encoding prüfen und verstehen. Die KI? Sie schlägt vor: errors='ignore'. Der Fehler verschwindet. Das Programm läuft. Der Junior fühlt sich produktiv. Aber im Hintergrund werden Daten korrupt, Namen verstümmelt, Datenbanken vergiftet. Die KI hat dem Entwickler eine schallgedämpfte Waffe gereicht. Weil ihm das Grundlagenwissen fehlt, drückt er ab.

Die Lösung: Das Sokratische Review

Wir können die Zeit nicht zurückdrehen. Aber wir können die Interaktion ändern. Wir müssen aufhören, die KI als Orakel zu nutzen, das Antworten liefert. Wir müssen sie als Sokratischen Mentor nutzen.

Wenn ein Junior (oder Sie selbst) feststeckt, darf der Prompt nicht lauten: „Fixe diesen Fehler“. Er muss lauten: „Erkläre mir das Konzept hinter diesem Fehler. Gib mir keinen Code. Stell mir Fragen, die mich zur Lösung führen.“

Das ist anstrengend. Es dauert länger. Es tut weh. Aber es ist der einzige Weg, um nicht zur nächsten Generation der Uber-Fahrer zu degenerieren.

Fazit: Der Offline-Test

Stellen Sie sich die harte Frage: Können Sie Ihren Job noch machen, wenn das WLAN ausfällt? Das ist keine Nostalgie, das ist die Frage nach Ihrer professionellen Souveränität. Existiert Ihr Wissen nur als Leihgabe von OpenAI, besitzen Sie nichts. Sie sind ein Operator, kein Ingenieur. Wissen, das man nicht erklären kann, ohne auf einen Bildschirm zu schauen, ist kein Wissen. Es ist nur ein Cache-Hit.

Schreibe einen Kommentar