Wie intelligent ist künstliche Intelligenz?
"KI wird 90% des Codes schreiben" – wirklich?
Anthropics CEO Dario Amodei prophezeite es, die Benchmarks versprechen es, die Tech-Branche glaubt daran. Nur: Die Realität sieht anders aus.
Chris Wolf erklärt, warum KI keine Intelligenz ist, wo sie tatsächlich hilft, und warum Junior-Entwickler bedroht sind – während Seniors bleiben. Ein ehrlicher Blick hinter den Hype: Was KI kann, was sie nicht kann, und warum wir aufhören sollten, Wahrscheinlichkeitsberechnungen mit Denken zu verwechseln.
Das Bild wurde mit ChatGPT erstellt.
Etheldreda:
Chris, wir erleben derzeit eine beispiellose Entlassungswelle im Software Engineering. Viele Fachkräfte blicken in eine ungewisse Zukunft. Du bist sowohl Software Engineer als auch CEO. Wie schätzt du die aktuelle Bedrohung durch AI für menschliche Entwickler ein? Glaubst du, dass AI Software Engineers langfristig ersetzen wird?
Chris:
Nein, das glaube ich nicht. Eine viel zitierte Aussage stammt vom CEO von Anthropic auf einer Veranstaltung des Council on Foreign Relations im März 2025. Er sagte, dass AI innerhalb von drei bis sechs Monaten 90 % des Codes schreiben werde und innerhalb eines Jahres praktisch alles. Neun Monate später sehen wir das nicht.
Ähnlich ist es mit vielen Benchmarks, die behaupten, die Modelle würden immer intelligenter. OpenAI sagte, GPT-4 habe im Bar Exam das 90. Perzentil erreicht. Forschende am MIT haben das infrage gestellt, weil der Vergleich verzerrt war und sich stark auf Wiederholungsprüflinge stützte, die zuvor durchgefallen waren.
Man muss sich also fragen: Warum kann AI solche Prüfungsfragen überhaupt lösen? Ganz einfach, weil Fragen und Antworten im Trainingsmaterial enthalten waren. Und genau das ist mein Kernargument: Wir dürfen nicht vergessen, wie AI-Modelle trainiert werden und wie diese sogenannte „Intelligenz“ entsteht.
Um das einzuordnen, lohnt sich ein Blick auf die menschliche Infrastruktur hinter AI. Dahinter stehen Tausende sogenannte Click Worker, oft als „Mechanical Turks“ bezeichnet. Sie kategorisieren Bilder, Texte und Videos für diese Modelle, zum Beispiel über Plattformen wie Amazon Mechanical Turk. Ein Teil ihrer Arbeit besteht darin, Bilder zu taggen: Katze, Hund, Haus, Haus mit brennendem Dach.
Sie werden pro Klick bezahlt, oft nur mit ein paar Cent. Unter Bedingungen, die in Ländern mit starkem Arbeitsschutz wie Deutschland nicht akzeptabel wären. In Ländern wie Indonesien oder Madagaskar arbeiten diese Menschen acht bis zehn Stunden täglich und sehen teilweise stundenlang verstörende Inhalte, um Content-Filter-Systeme für Plattformen wie Facebook zu trainieren.
Das wirft eine grundlegende Frage auf: Ist AI wirklich intelligent oder verpackt und verkauft sie menschliche Arbeit nur neu? Warum wirkt AI, als würde sie „alles wissen“? Weil sie riesige Mengen urheberrechtlich geschützter Inhalte konsumiert hat – im Grunde jedes digitalisierte Buch. Die Autorinnen und Autoren, die Zeit in Recherche und Schreiben investiert haben, erhalten dafür keine Vergütung, während andere mit diesem geistigen Eigentum Geld verdienen.
Zurück zum Software Engineering. AI hat klare Vorteile. Sie bringt echte Produktivitätsgewinne. Aufgaben, für die früher ein oder zwei Stunden Coding mit Trial-and-Error nötig waren, lassen sich heute in 15 Minuten Problemanalyse und Prompt Writing erledigen. Ein AI-Agent wie Claude kann in einer Minute zehn bis fünfzehn Code-Dateien generieren. Das ist beeindruckend.
Meine Rolle verschiebt sich dabei. Ich prüfe, ob die Ergebnisse den Spezifikationen entsprechen, statt jede Zeile selbst zu schreiben. Insgesamt ist dieser Prozess deutlich schneller, als alles manuell zu erledigen.
Aber es gibt einen entscheidenden Unterschied. Als erfahrener Entwickler entscheide ich mich bewusst für Geschwindigkeit statt Übung. In unserem Unternehmen wird gerade in Senior-Positionen ein hohes Maß an Beherrschung und kontinuierlicher Verbesserung erwartet, um tägliche Abläufe zu beschleunigen. Als Senior Software Engineer habe ich mein Handwerk gelernt und verfeinere es ständig weiter.
Für Junior Developers ist es dagegen toxisch, sich ausschließlich auf AI zu verlassen. Sie brauchen diese 10.000 Stunden, um echte Meisterschaft zu erlangen. Erst auf Senior-Level wird der Einsatz von AI strategisch. Dann stelle ich mir die Frage: Muss ich dieses Problem noch einmal manuell lösen oder hilft mir Geschwindigkeit, mich auf komplexere und sinnvollere Herausforderungen zu konzentrieren? Diese Entscheidung können nur erfahrene Entwickler sinnvoll treffen.
AI glänzt vor allem bei Low-Priority-Tasks, bei denen Tippgeschwindigkeit der Flaschenhals ist. Was mich ein bis zwei Stunden an Brainstorming, Design und Tippen kostet, erledigt ein AI-Agent sofort und erzeugt zehn Dateien mit jeweils 1.000 Zeilen Code. Für dieses „Grunt Work“ – Tippen, Ausführen, Testen – ist AI extrem wertvoll. Sie nimmt monotone, aber notwendige Arbeit ab und schafft Raum für höherwertige Aufgaben.
So kann ich mich auf kritische Architekturentscheidungen konzentrieren. Datenbankdesign zum Beispiel delegiere ich kaum an AI. Wenn wir die Datenstruktur eines neuen Projekts entwerfen, setzen sich Senior Developers zusammen und erarbeiten sie selbst. Ist das Tabellenmodell dokumentiert, geben wir es an AI weiter, um ein Entity-Relationship-Diagramm zu erstellen. Genau hier ist AI stark: Sie wandelt unsere Spezifikationen in visuelle Dokumentation um, die versionierbar, teilbar und dauerhaft nutzbar ist. Früher haben wir das auf Papier skizziert, was schnell veraltet war und im Müll landete.
Interessanterweise fördert AI bessere Dokumentation. Um effektiv mit AI zu arbeiten, musst du Probleme durchdenken, verbalisieren und aufschreiben. Das liefert der AI die strukturierte Eingabe, die sie braucht, erzeugt aber gleichzeitig wertvolle Dokumentation für das Team.
Etheldreda:
Du betonst die Bedeutung von Dokumentation. Gibt es hier nicht eine grundsätzliche Grenze? LLMs sind vollständig von der Qualität der Eingabedaten abhängig. Wenn sie nicht eigenständig denken oder Informationen hinterfragen können, sind sie dann nicht weniger intelligent, als oft behauptet?
Chris:
Ja, absolut. Kann AI denken? Nein. Sie hat kein echtes Reasoning und keine intrinsische Motivation. Der Begriff „Artificial Intelligence“ ist das Kernproblem der öffentlichen Debatte. Wer sich in der Softwarebranche ernsthaft mit dem Thema beschäftigt, versteht schnell, was AI tatsächlich ist und wie sie Ergebnisse erzeugt.
Unter Software Engineers herrscht weitgehend Einigkeit, dass diese Technologie falsch benannt ist. Sie ist nicht intelligent und denkt nicht. Begriffe wie „Thinking Models“ oder „Reasoning Models“ sind Marketing. Trotzdem liefern diese Systeme auf Basis ihres Trainings interessante Ergebnisse.
Kürzlich gab es eine Demo, bei der ChatGPT ein sehr komplexes Logikrätsel lösen sollte. Kein simples Sudoku, sondern ein Puzzle mit verschachtelten Datenmustern, falschen Hinweisen und gezielten Ablenkungen. Solche Rätsel beschäftigen Menschen oft stundenlang. Das Rätsel wurde eingescannt und als Prompt eingegeben. ChatGPT löste es in 45 Minuten. Das ist beeindruckend, keine Frage. Aber es ist keine menschenähnliche Intelligenz und kein AGI. Es ist ein Showcase von Fähigkeiten, mehr nicht.
Etheldreda:
Kann AI also wirklich autonom ohne menschliche Kontrolle arbeiten oder braucht sie immer menschliche Aufsicht?
Chris:
Nein. AI kann nicht autonom ohne menschliche Aufsicht arbeiten. Wie gesagt, ihr fehlt jede intrinsische Motivation. Natürlich denke ich darüber nach, wie ich meine Code-Abos besser nutzen kann. Aber ich kann AI nicht unbeaufsichtigt arbeiten lassen. Alles, was sie produziert, muss überprüft werden.
Sie übernimmt nicht 100 % meiner Arbeit. In manchen Fällen erzeugt sie fehlerhaften oder schlechten Code, den ich komplett neu schreiben muss. Meistens spart sie Zeit, aber gelegentlich produziert sie Unsinn, der vollständige Nacharbeit erfordert.
Etheldreda:
Ich habe kürzlich einen Kommentar auf Reddit gelesen: „Mein kompletter Workflow hat sich von ‚Junior-Code fixen‘ zu ‚AI-Code fixen‘ geändert.“ Trifft das deine Erfahrung?
Chris:
Ja, das ist weit verbreitet. Insgesamt erledige ich trotzdem mehr und einfacher. Und wie gesagt: Basisaufgaben oder „Grunt Work“, wie es der Erfinder von Tailwind CSS nennt, übergebe ich gerne an AI.
Routineaufgaben lassen sich zwar automatisieren oder templaten. Mit AI geht es aber flexibler. Wenn das Projekt sauber designt ist, mit Component Libraries und klaren Strukturen, kannst du präzise Prompts formulieren. Das LLM agiert dann wie ein Junior Engineer und liefert brauchbare Ergebnisse.
Je weiter man ins Senior-Level kommt, desto stärker stoßen die Modelle an Grenzen. Es gibt komplexe, architekturrelevante Entscheidungen und Logik, an denen sie scheitern. Einer unserer Senior Developers arbeitet an einem sehr komplexen Backend in einer objektorientierten Struktur. Wenn er Claude nutzt, ist er fast immer enttäuscht. Der generierte Code wird verworfen, weil er die Backend-Qualität verschlechtern würde.
Es hängt auch stark vom Use Case und von der Programmiersprache ab. LLMs haben einen deutlichen Bias in Richtung JavaScript, weil es die am weitesten verbreitete Sprache mit den meisten Trainingsdaten ist. Zudem sind die Trainingsdaten meist ein Mix aus sehr aktuellen und mehrere Jahre alten Informationen. Deshalb musst du aktuelle Code-Beispiele explizit in den Prompt geben, um moderne Implementierungen zu erhalten.
Etheldreda:
Wie stellst du konkret sicher, dass AI Code für aktuelle Frameworks und Versionen generiert?
Chris:
Der Schlüssel liegt im Kontext. Du musst aktuelle Beispiele liefern. Wenn ich mit React arbeite, muss ich explizit angeben, dass wir Version 19 nutzen. Sonst greift das Modell auf alte Patterns zurück.
Das führt zum Kern: LLMs arbeiten mit Wahrscheinlichkeiten. Auf „Hello, how are you?“ ist die wahrscheinlichste Antwort „I’m fine“. Mehr passiert nicht.
Fragt man nach dem Präsidenten der USA, kann eine veraltete Antwort kommen, weil bestimmte Namen im Training häufiger vorkamen. Das Modell hat kein Zeitverständnis. Um das zu korrigieren, überschreiben Anbieter solche Fakten über System Prompts. Das ist kein Reasoning, sondern Hardcoding durch Engineers.
Es gibt kein echtes Denken. Nur Wahrscheinlichkeitsberechnungen, optimiert auf Nutzerzufriedenheit und Umsatz. Sprache folgt Mustern, die sich berechnen lassen. Deshalb „versteht“ AI Sprachen, auf denen sie trainiert wurde. Fragt man nach sehr lokalen Sprachen kleiner Volksgruppen, halluziniert sie oder erklärt sie für erfunden.
Etheldreda:
Zum Abschluss zwei Punkte. Erstens: Welchen Rat gibst du Junior Developers, die große Angst um ihre Karriere haben? Zweitens: Neil Patel sagt, AI-Plattformen wie Google Gemini würden zum neuen Marktplatz für Produkte und Services. Führt das nicht zu massiven Verzerrungen zugunsten starker Marken mit gutem SEO?
Chris:
Im E-Commerce sehen wir, dass AI den Buyer Journey verkürzt. Der Beratungsanteil im Verkauf wird zunehmend von AI übernommen. Früher recherchierten Käufer auf vielen Websites, schauten Videos und verglichen Anbieter. Das war sehr individuell.
Heute liefert AI maßgeschneiderte Antworten auf sehr konkrete Fragen. Ob diese immer korrekt sind, ist fraglich. Aber sie fühlen sich persönlich an. Dadurch wird der Kaufprozess stark komprimiert. AI empfiehlt Produkte, Anbieter und integriert sogar Kauf-Buttons. Plattformen wie Etsy setzen das bereits um. ChatGPT plant einen eigenen Marketplace.
Wir erleben selbst, dass Menschen mit Gemini oder ChatGPT über Business-Ideen, Kosten und Umsetzung sprechen und uns anschließend kontaktieren, weil wir in diesen Gesprächen genannt wurden. Das passiert bereits. Man spricht hier von Generative Engine Optimization (GEO) als Ablösung klassischer SEO. Für Marketer ist das relevant, weil wir weiterhin Kunden erreichen, beraten und überzeugen müssen.
Etheldreda:
Und wer liefert eigentlich die Informationen, die AI weiterverwendet?
Chris:
Genau das ist der Kern. Wir investieren massiv in Content Marketing und produzieren fundierte, ehrliche Inhalte. AI nutzt diese Inhalte und empfiehlt teilweise Wettbewerber. Das ist ein echtes Dilemma. Entweder du verzichtest darauf und wirst unsichtbar oder du zeigst weiter Expertise, auch wenn AI sie verwertet. Das lässt sich nicht zurückdrehen.
Etheldreda:
Zurück zu den Juniors. Was rätst du ihnen konkret?
Chris:
Junior Developers sind definitiv bedroht. Sie sind am leichtesten ersetzbar. In unserer Arbeit mit Freelancern im Mittleren Niveau sehen wir das sehr deutlich. Wir schulen sie projektbezogen, sie bauen Know-how auf und gehen dann weiter. Warum sollte man Juniors einstellen, wenn man investiert und sie danach wieder verliert? Sofern wir die Kapazität haben, ist es für uns besser die Aufgabe mit der Unterstützung von AI selbst zu erledigen.
Low-Level-Aufgaben werden bereits durch AI ersetzt. Deshalb gibt es weniger Junior-Stellen. Unternehmen glauben, Kosten sparen zu können. Kurzfristig mag das funktionieren, langfristig ist es nicht nachhaltig.
AI basiert auf Daten von gestern. Um morgen Seniors zu haben, müssen wir Juniors ausbilden. Jeder Senior war einmal Junior. Dieses Muster ist nicht neu. Bei jeder technologischen Umwälzung verschwinden einfache Tätigkeiten zuerst. Wer sein Handwerk beherrscht und echten Mehrwert liefert, bleibt relevant. Wer das nicht kann, wird durch Maschinen ersetzt. Das war schon immer so.