Das Software-Engineering wird von grossen Sprachmodellen revolutioniert. Deshalb werden der Kontext und der Dialog mit der Maschine immer wichtiger.

SWE-bench Resultate für verschiedene grosse Sprachmodelle (Grafik zVg von Prof. Dr. Tobias Häberlein)
Die Entwicklung zum Dialog mit der Maschine
Seit Jahren träumt die Softwarebranche von der radikalen Vereinfachung der Entwicklung: Die Vision ist, dass jeder, ohne tiefes technisches Wissen, Anwendungen erstellen kann. Low-Code- und No-Code-Plattformen wie OutSystems, Mendix oder Bubble haben diesen Traum greifbar gemacht – mit visuellen Interfaces, Drag-and-Drop-Logik und vorgefertigten Modulen. Doch trotz beeindruckender Produktivitätssprünge blieb der grosse Durchbruch aus.
Diese Systeme haben das «Wie» des Codierens vereinfacht, nicht jedoch das «Warum». Jenseits einfacher Workflows und CRUD-Anwendungen stiessen Low-Code-Ansätze schnell an folgende Grenzen: Eingeschränkte Anpassbarkeit, proprietäre Architekturen, mangelnde Skalierbarkeit.
Heute, im Zeitalter der generativen KI, verschiebt sich der Horizont. Der entscheidende Schritt nach vorne ist nicht weniger Code, sondern intelligenterer Code – Code, der im Dialog mit KI entsteht. Damit beginnt eine neue Ära, in der Softwareentwicklung zunehmend zu einem sprachlich-strategischen Prozess wird: Entwickler beschreiben Ziele, Anforderungen und Architekturen, und die KI übersetzt diese Vorgaben in ausführbaren Code.
Zwei Strömungen prägen diesen Wandel:
- AI-Assistiertes Software-Engineering: Mensch und KI arbeiten kollaborativ am Code, prüfen, verfeinern, testen und dokumentieren «gemeinsam».
- Vibe-Coding: Der Mensch formuliert nur noch die Idee, während die KI das gesamte System generiert, testet und deployed.
Was früher Werkzeuge waren, sind heute Dialogpartner. Diesen Dialog muss der Mensch anführen. Nur wer in der Lage ist, diesen Dialog kompetent zu lenken und aktiv zu gestalten wird Erfolg haben und seine Fähigkeiten multiplizieren können.
Warum generative KI die Softwareentwicklung transformiert
Die grossen Sprachmodelle revolutionieren aktuell das Software-Engineering. Auch nach dem Quantensprung Ende 2022 schreitet die Entwicklung rasant voran – nicht nur hinsichtlich der allgemeinen Fähigkeiten dieser Modelle in Bezug auf Textverständnis und Weltwissen, sondern gerade auch, was ihre Programmierfähigkeiten angeht.
Diese Fortschritte lassen sich mithilfe Benchmarks messen. Sie erfassen, wie gut ein Modell Programmieraufgaben löst, Code versteht oder fehlerhafte Programme repariert. Dabei muss man sich bewusst sein, dass sie eher Einzelleistungen prüfen, die Ergebnisse je nach Prompting, Contextengineering und Umgebung variieren und dass neue Modellgenerationen teilweise auf diese Benchmarks trainiert wurden. Dennoch sind diese Benchmarks wichtig, um die Leistung der Modelle zu objektivieren.
Für die Softwareentwicklung sind folgende drei Benchmarks relevant:
- HumanEval: Der Benchmark misst die Fähigkeit von Modellen, funktional und syntaktisch korrekten Code zu generieren. Er umfasst 164 Programmieraufgaben in Python, bei denen das Modell eine Funktion basierend auf einer Beschreibung und Tests vervollständigen muss.
- SWE-Bench: Ein Benchmark speziell für Software-Engineering-Aufgaben, der reale GitHub-Issues aus Repositories (Quellcode-Speicherorte) simuliert. Er testet reale SW-Entwicklungs-Skills wie Debugging, Multi-File-Handling und Kontextverständnis und ist ideal für agentische Workflows.
- LiveCodeBench: Dieser Benchmark gehört zur neueren Generation und nutzt Aufgaben aus Wettbewerben und Coding-Plattformen wie LeetCode oder Codeforces. Es wird nicht nur die Code-Synthese geprüft, sondern auch das Testverständnis und die Selbstreparatur. Programme werden über mehrere Iterationen hinweg stabilisiert, wodurch der Programmieralltag gut abgebildet wird.
Zu beobachten ist, dass die grossen Sprachmodelle nicht mehr nur Code schreiben, sondern Software zunehmend auch verstehen. Sie sind in der Lage, Logikfehler zu finden und ganze Projekte bis zu einem gewissen Grad zu erfassen.
Vibe-Coding: Programmieren im Dialog
Der Begriff «Vibe-Coding» geht auf Andrej Karpathy, den ehemaligen Tesla- und OpenAI-Entwickler, zurück. Software entsteht nicht mehr durch Befehl, sondern durch Verständigung. Karpathy nannte es «Vibe», da die Interaktion mit einer KI weniger deterministisch als vielmehr resonant ist – man stimmt sich ein und tastet sich gemeinsam an eine Lösung heran. Der Entwickler übermittelt nicht nur Anforderungen, sondern auch Intention, Stil und Kontext. Ein typischer Workflow ist: Der Mensch formuliert ein Ziel, die KI generiert Code, Tests und Dokumentation. Der Entwickler prüft, bewertet und iteriert, wodurch der Dialog zum Motor der Qualität wird.
Anders als beim KI-assistierten Software-Engineering, bei dem KI-Tools wie GitHub Copilot oder Cursor die Entwicklung unterstützen, zielt Vibe-Coding auf vollständige dialogische Kreation: Der Mensch denkt, die KI realisiert und codet.
Context Engineering: Die Voraussetzung für effektive KI-Entwicklung
Prompt Engineering bleibt wichtig, denn es ist die Kunst, die KI klar, präzise und zielführend anzusprechen. Doch exzellente Prompts allein reichen nicht aus. In der Softwareentwicklung ist neben der Formulierung auch der Kontext entscheidend, in dem die KI operiert.
Beim Context Engineering wird das «mentale Arbeitsumfeld» des Modells bewusst gestaltet. Welche Dateien, Tests, Architekturentscheidungen und Dokumentationen stehen im Kontextfenster? Wie muss Wissen präsentiert werden, damit die KI es verarbeiten, verknüpfen und wiederverwenden kann? Gerade weil Softwareprojekte über viele Module und Speicherorte für Quellcode organisiert sind, wird dieses Feingefühl zentral.
AI Leadership
Wer mit KI arbeitet, führt kein Werkzeug, sondern ein Teammitglied. Die Maschine schreibt Code, analysiert und schlägt Alternativen vor, während der Mensch Ziel, Struktur und Prioritäten vorgibt. Führung bedeutet, den Dialog zu steuern: die richtigen Fragen zu stellen, Feedback zu integrieren, Entscheidungen zu treffen. Meilensteine, Qualität und Architektur liegen in menschlicher Hand – denn KI kann zwar analysieren, aber nicht entscheiden. Sie kann zwar viele Positionen einnehmen, aber keine Linie vertreten.
Unklar ist noch, welche Kompetenzen für AI-Leadership im Software-Engineering benötigt werden. AI-Leadership erfordert technische Kompetenz, Kommunikationsfähigkeit und ethisches Urteilsvermögen. Aber muss man gut programmieren können, um eine Software-Architektur zu entwerfen? Wer nie selbst programmiert und abstrahiert hat, wird auch Schwierigkeiten haben, KI darin anzuleiten.
Obwohl Albert Einstein sich gelegentlich bescheiden über seine mathematischen Fähigkeiten äusserte, war er in der Schule ein ausgezeichneter Mathematiker – und konnte die entscheidenden Abstraktionsschritte seiner Theorien präzise erfassen. Erst die Zukunft wird zeigen, welche Kompetenzen künftig benötigt werden. Schon jetzt zeigt sich: Wer Erfahrung im Software-Engineering mitbringt, kann KI gezielter anleiten – während Informatikanfänger oft noch Orientierung suchen.
Dialogisches SW-Engineering: Disziplin, Technik und Zukunft
KI-Dialoge folgen keiner Einheitslogik. Vielen Domänen gemeinsam ist, dass Entwickler wissen müssen, wann sie KI frei denken lassen und wann sie sie mit harten Vorgaben führen. Für erfolgreiche Dialoge im Software-Engineering ist beispielsweise eine erfolgreiche Context-Organisation der verschiedenen Dateien und Ordner des Softwareprojekts entscheidend. Auch zählen die Aufgabenzuteilung über spezifisch markierte Kommentarzeilen, das Aufspüren lohnender Abstraktionen und ein geschicktes Testmanagement. Die dafür notwendige Methodologie entsteht gerade erst und wird sich gemeinsam mit den rasant wachsenden Fähigkeiten der Sprachmodelle weiterentwickeln.
Mit jeder Modellgeneration werden KIs kontextbewusster und zunehmend agentischer, d.h. sie sind fähig, selbst zu planen, zu refaktorieren und zu testen. Damit wird sich auch die Rolle des Software-Engineers kontinuierlich ändern. Ob der Bedarf an klassischen Programmierern und Junior-Softwareentwicklern sinken wird, bleibt offen. Sicher ist aber: Künftig wird der Wert dort entstehen, wo Menschen den Dialog mit der Maschine gekonnt führen und vor allem in der Lage sind, diesen anzuführen.
Der Autor
Prof. Dr. Tobias Häberlein ist Professor für generative KI und leitet das Departement Informatik an der FFHS. Er beschäftigt sich mit Software-Engineering, KI-gestützter Entwicklung und der Zukunft digitaler Lernprozesse.
www.ffhs.ch
Publikation in Zusammenarbeit mit VIW – Wirtschaftsinformatik Schweiz |
www.viw.ch
Der Beitrag erschien im topsoft Fachmagazin 25-4
Das Schweizer Fachmagazin für Digitales Business kostenlos abonnieren
Abonnieren Sie das topsoft Fachmagazin kostenlos. 4 x im Jahr in Ihrem Briefkasten.