Es gibt viele Diskussionen über den Einsatz von Künstlicher Intelligenz (KI) in der Softwareentwicklung, ihren allgemeinen Nutzen, Produktivitätssteigerungen und Sicherheitsbedenken. Das sind natürlich auch Themen, die wir bei farbenmeer diskutieren.
Warum jetzt, was ist passiert?
Wir als eine Gruppe von Natur aus neugierigen Softwareentwickler:innen erkunden das Potenzial von KI in unserer täglichen Arbeit schon seit einiger Zeit. Dennoch hat es den Anschein, dass die aktuellen KI-Tools (oder vielmehr Claude um genau zu sein) Ende 2025 einen Wendepunkt erreicht haben, an dem sie für manche Aufgaben endlich Code auf dem Niveau menschlicher Ausgabe produzieren können.
Was bedeutet das für uns?
Während wilde Behauptungen über gigantische Produktivitätssteigerungen im Umlauf sind – die wir gerne in Frage stellen möchten – ist uns auch klar, dass KI helfen kann und auch in Zukunft Teil von Softwareentwicklungs-Workflows sein wird. Bei Autovervollständigungs-Vorschlägen ist sie bereits seit Jahren präsent. Agentische Workflows (bei denen KI Anweisungen erhält und diese autonom über Dateien, Tool-Aufrufe etc. hinweg ausführt) werden ebenfalls immer häufiger werden.
Wir sehen in dieser Entwicklung sowohl Chancen als auch Risiken. Während wir nicht ernsthaft glauben, dass KI menschliche Softwareentwickler:innen in absehbarer Zeit vollständig ersetzen wird, können wir uns eine breite Palette von Szenarien vorstellen, wohin diese Entwicklung führen könnte. Im nächsten Abschnitt werde ich einige davon besprechen.
Szenarien
Der Zentaur
KI hilft, die Produktivität zu steigern. Wir schreiben keinen Boilerplate-Code mehr. Stattdessen leiten wir gemeinsam mit unseren Kund:innen konkrete Anforderungen für eine Anwendung ab und entwerfen eine Architektur im Dialog mit einem KI-Tool. Wir automatisieren das Schreiben des meisten Codes sowie Design-Routinearbeiten. Ein KI-Tool kümmert sich darum, konsistente Buttons in Layout-Grids zu platzieren und die <div>s, <span>s und Datenbankaufrufe zu implementieren, um diese Grids mit Informationen zu füllen. KI wird eine Abstraktion, genau wie ein Framework. Und genau wie bei einem Framework wie Next.js besteht unsere Aufgabe darin, High-Level-Dinge zu programmieren und einzutauchen (durch Schichten von Frameworks bis zum reinen HTTP-Request wenn nötig), wenn die KI nicht weiterkommt.
In diesem Fall macht Künstliche Intelligenz Entwickler:in und Designer:in produktiver und hilft ihnen, mehr Zeit mit den interessantesten Aspekten ihrer Arbeit zu verbringen.
Fazit? Ich hasse es, nach dem fehlenden Semikolon zu suchen. Wenn KI das übernimmt bin ich nicht unglücklich.
Der umgekehrte Zentaur
Basierend auf dieser Idee von Cory Doctorow.
KI hilft, die Produktivität zu steigern. Wir verbringen unsere Tage damit, hektisch zwischen mehreren Terminal-Sitzungen zu wechseln, während eine Armee von KI-Agenten hin und wieder menschlichen Input von uns verlangt. Unternehmen müssen irgendwie große Mengen an Senior-Entwickler:innen „verbrauchen", die sich in einen Burnout arbeiten und dabei ihre eigentlichen Entwicklungsfähigkeiten verlieren, während sie die KI füttern. Wenn sie ausgebrannt sind, entlässt das Unternehmen sie mit einem Geldbeutel, und so gehen sie und machen irgendwas mit Holz.
Fazit? Wenn das tatsächlich so läuft, wie KI-Unternehmen den Investor:innen weismachen wollen, dann klingt die Zukunft schrecklich.
Die große Verdummung
Die Menschen nutzen KI zunehmend. KI schreibt alle Inhalte im Internet. Halluzinationen (sowie Gedanken, die von Regierungen, KI-Unternehmen und anderen potenziell schlechten Akteuren in die Modelle eingepflanzt werden) werden von der Realität ununterscheidbar. Niemand weiß mehr irgendetwas mit Sicherheit. Alles wird schließlich von KI gesteuert. Das ist offensichtlich eine dystopische Zukunft und ein Problem, gegen das wir als Softwareunternehmen mit einem Bekenntnis zur sozialen Nachhaltigkeit aktiv arbeiten wollen.
Fazit? Wenn KI-Funktionen in digitale Produkte integriert werden, könnte es eine sehr gute Idee sein, KI-generierte Inhalte als solche zu kennzeichnen und Nutzer:innen dazu anzuregen, sie zu prüfen und gegen zu checken.
Die Demokratisierung
Jetzt kann jeder Softwareprodukte entwickeln, denn alles, was man braucht, ist ein paar Absätze über die gewünschte Anwendung zu schreiben. Softwareentwicklung ist einfach nicht mehr notwendig. Es gibt Arten von Produkten, bei denen das bereits zutrifft. Du brauchst eine einfache, einseitige Landingpage mit ein bisschen festem Inhalt? Du brauchst ein Tool, das eine sehr spezifische, nervige Sache in deinem aktuellen Workflow erledigt? Claude Code leistet bei dieser Art von Aufgabe sehr gute Arbeit und kann auch die Wartung einfacher Seiten übernehmen. Das kann ein echter Vorteil für nicht-technische Personen sein, die an solchen Dingen arbeiten, da sich ihre Iterationszyklen von
Issue bei Agentur öffnen
warten, bis ein Entwickler:in es in den nächsten Sprint aufnimmt
auf Umsetzung warten
prüfen, ob es wie gewünscht funktioniert
Feedback
nochmal warten
wiederholen...
in
Prompt schreiben
prüfen, ob es wie gewünscht funktioniert
nächsten Prompt schreiben
wiederholen...
verwandeln.
Fazit? Demokratisierung ist eine gute Sache. Wir (als Softwareagentur) wollen ins Spiel kommen, wenn diese Dinge zu groß werden, um sie ohne technisches Wissen zu handhaben. Das bedeutet, dass die Dinge, an denen wir arbeiten, spezialisierter, technischer und komplexer werden. Und vermutlich auch dass Vibe-Code-Cleanup Aufträge ein Teil des Geschäfts werden.
Die Blase
Das alles ist wirklich cool und es gibt eine Reihe von einigermaßen nützlichen Tools, aber es ist einfach nicht so groß, wie es gerade aussieht. KI kann immer noch keine korrekte Software in großem Maßstab produzieren. KI-Code-Fabriken produzieren sehr schnell Millionen von Codezeilen, aber es stellt sich heraus, dass der Code selbst eigentlich eine Verbindlichkeit und kein Vermögenswert ist.
Wir können jetzt viel schneller Mockups und Prototypen erstellen, was wirklich cool ist, weil wir weniger Aufwand benötigen, um herauszufinden, welche Teile des Produkts, das wir bauen, es tatsächlich wert sind, Arbeit hineinzustecken.
Wir behalten die Autovervollständigung – das ist einfach unbestreitbar cool.
Wir nutzen KI für Routinearbeiten. Sie hilft uns, lästige Bugs zu finden. Sie hilft uns, den Überblick zu behalten, welchen Speicher am Ende welcher Funktion freigegeben werden muss. Sie hilft uns bei Dingen, die für Menschen nervig, für Maschinen aber einfach sind.
Aber das eigentliche Schreiben von kritischem Code in großen Projekten ist nach wie vor eine menschliche Aufgabe, denn große Projekte haben bereits die Abstraktionen, die Design-Muster, den Boilerplate – und die eigentliche Arbeit besteht darin, herauszufinden, was gebaut werden soll. Der Code selbst ist nur ein Artefakt dieses Prozesses.
Das ist das Szenario, an das ich persönlich glaube, bis das Gegenteil bewiesen ist.
Weitere Probleme
KI ist offensichtlich auf verschiedene andere Arten problematisch.
Sie verbraucht lächerliche Mengen an Energie und verbrennt dabei unseren Planeten.
Sie halluziniert. Das hat sie immer und wird sie immer tun – die Wahrscheinlichkeit, Halluzinationen zu sehen, wird mit der Zeit nur kleiner. Dies ist ein probabilistisches Tool, und die Konsequenz ist, dass wir ihm niemals vollständig vertrauen können.
Es gibt (bisher) keine echte Lösung für Prompt-Injection. KI zu benutzen ist immer ein Risiko. Claude Code mit Zugang zu einem persönlichen Computer auszuführen ist ein Risiko. KI-Code ohne menschliche Überprüfung zu committen ist ein Risiko. Und es ist kein abstraktes Risiko – KI tut manchmal dumme und zerstörerische Dinge, wenn man sie lässt.
KI-Tools senden alles, was sie verarbeiten, an die Server, auf denen das Modell läuft. Bei den fortschrittlichsten Modellen befinden sich diese Server derzeit alle in den USA. Dieses Problem wird sich wahrscheinlich mit der Zeit von selbst lösen, da offene Modelle und Anbieter im Rest der Welt anscheinend sehr schnell aufholen und in der Zukunft wahrscheinlich für so gut wie alle Zwecke ausreichend sein werden. Code ist eine Sache aber sobald wir mit sensiblen Daten arbeiten sind US-Anbieter äußerst problematisch und Europäische oder sogar selbst-gehostete Lösungen müssen her.
Strategie
Nach all diesen Einschätzungen möchte ich darüber sprechen, wie wir als Softwareagentur in Zukunft mit KI-Einsatz umgehen wollen. Wir glauben, dass
wir keine KI-Code-Fabrik werden wollen. Wir werden in absehbarer Zukunft nicht versuchen, den Output zu maximieren, indem wir Menschen aus dem Prozess drängen. Wir glauben, dass dieser Ansatz Verbindlichkeiten produziert, keine Vermögenswerte.
wir KI-Tools für verschiedene Zwecke einsetzen werden, wie Erkundung, Experimentieren, Dokumentation, Code-Review und andere Routinearbeiten aller Art.
wir sicherstellen werden, dass durch menschliche Überprüfung verhindert wird, dass KI zu einem Accountability Sink wird.
wir den KI-Einsatz nicht nur im Hinblick auf Produktivitätsgewinne, sondern auch auf ethische Faktoren wie Umwelt-, mentale und soziale Auswirkungen überprüfen werden.
wir unseren Kunden Wahlmöglichkeiten und Kontrolle darüber geben werden, in welchem Maße sie KI einsetzen oder zurückhalten möchten.
Fazit
KI ist da, sie ist nützlich, und sie ist riskant. Die wahrscheinlichste, kurzfristige Realität ist, dass sie ein leistungsfähiges Werkzeug für Routinearbeiten und Prototyping wird, während ernsthafte, groß angelegte Softwareentwicklung eine grundlegend menschliche Aufgabe bleibt. Wir begrüßen diese Rolle: KI einzusetzen, wo sie wirklich hilft, Menschen in der Schleife zu halten, wo es darauf ankommt, und ehrlich mit uns selbst und unseren Kund:innen darüber zu sein, was diese Technologie kann und was nicht.
Habt ihr Fragen oder Anmerkungen zu diesem Thema? Schreibt am besten direkt Michel 😊
