Künstliche Intelligenz wird Softwareentwickler nicht ersetzen

Doğan Uçar

Heute möchten wir ein Thema ansprechen, das für uns alle von Bedeutung ist: Wird Künstliche Intelligenz (KI) Softwareentwickler ersetzen? Diese Frage beschäftigt nicht nur verschiedene Akteure der Technologiebranche, sondern ist auch eine wichtige Überlegung für Unternehmen. Zum Beispiel äußerte sich NVIDIAs CEO Jen Sen Huang im März 2024 dahingehend, dass Kinder aufhören sollten, Programmieren zu lernen, da Menschen in Zukunft ihre Probleme in natürlicher Sprache beschreiben würden und KI den Code generiert. AWS-CEO Matt Garman sagte seinen Mitarbeitern, dass die meisten Entwickler bald nicht mehr programmieren müssten, da KI den Großteil der Arbeit übernehmen würde, wodurch sie sich auf andere Aufgaben konzentrieren könnten.

Diese Diskussionen sind jedoch nicht neu. In der Vergangenheit wurden ähnliche Argumente bei vielen technologischen Fortschritten angeführt. No-Code- oder Low-Code-Lösungen sollten beispielsweise Arbeitsabläufe automatisieren und die Notwendigkeit maßgeschneiderter Softwarelösungen reduzieren. Software zur Erstellung von Grundrissen sollte Architekten obsolet machen, und dem traditionellen Bankenwesen wurde durch Blockchain das Ende prophezeit. In all diesen Fällen wurde stets vorhergesagt, dass der technologische Fortschritt eine bestimmte Disziplin überflüssig machen würde – so wie es jetzt heißt, KI würde Softwareentwickler ersetzen.

abstraktes Bild von Künstliche Intelligenz
Abstraktes Bild einer künstlichen Intelligenz. Bild generiert mit ChatGPT 4o

Was ist Künstliche Intelligenz?

Die Wurzeln der Künstlichen Intelligenz (KI) reichen bis in die 1940er-1950er Jahre zurück, als Alan Turing in seinem Artikel „Computing Machinery and Intelligence“ die Idee aufbrachte, dass Maschinen möglicherweise denken könnten. Die ersten Systeme lösten Probleme durch die Anwendung von Logik und Regeln, waren aber sehr begrenzt. Später kam es zu einer sogenannten „KI-Winter“-Phase in den 1970er-1980er Jahren und ab den 1980er Jahren bis in die 2000er entwickelten sich durch maschinelles Lernen und neuronale Netze Anwendungen in den Bereichen Data Mining, Spracherkennung und andere Expertensysteme. Trotz des Fortschritts blieben diese Systeme jedoch eingeschränkt auf einzelne Einsatzmöglichkeiten. Anfang der 2010er Jahre kam es zu einem Durchbruch im Bereich des „Deep Learning“ – einem Teilbereich des maschinellen Lernens, der mehrere Schichten neuronaler Netze verwendet, um riesige Datenmengen zu verarbeiten. Ein bekanntes Beispiel ist, dass Google’s AlphaGo früher als erwartet den Weltmeister Lee Sedol im Go-Spiel besiegte, das als eines der komplexesten Strategiespiele gilt.

Ab ca. Mitte der 2010er Jahre begann die Ära der großen Sprachmodelle (LLMs), wie ChatGPT. LLMs sind spezialisierte KI-Modelle, die entwickelt wurden, um natürliche Sprache zu verarbeiten und zu generieren, indem sie auf riesige Textmengen zugreifen. Um das ins Verhältnis zu setzen: Eine Person, die 80 Jahre alt wird und nichts anderes tut als Bücher zu lesen, würde schätzungsweise 30.000 Bücher lesen. Ein LLM wie ChatGPT wurde mit etwa 570.000 Büchern trainiert. Ein LLM besitzt also immense Wissensmengen und kann anhand von Wahrscheinlichkeiten vorhersagen, welche Wörter als nächstes folgen sollten, um natürliche Sprache zu generieren.

Warum Künstliche Intelligenz Softwareentwickler nicht ersetzen kann

Denken Sie kurz über das eben beschriebene nach: LLMs sind komplexe mathematische Modelle, die vorhersagen, welches Wort – im Fachjargon: Token – als nächstes folgt, basierend auf dem, was als Eingabe vorliegt. Das Schlüsselwort in diesem Zusammenhang ist „vorhersagen“. LLM-Ergebnisse sind schlecht reproduzierbar und bleiben oft oberflächlich. Wenn Sie dieselbe Anfrage mehrmals stellen, erhalten Sie meist unterschiedliche Antworten. Dies widerspricht dem, was wir unter „rechnen“ (Englisch: to compute) verstehen, und ist weniger für die Automatisierung in der Softwareentwicklung geeignet.

Zudem sind KI-Systeme nur so gut wie die Daten, die wir ihnen zur Verfügung stellen. Ein Beispiel dafür ist „Tay“, ein Twitter-Chatbot von Microsoft, der 2016 auf maschinellem Lernen basierte. Tay begann nach kurzer Zeit, rassistische und sexistische Aussagen zu twittern, da Benutzer ihm absichtlich schädliche Inhalte zuführten. Ein weiteres Beispiel ist „COMPAS“, ein Algorithmus, der dem US-Justizsystem helfen sollte, die Rückfallwahrscheinlichkeit von Straftätern vorherzusagen. Untersuchungen ergaben jedoch, dass der Algorithmus systematisch schwarze Angeklagte als höheres Risiko einstufte als weiße, obwohl es keine Unterschiede in den tatsächlichen Rückfallraten gab.

Ein weiterer Punkt, der nur indirekt damit zusammenhängt, ist der enorme Energieverbrauch von KI-Systemen. Berichten zufolge verbraucht KI bereits so viel Energie wie eine Kleinstadt, und es wird erwartet, dass sich dieser Verbrauch bis 2026 verdoppeln wird. Ein anderer Bericht besagt, dass das Training von ChatGPT-3 etwa 5,4 Millionen Liter Wasser benötigte.

Künstliche Intelligenz kratzt nur an der Oberfläche

KI-Systeme sind anfällig für Fehler. Menschliche Aufsicht ist erforderlich, um die Ergebnisse zu überwachen und bei Bedarf Anpassungen vorzunehmen. Ein weiterer entscheidender Aspekt ist, dass heutige KI-Systeme mit öffentlichen Daten trainiert werden. Dies befähigt sie, allgemeine Aufgaben zu bewältigen. Für spezifische Anwendungsfälle, wie beispielsweise Unternehmen mit proprietären Daten, ist jedoch zusätzliches Training auf spezialisierten, domänenspezifischen Daten erforderlich.

Öffentliche Daten erfassen nicht einmal die Oberfläche unserer modernen Welt. Um optimale Ergebnisse zu erzielen, sollten Daten so umfassend wie möglich zugänglich sein – einschließlich privater Daten, Geschäftsgeheimnisse oder Verträge. Um solche Ergebnisse zu erzielen, müssten Unternehmen derselben Branche ihre Daten gleichermaßen einem Modell zur Verfügung stellen. Auch wenn es Ansätze zur Föderation dieses Lernprozesses gibt, glauben wir nicht, dass dies realistisch ist. Weder Menschen noch Unternehmen sind daran interessiert, ihre Daten öffentlich zur Verfügung zu stellen.

Fazit

Die aktuellen Entwicklungen rund um die KI sind bedeutsam und stellen nicht nur einen Schritt nach vorne dar. Doch KI ist nicht das, was in den letzten zwei Jahren propagiert wurde. Weder wird dadurch das Ende oder Unterwerfung der Menschheit eingeläutet, noch sind unserer Meinung nach KI-Ministerien in Ländern erforderlich – und das viele Marketing um KI, wo Unternehmen plötzlich alles unter dem KI-Label vermarkten, ist nicht glaubhaft. Wir glauben, dass diese Phase nun vorbei ist.

Für Manager wie Jen Sen Huang oder Matt Garman ist eine Welt, in der teure Softwareentwickler durch KI ersetzt werden wohl ein Traum – keine Investitionen, maximaler Gewinn. In der Realität hat uns die Geschichte jedoch gezeigt, dass Dinge nicht einfach verschwinden, sondern sich verändern. KI wird vermutlich die Art und Weise, wie Entwickler Code schreiben, verändern – und das tut sie bereits. Viele Entwickler nutzen Tools wie ChatGPT, um Codevorlagen zu erstellen, sich neue Konzepte erklären zu lassen oder ihren Code zu validieren. Während KI einige Aufgaben übernimmt, können Entwickler die Produktivität steigern und sich auf andere, wichtige Aufgaben konzentrieren. Daraus schlussfolgern wir: Künstliche Intelligenz kann Softwareentwickler nicht ersetzen.

So wird sich der Fortschritt weiterentwickeln. Wir wissen nicht genau, wie, wann und warum – aber Fortschritt lässt sich nicht aufhalten. Wir (als Unternehmen) können uns nur anpassen.

Haben Sie noch Fragen zu dem Thema? Nutzen Sie das nachfolgende Kontaktformular oder gehen Sie auf unsere Kontaktseite für weitere Möglichkeiten. Wir freuen uns!