“KI wird bis 2030 die Singularität erreichen“ – diese provokante Prognose von OpenAI-Chef Sam Altman verdeutlicht den enormen Hype rund um Künstliche Intelligenz (KI). Tatsächlich gelten moderne KI-Systeme als Hoffnungsträger in nahezu allen Bereichen. In der Medizin sollen sie Krankheiten früher erkennen und neue Therapieansätze entwickeln. Im Kampf gegen den Klimawandel sollen sie etwa den Energiesektor und die Mobilität effizienter gestalten. Auch der Bildungssektor könnte durch individualisierte Lernsysteme grundlegend verändert werden. In der Klimaanpassung spielen sie zunehmend eine Rolle, etwa indem sie Extremwetterereignisse frühzeitig vorhersagen, Risiken kartieren oder die Anpassung städtischer Infrastrukturen an Hitzewellen unterstützen. Kurz: KI wird als Heilsbringer gefeiert, der alle komplexen Probleme der Menschheit lösen kann.
Doch dieser Euphorie steht eine weniger beachtete Kehrseite gegenüber: Während viel über den Ressourcen- und Energieverbrauch von KI gesprochen wird, stellt sich eine grundlegendere Frage: Ist KI wirklich in der Lage, bahnbrechende Neuerungen zu schaffen, oder bleibt sie doch nur ein Werkzeug zur Verarbeitung und Kombination bestehenden Wissens? Aktuelle Systeme wie GPT-4 sind beeindruckend in ihrer Textproduktion, aber sie schöpfen ausschließlich aus vorhandenen Daten. Kreative Durchbrüche, wissenschaftliche Paradigmenwechsel oder disruptive Ideen entstehen bislang weiterhin ausschließlich durch menschliche Intuition, Neugier und Erfahrung.
Dabei dürfen die Umweltauswirkungen nicht ignoriert werden: Das Training großer Modelle verschlingt enorme Mengen an Energie und hinterlässt einen beträchtlichen CO₂-Fußabdruck – allein GPT-3 verursachte beim Training etwa 550 Tonnen CO₂. Ganz zu schweigen vom ökologischen Einfluss der zugrunde liegenden Hardware: Die Produktion spezialisierter Chips und Server zieht einen erheblichen Material- und Ressourcenverbrauch nach sich – oft mit belastenden Folgen für Umwelt und Menschen in den Abbaugebieten. Zwar arbeiten Unternehmen bereits an effizienteren Algorithmen und nachhaltigerer Infrastruktur, doch noch hinkt die Realität den Ambitionen hinterher. Ohne klare ökologische Leitlinien droht der technische Fortschritt weiterhin auf Kosten des Planeten zu gehen.
Die strahlende Vision vom KI-Heilsbringer wirkt dadurch weniger wie ein Vorbote echter Transformation, sondern eher wie ein Spiegel unseres bisherigen Denkens – nur in Hochgeschwindigkeit.
Wenn KI zur Wunderwaffe verklärt wird
Angesichts dieser Gegensätze drängen sich kritische Fragen auf: Ist KI wirklich die Lösung für alle modernen Probleme – oder schaffen wir uns gerade neue? Welche ökologischen und sozialen Nebenwirkungen bringt der KI-Boom mit sich? Und wer entscheidet eigentlich, wie eine KI Probleme löst? Denn klar ist: Eine KI handelt stets nach den Zielen und Prioritäten, die wir ihr mitgeben.
Ein Gedankenexperiment verdeutlicht das Dilemma: Würde man einer KI das isolierte Ziel einprogrammieren, die Klimaziele um jeden Preis zu erreichen, könnte sie – im extremen Fall – menschliches Leid gegen Emissionsreduktionen abwägen. Ob eine KI das individuelle Wohl über das kollektive stellt (oder umgekehrt), hängt von den Werten ab, die während ihres Trainings vermittelt wurden. Die Frage, wie eine KI „denkt“, ist also eng verknüpft mit gesellschaftlichen Werten, ethischen Leitplanken und der Kontrolle darüber, wer diese definiert.
Ein Beispiel aus den USA zeigt, wie sich gesellschaftliche Vorurteile auf KI-Systeme einwirken können: Gesichtserkennungssoftware, die von US Polizeibehörden eingesetzt wurde, identifizierte in mehreren Fällen fälschlicherweise schwarze Männer als Tatverdächtige – obwohl diese unschuldig waren. Die Ursache lag nicht nur in technischen Mängeln, sondern auch darin, dass die Trainingsdaten und Modellentscheidungen gesellschaftliche Schieflagen reproduzierten: Die Algorithmen waren deutlich schlechter darin, Gesichter nicht-weißer Personen, insbesondere von Schwarzen und People of Color, korrekt zu erkennen. Studien zeigten, dass die Fehlerquote bei schwarzen Frauen bis zu 35 % betrug, während sie bei weißen Männern unter 1 % lag (vgl. MIT Media Lab, 2018).
Unterschiedliche Prioritäten und blinde Flecken können zu drastisch abweichenden „Lösungen“ führen – etwa technologischer Effizienzsteigerung vs. gesellschaftlicher Umverteilung. Was als „richtig“ gilt, hängt letztlich vom Weltbild und den Zielen ab. KI ist damit weniger ein neutraler Alleskönner als vielmehr ein Werkzeug, das von menschlichen Vorannahmen geprägt wird. Sie ist nicht in der Lage zu denken, sondern erkennt und reproduziert lediglich Muster in den Daten, mit denen sie trainiert wurde. Ein eigenes Moralsystem kann sie daher nicht entwickeln – sie handelt nicht aus Überzeugung, sondern folgt statistischen Wahrscheinlichkeiten, die ihr durch menschliche Entscheidungen vorgegeben wurden. Ethische Abwägungen, wie sie in vielen gesellschaftlichen Herausforderungen notwendig sind, kann sie nicht selbstständig treffen. Auch hier sind es menschliche Werte, Normen und Zielsetzungen, die den Rahmen vorgeben – oder eben fehlen.
Auch stellt sich die Frage: Wer profitiert von der KI-Revolution – und wer leidet darunter? Bisher sind es vor allem große Tech-Konzerne, die über die nötigen Daten und Rechenzentren verfügen, sodass die Macht über KI in den Händen Weniger konzentriert ist. Experten warnen bereits, dass die KI-Branche Gefahr läuft, von einigen wenigen Großunternehmen monopolisiert zu werden – was Innovation hemmt und die Abhängigkeit aller anderen verstärkt (Yale Law & Policy Review, 2024). Gleichzeitig droht vielen Arbeitnehmern, dass Automatisierung ihre Jobs ersetzt. Eine aktuelle Analyse der Investmentbank Goldman Sachs schätzt, dass generative KI weltweit bis zu 300 Millionen Arbeitsplätze gefährden oder verändern könnte (industry intelligence inc., 2025). Betroffen wären vor allem routinebasierte Büro- und Verwaltungsjobs sowie rechtliche Dienstleistungen. Zwar entstehen auch neue Berufsbilder (etwa Prompt Engineering), doch die sozialen Umwälzungen durch KI werden tiefgreifend sein. Allerdings verläuft dieser Wandel bislang deutlich langsamer als noch vor zehn Jahren prognostiziert (OECD, 2023). Die Folgen langfristig zuverlässig abzuschätzen, bleibt daher schwierig – sowohl technologisch als auch gesellschaftlich.
Schließlich bleibt die Frage nach echter Innovation: Kann KI wirklich kreativ und innovativ sein, oder imitiert sie nur, was Menschen vorgedacht haben? Viele Fachleute betonen, dass aktuelle KI-Modelle wie GPT-4 vor allem leistungsfähige statistische Mustererkenner sind (vgl. Marcus & Davis, “Rebooting AI”, 2019). Sie kombinieren bestehendes Wissen auf neue Weise, generieren daraus Texte, Bilder oder Lösungen – aber sie verstehen nicht, was sie tun. Ihnen fehlt Kontextbewusstsein, ein echtes Zielverständnis oder gar Neugier.
Neue bahnbrechende Ideen – wie die Relativitätstheorie oder die Entwicklung der Quantenmechanik – beruhen nicht nur auf Datenanalyse, sondern auf Perspektivwechseln, interdisziplinärem Denken und dem Mut, bestehende Paradigmen zu hinterfragen. Diese Fähigkeiten sind tief im menschlichen Denken verankert und bisher nicht algorithmisch reproduzierbar. KI kann daher bestenfalls als Katalysator oder Werkzeug fungieren – etwa, um Hypothesen zu generieren oder Prozesse zu beschleunigen –, aber nicht als eigenständige Quelle echter Innovation. Sie bleibt auf das angewiesen, was Menschen ihr an Daten, Zielen und Bewertungskriterien mitgeben.
KI wirkt nur als Werkzeug
Wie soll KI die drängenden Probleme der Menschheit lösen, wenn sie selbst keine Innovationen hervorbringen kann? Diese Frage rückt ins Zentrum jeder ernsthaften Auseinandersetzung mit der Technologie. Denn wenn KI vor allem bestehende Muster verarbeitet, dann ist ihr Potenzial zur echten Transformation begrenzt. Schlimmer noch: In vielen Fällen scheint KI bestehende Ungleichheiten zu verschärfen. Die Klimakrise etwa ist nicht nur ein ökologisches, sondern auch ein soziales Problem. Studien zeigen, dass wohlhabende Gruppen weit mehr Emissionen verursachen als einkommensschwache, während letztere deutlich stärker unter den Folgen leiden – etwa durch Hitzewellen, Ernährungsknappheit oder fehlende Anpassungskapazitäten (The Guardian, 2025). Wird KI nun vor allem für wirtschaftliche Optimierung und industrielle Effizienz genutzt, besteht die Gefahr, dass genau diese Schieflagen weiter zementiert werden. Neue Probleme könnten dazukommen – und das alles, ohne dass wirkliche innovative Wege gefunden werden.
Wenn also klar ist, dass KI nicht die Lösung an sich ist, muss die Frage lauten: Wie kann sie gezielt als Teil einer Lösung wirken? Der Schlüssel liegt darin, KI als das zu begreifen, was sie ist: ein Werkzeug. Und wie bei jedem Werkzeug kommt es darauf an, wie und wofür es eingesetzt wird. Die gesellschaftliche Steuerung spielt dabei eine zentrale Rolle – durch ethische Reflexion, faire Rahmenbedingungen und den politischen Willen, KI im Sinne des Gemeinwohls zu gestalten.
Konkret bedeutet das: Entwickler:innen, Unternehmen und Institutionen haben die Verantwortung, KI bewusst einzusetzen – zum Beispiel zur frühzeitigen Erkennung klimatischer Risiken, zur Förderung gerechter Ressourcennutzung oder zur Demokratisierung von Wissen. Auch auf technischer Ebene gibt es Stellschrauben: Wer sich als Entwickler:in mit den Prinzipien des Green Coding auseinandersetzt, kann bereits im Kleinen zur Nachhaltigkeit beitragen. Dabei lässt sich KI selbst gezielt einsetzen, um den eigenen Code nachhaltiger zu gestalten – wie genau das funktionieren kann, zeigen wir im nächsten Artikel dieser Serie. Einen allgemeinen Einstieg in das Thema bietet unser Beitrag „Green Coding – Nachhaltigkeit in der Softwareentwicklung“, praxisnahe Ansätze findest du im Artikel „Green Coding Patterns – Praxisnahe Ansätze für energieeffiziente Software“. So wird aus KI kein Selbstzweck, sondern ein Baustein einer nachhaltigeren digitalen Zukunft. Nicht die Technik selbst macht den Unterschied, sondern unsere Entscheidungen über ihren Einsatz.