This page is only available in German.

Blogbeitrag Enttäuschung im Diskurs – Warum KI und Ethik neue Fragen brauchen

Ein religionswissenschaftlicher Blick jenseits normativer Routinen

Prof. Dr. Inken Prohl

veröffentlicht am 18.09.2025

Inken Prohl ist Religionswissenschaftlerin und Japanologin. Seit 2006 lehrt sie als Professorin für Religionswissenschaft an der Ruprecht-Karls-Universität Heidelberg. Ihre Forschungsschwerpunkte sind u. a. die rezente Religionsgeschichte Deutschlands, Japans und der USA, Religion and Artificial Intelligence sowie Materiale Religion.

Die Rede von „KI und Ethik“ hat in den vergangenen Jahren eine bemerkenswerte Konjunktur erfahren. Gemeint ist damit allerdings nicht ein kohärentes Thema, sondern ein Feld mit sehr unterschiedlichen Akteurinnen und Akteuren, Zielsetzungen und Bedeutungen. Die Bezeichnung „Ethik“ fungiert dabei als Sammelbegriff für eine Vielzahl von Deutungsangeboten, Interessenlagen und normativen Ordnungen – von theologischer Orientierung über politische Risikofolgenabschätzung bis hin zu spekulativer Zukunftssicherung. Dass all dies unter dem gleichen Titel verhandelt wird, ist Teil des Problems.

In theologischen Kontexten zeigt sich diese Unschärfe besonders deutlich. Zahlreiche Beiträge aus der Theologie widmen sich inzwischen der Frage, wie Künstliche Intelligenz ethisch einzuordnen ist. Vier Argumentationsmuster sind dabei auffällig: Erstens die Betonung der Menschenwürde auf Basis eines bestimmten anthropologischen Leitbilds, häufig verstanden im Sinne des christlichen Ebenbildgedankens (z.B. Herzfeld und Peters 2023). Zweitens erfolgt eine moralische Bewertung technischer Entwicklungen, in der KI entweder als Bedrohung des Menschseins oder als Werkzeug für Gerechtigkeit verstanden wird. Die Analyse struktureller Bedingungen – etwa wer Technik gestaltet, wer davon profitiert und wessen Interessen berücksichtigt werden – wird dabei eher vernachlässigt (z.B. Peters 2018). Drittens werden Debatten um die „Würde“ von Robotern geführt, insbesondere im Pflege- oder Bildungsbereich, in denen Verantwortung von Menschen auf technische Systeme verlagert wird (Harris und Anthis 2021). Und viertens gibt es Versuche, post- oder transhumanistische Visionen mit nicht-westlichen Religionen zu verknüpfen – etwa über den Begriff des „Nicht-Selbst“ im Buddhismus oder hybride Göttergestalten im Hinduismus. Solche Bezüge erscheinen auf den ersten Blick weltoffen, bedienen aber häufig einen Techno-Orientalismus (Šabanović 2014), in dem östliche Traditionen als symbolischer Resonanzraum für westlich-technologische Zukunftsentwürfe funktionalisiert werden. In diesen Zuschreibungen wird kulturelle Differenz nicht analysiert, sondern ästhetisch aufgeladen und instrumentalisiert.

Diese theologisch motivierten Deutungsmuster verdeutlichen, wie stark ethische Bewertungen an bestimmte Denkhorizonte und interne Referenzrahmen gebunden sein können. Was in diesen Debatten unter „Ethik“ verstanden wird, ist oft weniger eine analytische Auseinandersetzung als der Versuch, sich über vertraute Begriffe, Konzepte und Ordnungsvorstellungen zu orientieren. Technologische Entwicklungen werden dabei in bestehende moralische Rahmen eingebettet, während zentrale soziale und politische Dimensionen häufig unberücksichtigt bleiben. Gerade diese Aspekte müssten jedoch als Teil einer umfassenden Analyse sichtbar gemacht und systematisch einbezogen werden. Umso wichtiger ist es also, ethische Fragestellungen auch aus Perspektiven zu betrachten, die strukturelle Machtverhältnisse, gesellschaftliche Zugänge und die Verteilung von Handlungsmöglichkeiten in den Vordergrund rücken.

Neben den theologischen Deutungsmustern gewinnen institutionelle Perspektiven an Bedeutung, die sich mit den gesellschaftlichen, politischen und technologischen Herausforderungen künftiger KI-Systeme befassen. Einige prominente Einrichtungen wie das Future of Life Institute oder das Center for AI Safety – beide Teil der sogenannten AI Safety Community – beschäftigen sich mit aktuellen Sicherheitsfragen, aber auch mit langfristigen Risiken, Regulierung und globaler Verantwortung im Zusammenhang mit KI (Epstein 2024). Im Mittelpunkt steht hier das Konzept des AI Alignment – also die Frage, wie sichergestellt werden kann, dass KI-Systeme mit menschlichen Zielen und Werten kompatibel bleiben. Die Diskussion basiert auf der Annahme, dass sich Künstliche Intelligenz in Richtung einer allgemeinen Problemlösungsfähigkeit – einer sogenannten Artificial General Intelligence (AGI) – entwickeln könnte, und dass eine solche Entwicklung gravierende Risiken mit sich bringen würde, wenn sie nicht frühzeitig gesteuert wird. Das Risiko wird dabei nicht in der aktuellen Technologie verortet, sondern in möglichen künftigen Entwicklungen, deren Eintrittshorizont unterschiedlich eingeschätzt wird.

Eng verbunden mit diesen Überlegungen ist eine weitere Perspektive, für die sich die Begriffe Longtermism und Effektiver Altruismus etabliert haben (z.B. Torres 2021; Becker 2025). Auch sie versteht sich ausdrücklich als „Ethik“ – allerdings mit einem Fokus auf das langfristige Wohlergehen der Menschheit über Jahrhunderte oder Jahrtausende hinweg. Vertreterinnen und Vertreter dieses Zugangs, etwa Nick Bostrom, Will MacAskill oder Eliezer Yudkowsky, entwickeln Entscheidungsstrategien, die darauf abzielen, möglichst viel zukünftiges Leid zu verhindern oder möglichst viel zukünftigen Nutzen zu ermöglichen. Dabei wird das Handeln in der Gegenwart aus der entsprechend spekulativen Perspektive potenzieller zukünftiger Generationen beurteilt. Auch hier richtet sich die ethische Aufmerksamkeit nicht auf konkrete, gegenwärtig genutzte KI-Systeme – wie Empfehlungsalgorithmen in sozialen Medien, Sprachmodelle oder automatisierte Entscheidungsverfahren in Behörden –, sondern auf die hypothetische Fehlentwicklung zukünftiger Technologien. Die finanzielle Unterstützung dieser Denkrichtung stammt vielfach aus dem Umfeld großer Stiftungen und einzelner Tech-Investoren im Silicon Valley, die sich selbst als gemeinwohlorientiert verstehen und gezielt in Forschungsprogramme investieren. Zudem gibt es vielfache Verbindungen zu Tech-Konzernen – etwa durch Förderungen, personelle Überschneidungen oder die institutionelle Nähe zu Unternehmen wie Google DeepMind oder OpenAI.

Eine weitere Kategorie von Institutionen, die sich mit dem Verhältnis von Ethik und KI beschäftigt, bilden techniknahe Einrichtungen, die weltweit existieren – sowohl im privatwirtschaftlichen als auch im öffentlich geförderten Bereich. Für Deutschland lassen sich exemplarisch das DLR-Institut für KI-Sicherheit sowie verschiedene Fraunhofer-Institute nennen. Sie entwickeln Verfahren, mit denen KI sicher, zuverlässig und effizient eingesetzt werden soll, etwa bei autonomen Fahrzeugen, in industriellen Anwendungen oder in der Cybersicherheit. Beide Institutionen sind öffentlich legitimiert und grundfinanziert, arbeiten jedoch überwiegend projektbasiert im Auftrag von Unternehmen oder Behörden. Insofern stellt sich auch hier die Frage, inwieweit ethische Fragestellungen unabhängig adressiert werden können. Zudem haben auch große Plattformunternehmen wie Google interne Ethikabteilungen geschaffen, deren Unabhängigkeit umstritten ist – nicht zuletzt aufgrund prominenter Fälle wie der Entlassung von Timnit Gebru, einer Informatikerin und prominenten Kritikerin struktureller Ungleichheiten in der KI-Forschung, aus der Ethical AI Group von Google.

Schließlich gibt es kleinere, häufig unabhängig finanzierte Institute aus den Bereichen Soziologie, Medienforschung oder Anthropologie, die sich mit strukturellen Fragen wie Datenmacht, Diskriminierung oder Ressourcenverbrauch auseinandersetzen. Ihre Beiträge sind oft empirisch fundiert, interdisziplinär angelegt und methodisch offen, im öffentlichen Diskurs jedoch meist weniger sichtbar. Ein Beispiel ist das AI Now Institute in New York, das sich auf die gesellschaftlichen Auswirkungen von KI konzentriert und von Kate Crawford, einer international anerkannten Forscherin im Bereich kritischer Technikstudien, mitbegründet wurde. Ein weiteres Beispiel ist das von Timnit Gebru initiierte DAIR Institute (Distributed AI Research Institute), das sich unabhängig von großen Technologiekonzernen mit den sozialen, politischen und ökologischen Konsequenzen maschinellen Lernens befasst. Ein besonderer Fokus wird hier auf intersektionale Perspektiven und technologische Machtverhältnisse gelegt.

All diese sehr unterschiedlichen Zugänge zum Thema KI und Ethik – ob spekulativ, technisch orientiert oder gesellschaftskritisch – verwenden denselben Begriff, meinen mit Ethik aber sehr Verschiedenes. Die Unterschiede betreffen nicht nur Inhalt und Zielrichtung, sondern auch Reichweite, Sichtbarkeit und Einfluss. Ethik fungiert dabei also weniger als einheitlicher Maßstab, denn als diskursive Klammer, unter der ganz unterschiedliche Verständnisse, Interessen und Deutungsansprüche zusammenlaufen. Die ethische Debatte über KI ist insofern nicht nur uneinheitlich, sondern aufgrund deutlich asymmetrischer Ressourcenverteilung und Möglichkeiten öffentlicher Wirkung auch strukturell ungleich. Wer sich mit KI und Ethik beschäftigt, muss daher nicht nur fragen, welche Werte verhandelt werden, sondern auch: Wer spricht? Aus welcher Position? Und mit welchem Zugriff auf öffentliche Sichtbarkeit, (Forschungs-)Ressourcen und politische Anschlussfähigkeit?

Vor diesem Hintergrund lohnt es sich, die Aufmerksamkeit auf die eigentlichen Herausforderungen zu richten, die mit dem Einsatz von KI verbunden sind, jenseits normativer Leitbilder oder abstrakter Prinzipien. Drei Felder sind dabei besonders hervorzuheben.

Erstens: Die demokratischen Effekte algorithmischer Steuerung. Plattformen wie Facebook, YouTube, TikTok oder X strukturieren Sichtbarkeit nicht neutral, sondern nach Kriterien maximaler Aufmerksamkeit: Sie verstärken gezielt emotionale Inhalte – etwa Empörung, Wut, Angst, Scham oder moralische Entrüstung –, weil diese besonders häufig geteilt, geliked oder kommentiert werden. Wie Max Fisher gezeigt hat, sind diese Effekte nicht zufällig, sondern durch Recommender-Systeme, Feedbacklogiken und algorithmische Aufmerksamkeitsmetriken systematisch angelegt (Fisher 2022). Tobias Rose-Stockwell spricht in Outrage Machine von einer Empörungsökonomie, in der extreme Inhalte bevorzugt behandelt werden, weil sie stärkere Reaktionen hervorrufen und Nutzerinnen und Nutzer länger binden (Rose-Stockwell 2023). Die Folge ist eine schleichende Transformation demokratischer Öffentlichkeiten: Debatten werden nicht mehr vorrangig über Inhalte geführt, sondern über Reichweite und über das Vermögen, emotionale Reaktionen hervorzurufen.

Zweitens: Die materiellen Voraussetzungen und sozialen Kosten von KI. Systeme wie ChatGPT benötigen enorme Mengen an Strom, Wasser, Rechenleistung und menschlicher Vorarbeit. Kate Crawford spricht in diesem Zusammenhang von der „planetarischen Infrastruktur“ Künstlicher Intelligenz. Besonders auffällig ist dabei die räumliche Verteilung: Während die Technologien vor allem im globalen Norden entwickelt und genutzt werden, finden viele der vorbereitenden Arbeiten, wie etwa das Labeln von Trainingsdaten, unter prekären Bedingungen im globalen Süden statt (Crawford 2021).

Drittens: Die Auswirkungen auf die psychische Gesundheit und die Selbstwahrnehmung junger Menschen (Haidt 2023). KI-gestützte Plattformen beeinflussen, wie Jugendliche sich selbst darstellen, was als „normal“ gesehen wird und wie soziale Beziehungen strukturiert sind. Insbesondere bei Mädchen zeigen Studien einen Zusammenhang zwischen der Nutzung sozialer Medien, steigenden psychischen Belastungen und veränderten Körperbildern (Atlanta 2024). Das betrifft nicht nur individuelle Erfahrungen, sondern gesellschaftliche Realitäten. Digitale Plattformen schaffen neue Formen scheinbarer Nähe: Beim Online‑Dating wird Intimität planbar – vom Matching bis zum ersten Date –, während soziale Medien wie Instagram oder TikTok dadurch Nähe simulieren, dass persönliche Erlebnisse, Fotos und Geschichten öffentlich geteilt werden. Likes, Kommentare und personalisierte Streams erzeugen das Gefühl einer authentischen Beziehung, sowohl unter ganz normalen Nutzern als auch zwischen ihnen und Influencerinnen. So entsteht ein Identitätsgefühl, das eng mit dem digitalen Umfeld verknüpft ist. Intimität, Selbstwert und Zugehörigkeit werden zunehmend algorithmisch vermittelt – mit verheerenden Folgen, die bisher kaum systematisch adressiert werden (Ruckenstein 2023).

Diese drei Bereiche markieren keine abschließende Liste, aber exemplarische Problemfelder. Sie zeigen, dass sich die ethische Herausforderung der KI nicht auf eine Frage des guten oder richtigen Handelns reduzieren lässt. Statt der moralischen Beurteilung von Maschinen, rückt eine Sichtbarmachung ihrer gesellschaftlichen Wirkungen in den Vordergrund. Ethik ist in diesem Zusammenhang nicht als Instanz der Bewertung, sondern als Analysewerkzeug zu verstehen.

Angesichts der disruptiven gesellschaftlichen Veränderungen, die sich im Zusammenhang mit Künstlicher Intelligenz bereits heute abzeichnen, stellt sich die Frage, ob ein Ethikbegriff, der häufig auf die Bewertung von gut oder schlecht zielt, in diesem Kontext überhaupt tragfähig ist. Die untersuchten Diskurse – von theologischer Orientierung über technikzentrierte Sicherheitsfragen bis hin zu spekulativen Zukunftsmodellen – zeigen, wie stark der Begriff normativ aufgeladen, institutionell instrumentalisiert und analytisch unterdeterminiert sein kann. Wenn man ihn dennoch verwenden möchte, ließe er sich eher als aufklärungsbezogenes Instrument verstehen: zur strukturellen Beschreibung gesellschaftlicher Verhältnisse oder als Suchbewegung nach den Bedingungen eines gelingenden Lebens unter digitalen Voraussetzungen. Würden zudem moralische Setzungen vermieden, verschöbe sich der Fokus: weg von der Frage, ob Maschinen „gut“ oder „schlecht“ sind, hin zu einer Analyse ihrer Einbettung, Wirkung und sozialen Funktionen. Ethik wäre dann nicht in erster Linie Urteil, sondern Beschreibung; nicht Anleitung zum Handeln, sondern ein Instrument der Beobachtung; nicht Regelwerk, sondern eine präzise Analyse dessen, was sich verschiebt. 

Aus religionswissenschaftlicher Perspektive lässt sich eine beschreibende, analytisch orientierte Herangehensweise als produktive Ergänzung zu bestehenden Deutungsmustern im Diskurs über KI und Ethik einbringen. Anstelle einer normativen Bewertung – die zwar nicht ausgeschlossen, aber hier nicht vorrangig ist – rückt die Analyse von Strukturen, Funktionen und gesellschaftlichen Wirkungen in den Mittelpunkt. Damit geht es sowohl um die Frage, wie bestimmte Deutungen entstehen und welche Vorstellungen sie prägen, als auch darum, wie sich technologische Entwicklungen konkret auf soziale Wirklichkeiten auswirken. Es geht nicht nur um Zuschreibungen, sondern auch um die Art und Weise, wie KI reale Beziehungen, Handlungsmöglichkeiten und Lebensverhältnisse verändert. Versteht man Ethik in diesem Sinn als eine Form der Aufklärung, wird sie von einer Instanz des Urteilens zu einer Praxis der Klärung und Orientierung. Religionswissenschaftliche Zugänge können so helfen zu verstehen, worüber gesprochen wird, was auf dem Spiel steht – und welche Bedingungen ein gelingendes Leben im digitalen Zeitalter ermöglichen.

Literatur

Atlanta, Ellen. 2024. Pixel Flesh. How Toxic Beauty Culture Harms Women. Headline Publishing Group.

Becker, Adam. 2025. More Everything Forever. AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity. Basic Books.

Crawford, Kate. 2021. Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Epstein, Greg M. 2024. Tech Agnostic. How Technology Became the World´s Most Powerful Religion, and Why It Desperately Needs a Reformation. The MIT Press.

Fisher, Max. 2022. The Chaos Machine. The Inside Story of How Social Media Rewired Our Minds and Our World. Quercus Books.

Haidt, Jonathan. 2023. Bildschirmkinder. Der verheerende Einfluss sozialer Medien auf die psychische Gesundheit einer ganzen Generation. Übersetzt von Monika Niehaus-Osterloh und Jorunn Wissmann. Rowohlt Buchverlag.

Harris, Jamie und Jacy Reese Anthis. 2021. „The Moral Consideration of Artificial Entities: A Literature Review“. arXiv, 1–27. .

Herzfeld, Noreen L. und Ted Peters. 2023. The Artifice of Intelligence. Divine and Human Relationship in a Robotic Age. Fortress Press.

Peters, Ted, Hrsg. 2018. AI and IA: Utopia or Extinction? ATF Press.

Rose-Stockwell, Tobias. 2023. Outrage Machine. How Tech Amplifies Discontent and Disrupts Democracy And What We Can Do About It. Piatkus.

Ruckenstein, Minna. 2023. The Feel of Algorithms. University of California Press.

Šabanović, Selma. 2014. „Inventing Japan’s ‚Robotics Culture‘: The Repeated Assembly of Science, Technology, and Culture in Social Robotics“. Social Studies of Science 44 (3): 342–67.

Torres, Émile P. 2021. „Why Longtermism Is the World’s Most Dangerous Secular Credo“. Aeon, 19. Oktober 2021.