This page is only available in German.

Blogbeitrag KI im Ethikunterricht

Über Anforderungen, Missverständnisse und gesellschaftliche Perspektiven

Prof. Dr. Inken Prohl

veröffentlicht am 18.09.2025

Inken Prohl ist Religionswissenschaftlerin und Japanologin. Seit 2006 lehrt sie als Professorin für Religionswissenschaft an der Ruprecht-Karls-Universität Heidelberg. Ihre Forschungsschwerpunkte sind u. a. die rezente Religionsgeschichte Deutschlands, Japans und der USA, Religion and Artificial Intelligence sowie Materiale Religion.

Das Themenfeld „Künstliche Intelligenz und Ethik“ ist komplex: Es vereint sehr unterschiedliche Perspektiven, Interessen und Deutungsrahmen – von philosophischer Zukunftsethik über technische Sicherheitsfragen bis hin zu gesellschaftskritischen oder theologischen Positionen. Was unter dem Begriff „Ethik“ verhandelt wird, ist keineswegs einheitlich, sondern oft widersprüchlich, normativ überformt oder institutionell aufgeladen (Prohl 2025).

Im Mittelpunkt dieses Beitrags stehen einige grundsätzliche Überlegungen zum Umgang mit dem Thema Künstliche Intelligenz im Ethikunterricht. Ausgangspunkt ist die Beobachtung, dass es immer wieder zu Missverständnissen kommt, wenn ethische Fragestellungen mit religiösen Überlegungen gleichgesetzt oder vermischt werden. Eine klare Unterscheidung beider Zugänge kann dazu beitragen, ethische Diskussionen im Unterricht differenzierter und begrifflich präziser zu führen. Im weiteren Verlauf werden zentrale Spannungsfelder aktueller Ethikdebatten rund um Künstliche Intelligenz skizziert, bevor ein besonderer Fokus auf die Auswirkungen digitaler Technologien auf Jugendliche – insbesondere auf Mädchen – gelegt wird.

Im Ethikunterricht zeigt sich immer wieder, dass Religionen nicht ohne Weiteres als ethische Systeme behandelt werden können. Ihre Regeln beruhen nicht auf argumentativer Herleitung im Sinne einer philosophischen Begründung, sondern sind in religiöse Überzeugungen eingebettet, die sich auf rituelle Praxis oder vorgestellte jenseitige Kräfte und Offenbarungen beziehen. Damit orientieren sie sich an konkreten Lebenszusammenhängen, gruppenspezifischen Bindungen oder heilsbezogenen Vorstellungen, statt auf allgemeine Geltung zu zielen. Wenn solche Strukturen in moralphilosophische Kategorien übersetzt werden, entstehen leicht Vereinfachungen – etwa dann, wenn religiöse Praktiken als moralische Aussagen gedeutet oder ethische Überlegungen an religiöse Autoritäten rückgebunden werden. Aus diesen Beobachtungen lässt sich eine methodische Konsequenz ableiten: Auch im Umgang mit dem Thema Künstliche Intelligenz im Ethikunterricht sollte es nicht vorrangig um Bewertungen im Sinne von „gut“ oder „schlecht“ gehen, sondern darum, Schülerinnen und Schülern ein Verständnis für Strukturen, Wirkungen und Hintergründe der entsprechenden Technologien zu ermöglichen. Ethikunterricht kann hier ein Raum sein, in dem technologische Veränderungen beobachtet, beschrieben und eingeordnet werden.

Die Debatten über Künstliche Intelligenz und Ethik sind gegenwärtig durch eine große inhaltliche Spannbreite gekennzeichnet. Unter dem Titel „KI und Ethik“ versammeln sich sehr unterschiedliche Diskurse, wie philosophische Überlegungen zur Zukunft des Menschen, technische Sicherheitsfragen, industriepolitische Strategien, theologische Deutungen und gesellschaftskritische Analysen. Wie bereits erwähnt, wird der Begriff „Ethik“ dabei keineswegs einheitlich bestimmt, sondern fungiert als Sammelbegriff für unterschiedliche Deutungsperspektiven. In theologischen Beiträgen steht häufig die Vorstellung von Menschenwürde im Zentrum – verstanden im Sinne eines bestimmten Menschenbilds, etwa des Menschen als Ebenbild Gottes. In Sicherheitsdebatten geht es dagegen um die Frage, wie zukünftige KI-Systeme so gestaltet werden können, dass sie mit menschlichen Zielen vereinbar bleiben; Ethik wird hier als langfristige Risikovorsorge verstanden. In techniknahen Institutionen wiederum, steht der Begriff Ethik meist für Sicherheit, Verlässlichkeit und Effizienz im Einsatz von KI. Und in gesellschaftskritischen Ansätzen – zum Beispiel aus der Soziologie oder Medienforschung – liegt der Fokus auf Fragen von Macht, Diskriminierung und Ressourcenverbrauch (Prohl 2025).

Diese Vielfalt an Zugängen ist Ausdruck eines Feldes mit sehr unterschiedlichen Interessen, Sichtbarkeiten und Reichweiten. Der Begriff „Ethik“ wirkt dabei nicht neutral: Er kann Unterschiede markieren, aber auch überdecken, bestimmte Konstellationen sichtbar machen oder in den Hintergrund treten lassen. Für die schulische Auseinandersetzung mit dem Thema bedeutet das: Wer mit dem Begriff „Ethik“ arbeitet, kann nicht voraussetzen, dass damit bereits ein klar umrissenes Konzept gemeint ist. Vielmehr stellen sich grundsätzliche Fragen nach Sprecherinnen- und Sprecherposition, Intention und Folgen: Wer spricht? Was soll mit der Nutzung des Begriffs „Ethik“ erreicht werden? Welche Konsequenzen ergeben sich daraus im jeweiligen Zusammenhang?

Zentral ist die Erkenntnis, dass „Ethik“ ist kein neutraler Begriff ist. Auch ethische Positionen werden vor dem Hintergrund bestimmter Interessen und Deutungsperspektiven vertreten. Wenn etwa Sicherheitsethik als Pflicht gegenüber zukünftigen Generationen formuliert wird, verschiebt sich die Aufmerksamkeit weg von heutigen Problemen hin zu hypothetischen Risiken. Wenn Unternehmen Ethikrichtlinien präsentieren, geht es häufig auch um Reputation oder Marktpositionierung. Und wenn religiöse Akteure sich ethisch äußern, stehen oft bestimmte Menschenbilder oder autoritative Wahrheitsansprüche im Hintergrund. 

Gerade deshalb ist die Analyse verschiedener, interessengeleiteter Perspektiven ein zentraler Bestandteil ethischer Bildung: Aufklärung im schulischen Kontext bedeutet zwar das Kennenlernen von Normen und moralischen Prinzipien, aber auch die Auseinandersetzung mit den Interessen, Argumentationsformen und Deutungsmustern, die in ethischen Aussagen zum Ausdruck kommen – sei es im Zusammenhang mit Religion oder mit Künstlicher Intelligenz. Ethikunterricht kann damit dazu beitragen, dass Schülerinnen und Schüler nicht nur Fragen der Moral verhandeln, sondern durch Kontextualisierung und kritisches Nachdenken lernen, komplexe Diskurse einzuordnen.

Bevor im Folgenden die Auswirkungen Künstlicher Intelligenz auf Jugendliche im Mittelpunkt stehen, sei ein kurzer Blick auf die gesamtgesellschaftlichen Dimensionen geworfen. Als Mathematikerin bzw. Techniksoziologin haben Cathy O’Neil und Meredith Broussard gezeigt, wie algorithmische Systeme bestehende Ungleichheiten reproduzieren, beispielsweise in Justiz, Bildung oder Kreditvergabe (O’Neil 2016; Broussard 2023). Der Philosoph und Technikethiker Mark Coeckelbergh beschreibt, wie KI die Bedingungen demokratischer Öffentlichkeit verändert, indem sie Sichtbarkeit, Zugang und Relevanz algorithmisch steuert (Coeckelbergh 2024). Auf die systemische Verstärkung von Empörungsdynamiken und gesellschaftlicher Polarisierung durch sogenannte Recommender-Systeme – also algorithmische Vorschlagsmechanismen in sozialen Medien – weist Max Fisher hin (Fisher 2022). In ähnlicher Weise zeigt Tobias Rose-Stockwell, dass digitale Plattformen extreme Inhalte bevorzugen, weil diese die Aufmerksamkeit der Nutzerinnen und Nutzer stärker binden und damit ökonomisch besonders wirksam sind (Rose-Stockwell 2023). Schließlich warnen geopolitische Analysen davor, dass große Technologiekonzerne und staatlich geförderte Forschungszentren – also Akteure mit enormem Datenzugang, Rechenleistung und Kapital – die Entwicklung einer sogenannten Allgemeinen Künstlichen Intelligenz („Artificial General Intelligence“, AGI) dominieren könnten. Während heutige Systeme meist als „Artificial Narrow Intelligence“ (ANI) bezeichnet werden, da sie auf spezifische Aufgaben spezialisiert sind, beschreibt AGI ein Zielsystem, das flexibel und kontextübergreifend denken und handeln könnte, ähnlich einem menschlichen Verstand. Einige Akteure sprechen inzwischen sogar von „Artificial Superintelligence“ (ASI), also einer hypothetischen Form übermenschlicher Intelligenz, wie sie etwa der Philosoph Nick Bostrom in seinen Zukunftsszenarien entwirft (Bostrom 2014). Diese Entwicklungen werfen grundlegende Fragen auf: nach der Rolle staatlicher Regulierung, der weltweiten Machtverteilung und danach, wer künftig überhaupt darüber mitentscheidet, wie KI eingesetzt wird (Pavel u. a. 2025).

Gerade Jugendliche erleben diese Entwicklungen nicht nur als abstrakte Prozesse, sondern in Form konkreter Alltagserfahrungen. Algorithmen strukturieren, was sichtbar wird – etwa welche Themen, Meinungen oder Personen in Feeds auftauchen –, verstärken bestimmte Inhalte und prägen soziale Beziehungen. Die Dokumentarfilmerin Lauren Greenfield zeigt in ihrer Serie Social Studies, wie Jugendliche sich in digitalen Umgebungen bewegen, in denen Aufmerksamkeit zur zentralen Ressource wird (Greenfield 2024). Ein Beispiel ist die sorgfältige Inszenierung der Bilder von Personen auf Instagram oder TikTok – inklusive Licht, Kleidung, Pose und Nachbearbeitung. Auch das Verhalten auf Plattformen wie BeReal oder Snapchat folgt impliziten Erwartungen: hinter vermeintlich spontanen Aufnahmen steckt in der Regel eine strategische Präsentation. Außerdem berichten Jugendliche von einem wachsenden Druck, auf algorithmische Veränderungen sofort zu reagieren, etwa wenn eigene Beiträge plötzlich seltener im Feed ihrer Freundinnen und Freunde auftauchen oder deutlich weniger Likes erhalten. Ellen Atlanta beschreibt in ihrem Buch Pixel Flesh, wie insbesondere junge Frauen versuchen, digitalen Schönheitsidealen zu entsprechen. Diese werden geprägt von bearbeiteten Gesichtern und Influencerinnen, deren Erscheinungsbilder zunehmend durch KI-Technologien mitgestaltet oder sogar vollständig erzeugt werden (Atlanta 2024). Viele Menschen verbringen Stunden mit der Erstellung des „perfekten“ Selfies – nicht aus Eitelkeit, sondern um nicht negativ aufzufallen. Entscheidend ist dabei: Was Nutzerinnen und Nutzer zu sehen bekommen, entscheiden heute überwiegend KI-basierte Systeme im Hintergrund. Dazu gehören beispielsweise Recommender-Algorithmen, die Inhalte vorschlagen, oder Feed-Kurationssysteme, die Beiträge nach unsichtbaren Kriterien sortieren und priorisieren. Auch automatisierte Systeme zur Erkennung und Bewertung von Bildinhalten steuern maßgeblich, welche Beiträge hervorgehoben oder zurückgehalten werden. Sichtbarkeit ergibt sich dabei weniger aus individueller Selbstdarstellung, sondern vielmehr aus der Anpassung an technologisch vorgegebene Normen. Für viele Jugendliche bedeutet das, dass sie ihre Online-Präsenz kaum als Raum für Gestaltung erleben. Stattdessen reagieren sie auf eine Umgebung, die vorschreibt, was von anderen wahrgenommen wird – und was nicht.

Neben den allgemeinen Herausforderungen digitaler Plattformen – wie algorithmischer Intransparenz, gesteuertem Zugang zu Inhalten oder sozialem Druck durch permanente Sichtbarkeit – sind Frauen und Mädchen in besonderer Weise von den digitalen Dynamiken betroffen, die durch KI-gestützte Systeme verstärkt werden. Das betrifft einerseits die Sichtbarkeitslogiken sozialer Medien, in denen algorithmische Gewichtungen bestimmte sexualisierte Körperbilder und Rollenklischees bevorzugen. Andererseits sind Frauen überdurchschnittlich häufig Ziel neuer Formen digitaler Gewalt. Dazu gehören Deepfakes mit pornografischem Inhalt, das nicht-einvernehmliche Teilen von Fotos, automatisiertes Stalking oder sexualisierte Ansprachen durch Chatbots. Auch im Bereich der Pornografie lassen sich Veränderungen beobachten, die auf KI-Effekte zurückgehen: KI-generierte Inhalte, personalisierte Empfehlungssysteme und realitätsnahe Simulationen verschieben nicht nur die Ästhetik, sondern auch die Dynamik von Rezeption, Konsum und Beteiligung. 

Schätzungen zufolge erreichte der weltweite Umsatz der sogenannten Adult-Entertainment-Branche im Jahr 2023 etwa 288 Milliarden USD, was mehr als dem Doppelten des globalen Video-Streaming-Markts entspricht. Dessen Umsatz wurde 2024 auf nur rund 129 Milliarden USD geschätzt (Globenewswire 2024; Pattison 2025). Diese Größenordnung verdeutlicht die wirtschaftliche Dimension pornografischer Inhalte und ihre zentrale Rolle in der digitalen Medienökonomie – insbesondere hinsichtlich Reichweite, Nutzerinnen- und Nutzerbindung und technologischer Innovation. Digitale Pornografie-Plattformen stehen im Zentrum dieses hochprofitablen Marktes, dessen Erträge maßgeblich durch KI-basierte Optimierungstechniken generiert werden. Die britische Autorin Laura Bates spricht in diesem Zusammenhang von einer „neuen Welle des digitalen Frauenhasses“ – einem Phänomen, das sich weniger durch einzelne Inhalte als durch die algorithmische Sichtbarmachung, Verstärkung und Normalisierung frauenfeindlicher Narrative etabliert (Bates 2025). Künstliche Intelligenz wirkt hier nicht als neutrale Infrastruktur, sondern als aktive Mitgestalterin sozialer Realitäten – mit geschlechtsspezifischen Folgen, die auch im schulischen Kontext zur Sprache gebracht werden können. Auch wenn in diesem Beitrag der Fokus auf die Auswirkungen für Frauen gelegt wurde, zeigen empirische Befunde, dass Jungen und Männer ebenfalls von digitalen Kontrollpraktiken, Identitätsunsicherheiten und problematischen Erwartungshaltungen betroffen sein können – wenn auch in anderer Form und Intensität.

Die hier skizzierten Beobachtungen zeigen, dass Künstliche Intelligenz nicht nur als technisches System, sondern als gesellschaftlich wirksame Struktur zu verstehen ist. Sie wirkt sich darauf aus, welche Personen und Perspektiven sichtbar werden, wem Teilhabe ermöglicht oder verwehrt wird und wie sich digitale Umgebungen auf das Selbstverhältnis insbesondere junger Nutzerinnen und Nutzer auswirken. Statt zu grundlegender Technikkritik anzuregen, bieten diese Erkenntnisse für den Ethikunterricht die Chance, Schüler und Schülerinnen bei der Analyse von Machtstrukturen, Deutungshorizonten und sozialer Ordnung zu begleiten; auch dort, wo diese durch Algorithmen mitgestaltet werden. Der Fokus auf Jugendliche und geschlechtsspezifische Dynamiken stellt dabei einen ersten Ausgangspunkt dar: für eine Ethik, die nicht vorschnell urteilt, sondern zu verstehen sucht, was Künstliche Intelligenz mit uns macht.

Literatur

Atlanta, Ellen. 2024. Pixel Flesh. How Toxic Beauty Culture Harms Women. London: Headline Publishing Group.

Bates, Laura. 2025. The New Age of Sexism. How the AI Revolution Is Reinventing Misogyny. London: Simon & Schuster.

Bostrom, Nick. 2014. Superintelligence. Paths, Dangers, Strategies. Oxford University Press.

Broussard, Meredith. 2023. More Than a Glitch. Confronting Race, Gender, and Ability Bias in Tech. Cambridge: The MIT Press.

Coeckelbergh, Mark. 2024. Why AI Undermines Democracy and What To Do About It. Cambridge: Polity Press.

Fisher, Max. 2022. The Chaos Machine. The Inside Story of How Social Media Rewired Our Minds and Our World.London: Quercus Books.

Globenewswire. 2024. „Online Adult Entertainment Market to Exceed $118.1 Billion in Revenues by 2030 – Global and Country-Level Analysis by Content, Monetization Model, Interaction, Age Group, and End User.“ 16. Dezember. .

Greenfield, Lauren, Regie. Social Studies. Streaming-Dokumentarserie. Disney+, 2024. .

O’Neil, Cathy. 2016. Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy. New York: Broadway Books.

Pattison, Sandra. 2025. „35 Streaming Services Statistics for 2025: Deep Dive Into Video & Music Streaming.“ Cloudwards, 25. April. .

Pavel, Barry u. a. 2025. How Artificial General Intelligence Could Affect the Rise and Fall of Nations: Visions for Potential AGI Futures. RAND Corporation. .

Prohl, Inken. im Erscheinen. „Enttäuschung im Diskurs – Warum KI und Ethik neue Fragen brauchen. Ein religionswissenschaftlicher Blick jenseits normativer Routinen.“ Blog: Religion, Technologien und Künstliche Intelligenz.

Rose-Stockwell, Tobias. 2023. Outrage Machine. How Tech Amplifies Discontent and Disrupts Democracy – and What We Can Do About It. Piatkus.