Inhalt

Von Jesus-Bots und Luther-Avataren: KI in der religiösen Bildungspraxis

Es vergeht kein Tag, an dem nicht neue Errungenschaften im Feld Künstlicher Intelligenz (KI) bekannt werden. Die Entwicklungen in diesem Forschungsbereich nehmen exponentiell zu. Digitalkonzerne kämpfen um die wirtschaftliche Vormachtstellung. Das religionsbezogene Feld scheint da eher ein Nischenthema zu sein. Doch auch dort ist KI angekommen und mit Blick auf die religiöse Bildungspraxis werden Fragen nach Möglichkeiten und Grenzen von KI virulent.

Als im Frühjahr 2024 der virtuelle Chatbot „Father Justin“ der Lobbyorganisation Catholic Answers den virtuellen Raum betrat, war das Ende seiner Karriere fast schon wieder eingeläutet. Der Priesteravatar im klassischen schwarzen Kollarhemd konnte via Mikrofon befragt werden. Dabei tat er sich nicht nur als moralinsaurer Hardliner hervor, der Selbstbefriedigung als schwere moralische Sünde verurteilt, sondern war auch der Meinung, man könne Kinder mit Energydrinks taufen. Nach viel Kritik wurde der virtuelle Priester wieder seines Amtes enthoben.

Das Beispiel des Priester-Chatbots Father Justin steht paradigmatisch für die aufmerksamkeitsheischende Diskussion um KI, wie sie gerade Einzug in den religiösen Raum findet. Versuche wie der Luther-Avatar der Evangelischen Kirche im Rheinland oder das mittlerweile nicht mehr zugängliche JesusGPT, das darauf programmiert war, als Jesus zu antworten, fallen in diese Kategorie. Das Spektrum und die Anwendungsmöglichkeiten sind allerdings breiter und vielfach unspektakulärer, als dies zunächst den Anschein hat und die vielen aufgeheizten Diskussionen glaubhaft machen wollen. KI kann als derzeit dominanter Ausdruck einer Kultur der Digitalität bezeichnet werden und birgt viele Möglichkeiten. Zugleich wird auf Grenzen und Gefahren hingewiesen (vgl. Chrostowski 2023). Dieser Beitrag tut dies aus der Perspektive religiöser Bildung und versucht, KI mit Blick auf religiöse Bildungspraxis zu reflektieren.

Können Maschinen denken?

Im Anschluss an Alan Turings berühmte Frage, ob Maschinen denken könnten, wurde intensiv über die Definition von KI nachgedacht. KI wird vor allem mit den Schlagworten „Digitalisierung, Daten, Algorithmen und Vernetzung“ (Filipović 2021, 13) in Verbindung gebracht. Im europäischen Kontext wird häufig auf die KI-Definition der unabhängigen Expert*innengruppe der Europäischen Kommission zu KI Bezug genommen, die zentrale Merkmale zusammenfasst:

„Als Künstliche Intelligenz werden Software- (und Hardware‑)​Systeme bezeichnet, die von Menschen entwickelt werden. Diese Systeme handeln in digitalen wie physischen Umgebungen. Ihre Aufgabe ist es, komplexe Ziele zu erreichen. Dazu wird die Umgebung durch Datenerfassung wahrgenommen. Die gewonnenen Daten werden interpretiert und der bestmögliche Weg (Handlungen) zur Erreichung des Ziels aus den Informationen abgeleitet. Dazu nutzen sie sowohl symbolische wie numerische Modelle. Ausgehend von den Informationen und früheren Handlungen sind KI-Systeme in der Lage, ihr Verhalten anzupassen. Die wissenschaftliche Disziplin der KI-Forschung umfasst Maschinelles Lernen (ML), Maschinelles Schließen (MS) und Robotik.“
(European Commission 2019, 6; Übersetzung F. M.)

KI ist der Versuch, menschliche, spezifisch mathematisch-logische Intelligenz zu imitieren. Zum einen geschieht dies in Bezug auf das Lernen (Lernen aus Daten), zum anderen in Bezug auf das Denken (Erzeugung neuer Daten und Modelle durch Logik). Unterschieden wird zwischen schwacher und starker KI. Schwache KI ist jene Form, die uns bereits in unserem Alltag auf vielfache Weise begegnet. Starke KI wäre eine Form, die über einen eigenen Willen und ein Selbstbewusstsein verfügt. Bisher ist sie bloß Gegenstand von Science-Fiction. Eine KI hat mit heutigem Stand weder einen eigenen Willen noch einen Geist oder Gefühle. Auch wenn es dazu Überlegungen gibt, so konnte bisher keine solche starke KI gebaut werden.

Eines der prominentesten Beispiele der vergangenen Zeit ist sicherlich die Anwendung ChatGPT, welche den Diskurs um den Einsatz von KI in den Alltag der Menschen getragen und befeuert hat. ChatGPT stellt jedoch nur einen kleinen, sichtbaren Teil all jener Entwicklungen dar, die mit dem umbrella term KI bezeichnet werden und in Bereichen wie Arbeit, Industrie oder Gesundheitswesen eingesetzt werden.

Educ-AI-tion – KI im allgemeinen Bildungskontext

Im Kontext von Bildung zeigt sich, dass KI bereits seit einiger Zeit – insbesondere im Kontext des Sprachenlernens – genutzt wird. Unterschieden wird grundsätzlich zwischen lernendenzentrierter KI, lehrendenzentrierter KI und system- und administrationszentrierter KI (vgl. Baker/‌​Smith 2019). Daten, die im Lernprozess der Schüler*innen erzeugt werden, werden dafür genutzt, um Lernen zum einen personalisierter und flexibler und zum anderen inklusiver zu machen und die Lernenden aktiver in das Lerngeschehen zu involvieren. Das Meta-Ziel ist dabei – zumindest wird dies so nach außen kommuniziert –, „Möglichkeiten des Lehrens und Lernens [zu] erweitern“ (Birkelbach/​Mader/​Rammel o. J., 11). Hierbei wird der Einsatz von KI nicht als Alternative zu herkömmlichen Methoden, sondern vielmehr als Erweiterung zu bisherigen Formaten gesehen.

Dies geschieht in der Tradition konstruktivistischer Lerntheorien, welche davon ausgehen, dass Lernen dann am besten gelingt, wenn die Subjekte in den Lernprozess selbst aktiv einbezogen werden und sich so ihren Lerngegenstand selbst konstruieren. In diesem Sinne wird der Einsatz von KI-Technologien im Bildungsbereich durchaus plausibel gerechtfertigt, kann doch vor dem Hintergrund eines stark individualisierten Lernens dem Argument personalisierter Lernsettings wenig entgegengehalten werden. KI findet im Bildungsbereich daher vor allem unter der Perspektive von Educational Data Mining und Learning Analytics, intelligenten Tutoren-Systemen und Lern-Management-Systemen (vgl. ebd. 12–15) ihren Einsatz. KI-Anwendungen werden hierbei gezielt in bereits bestehende pädagogische Bereiche eingebettet. Zu nennen sind ergebnisoffenes Lernen bzw. forschendes Lernen, selbstgesteuerte Lernformen oder Chatbots als Unterstützung bei der Verbesserung der Argumentationsfähigkeit (vgl. Giang/​Wambsganss/​Käser 2023).

Dieser allgemeine, kursorische (und sicher nicht vollständige) Überblick von KI-Anwendungen im Bildungsbereich zeigt, dass die Möglichkeiten bereits weit vorangeschritten sind und sich aus dem Einsatz durchaus positive Effekte für Lernende und Lehrende ergeben. Für den Bereich religiöser Bildung sind bisher jedoch keine breit angelegten KI-Modelle wie die soeben beschriebenen entwickelt worden, was nicht heißt, dass dies nicht in naher Zukunft der Fall sein könnte.

KI im Bereich religiöser Bildung – Blitzlichter

Ein Blick in die methodische Werkzeugkiste von Religionslehrpersonen und Katechet*innen – z. B. die Online-Sammlungen von Arthur Thömmes („Künstliche Intelligenz im Unterricht. Tools, Informationen und Beispiele“) oder Simone Meinen („KI im Religionsunterricht“) – lässt nicht nur erkennen, dass KI bereits Einzug in religiöse Bildung gehalten hat, sondern dass KI hier in Form von bestimmten, mehr oder weniger einfach zugänglichen Tools Einsatz findet. Hier können Textgeneratoren (z. B. ChatGPT, Chatbots wie Nikodemus.AI vom ERF Bibleserver), Bildgeneratoren (z. B. DallE), Musikgeneratoren (z. B. Suno) sowie Präsentationsgeneratoren (z. B. mysimpleshow) unterschieden werden. Die Palette an Werkzeugen wächst mit jedem Tag, manche Tools kommen hinzu, andere verschwinden. Den Überblick zu behalten ist selbst für Geübte oft schwierig.

In religionsdidaktischen Heften der jüngeren Zeit wird das Thema KI vor allem mit Blick auf anthropologische und mediendidaktische Fragestellungen diskutiert – zu nennen sind das Heft „Künstliche Intelligenz und Human Enhancement“ von Religion unterrichten (2/2022) und das Themenheft „Künstliche Intelligenz“ von RUheute (1‑2/2023). KI ist dabei Thema des Religionsunterrichts; zugleich wird versucht, KI-Anwendungen im Religionsunterricht einzubetten und dies zu reflektieren.

Dass die Frage nach dem Menschen so prominent diskutiert wird, verwundert kaum und ist in der Konzeption von KI selbst begründet. Der Versuch, menschliche Intelligenz durch technologische Mittel nachzubilden, führt wohl oder übel zu der Frage, wer oder was der Mensch ist. Insofern ist KI ein guter Anlass, um sich über das Wesen des Menschen und in weiterer Folge über das Wesen seines Verhältnisses zu Gott Gedanken zu machen.

Recht praktisch wird eine ganze Reihe verschiedener Anwendungsmöglichkeiten von KI-Tools im Religionsunterricht sowohl für Lehrkräfte als auch für Schüler*innen genannt: Lehrpersonen können die KI dazu nutzen, um Lernziele zu formulieren, Bibeltexte in einfacher Sprache zu schreiben, Multiple-Choice-Fragebögen oder Lückentexte zu erstellen, Texte zu bewerten, eine Unterrichtsplanung vorzunehmen u. v. m. KI unterstützt hierbei die Lehrkraft, ohne sie jedoch zu ersetzen. Lernenden kann KI helfen, einfache und kurze Definitionen oder Zusammenfassungen zu erstellen, Texte zu strukturieren und zu verbessern, gute Fragen zu formulieren, Beispielaufsätze zu erstellen oder Präsentationen zu gestalten.

KI religionsdidaktisch reflektieren

Damit ist jedoch die Frage nach einem angemessenen Einsatz von KI-Tools in religiösen Bildungsprozessen noch nicht geklärt. Erste religionspädagogische wie ‑didaktische Überlegungen zum Thema KI stimmen hierbei grundsätzlich überein, dass es nicht um ein Ja oder Nein zu KI in religiöser Bildung gehen kann, sondern um einen Einsatz, der sich an Kriterien religiöser Bildung orientiert und die Ambivalenzen von KI bedenkt. Wichtig erscheint, KI „selbstverständlich als Tool [zu] nutzen“ und „selbst aber auch zum Lerngegenstand werden“ zu lassen (Heger 2023, 33). Heger plädiert dafür, dass grundsätzlich alle Medien und Tools erlaubt sind, solange sie kriteriengeleitet genutzt und stets neu deren Grenzen bedacht werden. Zudem sind die Lernenden immer für das Resultat des Arbeitsprozesses verantwortlich. Schließlich wird die Verpflichtung zur Angabe der verwendeten Hilfsmittel gefordert, weil KI-Tools als hochentwickelte Technologien mehr sind als ein bloßes Wörterbuch.

In Anlehnung an religionsdidaktische Kriterien des Umgangs mit Methoden ist danach zu fragen, wie angemessen die Methode gegenüber der elementaren Struktur des Lerngegenstandes ist. Das bedeutet z. B. zu fragen, inwiefern ChatGPT biblisches Lernen unterstützen kann bzw. welche Aspekte davon. Zugleich sind die Lernziele, die beim Bildungsprozess intendiert werden, zu beachten. Bestimmte Ziele lassen sich mit bestimmten Werkzeugen besser erreichen. Ob das jeweilige KI-Tool dafür brauchbar ist, muss nach Kontext und Ziel beurteilt werden. Darüber hinaus sollen Methoden die Frage nach Wahrheit offenhalten. Das heißt z. B., Methoden zu wählen, die die Argumentationsfähigkeit stärken. Ebenso sollte auf eine Ausgewogenheit der kognitiven, affektiven und pragmatischen Anregung der Lernenden geachtet werden, womit bereits impliziert ist, dass religiöse Bildung nicht bloß auf KI-Tools zurückgreifen wird, sondern sie vielmehr als Erweiterung des Methodenrepertoires sieht. Außerdem müssen Methoden mit Blick auf die Lernsituation ausgewählt werden, also ob sie z. B. dem Lernort angemessen sind oder es die technologische Ausstattung dafür gibt. Schließlich muss sich jede Methode und müssen sich daher auch KI-Tools daran messen lassen, inwiefern sie dazu beitragen, die religiöse Selbstbestimmung der Lernenden zu unterstützen. Denn der Einsatz einer Methode um ihrer selbst willen verfehlt ihr Ziel. In diesem Zusammenhang ist zu bedenken, dass Methoden wie Medien stets menschliche Erfahrungen zum Ausdruck bringen und daher auch mehr sind als eine bloße Form der Vermittlung im Sinne einer Sender-Empfänger-Relation. KI ist Methode und Ausdruck einer Kultur der Digitalität, welche bisherige Sinnstrukturen hinterfragt und neu ordnet. Hier haben Theologie und religiöse Bildung einen wichtigen Beitrag zu leisten, indem sie die Botschaft des Evangeliums beständig und konstruktiv-kritisch einbringen. Dies führt auch zu Fragen der ethischen Bewertung.

Ethische Kriterien

Fragen der ethischen Bewertung neuer Technologien sind grundsätzlich nichts Neues. Auch im Umgang mit KI reicht die Reflexionstradition bis in die Anfänge der technologischen Entwicklungen zurück. Eine theoretische Basis für ethische Reflexionen zu KI in religiösen Bildungsprozessen bietet der Ansatz von Marie-Christin Barton und Jens Pöppelbuß (Barton/​Pöppelbuß 2022), welcher aus der Zusammenschau unterschiedlicher, bereits bestehender Modelle entwickelt wurde und sechs ethische Kategorien vorschlägt: Wohltätigkeit, Transparenz, Nicht-Boshaftigkeit, Autonomie, Gerechtigkeit und Datenschutz. Viele der genannten Prinzipien werden offen formuliert. Dadurch können sie je nach ethischer Verortung (deontologisch, tugendethisch, utilitaristisch, diskursethisch) anders gefüllt werden können. Aus einer praktisch-theologischen Perspektive steht daher die Botschaft des Evangeliums als zentrales Kriterium im Vordergrund.

Hierbei ist zunächst „[d]ie zentrale theologische Aufgabe im Kontext der Technologien Künstlicher Intelligenz […], die Transformationen des Humanen, die mit KI-Technologien so augenfällig werden, reflexiv einzufangen und auszudehnen auf die Frage, was es unter diesen Bedingungen bedeutet, von Gott zu sprechen“ (Filipović 2021, 14). In den Fokus rückt also die Frage, wie sich das Humane angesichts von KI im Bildungsbereich transformiert und wie dies vor dem Hintergrund praktischer Theologie und Religionspädagogik bewertet werden kann. Hierbei spielt auch die Frage nach der „Freiheit des Menschen“ (ebd. 15) eine zentrale Rolle. Drei spezifische Fragestellungen werden zum Abschluss herausgegriffen und etwas ausführlicher entfaltet.

Datenschutz und Privatsphäre

Bei Datenschutz und Privatsphäre geht es grundsätzlich um die Frage, wer welche Informationen unter welchen Bedingungen preisgeben muss bzw. wer das Recht hat, dies auch zu verweigern. Damit verbunden ist das Prinzip des Eigentums, also wem die Daten gehören und ob es gerechte und faire Bedingungen für den Datenaustausch gibt. Schließlich ist damit auch die Frage verbunden, wer Zugang zu den Daten hat und wer nicht. Datenschutz und Privatsphäre sind somit verbunden mit der Frage nach der Freiheit des Menschen. Des Weiteren ist hier zu hinterfragen, wo die Daten gespeichert werden und wer für die Sicherheit der Daten sorgt. Damit verbunden ist die Frage, wer alles Zugriff auf die Daten hat: Häufig werden KI-Programme von Unternehmen angeboten, welche aus den Daten selbst wiederum Gewinne schöpfen (wollen). Wie kann also im Sinne der Privatsphäre und des Datenschutzes verhindert werden, dass ungefragt Daten der Lernenden das Klassenzimmer bzw. den Gemeinderaum verlassen? Gerade mit Blick auf die Stellung des Menschen als „Träger, Schöpfer und […] Ziel aller gesellschaftlichen Einrichtungen“ (Mater et magistra 219) ist hier die Frage zu stellen, wie dies unter ökonomischen Bedingungen gewährleistet werden kann. Dient der Lernprozess dem Menschen und seiner Bildung als Ziel selbst oder ist er auf bloße Gewinnmaximierung von Konzernen gepolt?

Bildungsgerechtigkeit

Das Prinzip der Gerechtigkeit verweist auf den Bereich der Bildungsgerechtigkeit. Im Hintergrund steht die Frage, ob KI dazu führt, den gesellschaftlichen Wohlstand zu fördern und zugleich die Solidarität zu wahren. Dazu zählen auch die Verantwortung für die Richtigkeit von Informationen und die Übernahme von Verantwortung bei Fehlern. Bildungsgerechtigkeit kann zudem unter der Perspektive einer Teilhabegerechtigkeit in den Blick genommen werden. Diese meint, dass Subjekte religiöser Bildung ein Mindestmaß an Fähigkeiten erwerben können müssen, um zu einer „autonome[n] Lebensgestaltung unter Teilnahme am sozialen, politischen, ökonomischen und kulturellen Leben der Gesellschaft“ (Giesinger 2007, 377) befähigt werden zu können. Es ist daher darauf zu achten, wer Zugang zu den genannten Anwendungen hat bzw. wer davon ausgeschlossen wird – ob beispielsweise nur bestimmte Schulformen (etwa Gymnasien) mit dieser Technologie ausgestattet werden oder Gemeinden, die sich diese leisten können.

Ziel von KI-Anwendungen ist die Personalisierung und Individualisierung in Lernprozessen. Grundsätzlich ermöglicht dies besonders benachteiligten Lernenden eine verbesserte Betreuung. Diese hängt allerdings von der Genauigkeit der Trainingsdaten und der Datenverarbeitung ab. Falsche Daten können so zum Ausschluss bestimmter Gruppen von Lernenden führen. Außerdem ist aus Sicht einer kritisch-solidarisch verstandenen religiösen Bildung vor einer zu großen Individualisierung Vorsicht geboten. Chatbots können im Extremfall zur ‚Filterblasenbildung‘ führen und auf diese Weise einzelne Gruppen voneinander abgrenzen. Solidarisches Lernen lebt jedoch vom Austausch und der Konfrontation mit fremden Inhalten, Personen etc.

Bias und Diskriminierungen

Der dritte Aspekt ist die Frage nach Bias und Diskriminierung in KI-Systemen und verweist noch einmal auf das solidarische Prinzip religiöser Bildung. Daten stehen immer in der Gefahr, bestimmte Vorurteile zu reproduzieren und Diskriminierung fortzuschreiben. Aus diesem Grund ist die Transparentmachung des Interpretationsprozesses von hoher Wichtigkeit – wenngleich dies aufgrund der Strukturierung vieler Algorithmen als ‚Black Box‘ nur schwer einzuholen ist. Dennoch und gerade deswegen ist eine permanente Überprüfung auf geschlechtsbezogene, rassistische, ableistische und andere Formen der Diskriminierung durch die Lehrpersonen von großer Notwendigkeit. Dies bedeutet auch im Sinne einer Medienpädagogik, mit den Lernenden in Schule und Gemeinde selbst diese Formen kritisch zu hinterfragen und bewusst darauf hin zu untersuchen.

Ausblick

Aus religionspädagogischer Sicht, die affin für medienpädagogische Reflexion ist, ist ein Ausschluss von KI-Tools in religiösen Bildungsprozessen kaum sinnvoll. Vielmehr gilt es, Ambivalenzen sichtbar zu machen und die Lernenden zu Autonomie im Umgang mit KI in religiösen Fragen zu befähigen. Zugleich bietet KI gute Anlässe, um über das Wesen des Menschen ins Gespräch zu kommen und sich der eigenen Quellen in einem neuen Kontext zu vergewissern.