Die Sichtbarmachung der Welt
Die Auswirkungen der KI im Bereich der digitalen Öffentlichkeit als Aufgabe für die praktische Theologie (ein programmatisches Essay)
Die gesamte Gesellschaft sieht sich mit einer irreversiblen Veränderung durch die digitale Revolution konfrontiert. Bezüglich der aktuellen und prospektiven Auswirkungen können alle anderen Themen – mit Ausnahme des Klimawandels – als Randthemen bezeichnet werden. In Bereichen wie dem Gesundheitswesen, dem Bildungssektor, der militärischen Auseinandersetzung oder der Religion führt Künstliche Intelligenz (KI) zu einer grundlegenden Veränderung der Art und Weise, wie wir leben, lieben und interagieren. Des Weiteren beeinflusst KI die kulturelle und gesellschaftliche Entwicklung, indem sie den kreativen Ausdruck erweitert und gleichzeitig neue Formen der Interaktion und Kommunikation ermöglicht. Davon sind aktuell vor allem die Seelsorge, die Beratung, die gesellschaftspolitische Bildung und theologische Aushandlungsprozesse betroffen. Die rapide Verbreitung künstlicher Intelligenz birgt das Risiko einer Verstärkung sozialer Ungleichheiten sowie einer Machtkonzentration bei der Kontrolle persönlicher Daten in den Händen weniger. Einige Forscher*innen vertreten die These, dass aktuell eine neue Form der Existenz er‑/geschaffen wird. Die aktuelle Situation ist dadurch gekennzeichnet, dass die KI eine Vielzahl an neuen Fragestellungen aufwirft. Die theologische Frage „Wer bist du, Mensch, wenn du ein neues Gegenüber hast?“ wird neu gestellt. (An dieser Stelle ist es wichtig zu betonen, dass der Autor dieses Textes keine dystopische Technikangst hat. Er wird von vielen Personen als Nerd beschrieben, der Technik in den schillerndsten Formen ausdrücklich willkommen heißt und der Auffassung ist, dass die positiven Aspekte des Lebens auf der Erde, so wie wir es kennen, durch Technologie ermöglicht werden.)
Im Folgenden soll ein spezieller Aspekt dieser digitalen Revolution näher beleuchtet werden, den ich mit „die Sichtbarmachung der Welt“ im Titel charakterisiert habe. Der Fokus liegt auf einer neuartigen Transparenz, die immer stärker sowohl technische als auch gesellschaftliche Bereiche durchdringt. Dies führt zu einer Welt, in der nahezu alles enthüllt und sichtbar gemacht wird. Die fortschreitende Digitalisierung wirft dabei die Frage auf, wie diese Entwicklung das menschliche Dasein verändert. In unserer zunehmend digitalisierten Gesellschaft wird Technologie eingesetzt, um den Menschen nicht nur besser zu verstehen, sondern ihn auch immer vorhersagbarer zu machen.
„Ich denke, KI ist das Beste oder das Schlimmste, was der Menschheit passieren kann. Es ist die wichtigste Diskussion der Menschheit.“
(Max Tegmark [Future of Life Institute] zugeschrieben)
Die Generative KI stellt möglicherweise das bisher mächtigste Werkzeug dar, das die Menschheit entwickelt hat. Es lässt sich gegenwärtig nicht mit Gewissheit prognostizieren, ob eine Künstliche Intelligenz jemals ein eigenes Bewusstsein erlangen, verheerende Konflikte auslösen, unheilbare Krankheiten besiegen oder gar globale Krisen lösen wird. Oft wird die Generelle Künstliche Intelligenz (GAI) als das ultimative Ziel und als Endpunkt der technologischen Entwicklung betrachtet. Doch ob dieses Ziel jemals erreicht wird, bleibt stark umstritten. Was allerdings außer Frage steht, ist, dass die heutigen Technologien bereits weitreichende Möglichkeiten bieten. Wir stehen an einem Wendepunkt, an dem sich entscheiden wird, ob wir diese Macht nutzen, um eine beispiellose Überwachungsdiktatur zu errichten, oder ob wir sie einsetzen, um globale Herausforderungen wie Armut, Hunger und den Klimawandel zu bewältigen. Letztlich liegt die Entscheidung in unseren Händen, denn die Ziele, die wir anstreben, werden durch die Künstliche Intelligenz verwirklicht. So oder so. Ob die oben genannte GAI, wenn sie denn kommt, auch die gleichen Ziele hat wie wir, hängt von uns ab. Die Sicherung der eigenen Existenz hat die Menschheit bereits vor immense Herausforderungen gestellt. Die Entwicklung und der Einsatz von Maschinen, die das menschliche Leben in irgendeiner Form bedrohen könnten, würden diese Probleme weiter verschärfen. Daher ist es unerlässlich, sich intensiv mit diesen Themen auseinanderzusetzen – besonders jetzt, da die gegenwärtige Generation die erste ist, die den Beginn dieser neuen Ära erlebt. Damit einher geht eine gewaltige gesellschaftliche, politische und auch ethisch-theologische Verantwortung.
Mit welchen neuen Herausforderungen werden uns in der Zukunft befassen? Trotz der Unterschiede in den Bereichen Maschinenethik, Informationsethik, Roboterethik und Algorithmenethik haben viele Fragen eines gemeinsam: Mit jedem technologischen Fortschritt entstehen neue moralische Fragenstellungen, die die Gesellschaft zwingen, z. B. ihr Verständnis vom Menschsein zu hinterfragen und neu zu bedenken. Angesichts der rasanten Digitalisierung ist es entscheidend, ein Menschenbild zu verteidigen, das die Würde und Autonomie des Individuums in den Vordergrund stellt. Die Vorstellung führender Tech-Unternehmen aus dem GAFA-Bereich (Google, Apple, Facebook, Amazon), dass ethische Probleme wie mathematische Gleichungen oder technische Herausforderungen allein durch technische Lösungen bewältigt werden könnten, ist jedoch eine gefährliche Illusion. Denn ethische Fragen lassen sich nicht auf rein logische oder algorithmische Prozesse reduzieren – sie erfordern menschliche Reflexion, Urteilsvermögen und ein tieferes Verständnis der moralischen Implikationen.
Dem polnischen Satiriker Stanisław Jerzy Lec wird der Satz zugeschrieben: „Hinter jeder Ecke lauern ein paar Richtungen.“ Diese Worte verdeutlichen, dass technologische Fortschritte stets neue, unerwartete ethische und gesellschaftliche Dilemmata hervorbringen, die nicht einfach linear gelöst werden können und für Christenmenschen eine theologische Grundierung notwendig machen.
Die Welt der Daten – die Welt als Daten
Jeden Tag produzieren wir Daten: Selfies, Texte (wie diesen), im Scrollen der Timelines auf Instagram und TikTok, bei der Suche auf Google (Ecosia ist leider nicht so weit verbreitet), wenn wir die Kreditkarte über ein Lesegerät ziehen, bei der Mautstelle auf der Autobahn, wenn wir Musik hören, Bücher kaufen, beim Bewegen im öffentlichen Raum oder in einer Bank oder auf dem Bahnhof oder in der Trambahn oder an der Tankstelle oder, oder, oder. Schätzungen zufolge produzierte eine durchschnittliche Person im Jahr 2012 etwa 500 MB Daten pro Tag; heute soll diese Menge auf etwa 62 GB pro Tag angestiegen sein.
Auf Social-Media-Plattformen wird unser Nutzer*innenerlebnis stark von Künstlicher Intelligenz gesteuert, die festlegt, welche Inhalte wir sehen, wann wir sie sehen und oft auch, warum sie uns angezeigt werden. Die Algorithmen analysieren unser Verhalten im Netz in Echtzeit – von den Beiträgen, die wir liken, teilen oder kommentieren, bis hin zur Verweildauer auf bestimmten Inhalten und den Themen, die unser Interesse besonders wecken. Die Algorithmen treffen anhand dieser Daten blitzschnelle Entscheidungen darüber, welche Inhalte uns als nächstes präsentiert werden. Das Ziel dieser Entscheidungen ist es, die Aufmerksamkeit der Nutzer*innen möglichst lange zu binden. In der Konsequenz entsteht eine subtile Abhängigkeit, da die Algorithmen nicht nur das Nutzer*innenerlebnis optimieren, sondern – zielgerichtet auf jede einzelne Person – in der Lage sind, Nutzer*innen durch gezielte Inhalte immer wieder auf die Plattformen zurückzuziehen. Diese gezielte Steuerung verdeutlicht, wie tiefgreifend die Digitalisierung in unser tägliches Leben eingreift und wie stark sie unsere Verhaltensweisen und Entscheidungen beeinflusst. Hierbei kommt die Methode Prädiktive Analytik ins Spiel. Diese Technologie greift auf historische Daten zurück, um Prognosen über zukünftiges Verhalten zu treffen. In Bezug auf unser digitales Verhalten bedeutet das, dass die KI nicht nur unser aktuelles Handeln analysiert, sondern auch Muster aus unseren früheren Interaktionen erkennt. Auf Basis dieser Muster kann die KI vorhersagen, welche Inhalte uns in Zukunft interessieren könnten, und sie uns gezielt anzeigen. So könnte die KI beispielsweise auf Grundlage unserer bisherigen Vorlieben voraussagen, dass wir uns wahrscheinlich für ein bestimmtes Thema oder Produkt interessieren, und uns entsprechende Beiträge oder Werbeanzeigen präsentieren. Im Rahmen des Überwachungskapitalismus werden diese Daten oft verwendet, um personalisierte Werbung und gezielte Inhalte zu kreieren, die das Verhalten der Konsumenten beeinflussen. Es ist, als würde die KI einen Spielautomaten der Aufmerksamkeit erschaffen, bei dem das ständige Scrollen zur Münze geworden ist, die wir immer wieder einwerfen – in der Hoffnung, den nächsten ansprechenden Inhalt zu entdecken.
Dieser Prozess führt zu einem stark personalisierten Angebot, das auf den ersten Blick eine angenehm maßgeschneiderte Erfahrung bietet. Allerdings birgt dies auch erhebliche Risiken. So werden uns immer wieder ähnliche Inhalte vorgeschlagen, was zur Entstehung sogenannter „Echokammern“ führen kann. Das bedeutet, dass wir vorwiegend mit Informationen konfrontiert werden, die unsere bestehenden Überzeugungen bestätigen, während alternative Sichtweisen zunehmend ausgeblendet werden. Dies hat weitreichende Folgen: Die Meinungsbildung kann dadurch stark beeinflusst werden und polarisiertes Denken wird verstärkt.
Darüber hinaus wirft der Einsatz dieser Technologie in sozialen Medien ernste Fragen zu Datenschutz und ethischen Standards auf. Doch diese Herausforderungen beschränken sich nicht nur auf Social Media – auch in anderen Bereichen wie der Versicherungsbranche, bei Bewerbungsverfahren oder im Kreditwesen finden ähnliche Mechanismen Anwendung. Die Tatsache, dass Algorithmen unser Verhalten so präzise analysieren und voraussagen können, schürt Bedenken hinsichtlich möglicher Manipulation und Kontrolle unserer Informationswahrnehmung.
In einer Welt, in der KIs zunehmend nicht nur bestimmen, was wir sehen, sondern auch antizipieren, was wir sehen wollen, ist es von größter Bedeutung, einen kritischen Umgang mit diesen Technologien zu pflegen. Wir müssen die gesellschaftlichen Folgen dieser Entwicklung genau im Blick behalten und sicherstellen, dass technologische Innovationen den Menschen dienen – und nicht umgekehrt.
Wir alle bestehen aus Daten, wie wir leben und was wir leben
Die Entwicklung von Methoden zur Erkennung von Mustern in riesigen Datenmengen ist ein zentraler Bestandteil moderner Forschung und wird maßgeblich von Informatiker*innen vorangetrieben. Die daraus gewonnenen Erkenntnisse ermöglichen es, menschliches Verhalten immer präziser vorherzusagen. Insbesondere im Kontext des sogenannten Überwachungskapitalismus entfaltet diese Präzisionsüberwachung tiefgreifende Auswirkungen auf individuelle Privatsphäre, soziale Gerechtigkeit und menschliche Freiheit.
Durch diese Überwachung kann der Verlust der Privatsphäre dramatische Ausmaße annehmen: Detaillierte Daten über nahezu alle Aspekte des Lebens – von Online-Aktivitäten bis hin zu physischen Bewegungsmustern – werden gesammelt, um individuelle Profile zu erstellen. Diese Profile ermöglichen nicht nur die Vorhersage persönlicher Vorlieben und Verhaltensweisen, sondern auch zukünftiger Entscheidungen. In einem solchen System bleibt kaum jemand unsichtbar, was zu einem allgegenwärtigen Gefühl der Überwachung führen kann.
Die Macht, Menschen zu manipulieren und zu kontrollieren, liegt in den Händen derjenigen, die Zugang zu diesen Daten besitzen – sei es durch Unternehmen oder Regierungen. Dabei bleiben diese Akteure oft unsichtbar im Hintergrund, ihre Eingriffe kaum spürbar, aber umso wirkungsvoller. Die Betroffenen bemerken meist nicht, wie sehr ihre Entscheidungen und ihr Verhalten durch unsichtbare Kräfte gelenkt und beeinflusst werden, was den Grad der Kontrolle und Manipulation nur noch verstärkt. Durch die detaillierte Analyse der persönlichen Daten wird das Verhalten von Einzelpersonen nachvollziehbar und beeinflussbar. Dies kann dazu führen, dass Menschen den Eindruck gewinnen, ihre Entscheidungen seien nicht mehr vollständig frei, sondern vielmehr das Ergebnis subtiler Lenkung. Ihre Autonomie wird untergraben.
Ein anschauliches Beispiel dafür ist die Möglichkeit, dass Politiker*innen nicht in der Lage sind, jeden einzelnen Wähler direkt anzusprechen und auf dessen spezifische Lebensumstände einzugehen. KI hingegen kann dies leisten, gestützt auf hochpräzise Persönlichkeitsprofile. Diese Profile sind oft so umfassend, dass die betroffene Person möglicherweise weniger über sich selbst weiß als die KI. So wird es möglich, gezielt Einfluss auf individuelle politische Überzeugungen und damit auf die gemeinsame Zukunft zu nehmen.
Diese umfassende Überwachung kann die Grundfesten der Demokratie erschüttern, indem sie die öffentliche Meinung manipuliert und den Zugang zu Informationen kontrolliert. Eine solche Kontrolle könnte zu einer subtilen Form sozialer Überwachung führen, die abweichende Meinungen erstickt und die politische Teilhabe einschränkt. Darüber hinaus haben die Algorithmen, die in der Präzisionsüberwachung eingesetzt werden, das Potenzial, bestehende gesellschaftliche Ungleichheiten zu verschärfen. Basieren sie auf voreingenommenen oder unvollständigen Daten, produzieren sie diskriminierende Ergebnisse – etwa durch gezielte Werbung, die bestimmte Gruppen ausschließt oder benachteiligt. Diese Form der Diskriminierung ist oft schwer erkennbar und noch schwieriger zu bekämpfen, da sie tief in den Strukturen der Algorithmen verankert ist.
Diese Positionen wurden bereits vielfach genannt und erzeugen nach wie vor Kontroversen. Denn Nutzer*innen haben oft wenig bis keine Kontrolle darüber, welche Daten gesammelt werden, wie sie verwendet werden und wer Zugriff darauf hat. Die Komplexität der Algorithmen und der Mangel an Transparenz machen es nahezu unmöglich, die Mechanismen der Überwachung zu verstehen und sich dagegen zu wehren. Hinzu kommt, dass viele Menschen Daten eine Objektivität zuschreiben. Diese Objektivität hält Kritik in der Regel nicht stand und Menschen passen sich an und ein.
Die Menschheit als Kommunikationsexperiment?
Die anfängliche Idee des Internets als Ort der freien Meinungsäußerung, ohne Zensur und Beschränkungen, wurde als eine Art Kommunikationsutopie gefeiert. Diese positive Vision prägte die frühen Jahre des Internets und schuf einen Raum für Austausch und Vernetzung. Doch aus theologischer Sicht lassen sich heute zwei zentrale Entwicklungen beobachten, die einer kritischen Reflexion bedürfen. Einerseits haben die großen Technologieunternehmen (Google, Tencent, Apple, Facebook, Amazon, Baidu, Microsoft, Alibaba) die ursprünglich offene Kommunikation zunehmend zu einem lukrativen Geschäftsmodell umgewandelt. Indem sie als Werbeplattformen fungieren, nutzen sie die Interaktionen der Nutzer*innen, um Gewinne zu maximieren. Diese Kommerzialisierung der digitalen Kommunikation hat tiefgreifende Auswirkungen auf die Art und Weise, wie Inhalte erstellt, gefiltert und verbreitet werden. Allerdings führt die digitale Vernetzung auch zu einer umfassenden gesellschaftlichen Transparenz, die es in der Menschheitsgeschichte so noch nie gegeben hat. Diese neue Form der Sichtbarkeit fordert ein tiefes Nachdenken darüber, wie wir als Gesellschaft mit den Chancen und Risiken dieser digitalen Offenheit umgehen und welche ethischen sowie theologischen Schlüsse wir daraus ziehen müssen. Denn sichtbar werden sowohl die Schönheit und Fülle des menschlichen Lebens als auch die Abgründe unseres Verhaltens und unserer Kommunikation. Die Schattenseiten, die dabei zutage treten, lassen sich nicht mehr ungeschehen machen. In der digitalen Welt zirkulieren unzählige Bilder, Videos und Deep Fakes, die häufig pornografische, gewaltverherrlichende oder politisch extremistische Inhalte transportieren. Oftmals sind diese Inhalte gezielt manipuliert, um Personen in kompromittierende Situationen zu bringen und sie dadurch unter Druck zu setzen.
Trotz dieser Herausforderungen bietet das Internet auch unbestreitbare Vorteile. Es ermöglicht Menschen, die sich in ihren Interessen oder Ansichten abseits des Mainstreams befinden, Gleichgesinnte zu finden und Gemeinschaften zu bilden. Für jene, die aus gesundheitlichen oder anderen Gründen nicht mehr aktiv am öffentlichen Leben teilnehmen können, bietet das Internet einen Zugang zur Welt, der ihnen ermöglicht, das Leben in ihre eigenen vier Wände zu holen. Es lässt sich eine signifikante Zunahme der Nutzer*innen im Bereich der geistlichen Angebote beobachten.
Zwischenbilanz
Der Mensch befindet sich gegenwärtig in einer Situation, in der seine Existenz und die ihn umgebende Welt auf eine bisher unbekannte Weise visualisiert werden. Unsere alltäglichen Aktivitäten werden kontinuierlich von Technologien erfasst und mithilfe von Algorithmen analysiert. Diese Technologien ermöglichen es, künftige „Gedanken“ und „Handlungen“ vorherzusagen, da sie über mehr und detailliertere Informationen über eine Person verfügen als diese selbst.
Während Menschen durch das Internet auf Visualisierungen und Informationen über das Leben anderer zugreifen können, bleibt der Zugang zu den eigenen Daten oft eingeschränkt. Dies liegt vor allem daran, dass die Mechanismen und Algorithmen, die unser Verhalten beeinflussen, hinter den undurchsichtigen Geschäftsmodellen der großen Technologieunternehmen verborgen bleiben. Die Richtung, in die unsere digitalen Spuren gelenkt werden, bleibt für uns in vielerlei Hinsicht unsichtbar.
Eine offene Frage, die sich hier stellt, ist, ob wir eines Tages einer Generellen Künstlichen Intelligenz (GAI) gegenüberstehen werden. Falls diese Möglichkeit Realität wird, könnte sich uns eine „neue Lebensform“ präsentieren, wie einige Wissenschaftler*innen bereits spekulieren. Die Technologien, die diese fortschreitende Erfassung und Erforschung der Welt in digitaler Form ermöglichen, entwickeln sich kontinuierlich weiter. Dazu gehören unter anderem Fortschritte in der Spracherkennung, Bilderkennung, Videoanalyse, Handschriftenerkennung und Gesichtserkennung.
In den Darstellungen und Beschreibungen von Künstlicher Intelligenz lassen sich häufig implizit evolutionäre Denkansätze erkennen. Zudem wird oft mit anthropomorphen Bildern gearbeitet, die der KI menschliche Eigenschaften zuschreiben, wodurch sie in gewisser Weise als nächste Stufe der Evolution erscheint. Steffen Mau bringt dies auf den Punkt, indem er konstatiert:
„Mit der Verfügung über immer mehr Daten begibt sich die Gesellschaft auf den Weg zu einer datengetriebenen Prüf-, Kontroll- und Bewertungsgesellschaft, die nur noch das glaubt, was in Zahlen vorliegt. Soziale Selbsterkenntnis und Regulierung beziehen sich inzwischen so intensiv auf Daten, dass das Erkennen dessen, was ist, ohne sie kaum mehr möglich erscheint.“
(Mau 2017, 46)
Macht über sich selbst?
Die Macht der Algorithmen und der (noch) dahinterstehenden Akteure wird deutlich daran, dass die Gestalter*innen von Technologie ihre Ziele langfristig erfolgreich erreichen können. Ein eindrucksvolles Beispiel hierfür ist der Cambridge-Analytica-Skandal im Zusammenhang mit dem Brexit, der die problematischen Aspekte dieser Entwicklungen ans Licht brachte. Macht äußert sich traditionell in Form von sichtbarer Macht (wie durch die Polizei), geliehener Macht (zum Beispiel in Parlamenten) oder durch konsensual ausgehandelte Macht. In den digitalen Beispielen manifestiert sich jedoch die Interaktion mit Technologien als ein zentraler Faktor, der die Entstehung von Macht und Asymmetrie begünstigt.
Das massenhafte und einvernehmliche Handeln – sei es durch Likes, Kommentare oder Shares – fungiert als Motor des Systems und trägt wesentlich zu dessen Stabilität bei. Michel Foucault hat im Zusammenhang mit der Körpermacht darauf hingewiesen, dass die Unterwerfung unter gesellschaftliche Bilder des Körpers oft als Freiheit wahrgenommen wird. In diesem Kontext stellt sich die Frage, was heutzutage als „Körper“ gilt und welche Praktiken ihn konstituieren und verhandeln. Diese Überlegungen sind eng verbunden mit der Frage nach dem derzeit dominanten Konzept des Menschen, denn es ist allgemein bekannt, dass dieses Verständnis vom Menschen ein vergleichsweise junges Konzept ist, das im 17. Jahrhundert geprägt wurde.
In der digitalen Welt wird das eigene Selbst zum zentralen Punkt digitaler Vermessungen und fungiert als Vergleichsobjekt zu anderen Akteuren, die im digitalen Raum ebenfalls durch digitale Messungen repräsentiert werden. Vergleiche werden innerhalb eines Systems angestellt, dessen organisatorische Strukturen für die einzelnen Akteure oft nicht erkennbar sind. Die Inwertsetzung spezifischer Merkmale – wie die Größe des Bizepses oder die Fähigkeit, sich besonders gut in Szene zu setzen – erfolgt durch Likes und unmittelbare Reaktionen des digitalen Umfelds. Dies führt dazu, dass bestimmte Eigenschaften und Verhaltensweisen als wertvoller oder begehrenswerter gelten, während andere in den Hintergrund gedrängt werden. Technik und menschliche Akteure mit ihren habituellen Mustern generieren somit das, was Steffen Mau als „metrisches Wir“ bezeichnet hat (Mau 2017, 275). So schreibt Mau sehr treffend: „Die Quantifizierung des Sozialen hat somit das Potenzial, ein neues Regime der Ungleichheit hervorzubringen, in dem wir immerfort bewertet sowie mit anderen verglichen werden und in dem wir uns fortwährend darum bemühen müssen, mit guten Zahlen zu glänzen“ (ebd. 286). In diesem digitalen Panoptikum ist man Aufseher und Gefangener zugleich.
Die Metrik, die Körperpraktiken und das Wissen um sich selbst erfahren durch die Mächtigkeit der KI eine Neufassung. Selbst wenn es in absehbarer Zeit keine GAI geben wird, ist die Präsenz von digitalen Akteuren, auch mit sehr beschränkten Möglichkeiten, jetzt schon an vielen Stellen gegeben. Die Visualisierung und Sichtbarmachung der Welt, des Lebens und des einzelnen Individuums waren in der bisherigen Menschheitsgeschichte in dieser Form nicht bekannt. Die Menge der Informationen, die uns allen zugänglich sind, wird weiterhin zunehmen. Mithilfe von Analyseverfahren lassen sich zudem weitere Strukturen und Muster in der Gesellschaft erkennen.
Trotz erheblicher Bemühungen im Jugendschutz – es ist davon auszugehen, dass der Erstkontakt mit pornografischen Inhalten weiterhin meist zwischen dem 12. und 14. Lebensjahr stattfindet – sowie der zunehmenden Kennzeichnung von Deep Fakes, die jedoch immer schwerer zu erkennen sind, und der wiederholten Enthüllungen politischer Einflussnahme durch Algorithmen erweisen sich diese Maßnahmen und Informationen als nur bedingt wirksam.
Wie lässt sich nun mit dem oben skizzierten Befund umgehen?
Es wäre zu einfach, lediglich einige allgemeine ethische Positionen zu präsentieren und diese mit einer Prise Kapitalismuskritik zu würzen. Darauf könnte dann eine ordnungstheoretische/ordnungstheologische oder individualethische Analyse folgen, die letztlich in ein „Man müsste …“ mündet, dass sich an Politik, Gesellschaft oder große Technologieunternehmen richtet. Den Rest könnte man der Pädagogik überlassen. Abgesehen vom göttlichen Zuspruch, der unabhängig von unserem Handeln bleibt, bringt uns auch diese Vorgehensweise nicht wesentlich weiter. Doch universelle Lösungen, die für alle Felder der Digitalisierung anwendbar sind, existieren nicht. Und unsere Gesellschaft und unser Kommunikationsverhalten sind so differenziert, dass nur kleine, differenzierte Fortschritte möglich sind.
Eine Möglichkeit bestünde vielleicht darin, die Figur der Gottesebenbildlichkeit neu zu denken. In der Regel werden die Vorstellungen vom Konzept „Mensch“ mit der Figur der Gottesebenbildlichkeit und dem Zuspruch theologisch aus der Schöpfung oder politisch/philosophisch in der Ableitung aus dem ersten Artikel des Grundgesetzes verknüpft. Insofern sich aber das Konzept des Menschen wandelt, bleibt der grundsätzliche Zuspruch Gottes zwar davon unberührt, allerdings können im Zuge der Neukonzeption neue Aspekte entstehen, die es zu schützen, zu entwickeln oder abzuwehren gilt, damit das Konzept Mensch eine grundsätzliche Zukunftsoffenheit bewahrt. Im Gegensatz zu Gott, der uns grundsätzlich Möglichkeitsräume eröffnet, sortiert die KI.
Schutz der Interaktion und Schutz der Unterschiedlichkeit
Die Interaktion von uns mit anderen im Netz wirft die wichtige Frage auf, wie und ob auf Inhalte, die man sieht oder liest, reagiert werden muss. Hier kann die Reaktion in vielfältiger Weise erfolgen: sei es durch positive oder ermutigende Kommentare oder durch schützende Worte, die Hasskommentaren entgegenwirken und anderen Nutzer*innen Unterstützung bieten, um sie vor möglichen Anfeindungen zu bewahren. Es stellt sich die Frage, ob Beiträge in der eigenen Timeline, die nicht dazu beitragen, den anderen in seiner (vielleicht neu entdeckten) Lebensweise zu unterstützen, schlicht ignoriert oder bewusst markiert werden sollten mit „Das will ich nicht mehr sehen“. Dieser Ansatz widerspricht der passiven Konsumhaltung des endlosen Scrollens und fordert stattdessen eine aktive Auseinandersetzung mit dem Gesehenen. Das ist eine gemeinschaftliche Aufgabe, die nicht extern adressiert werden kann.
Die Frage, wie sich die Nutzer*innen der metrischen Selbstoptimierung vor der Einflussnahme der GAFA-Konzerne schützen können, die lediglich die für sie rentablen Daten erheben, steht im Raum. Diesbezüglich sei nochmals angemerkt, dass die Kommunikation mit dem eigenen Selbst über eine Vermittlungsstelle (KI) erfolgt, deren innere Logik nicht zugänglich ist. Zudem ist lediglich bekannt, dass es sich um Aufmerksamkeitskapitalismus und Verwertungslogik handelt.
Diesbezüglich ist sowohl der Schutz der eigenen Person als auch der Schutz des Gegenübers von essenzieller Bedeutung. Dies gilt insbesondere für sensible Daten, wie beispielsweise Gesundheitsdaten oder Daten, welche die Modellierung des Körpers betreffen. Hierbei ist zu beachten, dass eine Visualisierung des Körpers durch Dritte nicht zu einer negativen Skalierung führen darf. Der Nutzer bzw. die Nutzerin sieht sich folglich mit der Herausforderung konfrontiert, Bereiche zu identifizieren, die sich der digitalen Logik entziehen, diese zu würdigen und zu bewahren. In der Konsequenz würde somit auch die kompetitive Logik „Wer ist besser: Mensch oder Maschine?“ ihre Gültigkeit verlieren, da sie für den Menschen auf lange Sicht lediglich eine suboptimale Position zur Folge hat und die Maschine auf Dauer langweilt.
Es gilt, den Möglichkeitsraum offen zu lassen und sich immer wieder der positiven Sanktionierung zur pflegeleichten Mitte oder zum persönlichen Vorteil zu widersetzen.