Künstliche Intelligenz als Herausforderung unseres menschlichen Selbstverständnisses
In der Geschichte der Menschheit hat die Verwendung von Technik immer schon eine entscheidende Rolle gespielt. Mit ihrer Hilfe ist dem Menschen nicht nur eine erhebliche Erleichterung seiner Arbeitsbedingungen ermöglicht worden. Vielmehr dient Technik auch dazu, die Lebensvollzüge des Menschen in unterschiedlichsten Bereichen zu unterstützen und zu optimieren. Zu diesem Zweck sind fast alle unsere Lebensbereiche in den letzten Jahren grundlegend durch Automation und Technik umgestaltet worden. Information, Kommunikation, gesellschaftliche Interaktion, Arbeits- und Produktionsschritte werden immer stärker digitalisiert. Die Verarbeitung der hierdurch anfallenden gewaltigen Datenmengen lässt sich nur noch mit der Hilfe von modernen Computersystemen bewerkstelligen. Hierbei hat sich die sogenannte Künstliche Intelligenz (KI) als zentrale Technologie herauskristallisiert, mit der sich komplexe Big-Data-Analysen effizient durchführen lassen. Diese erlaubt es, riesige Datenmengen innerhalb kürzester Zeit nach bestimmten Mustern zu durchforsten, die Teil von Lösungen für menschliche Probleme sein können und somit unsere Handlungsspielräume – nicht zuletzt durch den Einsatz von intelligenter Robotik – in vielerlei Hinsicht erweitern. Gerade im Bereich des maschinellen Lernens sind große Fortschritte zu verzeichnen, so dass solche Systeme in diesen Bereichen den kognitiven Fähigkeiten des Menschen weit überlegen sind.
Ein prominentes Beispiel dafür ist der Sieg des von Google hergestellten Computersystems AlphaGo über einen südkoreanischen Meisterspieler im Brettspiel Go. Dieses jahrtausendealte asiatische Spiel repräsentiert strategisches Denken, menschliche Kreativität und Intelligenz, gilt als das komplexeste Brettspiel und verfügt über mehr Spielvarianten, als es Atome im Universum gibt. Auch in Spielen wie Schach und Dame brilliert die Künstliche Intelligenz und ist mittlerweile auch dazu in der Lage, besser zu bluffen als die besten Pokerchampions der Welt.
Doch der Erfolg der Künstlichen Intelligenz erschöpft sich nicht im Beherrschen von Spielen, auch im medizinischen Bereich werden bereits erfolgreich KI‑Systeme zur Diagnose bestimmter Krebszellen und zur Analyse von MRT-Aufnahmen eingesetzt. Computersysteme geben heute Rechtsberatung, regulieren die Temperatur und den Energieverbrauch sogenannter Smarthomes und steuern bei guten äußeren Bedingungen Automobile und Flugzeuge sicherer und präziser als menschliche Fahrer und Piloten.
All diese technischen Neuerungen bieten einerseits ein enormes Potential zur Unterstützung menschlicher Lebensvollzüge (beispielsweise in der Forschung, Kommunikation und Wirtschaft). KI und Digitalisierung können in diesem Kontext Werkzeuge sein, durch die viele Aufgaben übernommen werden können, die früher nur mit großem Zeit- und Kraftaufwand zu bewältigen waren.
KI‑Systeme werden in naher Zukunft unausweichlich immer mehr in unser Alltags- und Arbeitsleben integriert werden und ein nicht mehr wegzudenkender Bestandteil unserer Lebenswelt sein. Schon heute sehen wir den Beginn einer tiefgreifenden massiven gesellschaftlichen Veränderung durch den Einsatz dieser Systeme, deren Verlauf und Konsequenzen noch nicht absehbar sind.
Bei allem positiven Potential hält diese Technik zugleich auch große Herausforderungen für die Gesellschaft bereit, die viel weitreichender sind, als sie es jemals bei einer anderen Technik zuvor in der Menschheitsgeschichte waren. Diese Herausforderungen resultieren zum Teil aus einer zu optimistischen Einschätzung dieser Technik, die gewissermaßen zu einer digitalen Verheißung stilisiert wird. Es scheint, als könnten mit KI grundlegende menschliche Bedürfnisse und Hoffnungen erfüllt werden. Dies birgt die Gefahr, dass wir die eigentliche Tiefendimension unserer menschlichen Existenz, also dasjenige, was uns prinzipiell von Maschinen unterscheidet, aus dem Blick verlieren.
Was ist eigentlich Künstliche Intelligenz?
Was bedeutet nun eigentlich KI? Auf einer Fachtagung im Jahre 1956 in Dartmouth, die als Startschuss der Bemühungen um KI gilt, hatten sich Forscher das Ziel gesetzt, Merkmale der menschlichen Intelligenz so genau zu beschreiben, dass mit diesen Erkenntnissen eine Maschine gebaut werden kann, die diese Fähigkeiten simuliert. Dies sollte nun mit Hilfe eines Computers realisiert werden, dessen Grundfunktion nach dem berühmten Mathematiker und Informatikpionier Alan Turing genau darin besteht, dass es sich bei ihm um eine Input-Output-Maschine handelt, die anhand einer Rechenvorschrift immer neue Zustände berechnet. Ein KI‑System soll also möglichst effektiv einem bestimmten Input einen eindeutigen Output zuordnen.
Im Anschluss an die Dartmouth-Konferenz versuchte man, dieses Ziel durch fest einprogrammierte Daten und Regeln zu lösen, indem man das Wissen eines Spezialgebiets in großen Datenbanken zu sogenannten Expertensystemen ausbaute. Das System konnte anhand einiger logischer Regeln Querverbindungen zu den Daten herleiten, so dass diese Systeme ähnlich wie eine digitale Enzyklopädie funktionierten. Die Hoffnung, dass diese Strategie zu intelligenten Computersystemen führen würde, wurde aber nicht erfüllt, weil diese Systeme nur bereits explizit vorliegendes Wissen repräsentieren und verarbeiten konnten. Expertensysteme stoßen daher an ihre Grenzen, wenn sie Aufgaben bewältigen sollen, die nicht eindeutig definiert sind, oder wenn sie mit Ausnahmen von einer vorgegebenen Regel konfrontiert werden. In diesen Fällen wird die statische Verknüpfung von bereits aufbereitetem Wissen einem wesentlichen Aspekt von Intelligenz nicht gerecht: Sich auf wechselnde Anforderungen einzustellen, ist nur dann möglich, wenn das System durch eine Art Lernprozess eine gewisse Flexibilität hinsichtlich seines Verhaltens an den Tag legt. Zu diesem Zweck wandte sich die KI‑Forschung in den letzten Jahren dem sogenannten Deep Learning zu, das durch künstliche neuronale Netze realisiert wird. Ein künstliches neuronales Netz besteht letztlich aus verschiedenen Schichten von simulierten Neuronen samt ihren Verbindungen. Der Vorteil von diesen KI‑Systemen besteht technisch nun darin, dass das Hervorbringen einer zweckmäßigen Input-Output-Relation nicht mehr starr vorgegeben, sondern nun anhand einer großen Anzahl von Trainingsdaten plastisch formbar ist. Sie kann durch das Training so eingestellt werden, dass das System bestimmte Datenmuster auch in zukünftigen Anwendungen „automatisch“ ausfindig machen kann. Dabei entstehen erstaunliche Effekte, denn KI‑Systeme können auch Datenmuster entdecken, die uns Menschen vielleicht nicht aufgefallen wären. KI‑Systeme sind Meister im Korrelieren von Daten. Diese Technik ist auf eine Vielzahl von Problemen anwendbar, die mit Datenanalysen zu tun haben.
Mit diesen Möglichkeiten geht schon eine Reihe von gesellschaftlichen Herausforderungen einher. So ermöglichen die Unmengen an personengebundenen Daten, die durch die Digitalisierung generiert und durch KI‑Systeme automatisch ausgewertet werden, eben auch Manipulations- und Überwachungsmöglichkeiten. Das gezielte Streuen von Falschinformationen in politischen Willensbildungsprozessen wird beispielsweise so zu einer gesamtgesellschaftlichen Herausforderung.
Künstliche Intelligenz und Menschenbild
Es gibt zudem eine Dimension der KI‑Technologie, die eine noch subtilere, aber nicht weniger große Herausforderung für unser menschliches Selbst- und Wirklichkeitsverständnis darstellt und dadurch fundamentale philosophisch-theologische Fragen aufwirft. Denn die großen Erfolge der KI‑Forschung wecken fast zwangsläufig Assoziationen mit dem menschlichen Geist, die zu Überlegungen führen, ob wir unser Menschen- bzw. Maschinenbild und damit das prinzipielle Verhältnis und die Beziehung von Mensch und Maschine überdenken sollten. Wenn etwa KI‑Systeme in bestimmten Bereichen kognitive menschliche Leistungen übertreffen, stellt sich die Frage, ob es sich entweder beim Menschen nur um eine, wenn auch biologische, Input-Output-Maschine handelt oder ob den KI‑Systemen in einem wörtlichen Sinn mentale Fähigkeiten und Qualitäten wie Erleben, Denken, Erkennen, Wollen usw. zugeschrieben werden müssen. In diesem Fall könnte den KI‑Systemen in sozialen Beziehungen zu Menschen ein Status zugeschrieben werden, den wir normalerweise nur Menschen mit Bewusstsein und Geist zusprechen würden: Wenn eine KI wirklich versteht, mitfühlend ist, Wohlwollen entwickelt, dann könnte man sie zu Recht als ebenbürtiges Gegenüber ansehen. Daran würden sich auch theologische Fragestellungen z. B. nach der Erlösungsbedürftigkeit von KI‑Systemen anschließen.
Fest steht jedenfalls, dass der enorme Fortschritt der Forschung in diesem Bereich, bei dem die Eigenschaften der KI‑Systeme immer menschlicher erscheinen, fast zwangsläufig zu folgenden Fragen führt: Ist es in Ordnung, KI‑Systemen, die unsere menschlichen Reaktionen schon erstaunlich gut imitieren, einfach den Strom abzustellen? Können wir mit KI‑Robotern im wahrsten Sinne des Wortes befreundet und verpartnert sein? Ist es in Ordnung, wenn bald KI‑Systeme entwickelt werden, die pflegebedürftige Patienten nicht nur physisch betreuen, sondern auch vorgeben, sie würden ihre menschlichen Sorgen und Nöte wirklich verstehen?
Um hier einen Rahmen zu skizzieren, innerhalb dessen man diese Fragen begründet beantworten kann, geht es in einem ersten Schritt zunächst darum, charakteristische Merkmale des Menschen zu benennen, die für unsere lebensweltliche Praxis unverzichtbar sind. In einem zweiten Schritt geht es darum, zu untersuchen, ob diese Qualitäten prinzipiell mit den technischen Mitteln, die uns in der KI‑Forschung zur Verfügung stehen, realisiert werden können. Gibt es gute Gründe anzunehmen, dass Maschinen prinzipiell auf der Grundlage ihrer technischen Struktur in der Lage sein könnten, Bewusstseinsqualitäten und geistige Fähigkeiten wie Empathie, moralisches Handeln, Interesse usw. zu entwickeln, die für soziale Verbindungen notwendige Bedingungen darstellen?
Minimalbestimmungen menschlicher Subjektivität
In unserem lebensweltlichen Selbstverständnis adressieren wir uns als empfindende und denkende Lebewesen, die – zumindest prinzipiell – zu (rationalen) Handlungen fähig sind. Dies bedeutet einerseits, dass wir über ein sogenanntes phänomenales Bewusstsein verfügen. Dieses stellt den Grundmodus von Subjektivität dar, weil es allen erlebenden Lebewesen zugeschrieben wird. Phänomenales Bewusstsein bezeichnet nach einer allgemein akzeptierten Definition des Philosophen Thomas Nagel diejenige Qualität, durch die beschrieben wird, wie es sich für einen lebendigen Organismus anfühlt, in dem jeweiligen Zustand zu sein, z. B. eine Farb- oder eine Schmerzempfindung zu haben. Einzelne qualitative Aspekte des phänomenalen Bewusstseins werden Quale bzw. im Plural Qualia genannt und zu ihnen gehören beispielsweise visuelle und auditive Eindrücke, Geruchs- und Tasterfahrungen, Gefühle usw.
Ein charakteristisches Merkmal von diesen phänomenalen Qualitäten ist es, dass sie nicht wie z. B. physikalische Eigenschaften einfach „an Dingen“ vorkommen, sondern dass sie nur als Qualitäten eines Erlebens in einem Lebewesen auftreten, das als Subjekt fähig ist, dieses Erleben zu haben. Bewusste Zustände sind es also für ein bestimmtes erlebendes Lebewesen.
Auch die Wahrnehmung ist eine bestimmte Art des phänomenalen Bewusstseins, nämlich die Erscheinungsweise, wie Wirklichkeit einem erlebenden Subjekt präsentiert wird. Diese Bezogenheit der erlebenden Lebewesen auf die Welt durch das phänomenale Bewusstsein ist auch eine grundlegende Voraussetzung für ein denkendes Subjekt, Erkenntnisse über die Welt zu generieren. Denn im Denken als einem spezifischeren Modus von Subjektivität werden durch Gedanken Sachverhalte der Wirklichkeit erkannt, die dem Subjekt durch das phänomenal Erlebte vermittelt sind. Phänomenales Erleben und Denken sind miteinander verschränkt und somit Grundvoraussetzung für unsere menschliche Existenzform.
Dabei zeichnet sich das menschliche Denken durch eine gewisse Spontaneität und Freiheit aus. Es ist die Fähigkeit, sich nicht nur an bestimmten Normen orientieren zu können, sondern diese normativen Vorgaben auch noch einmal zu hinterfragen und deren Anwendung reflektieren zu können. Damit erschöpft sich Denken nicht in einem reinen Regelfolgen, denn die Festlegung und die kritische Prüfung, ob bestimmte Regeln in einem konkreten Fall Anwendung finden sollen, ist selbst schon Bestandteil einer rationalen Reflexion. Das denkende Subjekt ist prinzipiell in der Lage, Inhalt und Richtung seiner Gedankengänge frei zu bestimmen und so auch normative Vorgaben noch mal zu hinterfragen. Diese Fähigkeit des Denkens ist auch die Grundlage für freiheitliches Handeln, das wir gewöhnlich und völlig zu Recht von bloßem Verhalten abgrenzen, das rein wirkkausal abläuft und uns nur widerfährt wie Stolpern oder Niesen. Wir können uns zu unseren eigenen Erfahrungen und psychischen und physischen Dispositionen noch einmal in ein Verhältnis setzen. Das bedeutet, unsere Fähigkeit der Selbstbestimmung erschöpft sich nicht nur darin, bestimmte Denkmuster einfach zu reproduzieren, sondern beinhaltet auch, sie selbst und ihre Anwendung kritisch auf einer Metaebene zu thematisieren, ihre Angemessenheit zu hinterfragen und sie eventuell zu verwerfen.
Als erlebende und denkende Lebewesen, die sich zu freien Handlungen bestimmen können, sind wir Menschen immer schon in Lebens- und Sinnkontexte eingebettet, in denen bestimmte Sachverhalte einen Wert und Bedeutung haben. Diese charakteristischen Merkmale sind notwendige Voraussetzungen für höhere mentale Fähigkeiten wie Verstehen, Empathie, Lieben, Fürsorge usw., in denen geistige und psychische Aspekte involviert sind, die ihrerseits für echte soziale Bindungen wie Partnerschaft oder Freundschaft eine tragende Rolle spielen.
KI‑Systeme als künstliche Subjekte?
Gibt es stichhaltige Gründe dafür, die Realisierung mentaler Zustände bei gegenwärtigen oder zukünftigen KI‑Systemen für gerechtfertigt zu halten? Hierzu wurde seit den 1960er Jahren eine lange Debatte geführt, deren Quintessenz man wie folgt zusammenfassen könnte: Computer – auch KI‑Systeme – sind Input-Output-Systeme. Sie berechnen zu einem Input mit Hilfe einer Rechenregel einen Output, das heißt, sie produzieren damit eine bestimmte Verhaltensweise. Verhaltensweisen und Bewusstseinszustände sind aber nicht notwendig miteinander verknüpft. Auch bei Lebewesen äußern sich Bewusstseinszustände (also z. B. ein Empfinden) weder eindeutig in einem bestimmten Verhalten noch kann man durch das Verhalten auf den jeweiligen mentalen Zustand schließen. Man kann Schmerzverhalten auch simulieren, selbst wenn man keine Schmerzen hat, und umgekehrt muss sich ein mentaler Zustand auch gar nicht in einem bestimmten Verhalten äußern. Das gilt auch für das Verhalten von KI‑Systemen. Hier entstehen Verhaltensweisen, die wir beim Menschen mit Bewusstsein und Geist assoziieren würden. Aber dieses Verhalten weist nicht auf Zauberei oder ein Bewusstsein der Maschine hin, sondern lässt sich genau durch die technischen Mittel erklären, die wir in diese Systeme investieren: Daten, die nach einer Rechenregel bzw. einer Statistik mechanisch berechnet werden. Bestimmte Leistungen der KI‑Systeme mögen auf Laien fast gespenstisch wirken, für Experten sind sie beruhigend, denn das bedeutet, dass die Maschinen genau das machen, wofür sie konstruiert, gebaut, programmiert und trainiert worden sind. Sie verarbeiten abstrakte Zeichenketten und Datenmuster, die für sie selber keine Bedeutung haben. Der Maschine ist es gleichgültig, ob sie Schach spielt oder das Wetter berechnet. Der Bedeutungsbezug wird erst von außen durch die Konstrukteure, Programmierer und Benutzer ins Spiel gebracht. Wir sind es, die den jeweiligen Symbolen jenseits einer Rechenregel eine semantische Bedeutung zusprechen. Letztlich stellen KI‑Systeme Mechanismen dar, die strikt durch die ihnen vorgegebenen Regeln (zusammen mit den Trainingsdaten) einen Input in einen Output verwandeln. Hier spielen echte Kreativität, echtes Verstehen eines Sachverhalts oder sonstige Dimensionen geistiger Operationen keine Rolle. Die KI arbeitet einfach eine Rechenaufgabe ab, die für sie selbst keine Bedeutung hat.
Und auch darin unterscheidet sich menschliche Subjektivität von der deterministischen Symbolverarbeitung eines KI‑Systems: Während KI‑Systeme durch die Datentrainings strikt konditioniert sind, sprechen wir Menschen, wie gezeigt, prinzipiell die Fähigkeit zu, sich zu den erworbenen Dispositionen noch einmal rational verhalten zu können, indem vorgegebene Regeln und Normen kritisch hinterfragt werden können; eine Fähigkeit, die den KI‑Systemen aufgrund der ihnen zugrunde liegenden Technik prinzipiell fehlt, denn durch sie werden nur die konditionierten Muster reproduziert.
Diese Überlegungen machen zwei Sachen deutlich: 1. Es gibt also keine vernünftigen Gründe anzunehmen, dass KI‑Systeme, die menschliche Subjektivität simulieren, über Bewusstsein verfügen oder so etwas wie einen freien Willen besitzen. 2. Der menschliche Geist kann aufgrund seiner charakteristischen Merkmale nicht nur als eine Art Datenstruktur eines Biocomputers aufgefasst werden.
Konsequenzen für Erwartungen an und den Umgang mit KI‑Systemen
Die oben skizzierte Argumentation stellt die prinzipiellen und bleibenden Unterschiede zwischen menschlicher Subjektivität und KI‑Systemen heraus. Computer manipulieren abstrakte Zeichen nach Rechenregeln bzw. im maschinellen Lernen nach statistischen Mustern, die sich anhand von Trainingsdaten herausgebildet haben. Damit können KI‑Systeme viele Phänomene nach rein syntaktischen Vorgaben – also abstraktem Regelfolgen – berechnen bzw. simulieren. Die Erzeugung der konkreten Input-Output-Relation bleibt für die Maschine ganz abstrakt. Für sie bedeuten diese Zeichenmanipulationen nichts, sie besitzt kein phänomenales Erleben, sie kann sich prinzipiell nicht zu den Konditionierungen noch einmal verhalten.
Im Gegensatz dazu ist der Mensch ein Lebewesen, das immer schon durch sein phänomenales Erleben und seine geistigen Fähigkeiten in sinn- und bedeutungsvollen Lebensvollzügen eingebettet ist. Die damit verbundene freiheitliche Selbstbestimmung ist konstitutiv für seine sozialen Interaktionen: Für echte und gesunde soziale Beziehungen ist immer ein Anerkennungsverhältnis konstitutiv, das den Anderen als empfindendes und freiheitliches Gegenüber voraussetzt.
Was bedeuten diese Einsichten mit Blick auf unseren Umgang mit KI? Wenn KI‑Systeme menschliche Subjektivität nur simulieren, nicht aber wirklich erzeugen können, dann sollten wir die Maschinen nicht als freiheitliche und empfindende Wesen auffassen, mögen ihre Simulationen noch so gut sein. Umgekehrt gibt es keine vernünftigen Gründe, den Menschen als eine Art biologischen Computer anzusehen. Die neuesten Ergebnisse der KI‑Forschung zwingen uns also keineswegs, unser traditionelles Menschen- und Maschinenbild oder unsere Interaktion mit KI‑Systemen in grundlegender Weise zu verändern.
Die schon erwähnte zunehmende Omnipräsenz der KI in unseren Lebensvollzügen stellt uns in Bezug auf den Umgang mit dieser Technologie aber trotzdem vor Herausforderungen. Denn es gibt bereits jetzt zahlreiche Situationen, in denen KI‑Systeme als Ersatz für echte zwischenmenschliche Beziehungen angesehen werden. Die Sehnsucht nach einem echten Gegenüber, zu dem man in eine echte Beziehung treten kann, scheint größer als die Einsicht, dass man es hier nur mit einer Simulation zu tun hat. Psychologische Forschungen haben gezeigt, dass sich ein großer Prozentsatz von Jugendlichen von KI‑Apps, die eine Freundschaft mit dem Benutzer simulieren, besser verstanden fühlen als von ihren echten Freunden – auch wenn die KI‑Apps in Wirklichkeit gar nichts verstehen, sondern Antworten generieren, die typischerweise in bestimmten Situationen gesagt werden würden.
Das Ersetzen menschlicher Bezüge lässt sich aber noch auf die Spitze treiben. In Japan gibt es das Phänomen, dass junge Männer partnerschaftliche Beziehungen zu KI‑Avataren eingehen, weil ihnen echte Partnerinnen zu anstrengend sind. Diese hätten Bedürfnisse und Ansprüche, eine eigene Perspektive und seien nicht berechenbar. Mit den KI‑Avataren könne man demnach eine Beziehung führen, in der man nie enttäuscht werde und selber nicht enttäuschen könne. Das daraus resultierende angenehme Gefühl, dass der KI‑Avatar sich immer affirmativ gegenüber allen Verhaltensweisen der Bezugsperson verhält, scheint die Hauptmotivation dieser Präferenz zu sein. Diese technisch hergestellte „Anerkennung“ wäre vergleichbar mit einer Situation, in der wir fremde Menschen dafür bezahlen würden, immer nette Dinge zu uns zu sagen.
Auch in anderen Bereichen stellt der Einsatz von KI‑Systemen eine Herausforderung für unsere Praxis der zwischenmenschlichen Interaktion dar: Bereits heute wird an KI‑Systemen gearbeitet, die in der Pflege eingesetzt werden sollen. Könnten KI‑Systeme z. B. sinnvoll zur Unterstützung von Pflegepersonal eingesetzt werden, indem die KI z. B. den Patienten automatisch an die Einnahme von Medikamenten erinnert, wird der Einsatz von KI‑Systemen spätestens dann ethisch fragwürdig, wenn sie menschliche Interaktion vollständig ersetzen sollen, indem sie in existenziellen Krisensituationen angesichts von Tod und Krankheit eine echte seelsorgerliche Begleitung simulieren. Wir unterliegen auch hier einer Täuschung, wenn wir glauben, dass es dabei um echtes Verständnis und echte Resonanz geht.
In all diesen Beispielen wird der ursprüngliche Sinn der Technik, die unser Leben erleichtern soll, auf den Kopf gestellt, weil es nicht um eine Verbesserung der Lebensvollzüge geht, sondern das Bedürfnis nach einer echten zwischenmenschlichen Resonanz durch eine Simulation abgespeist wird. Dies mag zwar auf bestimmten Ebenen mit positiven psychologischen Effekten einhergehen, hat aber mit Sicherheit einen Preis: Die Auseinandersetzung mit der Realität ist auch immer ein Umgang mit unvermeidlichen Widerständen, die erst recht in der Interaktion mit anderen Menschen als freie Subjekte auftreten. Wir erfahren uns als wesentlich bezogen auf unsere Umwelt, die eine Eigendynamik besitzt, und als ein endliches Subjekt unter vielen, die auch Rechte und Bedürfnisse haben.
Diese Erfahrung, dass andere Subjekte eine eigene Perspektive und eigene Bedürfnisse besitzen, dass es in sozialen Beziehungen einen wechselseitigen Anspruch auf Anerkennung gibt, ist daher kein Übel, das es technisch zu eliminieren gilt. Vielmehr gibt diese Erfahrung uns die Gelegenheit, uns zu reifen Menschen zu entwickeln, die den unauslöschbaren Grundzug der Wirklichkeit in gelingendes Leben zu integrieren vermögen: Die Widerständigkeit der Wirklichkeit, die wir in der Auseinandersetzung mit unserer Umwelt und unserem eigenen endlichen Leben erfahren, lässt sich nicht vollständig überwinden. Die existenzielle Einübung in diese Einsicht ermöglicht aber umgekehrt eine Persönlichkeitsentwicklung und eine Wertschätzung derjenigen zwischenmenschlichen Aspekte, die sich nur in einer echten zwischenmenschlichen Resonanz ergeben: Echtes Verstehen, echte Freundschaft, echte Begleitung und echte Liebe kann immer nur da entstehen, wo es sich um ein echtes Resonanzverhältnis zwischen erlebenden, fühlenden und selbstbestimmten Subjekten handelt.
Ein kurzer Rückblick
KI‑Systeme erfüllen ihren von uns vorgegebenen Zweck dadurch, dass sie nach bestimmten Regeln funktionieren, die im Entdecken von Datenmustern bestehen. Dass wir Menschen die Tendenz haben, in Maschinen Bewusstsein zu projizieren, ist ein seit langem bekanntes und psychologisch gut untersuchtes Phänomen. Aber das allein bietet keinen vernünftigen Grund zu glauben, KI‑Systeme seien Personen, oder umgekehrt, der Mensch sei eine biologische Maschine. Wenn wir der Mechanisierung des Geistes und der Vermenschlichung von Maschinen keinen Vorschub leisten, sondern auch den Tiefendimensionen unserer menschlichen Existenz gerecht werden wollen, dann sollten wir KI‑Systeme als das sehen, was sie sind: von uns konstruierte Maschinen, die wir als Werkzeuge in bestimmten Bereichen gewinnbringend für die Menschheit einsetzen können. Sie können Menschen in sozialen Interaktionen nur um den Preis der Illusion ersetzen.
Einzig eine aktive und umfassende Diskussion der grundlegenden Konzepte im Bereich der KI samt deren Auswirkungen auf unser menschliches Selbstverständnis und unsere Auffassung von einem gelingenden Leben kann eine dem Menschen angemessene Nutzung der KI ermöglichen, die gravierenden Fehldeutungen und -entwicklungen vorbeugen kann.