Derzeit wird viel über ChatGPT diskutiert, eine neue Anwendung Künstlicher Intelligenz (KI). Bei Licht besehen handelt es sich eigentlich nur um einen verbesserten Automaten zur Vervollständigung von Texten. Der auf eine vom Nutzer gestellte Frage hin generierte Text ist dabei kein bloßes Plagiat, sondern einzigartig; obwohl keine wirkliche Leistung des Menschen dahintersteht. Sprachlich wirken manche Ausführungen noch etwas holprig, was in verbesserten Versionen ganz sicher noch nachgearbeitet wird.
Zahlreiche Einsatzbereiche
Weitgehend unbemerkt von vielen Computernutzern wird Künstliche Intelligenz seit einigen Jahren eingesetzt. Künstliche Intelligenz hilft beispielsweise in der Verwaltung Routinearbeiten zu erledigen. Anträge können auf Plausibilität überprüft oder mit Angaben aus vergangenen Jahren verglichen werden. Der Sachbearbeiter muss dann nur noch die Ergebnisse überprüfen oder fragwürdigen Angaben nachgehen. Gesichtserkennungssoftware, wie sie zur Überprüfung der Personalien an Flughäfen eingesetzt wird, benutzt Künstliche Intelligenz. Programmierer lassen Routinearbeiten ebenso von KI erledigen, wie Chemiker, die Voruntersuchung zu Eigenschaften neuer Substanzen feststellen wollen. Auch bei dem Konzept des autonomen Fahrens kommt Künstliche Intelligenz zum Einsatz. Zuerst hier einige Beobachtungen zum Einsatz von KI in Schule, Studium und allgemeiner Textproduktion.
Chancen
Für jeden, der in irgendeiner Weise an Textproduktion beteiligt ist, sind Programme wie ChatGPT eine technische Hilfe, mit der eine Internet-Recherche künftig deutlich abgekürzt werden kann. Auf der einen Seite ist das natürlich eine deutliche Arbeitserleichterung. Auf der anderen Seite steigt damit der berufliche Druck, weil ab nun erwartet wird, dass man einen Text mit solcher Hilfe schneller einreichen kann als bisher. In jedem Fall muss man sich auf die vom Programm vorgenommene Auswahl möglicher Quellen verlassen, die im Einzelfall sehr einseitig ausfallen kann.
Außerdem besteht die Gefahr, dass das Programm besonders häufig oder prominent geäußerte Meinungen hoch wertet und damit einseitige oder besonders medial formulierte Meinungen zusätzlich verstärkt. Zwar geben ChatGPT und ähnliche Programme auf Wunsch auch die verwendeten Quellen an, was bei einer Beurteilung der Ergebnisse natürlich weiterhilft. Hier braucht es aber solide Fachkenntnisse, um beurteilen zu können, ob die zitierten Personen, Zeitschriften und Bücher aktuell, relevant und ausgewogen sind, bzw. welche Aspekte möglicherweise ausgelassen wurden.
Vor allem werden zukünftig schwache Schüler oder Journalisten unter Zeitdruck vielleicht zu Programmen wie ChatGPT greifen. Dadurch bekommen sie zwar ein schnelles, unter Umständen repräsentatives Ergebnis, wissen aber nicht, wie die darin geäußerte Meinung zustande gekommen ist oder wie glaubwürdig sie ist. In zahlreichen Einzelabfragen geben Chat-Programme nachweislich falsche Informationen. In den allerersten Versionen von ChatGPT wurde beispielsweise der Elefant als größtes Säugetier genannt und Donald Trump schon zwei Amtszeiten als US-Präsident zugeschrieben. Solche Fehler fallen schnell auf. Gleichzeitig legen sie aber auch nahe, dass bei spezielleren Aussagen ähnlich erhebliche Falschinformationen genannt werden können, ohne dass diese dann sofort als solche erkannt werden.
Wer ChatGPT zukünftig sinnvoll nutzen will, der muss ganz gezielte und gut überlegte Fragen formulieren. Will ein Theologe beispielsweise erfahren, wann und von wem das Johannesevangelium verfasst wurde, wird er bei einer einfachen Frage nur die gängige, also bibelkritische Antwort vorgesetzt bekommen. Er sollte also gezielter nach „Verfasserschaft Johannesevangelium evangelikale Sicht“ oder „Verfasserschaft verschiedene Deutungen“ fragen. Dann muss er darauf vertrauen, dass die für ihn relevanten Daten in den Suchprogrammen auch hoch genug gelistet sind, damit sie in dem für ihn erzeugten Text erwähnt werden.
Risiken
Natürlich erleichtern Programme mit künstlicher Intelligenz, wie ChatGPT, im Idealfall die Routinearbeiten von Recherche und Darstellung eines bisherigen Forschungsstandes. Gerade dieser oft mühsame Prozess aber ist absolut notwendig, damit ein Mensch, der dann kreativ weiterdenken soll, die Vielfalt und Komplexität seines Themas wahrnimmt und versteht, einschließlich aller wirklich relevanten Fakten und Gegenargumente.
Wesentliche Probleme von Programmen wie ChatGPT liegen 1) in der zwangsläufigen Zunahme von indirekten Plagiaten, die aber deutlich schwerer erkennbar sind und 2)in einer abnehmenden Fähigkeit zur eigenen Analyse und Bewertung eines komplexeren Sachverhalts. Außerdem kann es schnell dazu kommen, dass die zur Beurteilung eigentlich benötigten Sachinformationen noch stärker als bisher ausgeklammert oder nicht gelernt werden.
Weil man weiß, dass neue Technik nicht zu verbannen ist, will man sie vernünftigerweise sinnvoll integrieren. Schüler sollen beispielsweise die von ChatGPT produzierten Aufsätze überprüfen und korrigieren. Wie ein Mantra wird von Bildungspolitikern wiederholt, dass Faktenwissen überholt sei. Man braucht eben nicht mehr das Auswendiglernen, sondern das Bewerten. Dabei sollte allerdings klar sein, dass nur derjenige zuverlässig Fehler erkennt und Schlussfolgerungen überprüfen kann, der über ein umfangreiches Faktenwissen verfügt. Je mehr Schüler und Studenten auf ChatGPT und ähnliche Angebote zurückgreifen, desto weniger vertrauenswürdige Referenzgrößen zur Überprüfung werden sie aus eigener Erfahrung heranziehen können. Wer da die Fakten nicht genau kennt, der wird keine von einer KI produzierten Texte zuverlässig kontrollieren und korrigieren können. Weniger motivierte Schüler werden erst gar nicht den mühsamen und langwierigen Prozess des Lernens und Prüfens gehen, weil sie ihre Ausarbeitungen dank reichhaltiger Internet-Ressourcen auch viel einfacher erstellen lassen können.
Mancher Lehrer hofft momentan noch, aufgrund von Wortwahl und Stil die echten von den per Künstliche Intelligenz erstellten Aufsätzen unterscheiden zu können. Das funktioniert natürlich nur, wenn ausreichendes Vergleichsmaterial zur Verfügung steht, was bei denen nicht vorliegt, die von Anfang an auf ChatGPT und ähnliche Angebote zurückgreifen.
Außerdem ist nur eine verhältnismäßig geringe Anpassung nötig, um einem Programm auch solche Eigenheiten anzutrainieren. Zukünftig wird es für Schüler und Studenten möglicherweise deutlich schwerer, Abwägungen, Bewertungen und Prüfungen selbst zu lernen und einzuüben, weil diese für das Denken und Forschen absolut wichtigen Prozesse viel bequemer von Künstlicher Intelligenz vorgegeben werden.
Einer vorschnellen Euphorie müsste man auch entgegenhalten, dass mit ChatGPT und ähnlichen Programmen zwar immer neue Texte formuliert werden, dabei aber nichts wirklich Neues entsteht. In gewisser Weise kann man die Produktion neuer Medien-Inhalte mit diesen Programmen noch einmal erheblich beschleunigen. Am Ende befindet man sich wahrscheinlich in einer endlosen aber wahnsinnig schnellen Informationsschleife, wie manche postmoderne Kulturkritiker schon seit Längerem vermuten. Das Publikum bekommt immer neue Beiträge vorgesetzt, die lediglich schon bekannte Informationen neu formulieren und zugriffsoptimiert präsentieren. Schon jetzt drehen sich viele Internetnutzer fortwährend im Kreis, weil entsprechende Analyseprogramme ihnen immer wieder solche Beiträge empfehlen, die ihren einmal getroffenen Interessen und Meinungen entsprechen. Das wird sich durch ChatGPT & Co eventuell noch einmal verstärken.
Nach einer bisher noch nicht bewältigten Welle von Plagiaten, Ghostwritern und gefälschten Forschungsergebnissen gibt es mit Künstlicher Intelligenz nun eine weitere Möglichkeit, im Bereich der Wissenschaft Scheinleistungen eindrucksvoll zu präsentieren. Weil sich andere Wissenschaftler in ihrer Arbeit auf diese unzuverlässigen Ergebnisse berufen, besteht die Gefahr einer weiteren Potenzierung zweifelhafter „Forschungsergebnisse“. Diese werden natürlich auch private und politische Entscheidungen beeinflussen. Außerdem könnten Programme wie ChatGPT die schon jetzt kaum überschaubare Flut wissenschaftlicher Veröffentlichungen weiter ansteigen lassen, weil es damit immer einfacher wird, neue Artikel zu produzieren. Auch das wird effektive, wissenschaftliche Arbeit unter Umständen eher erschweren als fördern.
Die hinter ChatGPT stehenden Unternehmen werden sich hüten, die Verantwortung für alle von ihrem Programm formulierten Meinungen und Behauptungen zu übernehmen. Da das Programm über keine eigene Ethik, Moral oder echte Kritikfähigkeit verfügt, wird es eben immer wieder auch ganz falsche, tendenziöse Meinungen produzieren oder fehlerhafte Schlussfolgerungen ziehen. Herausfordernde und anregende Sondermeinungen, sowie eigene Wertungen und Schwerpunkte bei der Darstellung eines Sachverhalts werden durch den Einsatz dieser Programme stark in den Hintergrund treten.
Mit solchen, auf Künstliche Intelligenz setzenden Programmen, wird es künftig noch leichter sein, bestimmte Meinungen massiv zu fördern oder vollkommen zu unterdrücken. Unternehmen oder Staaten können das entsprechende Chat-Programm nach Wunsch justieren und nur noch die genehmen Internetseiten für eine künstlich erzeugte Zusammenfassung zulassen. Wahrheit und Wahrheitssuche werden dann noch stärker als bisher von der freien Beurteilung des jeweiligen Nutzers getrennt.
Ganz gleich aber wie man sie im Detail auch bewertet, man sollte sich keiner Illusion über diese neue und deutlich verbesserte Technik künstlicher Texterzeugung hingeben. Mit großer Sicherheit wird sie sich durchsetzen und weiter perfektioniert werden, mit allen denkbaren Nebenwirkungen. Dazu werden die momentan intensiv geführten Diskussionen ebenso beitragen wie die Konkurrenz zwischen den großen Tech-Riesen wie Alphabet, Microsoft und Meta.
Kritische Begleitung
Bei der Anwendung von ChatGPT stellen sich erneut wichtige technologie-ethische Fragen. In weiteren Bereichen des Lebens, die man bis vor kurzem kaum für möglich hielt, gibt der Menschen seine Autonomie und seinen individuellen Überblick auf. Damit verschwindet auch ein weiterer Teil seiner Verantwortlichkeit. Wer haftet, wenn aufgrund eines von einer KI produzierten Briefs sich ein Teenie das Leben nimmt, eine neue Verschwörungstheorie verbreitet oder sogar ein Krieg ausgelöst wird? ChatGPT und ähnliche Programme haben kein Gewissen, Lüge und Wahrheit als moralische Größen existieren für sie nicht. Auch die möglichen Konsequenzen im realen Leben spielen für Künstliche Intelligenz eine untergeordnete Rolle. Computerprogramme leiden nicht, können nicht gefoltert werden noch hungern.
Es ist nur eine Frage der Zeit, bis künstlich erzeugte Texte nicht nur die Lern- und Bewertungsfähigkeit von Menschen deutlich vermindert, sondern auch in der übrigen, vom Internet beschleunigten Kommunikation zu Irritationen, Fälschungen und Konflikten führt. Das ist einerseits ein sich selbst verstärkender Prozess. Anderseits gibt es natürlich auch genügend kriminelle und ideologische Gründe diese Technik für die eigenen Zwecke einzusetzen.
Gerade angesichts sich schnell entwickelnder technischer Möglichkeiten müssen die mühsamen Fragen der Auswirkungen, der ethischen Legitimität und der Kontrollierbarkeit dieser Anwendungen gestellt und hoffentlich auch befriedigend beantwortet werden. Wenn man solche Neuentwicklungen nicht angemessen begleitet und auf ihre Folgen hin durchdenkt, dann könnten erhebliche Schäden entstehen. Das Potenzial ist jedenfalls vorhanden.
Momentan bereits absehbar sind eine abnehmende Lernmotivation, mehr arbeitslose Textproduzenten, eine zunehmend erschwerte Unterscheidung zwischen echten und erfundenen Informationen und eine sinkende Verantwortlichkeit für gesellschaftliche Prozesse, die durch KI-gestützte Berichte ausgelöst werden.
Je mehr Computerprogramme Informationen sammeln, neu kombinieren und auswerten, desto wichtiger sind die zugrundeliegenden Werte und Weltbilder. Deshalb ist die weitgehende Auflösung übergeordneter, allgemeingültiger Wahrheit in der Postmoderne ein noch größeres Problem. Wer Wahrheit weitgehend abgeschrieben hat – außer der eigenen, nicht mehr begründbaren – dem fehlen zunehmend die Möglichkeiten, Informationen und Schlussfolgerungen sinnvoll analysieren und beurteilen zu können.
Christen sollten in der Diskussion um Künstliche Intelligenz weder in eine altbekannte Technikfeindschaft verfallen noch die deutlichen ethischen Probleme dieser Art der Textproduktion vernachlässigen. Hier eröffnen sich ganz neue Fragen über Urheberschaft, Wahrheit und Verantwortung für eine öffentlich verbreite Meinung, bzw. für vorgebliche Lernleistungen in Schule, Studium und Beruf.
Prinzipiell können Anwendungen wie ChatGPT auch benutzt werden, um seelsorgerliche Briefe abzufassen, Jugendstunden vorzubereiten oder Predigten zu formulieren. Geistlich gesonnene Christen sollten dabei aber nicht vergessen, dass die Zusammenfassungen Künstlicher Intelligenz das persönliche Ringen mit dem Bibeltext und das Suchen nach der Leitung des Heiligen Geistes nicht ersetzen können. Außerdem hat der verantwortungsvolle Gemeindemitarbeiter die konkrete Situation seiner Zuhörer vor Augen und weiß, wie sie angesprochen werden müssen. Das kann kein Chat-Programm ersetzen, auch wenn die dort vorgeschlagenen Formulierungen theologisch korrekt klingen. Geistlicher Dienst ist eben mehr als das Zusammenfassen relevanter theologischer Fakten.
Nicht zu unterschätzen ist beim Einsatz von ChatGPT die Gefahr von direkter oder indirekter Lüge und Falschinformation, bzw. der bloßen Vorspiegelung eigener Forschung. Hier aber unterstehen Christen einer eindeutigen biblischen Verpflichtung, auch wenn die mit größerer intellektueller Arbeit verbunden ist. „Am Tag des Gerichts werden die Menschen Rechenschaft über jedes [falsche und] nutzlose Wort ablegen müssen, das sie gesagt haben.“ (Mt 12,36) Gläubige sollen persönlich und überzeugt hinter ihren Worten und Meinungen stehen können. „Ansonsten denkt über das nach, meine Geschwister, was wahr, was anständig und gerecht ist! Richtet eure Gedanken auf das Reine, das Liebenswerte und Bewundernswürdige; auf alles, was Auszeichnung und Lob verdient!“ (Phil 4,8) Außerdem sind Christen angesichts zunehmender virtueller Wahrheitsdeutungen umso stärker herausgefordert, die grundlegenden Werte und Maßstäbe ihres Denkens beständig von Gott justieren zu lassen. „Und richtet euch nicht nach den Maßstäben dieser Welt, sondern lasst die Art und Weise, wie ihr denkt, von Gott erneuern und euch dadurch umgestalten, sodass ihr prüfen könnt, ob etwas Gottes Wille ist – ob es gut ist, ob es Gott gefallen würde und ob es zum Ziel führt!“ (Röm 12,2)
Künstliche Intelligenz. Ethische Probleme.
Von vielen wird Künstliche Intelligenz als immenser Fortschritt gefeiert und das nicht ohne Grund. Die meisten der bisher eingesetzten Computerprogramme waren lediglich in der Lage das abzuarbeiten, was man ihnen vorgegeben hatte. Dazu gehören durchaus auch ziemlich komplexe Berechnungen und Arbeitsabläufe. Der Rahmen war aber immer relativ festgesetzt. Ständig arbeiteten Programmierer an Verbesserungen und Erweiterungen.
Künstliche Intelligenz erleichtert die Arbeit
Künstliche Intelligenz hingegen erledigt nicht nur stupide Arbeiten. In Sekundenschnelle schreibt sie Referate, Werbetexte oder Programmcodes. Die KI trifft dabei nicht genau vorhersehbare Entscheidungen. Sie kann sogar kreative Aufgaben übernehme, wie das Erstellen von Gemälden oder das Komponieren von Musikstücken. Künstliche Intelligenz kann Informationen im Internet sammeln, auswählen und in neuen Formulierungen zusammenfassen. Sie kann schon jetzt Zeitungsartikel verfassen, Bücher schreiben und neue Computerspiele entwickeln. Das verändert die Arbeitswelt und auch das Selbstverständnis des Menschen tiefgreifend. Vorerst gibt es zumeist aber noch Menschen, die versuchen bei diesen Prozessen korrigierend einzugreifen.
Immer stärker nimmt Künstliche Intelligenz Menschen das Denken und Entscheiden ab. In manchen Fällen ist das durchaus hilfreich, weil Computer gewöhnlich weniger Emotionen und Eigeninteressen in ihre Entscheidung einfließen lassen als Menschen. Außerdem reagieren sie zumeist deutlich schneller. Computergestützte Prozesse in Autos, Flugzeugen und Zügen verringern schon heute die Wahrscheinlichkeit von Unfällen erheblich. Computer und Sensoren können nicht müde oder abgelenkt werden. Künstliche Intelligenz hilft, ungeliebte Routineaufgaben leichter und schneller zu erledigen, Daten zu sammeln oder Formulare und Anträge auszuwerten.
Künstliche Intelligenz braucht solides Fachwissen
Wer sich in einem Fachbereich besonders gut auskennt, für den kann Künstliche Intelligenz sehr hilfreich sein, weil er Fehler und Missdeutungen oft rechtzeitig erkennen kann. Wer aber noch nicht so viel Wissen mitbringt, der wird verführt, den mühsamen Weg, sich dieses Wissen anzueignen mit KI abzukürzen. Rein äußerlich kommt man auf diese Weise viel schneller zum Ziel, zu dem erhofften Auftrag oder der gewünschten Note. Das Ergebnis wirkt zufriedenstellend, auch wenn man die produzierten Inhalte nur teilweise nachvollziehen und kaum auf Korrektheit überprüfen kann.
Auf der anderen Seite ist es nicht nur irgendwie unheimlich, wenn wichtige Entscheidungen von unpersönlichen Computer-Systemen abhängen, so etwas kann auch richtig gefährlich werden. Immer häufiger verlassen sich Menschen auf Informationen und Entscheidungen, die Computerprogramme für sie gesammelt und bewertet haben. Manchmal ist es aber auch ein großer Segen. Es gibt z.B. deutlich weniger S-Bahnunglücke und Flugunfälle durch Autopiloten.
Künstliche Intelligenz muss kontrolliert werden
Bei Google war Geoffrey Hinton lange verantwortlich für die Entwicklung Künstlicher Intelligenz. Weltweit gilt er als Pionier in diesem Bereich. Seit einigen Jahren konzentriert sich Hinton auf die Erforschung der Risiken von KI. In diesem Zusammenhang gab er auch großen Medienanstalten wie der BBC und der New York Times entsprechende Interviews. Schon bald wären diese Anwendungen klüger als die Menschen, die sie benutzen, prognostiziert der Wissenschaftler. Die Software sei in der Lage, riesige Datenmengen innerhalb kurzer Zeit zu verarbeiten.
Neben eindeutigen Vorteilen verweist Hinton auch auf die Gefahren einer flächendeckenden Anwendung Künstlicher Intelligenz. Wenn Daten und Nachrichten erst einmal in einem größeren Umfang von KI erzeugt würde, könne sie durch niemanden mehr kontrolliert oder überprüft werden. Es ist nur eine Frage der Zeit, bis Künstliche Intelligenz auch gezielt für Desinformation und Manipulation eingesetzt wird, die dann noch schwerer aufgedeckt werden kann als bei dem Einsatz herkömmlicher Technologie.
Zusammen mit dem Tech-Milliardär Elon Musk setzt Hinton sich in einem öffentlichen Aufruf für eine Pause bei der Entwicklung und dem Einsatz Künstlicher Intelligenz ein. Darin heißt es unter anderem „KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können große Risiken für Gesellschaft und Menschheit bergen. […] Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind.“
Der Deutsche Ethikrat forderte im März 2023 deshalb klare Regeln für den Einsatz Künstlicher Intelligenz. Weil diese Systeme keine Personen sind und auch über keine Vernunft oder Ethik verfügen, ist es höchst problematisch, ihnen wichtige Entscheidungen zu überlassen oder Informationen für die Öffentlichkeit durch sie zu interpretieren. Künstliche Intelligenz dürfe die menschliche Freiheit und Entwicklung nicht beeinträchtigen, forderten die Wissenschaftler.
KI kann nur schwer zwischen echter und gefakter Information unterscheiden oder persönlichkeitssensible Daten als solche erkennen. Sie hat kein Gewissen und kennt keine Konzepte von Ethik oder Wahrheit. In jedem Fall müsste es zukünftig leichte und effektive Einspruchsmöglichkeiten gegen Aussagen und Entscheidungen Künstlicher Intelligenz geben, wenn man den Eindruck hat, falsch behandelt worden zu sein.
Künstliche Intelligenz vernichtet Arbeitsplätze
Einige Studien gehen davon aus, dass der Einsatz von KI und Robotik viele Berufe automatisieren kann und somit zu hohen Beschäftigungsverlusten führen wird. Das wird vor allem Tätigkeiten mit hohem Routineanteil treffen, in der Produktion, Administration, im Verkauf, Transport und der Logistik. Dadurch sind besonders die Bevölkerungsschichten mit niedrigerem Bildungsgrad und Gehalt betroffen. Künstliche Intelligenz wird dadurch die soziale Aufspaltung der Gesellschaft weiter vertiefen.
Künstliche Intelligenz wird schon in baldiger Zukunft viele Arbeitsplätze in der Verwaltung und auch in der Standard-Beratung überflüssig machen. Der US-Technologiekonzern IBM hat bereits angekündigt, dass er in den kommenden fünf Jahren 30% aller Verwaltungsstellen einsparen und durch Künstliche Intelligenz ersetzen will, insgesamt 7.800 Stellen. Das spart Geld, und erhöht den Gewinn. Solche Ankündigungen sind allerdings erst der Anfang. Die Einsatzmöglichkeiten Künstlicher Intelligenz steigen schnell. KI kann schon heute Übersetzer zumindest teilweise ersetzen, ebenso Graphikdesigner, aber auch Journalisten, sowie andere Text- und Bildproduzenten. KI ersetzt künftig eben nicht nur wenig qualifizierte Stellen, sondern auch gut ausgebildete Arbeitnehmer. Auf der einen Seite erspart das natürlich manche lästige Routinearbeit. Nicht ganz unproblematisch ist es aber, wenn zukünftig immer mehr Anträge oder Prüfungen von Künstlicher Intelligenz bearbeitet werden, mit der man kaum verhandeln oder diskutieren kann.
Künstliche Intelligenz verleitet zu intellektueller Faulheit
Viele Menschen durchschauen KI-Systeme nur schwer und verlassen sich dann umso stärker auf die dort vorgegebenen Informationen und Ergebnisse. Das führt zu steigender Abhängigkeit und Unfreiheit. Wer sich langfristig auf Systeme der Künstlichen Intelligenz verlässt, der verliert mit der Zeit die Fähigkeiten selber Informationen zu sammeln, auszuwerten und sachgerechte Schussfolgerungen zu ziehen.
Auch die durch Künstliche Intelligenz erzeugten Daten und Aussagen fließen wieder ins Internet ein und beeinflussen dadurch wiederum alle zukünftigen Recherchen von Menschen und Computerprogrammen. Weil auch Zeitungen, Zeitschriften und Wissenschaftler vermehrt auf KI zurückgreifen, wird es in Zukunft ziemlich schwierig sein, eindeutig zu erkennen, wer mit welcher Expertise und Verantwortung hinter welchen Aussagen steht, oder woher vorgeblich sichere Fakten letztendlich wirklich stammen.
Künstliche Intelligenz bietet viel Potential zum Missbrauch
Durch KI wird das Urheberrecht auf kreative und wissenschaftliche Leistungen elegant ausgehöhlt. Die im Internet verfügbaren Daten können ohne Quellenangabe und Lizenzzahlungen benutzt und leicht veränderter Form neu kommerziell verwendet werden. Künstler, Schriftsteller und Wissenschaftler fürchten, um eine angemessene Entlohnung für ihre Arbeit gebracht zu werden, die bei vielen Anwendungen die Datenbasis Künstlicher Intelligenz bildet.
KI macht es auch erheblich einfacher, personenbezogene Daten von Computernutzern zu sammeln und strategisch auszuwerten. Es ist fast unmöglich, den Zugriff auf sensible oder geschützte Datensätze effektiv zu verhindern oder im Nachhinein sicher zu dokumentieren. Durch die gezielte Auswertung großer Datenmengen können umfassende familiäre, gesundheitliche, finanzielle oder weltanschauliche Profile erstellt und für geschäftliche Zwecke missbraucht werden.
Künstliche Intelligenz kann mit einigen Stimm- oder Schriftproben, individuell klingende Aussagen oder Schriftsätze produzieren, die auch für Angehörige auf den ersten Blick nicht als Fälschungen erkennbar sind. Auf diese Weise ist es schon heute möglich, Telefonanrufe, Briefe oder Unterschriften täuschend echt zu erzeugen, durch die Menschen Falschaussagen untergeschoben werden können. Damit können Beziehungen und Karrieren zerstört und betrügerische Geschäfte abgeschlossen werden.
Die meisten KI-Systeme werden von Firmen und Regierungen kontrolliert, die ihre eigenen Profit- oder Machtinteressen verfolgen. Es kann nicht sichergestellt werden, dass sie die in diesem Prozess recherchierten Daten korrekt verwenden und keinen Einfluss auf die Ergebnisse der von ihnen betriebenen Systeme nehmen, um ihre eigenen Interessen zu fördern. Im schlimmsten Fall kann man bestimmte Daten und Meinungen generell ausschließen oder KI benutzen, um falsche Informationen unauffällig an möglichst vielen Stellen zu platzieren.
Die Frage, wer bei einem Unfall mit autonomem Fahren oder einer medizinischen Therapie verantwortlich ist, die durch Künstliche Intelligenz entschieden wurde, kann wie folgt beantwortet werden: Am Ende ist immer eine natürliche oder juristische Person in der Haftung, egal welche Werkzeuge eingesetzt werden.Das gilt auch für KI-Werkzeuge.
Künstliche Intelligenz kann natürlich auch von autonomen Waffensystemen oder zu Propagandazwecken eingesetzt werden. Die Verantwortung für Tötungen und Desinformation lägen dann theoretisch bei einem anonymen Computersystem.
Weil Künstliche Intelligenz keiner höheren Ethik oder Verantwortung verpflichtet ist, könnte sie zu letztlich absurden oder gesellschaftlich schädlichen Entscheidungen kommen. Solche autonomen Systeme könnten zukünftig beispielsweise zum Schluss kommen, dass man die Menschheit oder zumindest die Alten und Kranken am besten auslöscht, um ihr Leiden zu minimieren oder Kosten zu senken.
Künstliche Intelligenz darf menschliche Verantwortung nicht ersetzen
Nach Auskunft der Bibel kann ein Mensch die Verantwortung für sein Handeln und Reden keinem anonymen Computersystem überlassen. Er muss vor Gott Rechenschaft ablegen. „Drängt euch nicht danach, Lehrer zu sein, meine Brüder. Ihr wisst ja, dass wir als Lehrer ein strengeres Gericht zu erwarten haben, denn wir alle machen oft Fehler. Wer beim Reden keine Fehler macht, der ist ein vollkommener Mann.“ (Jak 3,1.2)
Bei der Auswahl von Personen, die verantwortliche Entscheidungen für die Gemeinde treffen sollen, werden ganz besonders charakterliche Qualifikationen gefordert, die Systeme der Künstlichen Intelligenz nicht haben können, obwohl sie zukünftig immer mehr wichtige Entscheidungen treffen werden. „Ein Leiter muss ein Mann ohne Tadel sein, der mit einer Frau verheiratet ist. Er muss sich besonnen und verantwortungsbewusst verhalten, darf keinen Anstoß erregen, muss gastfreundlich und zum Lehren befähigt sein. Er soll kein Trinker und gewalttätiger Mensch sein, sondern ein freundlicher und rücksichtsvoller Mann, der auch nicht am Geld hängt. Er muss sich in vorbildlicher Weise um seine Familie kümmern, sodass seine Kinder ihn achten und ihm gehorchen.“ (1Tim 3,2-4)
Die hier für verantwortliche Leiterschaft und seelsorgerliche Begleitung genannten Qualifikationen verknüpfen Wissen und sachgerechte Analysen, mit Bewährung und Lebenspraxis. Diese vielschichtigen Aspekte lassen sich durch KI nicht ersetzen. Christen können die Chancen Künstlicher Intelligenz nutzen, wenn sie sich dabei auch der Grenzen und Gefahren bewusst sind.