Die bisherigen Überlegungen zeigen, dass Begriffe wie Künstlichkeit, Natürlichkeit, Intelligenz oder Islam nicht eindeutig festgelegt sind. Ihre Bedeutung hängt stark von Perspektive und Interpretation ab.
Gerade in diesem Spannungsfeld stellt sich die Frage, wie künstliche Intelligenz überhaupt bewertet werden kann. Denn wenn bereits die grundlegenden Begriffe unscharf sind, wird auch ihre Einordnung komplexer. Dies gilt insbesondere im Kontext islamischer Denkweisen, die selbst von Auslegung und Perspektive geprägt sind.
Ein erster Zugang besteht darin, zwischen der Technologie selbst und ihrer Anwendung zu unterscheiden.
Künstliche Intelligenz ist als solche zunächst nur ein Werkzeug. Sie verarbeitet Daten, erkennt Muster und ermöglicht neue Formen der Entscheidungsunterstützung. In dieser Funktion ist sie weder gut noch schlecht. Ihre Bewertung entsteht erst im Kontext ihrer Nutzung durch den Menschen.
Entscheidend ist nicht allein, was künstliche Intelligenz kognitiv kann, sondern wie und zu welchem Zweck sie eingesetzt wird. Welche Probleme werden gelöst. Welche Entscheidungen werden beeinflusst. Und welche Auswirkungen ergeben sich daraus für Menschen und Gesellschaft. Der Mensch schafft also den Kontext und bestimmt damit maßgeblich die Wirkung.
Gerade aus einer islamisch geprägten Perspektive rücken dabei grundlegende Prinzipien in den Vordergrund. Fragen von Verantwortung, Gerechtigkeit, Wahrhaftigkeit und dem Schutz menschlicher Würde bilden einen Rahmen, innerhalb dessen technologische Entwicklungen betrachtet werden können.
Diese Prinzipien liefern jedoch keine einfachen Antworten. Sie müssen auf konkrete Situationen angewendet und im jeweiligen Kontext ausgelegt werden. Damit verschiebt sich der Fokus. Nicht die Technologie selbst steht im Zentrum der Bewertung, sondern der Mensch als handelndes und verantwortliches Subjekt. Künstliche Intelligenz erweitert nur Handlungsmöglichkeiten. Sie ersetzt jedoch nicht die Verantwortung für die daraus entstehenden Entscheidungen.
Anders formuliert: Bewertet werden nicht isolierte kognitive Prozesse, sondern das Zusammenspiel verschiedener Dimensionen von Intelligenz, zu dem der Mensch in seiner Ganzheit fähig ist.
Gleichzeitig entstehen neue Spannungsfelder. Je stärker Entscheidungen durch Systeme vorbereitet oder automatisiert werden, desto schwieriger wird es, Verantwortung eindeutig zuzuordnen. Wer trägt die Verantwortung für ein Ergebnis, das auf algorithmischen Prozessen basiert? Der Entwickler, der Anwender oder das System selbst?
Gerade hier zeigt sich, wie eng technische, ethische und gesellschaftliche Fragen miteinander verknüpft sind. Künstliche Intelligenz ist kein isoliertes Phänomen. Sie wirkt in bestehende Strukturen hinein und verändert sie. Eine differenzierte Bewertung kann daher nicht eindimensional erfolgen. Sie erfordert die Betrachtung aus verschiedenen Perspektiven.
Genau hier setzen die folgenden Artikel an, die das Thema aus theologischer, ethischer und gesellschaftlicher Sicht weiter vertiefen.