Kontext: Ich bin sehr auf der Ludditen-Seite, was das Thema KI angeht. In anderen Worten: Ich sehe zwar ein, dass es einige Anwendungsfälle gibt, in denen sie nützlich sein können, aber im Großen und Ganzen bin ich überzeugt, dass KI zu nutzen, wie auch einiges andere, nicht ethisch möglich ist und uns diese Technologie erheblich mehr Schaden als Nutzen bringen wird. Man kann, jetzt wo sie in der Welt ist, diskutieren, ob die ethischen Probleme den Mehrwert in manchen Bereichen rechtfertigen, aber so breit wie es aktuell genutzt wird, wäre ich sofort dafür, dass das Zeug morgen verboten wird und verschwindet. Über meine Argumente und Gedanken schreibe ich noch einen laaaangen Artikel, oder ihr hört schon mal in den Podcast hier rein, wo ich vieles zumindest angerissen hab: https://podcast.uberspace.de/folge-9-ein-gesprach-uber-ki/
So, nun aber zum eigentlichen Text. Ich lese viel über KI, viel mehr, als mir lieb ist, bei einem Thema, vor dem ich am liebsten die Augen verschließen und einfach nichts hören möchte. Ich bin, wie dieser wunderbare Artikel beschreibt, sehr auf meiner Seite der kognitiven Dissonanz-Pyramide. Das heißt, ich lese am liebsten Artikel, die meine Weltsicht bestätigen. Also, dass KI doof ist. Ich versuche aber auch nicht nur solche Artikel zu lesen und meine Argumente und Meinungen zumindest ab und an herauszufordern. Also lese ich auch Artikel, die etwas weniger kritisch sind, vielleicht sogar sagen, dass KI unter bestimmten Bedingungen genutzt werden kann. Und genau in vielen dieser Artikel tue ich mir extrem schwer, wenn dort KI als Werkzeug wie jedes andere behandelt wird, auch wenn das der Autor*in ihr gutes Recht ist, so zu argumentieren.
Oft wird aber nicht so argumentiert, sondern diese Annahme, dass KI nur ein Werkzeug ist wie jedes andere, schwingt als Grundannahme in den Texten mit. Das mag in dem Fall eine Vereinfachung sein, aber das ist oft leider nicht klar.
Ich würde mir daher wirklich manchmal wünschen, vor diesen Texten, die teilweise sehr lang sind, stünde eine kurze Zusammenfassung über die Grundannahmen, die der Text trifft, und die Position der Autor*in.
KI ist ein furchtbar komplexes Thema und führt immer öfter zu tiefgreifenden Konflikten. Oft genug ist schon unklar, worüber überhaupt gesprochen wird. Da würde es, zumindest in meinen Augen, sehr helfen, wenn in der Diskussion darüber oder über Teilaspekte die Grundannahmen zumindest von vornherein klar sind. Also, worüber wird hier diskutiert und worüber nicht und unter welcher Prämisse. Ich kann über die Aspekte von KI in der Forschung reden und vieles auslassen, ich kann über die Umweltaspekte diskutieren und vieles auslassen, ich kann über die Auswirkungen auf das Programmieren reden und vieles auslassen. Das ist manchmal nötig, um ein Thema erfassen zu können, besonders wenn es groß und komplex ist. Aber schwierig ist es, wenn ich dafür Grundannahmen treffe, die nicht klar sind.
Denn in meinen Augen lässt zum Beispiel diese Annahme, dass KI nur ein Werkzeug ist, einfach zu viel aus, und das sollte den Lesenden zumindest bewusst sein. Also ob das ein Auslassen und Vereinfachen ist oder ob man schon bei den Grundannahmen Differenzen aufweist. Nur so findet man eine gemeinsame Basis für Gespräche.
Und weil das so oft als Grundannahme in Texten steht und ich das auch oft genug in Diskussionen höre. KI ist in meinen Augen genauso wenig nur ein Werkzeug wie eine Pistole nur ein Werkzeug ist, wie Fleisch nur ein Lebensmittel ist, wie queer sein nur eine Vorliebe ist, wie Wahlen nur eine Entscheidung sind, wie die Dampfmaschine nur eine Erfindung ist und so weiter. Es gibt Aspekte unseres Lebens, die sich nicht vermeintlich neutral betrachten lassen, weil sie zu viele Auswirkungen und Abhängigkeiten auf unser aller Leben haben. Sie sind eben nicht „nur“, sie sind das genaue Gegenteil von „nur“.