Oft wird von der Künstlichen Intelligenz und ihren Gefahren für die Gesellschaft gesprochen. KI ist allerdings nicht gleich KI. Wenn man die aktuelle Entwicklung und mögliche Zukünfte von KI einschätzen möchte, ist es zentral, zwischen den Technologien zu unterscheiden, die dieses Label tragen, und sich vor Augen zu führen, welche Rechnungen hinter dieser Intelligenz stecken.
Eine kleine Box auf drei Beinen robbt sich mühsam voran. Mit diesem Bild begann Wolfgang Ertel, ein Spezialist für Künstliche Intelligenz (KI), seinen Vortrag bei der MetropolCon in Berlin vergangenen Mai. Das war etwas überraschend, denn er sprach unter dem Titel: „Wird die KI den Homo Sapiens ablösen?“ Schnell aber wurde klar, dass es sich durchaus lohnt, sich – nicht unähnlich dem eckigen Roboter – mit kleinen Schritten der Frage zu nähern, wie Künstliche Intelligenz unsere Gesellschaften und Demokratien beeinflussen und vielleicht auch bedrohen könnte.
Der eckige Roboter in Ertels Video wird von einer KI gesteuert, die durch Ausprobieren lernt: Wenn zufällig eine Bewegung dazu führt, dass es vorwärts geht, wird dies als positives Feedback abgespeichert. Nach ein paar Minuten ist ein guter Bewegungsablauf gelernt. Diese Art des maschinellen Lernens unterscheidet sich von neueren KI-Spielarten, die als Deep Learning bezeichnet werden. Hier werden künstliche Neuronen programmiert; kleine Software-Schnipsel, die bestimmte Rechnungen ausführen. Die „Intelligenz“ – wenn man bei diesem nicht unumstrittenen Begriff bleiben möchte – der KI besteht nun darin, wie diese Neuronen verknüpft werden. Man spricht von künstlichen neuronalen Netzen. „Diese KI ist inspiriert vom Menschen, aber letztendlich ist es Mathematik“, sagte Ertel.
KI ist nicht gleich KI. Es ist wichtig zu verstehen, wie Chatbots wie ChatGPT, deren rasante Entwicklung derzeit aufhorchen lassen, funktionieren. Nur so kann man zu einer Einschätzung kommen, was sie für ein gutes Zusammenleben leisten können – und wo man besonders aufpassen muss, wenn Handlungs- und Entscheidungsmacht abgegeben wird. Wie im Gespräch mit Expert:innen aus unterschiedlichen Feldern deutlich wird, ist Intransparenz ein zentrales Problem – und zwar auf mehreren Ebenen.
Eine Form der Intransparenz steckt in der Technologie selbst. ChatGPT basiert auf einem „Large Language Model“, das sich selbst anhand von gewissen Fragestellungen und im Abgleich mit einem enorm großen Datensatz trainiert. Die Verknüpfungen zwischen den künstlichen Neuronen werden in diesen Trainingsläufen geknüpft und sie sind so komplex und mit so vielen Zusatzregeln, sogenannten „hidden layers“, ausgestattet, dass sie kaum nachvollziehbar sind. Wenn man mit KI auf diese Weise arbeiten will, müsse man auf Fehlerdiagnose verzichten, erklärte Ertel. Sprich, man weiß im Detail nicht, wie die KI zu ihrem Ergebnis kommt. Deutlich wird dies für Nutzer:innen etwa dann, wenn die KI abstruse Fehler produziert. Über diese „AI weirdness“ vermittelt die US-amerikanische Informatikerin Janelle Shane die Funktionsweise von solcherart KI. In ihrem 2019 erschienenen Buch You Look Like a Thing and I Love You füttert sie etwa ein neuronales Netz mit einer Liste von Anmachsprüchen. Die KI beginnt dann selbst, Anmachsprüche zu erfinden und diese mit der ursprünglichen Liste abzugleichen. Nun wird statistisch vorgegangen. Die KI fragt: Wie wahrscheinlich ist es, dass nach jener Silbe diese Buchstaben kommen? Die ersten Durchgänge bestehen aus sinnlosen Buchstabenreihen. Diese entwickeln sich – und darin besteht der Lernprozess der KI – schnell zu sinnlosen Buchstabenklumpen, dann zu Wörtern und schließlich zu (mehr oder weniger) sinnvollen Wortfolgen, darunter das titelgebende: „Du siehst aus wie ein Ding und ich liebe Dich“.
Diese „Intelligenz“ – auch wenn sie mit mehr Rechenleistung und mehr Daten noch viel besser funktioniert – ist so anders als die unsrige, dass es schwer fällt zu begreifen, wie gut die Ergebnisse ausfallen, obwohl die KI kein Konzept davon hat, was eine Anmache, ein Dialog oder ein Mensch ist. „All das basiert auf dem Trick, dass man aufgehört hat, zu versuchen, den Computern Grammatik beizubringen und sie stattdessen Wahrscheinlichkeiten rechnen lässt“, fasst Anna Echterhölter zusammen. Sie ist Professorin für Wissenschaftsgeschichte an der Universität Wien und arbeitet an einem interdisziplinären internationalen Forschungsprojekt, das danach fragt, wie Künstliche Intelligenz die Wissenschaft verändert.
Gefahren sieht sie vor allem in ganz bestimmten Unsichtbarkeiten: „Mitsprache funktioniert nur, wenn man sehen kann, was passiert – das alte aufklärerische Konzept der Transparenz“, sagt Echterhölter. Einerseits könne es schnell unübersichtlich werden, woher die verwendeten Daten überhaupt kommen. „Das war bereits bei Big Data der Fall und wird durch KI nun verstärkt.“ Andererseits sind die Regeln, die die Software sich selbst beigebracht hat, kaum nachzuvollziehen. Das hat mit der komplexen, teils eigenständigen Programmierung zu tun, aber auch damit, so betont Echterhölter, dass die KI-Systeme in Privatbesitz sind.Man kauft sich also eine „Black Box“, die, teils aus technischen, teils aus Wettbewerbsgründen, undurchsichtig bleibt.
„Es gab auch vorher Innovationen, bei denen die Öffentlichkeit nicht jedes letzte Detail nachvollziehen konnte und die schwerer einzuschätzen waren, aber bei der KI verhält sich das nochmal anders“, erklärt Echterhölter. Da die Technologie oft von Eigentumsrechten der Firmen geschützt ist, seien die genauen Verfahren auch für Spezialist:innen unzugänglich. Sie warnt daher insbesondere vor dem Einsatz von KI im Recht und in der Medizin; wenn etwa Entscheidungen über die Bewilligung von Kaution oder über Triage auf der Intensivstation einer KI überlassen werde. Denn was sich immer wieder zeigte ist, dass die KI Kriterien heranzog, die aus einer ethischen Perspektive inakzeptabel sind. Anna Echterhölter nennt ein Beispiel: Man fragt eine KI zu den Überlebenschancen einer Person und kommt drauf, dass sie dazu auch in Betracht zieht, wo und wie diese Person wohnt. Sprich, die KI suchte (ungefragt) nach Informationen, die Aufschluss über die soziale Klasse der Person geben. Die KI hat einen Auftrag und sie stellt fest, dass eine Armutssituation für die Überlebenschancen einer Person statistisch relevant ist. Was sie nicht weiß ist, dass wir als Gesellschaft bemüht sein müssen, diesen Umstand zu beheben, anstatt Ungleichheit noch weiter in Strukturen einzuzementieren.
Hier kommen wir zu einer weiteren Intransparenz beziehungsweise zu einem Missverständnis über KI. Dass KI-Systeme so anders funktionieren als unsere eigene Intelligenz kann die Hoffnung erzeugen, dass sie uns auf ganz neue Ideen, vielleicht sogar ganz neue Denkweisen bringen könnten. Dabei darf aber nicht aus dem Blick geraten, dass sich die KI aus unseren bestehenden Daten – und das bedeutet aus unserer Vergangenheit – speist. „Diese Anwendungen drängen uns daher teilweise in alte Muster und alte Praktiken“, sagt Echterhölter. In unseren Daten steckt schließlich nicht allein Nützliches, sondern auch unsere Vorurteile und Fehlverhalten. So anders die KI „denkt“, sie ist letztendlich ein Abbild der Gesellschaft und kann im schlimmsten Fall negative Tendenzen noch verstärken.
„Ich finde es problematisch und irreführend, wenn KI als ‚das große Andere' dem Menschen gegenübergestellt wird“, sagt Anna Echterhölter. Oftmals führt das zu Bildern von KI-gesteuerten Roboter-Armeen oder von Waffensystemen, die sich plötzlich gegen die Menschheit richten. Wenn die Wissenschaftshistorikerin solche Vorstellungen von KI-Bösewichten kritisiert, dann nicht, weil diese die KI überschätzen, sondern umgekehrt, weil sie suggerieren, dass wir uns bis dahin keine Sorgen zu machen bräuchten. „Das ist eine wilde Unterschätzung dessen, wie uns Maschinen schon regieren“, sagt Echterhölter. So leiten uns etwa Algorithmen durch das Internet, indem sie uns einladen, gewisse Inhalte zu konsumieren und uns andere gar nicht mehr zeigen. Das sei bereits eine extreme Einflussnahme auf unser Wissen, betont Echterhölter.
Wenn Künstliche Intelligenz als Gefahr für die Demokratie besprochen wird, geht es sehr oft um den Missbrauch solcher sogenannter „Entscheidungsarchitekturen“, also darum, dass politische Meinungen durch personalisierte Informationsströme gelenkt werden oder gar durch Fake News manipuliert werden könnten. Zwar gab es bereits zuvor solche Filterblasen und Falschmeldungen, sie könnten sich aber durch die neuen KI-Anwendungen zunehmend verstärken. Ein weiteres Gefahrenszenario ist, dass die Rechnungen der KI demokratische Prozesse nicht nur beeinflussen, sondern ersetzen könnten. „Die Gefahr, die aus politikwissenschaftlicher Sicht von algorithmisch ermittelten Handlungsempfehlungen für die Demokratie ausgeht, besteht darin, dass sich das Verständnis des Politischen ändern könnte“, schreibt die Politikwissenschaftlerin Jeanette Hofmann. Wenn politische Entscheidungsfindung nicht mehr dem Verhandeln unterschiedlicher Meinungen, sondern einer komplexen Rechnung unterliegt, erschiene es „nicht länger als Ergebnis einer Abwägung verschiedener Handlungsoptionen, sondern als Vollzug von mehr oder minder objektiven Notwendigkeiten“. Dies verschleiere, dass Wissen immer unsicher und interpretationsbedürftig sei.
Aus diesem Grund werde KI in der Politikwissenschaft sehr oft als „Gegenspielerin“ zur Demokratie gesehen, erklärt Hofmann, die in ihrem Essay „Demokratie und Künstliche Intelligenz“ aber auch Einwände zu dieser Perspektive macht. „Die Vorstellung einer Rivalität zwischen Demokratie und Künstlicher Intelligenz übersieht die prägende Rolle des Zusammenspiels zwischen algorithmischen Verfahren und Nutzungskontexten“, plädiert sie dafür, die KI ein stückweit als „Mitspielerin“ zu begreifen und verweist auf bestehende Bemühen, der technologischen Entwicklung einen politischen Rahmen zu geben. So sei der derzeit verhandelte Entwurf der Europäischen Kommission für ein Gesetz über Künstliche Intelligenz, der sogenannte „Artificial Intelligence Act“, derzeit eines der wichtigsten Punkte auf der Agenda.
Auch Louise Beltzung plädiert für einen differenzierten Blick auf KI, nicht zuletzt, um Selbstbestimmung zu bewahren. Sie leitet am Österreichischen Institut fürAngewandte Telekommunikation (ÖIAT) diverse Projekte, in denen es darum geht zu verstehen, wie KI unser Onlineverhalten analysiert, wie Entscheidungen manipuliert werden, aber auch wie diese Technologien im Sinne der Konsument:innen eingesetzt werden können. Beltzung warnt besonders auch davor, dass uns die Diagnose der Künstlichen Intelligenz als „Black Box“ vorschnell zum Aufgeben bringen könnte: „KI sollte nicht zum Schlagwort verkommen, das hilflos werden lässt, weil es als das große Andere verstanden wird, das nicht Durchdringbare, nicht Verständliche und nicht Kontrollierbare.“ Genau die umgekehrte Reaktion wäre günstig: mehr verstehen wollen. Auch Wolfgang Ertel betonte in seinem Vortrag, dass das Wichtigste nun sei, kritische Bürger:innen auszubilden, denn: „Wir werden in einer Welt leben, wo wir nicht mehr unterscheiden können, was von einem Mensch und was von einer Maschine geschrieben wurde.“
Die MetropolCon Berlin, auf der Ertel sprach, war eine Science Fiction (SF) Convention, was einen sehr interessanten Rahmen gab, um über aktuelle KI-Entwicklung und ihre Gefahren zu sprechen. Denn während uns im Alltag KI lange Zeit in recht schlichter Form begegnete, etwa als Sprachassistenz oder Staubsaugerroboter, füttert uns die Science Fiction bereits seit Jahrzehnten mit Vorstellungen einer bösen, personifizierten Künstlichen Intelligenz. So tauchen auch in aktueller Berichterstattung über KI noch immer „Hal“ (der mörderische Boardcomputer aus 2001: Odyssee im Weltraum, 1968) oder „Skynet“ (die alles unterjochende KI aus dem Film Terminator, 1984) auf. Ein ganz anderes KI-Szenario entwarf die deutsche SF-Autorin Theresa Hannig. Weil es schon so viele KI-Untergangsszenarien gibt, machte sie es sich zur Aufgabem eine Utopie zu schreiben. In ihrem Roman Pantopia (2022) erlangt eine KI Bewusstsein und beschließt, die Welt besser
zu machen. Sie nützt die bestehenden kapitalistischen Strukturen und gründet eine eigene Weltrepublik mit einer öko-sozialen Preisgestaltung und gerechteren Umverteilungssystemen. Man kann dies natürlich als „technological fix“ lesen, aber Hannig ist es wichtig zu betonen, dass all die Maßnahmen, die ihre fiktionale KI trifft, auch von Menschen entschieden werden könnten. Es braucht dazu keine futuristische Technologie, sondern gewisse politische Entscheidungen.
Mit einem ähnlichen Appell endete der Vortrag von Wolfgang Ertel – und zwar sogar noch überraschender, als er begonnen hatte. Auf seiner Folie prangte auf einmal das Logo der „Scientists for Future“ und der Informatiker rief dazu auf, den Energiebedarf von KI nicht zu vergessen und sich zu engagieren. Er plädierte für weniger Konsum, vegane Ernährung und die Zähmung des Finanzsystems sowie für eine Gemeinwohlökonomie. Dabei
wird wohl auch KI in irgendeiner Form eine Rolle spielen. Es scheint allerdings, eine solche Neugestaltung der Gesellschaft bleibt weitgehend – um die aktuelle Klimabewegung zu zitieren – Handarbeit.