period.

© Elena Anna Rieser

Das Zeitalter der Roboter: Gekommen, um zu bleiben?

Die Angst davor, dass Maschinen oder Technologie den Menschen ersetzen, besteht schon seit der industriellen Revolution. Während Maschinen damals vor allem bei mechanischen Vorgängen unterstützt haben, können Maschinen etwa durch maschinelles Lernen auf Input reagieren und ihr Verhalten diesem anpassen – man spricht oft von „smarten“ oder „intelligenten“ Maschinen oder Fabriken. Corinna Engelhardt-Nowitzki, Leiterin des Department Industrial Engineering an der FH Technikum, spricht im Interview über die Stärken und Schwächen von Mensch und Technologie und fordert vor allem eines: Experimentieren und Lernen, um technische Systeme besser zu verstehen und besser mit ihnen interagieren zu können.

Es wird schon seit vielen Jahren viel darüber diskutiert, wo Algorithmen oder Roboter den Menschen ersetzen. Vielleicht starten wir genau umgekehrt: Wo ist der Mensch noch immer überlegen und wo wird er es auch zukünftig bleiben? 

Der Mensch ist der Maschine überall dort überlegen, wo man kreativ und disruptiv denken muss. Auch immer dann, wenn man nicht mit Daten aus der Vergangenheit arbeiten kann oder wenn eine Aufgabe nicht vorwiegend mit Geschwindigkeit und präziser Wiederholung zu lösen ist. Ich bin beispielsweise überzeugt, dass wir noch sehr lange keinen Roboter haben werden, der den Siphon unter einem Waschbecken auseinandernehmen, reinigen und reparieren kann, wenn dieser verstopft ist. Wenn ein Mensch versucht, etwas aufzuschrauben und es funktioniert nicht, wird er z.B. etwas daran rütteln. Einen Roboter so zu programmieren, dass er dosiert an einem verkanteten Teil rüttelt, ist prinzipiell möglich, aber aufwendig. Das erfordert viel zu viel sensorisches Gespür. Ein ähnliches Beispiel: Ich habe einem Roboter beim Falten von T-Shirts zugeschaut und da möchte man aus lauter Mitleid am liebsten mithelfen: nur, wenn es der Maschine gelungen ist, das T-Shirt exakt an der richtigen Stelle zu greifen, funktioniert das. Dann allerdings gefühlt 10 mal so schnell wie bei einem Menschen.

Was bedeutet das für Jobs in der Industrie und wie könnte so ein gegenseitiges Helfen aussehen? 

Der Mensch beherrscht schwierige manuelle Aufgaben – zum Beispiel in der Montage – immer noch viel viel besser als der Roboter. Im Gegensatz dazu ist der Roboter präzise und schnell, wenn es darum geht, Dinge eins zu eins zu wiederholen. Bei stumpfer Akkordarbeit wird der Roboter dominieren. Ich begrüße das durchaus – natürlich nicht, weil Menschen Arbeitsplätze verlieren, sondern wenn uns stupide und unergonomische Arbeit abgenommen wird. Die Arbeit mit Robotern kann auch kollaborativ sein. Wenn dem Menschen das Heben von schweren Bauteilen durch ein Exoskellett oder eine Handlingvorrichtung abgenommen wird, ist das positiv. Auch überall dort, wo es um gefährliche Stoffe geht, wo beispielsweise giftige Dämpfe entstehen, ist es auf jeden Fall von Vorteil, einen Roboter einzusetzen. Dort verbessern Maschinen die Sicherheit und die Qualität der Arbeitsplätze.

Ich mache mir am ehesten Sorgen um sehr einfache Tätigkeiten, die keine menschlichen Qualitäten erfordern. Mit Virtual Reality haben wir aber vielfältige Möglichkeiten, Menschen auch in diesen Bereichen noch einzusetzen und so auch solche Arbeitsplätze zumindest in einer Übergangsphase zu sichern. Oft kann ich einen Lagerarbeiter oder eine Lagerarbeiterin, der eigentlich nicht weiß, wie man ein Gerät aus Komponenten zusammensteckt, mit einer angenehm zu tragenden Brille oder einem Smartphone ausstatten und ihm diese Information in Form einer Bauanleitung in VR zeigen. So können Personen ohne aufwendige Schulungen angeleitet werden, diese Teile richtig zusammenzubauen.

Es wird oft von „smarten“ oder „intelligenten“ Maschinen gesprochen, vielen Menschen bereitet diese zunehmende Intelligenz auch Sorgen. Was bedeutet „smart“ in diesem Zusammenhang?

Eine allgemeine Definition für KI wäre, dass eine Maschine in der Lage ist, Dinge zu tun, die man eher dem menschlichen Verstand als Fähigkeit zuordnen würde. Alltagssprachlich verschwimmt das: Als smart empfinden wir oft maschinelle Entscheidungen, die uns auf den ersten Blick überraschen, weil wir gewohnt sind, dass Menschen diese treffen. Aber: Maschinen treffen schon sehr lange Entscheidungen für uns. Denken wir an eine Heizung: Ich stelle 24°C ein und betrachte es nicht unbedingt als smart, dass sich die Heizung selbstständig an- und abschaltet. Mit KI hat das nichts zu tun. Neue und immer ausgeklügeltere technische Systeme bieten mehr und mehr Funktionalität und treffen Entscheidungen. Da muss man ganz genau hinsehen, wo KI im Spiel ist, und welche. Es geht weniger darum, ob Maschinen Entscheidungen treffen, sondern vielmehr darum, ob wir sie absichern und nachvollziehen können. 

Es gibt auf der einen Seite diese Angst, die uns daran hindert, KI besser zu verstehen und gut mit ihr zu arbeiten. Auf der anderen Seite lassen wir uns bereitwillig auf unseren Smartphones Produktvorschläge servieren, freuen uns über die Manipulation.

Ich habe oft das Gefühl, hier gibt es zwei Gruppen: Die, die blind vertrauen und die, die alles in Frage stellen. Wie geht man damit um? 

Es gibt auf der einen Seite diese Angst, die uns daran hindert, KI besser zu verstehen und gut mit ihr zu arbeiten. Auf der anderen Seite lassen wir uns bereitwillig auf unseren Smartphones Produktvorschläge servieren, freuen uns über die Manipulation, und sind in unserer naiven Konsumhaltung erheitert, wenn uns die Maschine nach dem Kauf einer Laptoptasche vorschlägt, doch einen Laptop zu erwerben. Auf der anderen Seite fürchten wir, aufgrund von Diskriminierung von einer KI für ein Jobangebot nicht vorgeschlagen zu werden. Technisch ist das oft kein großer Unterschied! Diesen Diskurs richtig zu führen, ist eine wichtige Aufgabe. Dazu wir müssen experimentieren, experimentieren, experimentieren, damit wir lernen, besser mit diesen Systemen zu arbeiten und Fehlentwicklungen auszugleichen.

Die technologische Basis für diese Intelligenz ist immer ähnlich: Auf der einen Seite sind das oft Sensoren, die immer besser werden und immer mehr Kontextdaten erfassen. Auf der anderen Seite sind es Algorithmen, die für die Verarbeitung dieser Daten zuständig sind. In beiden Bereichen ist es ungemein wichtig, sehr viel auszuprobieren. Das Ziel von Österreich und von Europa muss sein, wettbewerbsfähige Systeme auf dem ethischen und sicherheitstechnischen Niveau anzubieten, das wir uns vorstellen. Wenn wir diese Entwicklung bremsen, dann setzt sich im Ergebnis nur KI durch, die im amerikanischen oder asiatischen Raum entwickelt wurde. Vermutlich nicht mit unseren ethischen Ansprüchen. Es wäre naiv zu glauben, dass KI deshalb nicht eingesetzt wird. Ich möchte an dieser Stelle eine Lanze dafür brechen, möglichst viel an Investition und Energie in diese Entwicklung zu stecken, damit wir hier in Europa die Lernkurve haben, die es braucht, um diese Systeme selbst gut zu entwickeln, zu gestalten und zu nutzen. 

(c) Elena Anna Rieser

Es gibt klassische Fehler, die wir kennen und bei denen wir wissen, wie man sie vermeidet. Wenn eine KI heute das Internet durchsucht, dann stellt sie fest, dass es genau drei Arten von Lebewesen gibt: Männer, Frauen und Katzen.

Welche Herausforderungen gibt es im Bereich KI noch? 

Es gibt klassische Fehler, die wir kennen und bei denen wir wissen, wie man sie vermeidet. Wenn eine KI heute das Internet durchsucht, dann stellt sie fest, dass es genau drei Arten von Lebewesen gibt: Männer, Frauen und Katzen. Das klingt im ersten Moment lustig, je nach Setting ist es das, aber nicht mehr. Google hat eine Gesichtserkennungssoftware trainiert und man hat plötzlich festgestellt, dass dunkelhäutige Menschen als Orang Utans erkannt werden. Grund dafür war, dass man vergessen hatte, die KI mit nicht-weißen Gesichtern zu trainieren. Das wurde nachgeholt, aber daran merkt man: Auf solche Punkte muss man achten. Das benötigt menschlichen Eingriff! Maschinelles Lernen funktioniert überall dort gut, wo die vorhandenen Daten das abbilden, was auch in der Zukunft gilt. Wenn die Zukunft anders aussehen soll oder wird als die Vergangenheit, funktioniert sie nicht. Zum Beispiel sind im Ist-Zustand die Daten diskriminierend, weil im Ist Diskriminierung stattfindet. In diesen Fällen muss man dafür sorgen, dass die KI daraus nicht den Soll-Zustand lernt, denn sie kann eben nicht ohne weiteres bewerten, was wünschenswert ist.

Worauf muss man – abgesehen von den zur Verfügung stehenden Daten – noch achten?

Es ist technologisch bekannt, dass wir nicht vorhersagen können, aufgrund welcher Kriterien die KI lernt und später unterscheidet. Diese Systeme arbeiten – und das darf man nie vergessen – nur mit Wahrscheinlichkeiten und man weiß nicht, was sie genau lernen. Man hat beispielsweise versucht, ein neuronales Netzwerk zu trainieren, das Wölfe und Huskys unterscheiden kann. Das hat nicht gut funktioniert. Im Nachhinein hat man festgestellt, dass die KI gelernt hatte, Bilder mit Schnee von Bildern ohne Schnee zu unterscheiden, weil die meisten Huskys im Gegensatz zu den Wölfen im Schnee fotografiert worden waren. Für Probleme, die wir kennen, können wir Lösungen finden. Man hat anhand vieler solcher Beispiele gesehen: Hoppala, hier hat die Technologie ein Problem. Aus diesem Grund ist es extrem wichtig, intensiv zu testen und vor allem auch auszuprobieren: nur so können wir solche Probleme erkennen und Lösungen suchen. Wenn das einem regulierten, aber effizienten Zertifizierungsprozess unterzieht, dann haben wir eine Chance, sicherzustellen, dass solche Algorithmen „ethics by design“ sind, wie wir das im Fachjargon nennen. 

Um solche Fehler zu vermeiden, müsste die KI vom Mensch überwacht werden?

Wenn „echte KI“ im Spiel ist, muss das auf jeden Fall ein Mensch überwachen. Aber auch menschliches Handeln hat seine Schwierigkeiten. Man hat zum Beispiel in Untersuchungen im medizinischen Bereich herausgefunden, dass Ärzte der KI ungefähr so viel vertrauen wie einem anerkannten Kollegen. Das heißt, der Mensch wirkt unter Umständen nur bedingt als Korrektiv. Dementsprechend muss man ein Setting finden, bei dem man hinter diesen Algorithmus schaut und herausfindet, wo und warum es zu unerwünschten Ergebnissen kommen könnte. Eine zweite Schwierigkeit ist das sogenannte “de-skilling”. Wenn man als Chirurg 10.000 Mal eine bestimmte Operation durchgeführt hat, dann beherrscht man sie. Wenn man diese Operation nur fünfmal wirklich selbst durchgeführt und sonst immer mit einem chirurgischen Roboter gearbeitet hat und es kommt zu einer Sondersituation – der Roboter fällt aus, das Herz des Patienten ist anders – dann fehlen diese Skills. Wir müssen aufpassen, dass wir überall dort, wo Systeme übernehmen, gut überlegen: Wo sind Dinge vom Menschen nicht mehr leistbar und wo müssen wir einen Weg finden, dieses Wissen und diese Erfahrung zu erhalten.

Meldet euch für unseren Newsletter an: