Mensch – Maschine: Eine problematische Beziehung

Der Papagei Buddy, der bei Amazon Geschenkboxen bestellt, weil es ihm gelang, das System Alexa zu aktivierten, ein Sicherheitsroboter, der ein Kleinkind in einem Einkaufszentrum niederfährt und sich aus dem Staub macht, eine Motte, die den Autopilot eines Tesla außer Gefecht setzt. Das Mensch-Maschine-Verhältnis ist konfliktbeladen.

Stefan Strauss (ÖAW) und Johann Stockinger (OCG)

Stefan Strauss (ÖAW) und Johann Stockinger (OCG)

Stefan Strauß vom Institut für Technikfolgen-Abschätzung der Österreichische Akademie der Wissenschaften hielt am 19. September bei der Veranstaltung OCG Horizonte einen Vortrag über (selbst-)lernende Maschinen und Deep Learning. Er warf bei der Veranstaltung in den Räumen der OCG einen kritischen Blick auf die Entwicklung der Maschinen. Deep Learning  als Teilbereich des maschinellen Lernens nutzt künstlichen neuronalen Netze, die wie das menschliche Gehirn gebaut sind.[Nach einem kurzen Einblick in die Funktionsweise des Deep Learning, brachte Strauß einige Beispiele der heutigen Anwendungsfelder: Handschriften können schon sehr gut imitiert werden, Fertigungsroboter erleichtern die Arbeit, Amazon Echo und Google Car erobern unseren Alltag - und es gibt natürlich auch beängstigende Entwicklungen im militärischen Bereich.

Schlechter Input - schlechter Output

Der große Unterschied in der Art des Lernens zwischen Mensch und Maschine liegt darin, dass Deep Learning eigentlich eine Art Trial-and-Error ist, d. h. die Maschine nicht wie der Mensch aus Erfahrung lernt, sondern sie berechnet Wahrscheinlichkeiten je nach Input. So kann dann auch der Input „schlechter“ Informationen zu „schlechten“ – also nicht wünschenswerten – Ergebnissen führen.

Neben den offensichtlichen Potenzialen der (selbst-)lernenden Maschinen wie der Optimierung von Geschäftsprozessen und der Effizienzsteigerung bei Daten-Analysen und Routine-Aufgaben, ist Deep Learning mit große Risiken verbunden: Alle Risiken, die im Zusammenhang mit Big Data auftreten werden durch Deep Learning verstärkt, daher steigen die sozialen wie ökonomischen Kosten zur Korrektur dieser Fehler. „Es stellt sich auch die Frage, was bei Regelkonflikten passiert“, gibt Strauß zu bedenken. Der Mensch gibt Teile seiner Autonomie an Maschinen ab, an Maschinen, über deren Funktionsweise wir noch viel zu lernen haben, wie Joel Dudley, US Entwickler im Bereich der künstlichen Intelligenz, so treffend sagte „We can build these models, but we do not know how they work.“

Ist ethisches Verhalten programmierbar?

Künstliche Intelligenz führt zu zur Verschärfung sozialer Ungleichheit. Da die Systeme noch immer hauptsächlich von weißen Männern entwickelt werden, besteht das Risiko automatisierter und abstrahierter Diskriminierung. Besonders im Bereich der Bots, die ja auch zur Beeinflussung der Wählermeinung eingesetzt werden, wird die Kritik immer lauter. Ein Experiment mit dem Microsoft Chatbot Tay ist spektakulär fehlgeschlagen. Tay sollte lernen, wie junge Menschen reden. Innerhalb von 24 Stunden mutierte der Bot zum Rassisten und gab u. a. folgende Meldung von sich: „Bush did 9/11 and Hitler would have done a better job than the monkey we have got now. donald trump ist he only hope we’ve got“ (Tay 2016; theguardian 2016). So stellt sich dann auch die Frage, ob ethisches Verhalten überhaupt programmierbar ist.

Stefan Strauss

Stefan Strauss

Es ist noch viel zu tun

Bei klar definierten Aufgaben erlaubt Deep Learning mehr Flexibilität und höhere Potentiale, auch bei Routine-Tätigkeiten und als Entscheidungshilfe überwiegen wahrscheinlich die Vorteile. Eine Vermenschlichung der Maschinen und blindes Vertrauen führen aber sicher zu großen Problemen. Teilweise hat sich die Industrie bisher relativ naiv der IT genähert und bedient und die Sicherheitsaspekte sind unter dem Marktdruck auf der Strecke geblieben.

Fragen nach Überprüfbarkeit, Kontrolle, Transparenz, Verantwortlichkeit, Datenschutz und Haftungen werden im Zusammenhang mit (selbst-)lernenden Maschinen uns alle als Gesellschaft noch lange beschäftigen.

Link zur Veranstaltung der Reihe OCG Horizonte

Link zur Präsentation von Stefan Strauß

Dieser Beitrag wurde unter OCG Horizonte, Themen, Wissenschaft und Forschung abgelegt und mit , , , verschlagwortet. Setzen Sie ein Lesezeichen auf den Permalink.

Die Kommentarfunktion ist geschlossen.