Verlieren wir die Kontrolle?

Techno girl pressing virtual buttons
Bild: Colourbox.de

In „Die Maschine steht still“ zeichnet E. M. Forster ein düsteres Szenario: Das Leben der Menschen wird von einer Maschine gesteuert und kontrolliert. Wir haben drei Wissenschaftler der FAU gefragt, wie es uns gelingen kann, die Kontrolle über intelligente Technologien zu behalten.

Eine Uni – ein Buch. In zahlreichen Vorträgen, Exkursionen und Diskussion beschäftigt die FAU sich seit Beginn des Sommersemesters mit der Science-Fiction-Geschichte „Die Maschine steht still“ von E. M. Forster. Wie aktuell ist das Szenario, das der britische Schriftsteller vor über 100 Jahren entworfen hat?

Prof. Dr. Michael Kohlhase, was kann künstliche Intelligenz leisten?

Prof. Dr. Michael Kohlhase
Prof. Dr. Michael Kohlhase, Professur für Wissenschaftsrepräsentation und -verarbeitung am Department Informatik: „Bis zu einer echten künstlichen Intelligenz is es noch ein weiter Weg.“ (Bild: FAU/Georg Pöhlein)

Alle paar Jahre lesen wir in der Zeitung, dass Maschinen schon wieder Menschen bei Fähigkeiten übertroffen haben, für die bislang Intelligenz vorausgesetzt wurde:

1997 besiegte ein Programm namens Deep Blue den Schachweltmeister Garry Kasparov, 2011 bezwang IBM Watson die amtierenden Sieger in der Wissens-Show Jeopardy, und schließlich wurde im letzten Jahr der Großmeister in Go von AlphaGo bezwungen. Natürlich stellen wir uns die Frage, wann Roboter klüger als wir Menschen werden und die Kontrolle übernehmen. Schaut man sich allerdings die Methoden und Algorithmen der künstlichen Intelligenz (KI) genauer an, dann sieht man, dass wir noch sehr weit von einer allgemeinen Intelligenz entfernt sind – oder gar von Systemen, die über sich selbst nachdenken können.

Allerdings kommt die KI mit ihren nützlichen Fähigkeiten schleichend in unser Leben, und wir müssen uns sehr genau überlegen, ob wir unsere direkte Kontrolle für diese Fähigkeiten eintauschen wollen. Das ist besonders wichtig bei Methoden, die auf neuronalen Netzen basieren. Im Gegensatz zur symbolischen KI können diese zwar aus großen Datenmengen selbstständig lernen, ihre Ergebnisse aber nicht erklären. Deshalb sind neuronale Methoden zum Beispiel in der Medizintechnik kaum zulassungsfähig. Bis zu einer Synthese von symbolischer und neuronaler KI, die für eine echte künstliche Intelligenz mit Selbstbewusstsein und Selbstkontrolle nötig wäre, ist es noch ein weiter Weg.

Dr. Bernd Flessner, besteht die Gefahr, dass Maschinen uns kontrollieren?

Dr. Bernd Flessner
Dr. Bernd Flessner, Zukunftsforscher am Zentralinstitut für Wissenschaftsreflexion und Schlüsselqualifikationen (ZiWiS): „Wir müssen eine kritische Distanz zu Maschinen wahren.“ (Bild: FAU/Kurt Fuchs)

Die Frage der Kontrolle ist in der Tat eine ganz entscheidende. Dabei liegt die Gefahr nicht unbedingt in allmächtigen, alles steuernden Maschinen, wie sie Forster beschrieben hat und wie wir sie beispielsweise aus „Matrix“ kennen.

Kontrollverlust durch Technikgläubigkeit beginnt bereits dort, wo Menschen sich bedingungslos in die Hände von Steuerungssystemen begeben, ohne die Ergebnisse zu hinterfragen. Denken Sie nur an die Geschichten von Busfahrern, die dem Navigationssystem blind folgen und in Orten landen, die hunderte Kilometer vom eigentlichen Ziel entfernt liegen. Autos sind auf diese Weise schon in Flüsse gelenkt worden.

Weitaus dramatischer ist es beim Fliegen: Dank Autopilot fliegen die Maschinen im Prinzip allein. Kommt es jedoch zu einem Notfall, sind die Piloten oftmals überfordert. Sie können, wie Pilotenvereinigungen immer wieder kritisieren, ihe Maschinen nicht mehr manuell steuern. Problematisch finde ich auch Geräte, die uns helfen sollen, unseren Alltag zu organisieren. Vielen Menschen mag das Struktur und Sicherheit geben, ich persönlich möchte mein Leben nicht von Alexa, Siri und Co abhängig machen. Dass Technologie uns wertvolle Dienste leistet, ist unbestritten.

Wir sollten zu Maschinen jedoch kein religiöses Verhältnis aufbauen, sondern eine kritische Distanz wahren. Das gilt für den Alltag ebenso wie für die Wissenschaft. Alles, was uns an Daten und Ergebnissen geliefert wird, müssen wir sorgfältig kontrollieren und interpretieren.

Prof. Dr. Franz Hofmann, kann Recht uns helfen, die Kontrolle zu behalten?

Prof. Dr. Franz Hofmann
Prof. Dr. Franz Hofmann, Lehrstuhl für Bürgerliches Recht, Recht des Geistigen Eigentums und Technikrecht: „Der Mensch kann Verantwortung nicht auf Maschinen delegieren.“ (Bild: FAU/Georg Pöhlein)

Neue Technologien haben das Recht seit jeher herausgefordert. Ein juristischer Grundsatz ist, dass der Mensch für die Folgen technologischer Entwicklungen geradesteht. Er kann die Verantwortung nicht auf Maschinen delegieren.

Die Betreiber von Google beispielsweise können sich bei der automatisierten Eingabevervollständigung nicht dadurch entlasten, dass die Suchmaschine das Nutzerverhalten eigenständig auswertet und selbstständig Vorschläge für ergänzende Suchbegriffe liefert. Werden Personen durch die Kombination von Namen und Begriffen in ihren Persönlichkeitsrechten verletzt, muss Google das abstellen, sobald das Unternehmen davon erfährt. Dies hat der Bundesgerichtshof mittlerweile entschieden. Der Mensch ist dem Algorithmus also nicht ausgeliefert.

Allgemein gilt: Das Recht steuert die Technik, nicht umgekehrt. Gesetzgeber und Rechtsprechung haben dabei konstruktiv zu sein, was bedeutet, dass das Recht neue Technologien und darauf basierende innovative, sozial erwünschte Geschäftsmodelle nicht verhindern darf. Aber es kann Anreize schaffen, in Sicherheit und Zuverlässigkeit zu investieren. Diese Diskussion erleben wir gerade beim Thema autonomes Fahren: Muss der Hersteller für mögliche Fehlfunktionen des Autopiloten haften, wird er bemüht sein, die Qualität des Systems permanent zu verbessern. Die Verbreitung erwünschter Technologien kann im Übrigen dadurch gefördert werden, dass der Gesetzgeber klarstellt, dass die Nutzung intelligenter Maschinen keinen Fahrlässigkeitsvorwurf begründet. Für das autonome Fahren ist dies zumindest ansatzweise geschehen.

Das FAU-Magazin alexander

Dieser Text erschien zuerst im alexander (Ausgabe 105) – dem Magazin rund um alles, was an der FAU gerade aktuell ist.

Die Ausgabe 105 hat unter anderem folgende Themen: as Schlossgartenfest in Bildern, Beschäftigte berichten über ihre Lange Nacht der Wissenschaften, Spitzensportler erzählen aus ihrem Alltag zwischen Uni und Sport, die sechs neuen Projekte der Emerging Fields Initiative werden vorgestellt und Unibund-Vorsitzender Siegfried Balleis erklärt im Interview die Geschichte, Aufgaben und Ziele des Vereins.