Künstliche Intelligenz: Chancen und Risiken

Ausgabe 168 Mai 23, 2019

Wir rufen sie Siri, Ok Google oder Alexa: Intelligente Systeme sind unsere praktischen Helfer im Haushalt und in der Hosentasche. Auf der Suche nach einem netten Restaurant in einer neuen Stadt? Der Taschencomputer durchsucht blitzschnell passende Online-Datenbanken und trägt die gewünschten Informationen in einer Geschwindigkeit zusammen, an die kein Mensch herankommt. Aber auch in der Produktionstechnik sowie im autonomen Fahren spielt Künstliche Intelligenz (K. I.) eine immer größere Rolle. Welche Vorteile bringen die Technologien mit sich und welche Risiken bergen sie?

Professor Gerhard Lakemeyer ist Spezialist auf dem Gebiet der K. I. Im Rahmen der Vortrags- und Diskussionsreihe „Künstliche Intelligenz und Internationale Sicherheit: Quo vadis?“ sprach er am 6. Mai über mögliche Chancen und Risiken der neuen Technologien. Sein Lehr- und Forschungsgebiet in der Informatik an der RWTH ist die Kognitive Robotik. Mitorganisator der Veranstaltungsreihe ist Professor Malte Göttsche.

Maschine besiegt Mensch

Die Anfänge der K. I. liegen bereits in den 50er Jahren. 1956 nutzte John McCarthy aus Boston als einer der ersten den Begriff Künstliche Intelligenz. Das erste intelligente System war ein eher schlechtes Schachprogramm, das mühelos vom Menschen besiegt werden konnte. Der große Wendepunkt kam mit „Deep Blue“. Diesem Schachcomputer gelang es 1996 erstmals, den damaligen Schachweltmeister Garri Kasparow in einer Partie zu schlagen. Der intelligente Rechner kannte alle Spiele der Schachgroßmeister und war über jeden noch so durchdachten Spielzug im Voraus unterrichtet. 2011 gewann dann die intelligente Rechenmaschine Watson das Frage-Antwort-Spiel Jeopardy. Der IBM-Computer schlug seine beiden menschlichen Konkurrenten mit Abstand. Das intelligente System griff auf sämtliche online verfügbaren Informationen zurück, um die richtige Antwort zu finden.

Einsatzgebiete der K. I.

Schachcomputer spielen gegen sich selbst und lernen daraus, wie sie ihre Gegner schlagen können. Oft entstehen dabei neue erfolgsversprechende Züge, die dem Menschen vermutlich nicht einfallen würden. Aus dem einfachen Grund, weil die Spielzüge des Computers jemandem auch nach reiflicher Überlegung unlogisch vorkämen. „So lernt der menschliche Schachspieler wiederum von Computern, indem er oder sie die Spielzüge des Schachrechners nachvollzieht“, so Lakemeyer. Eine Maschine als Arzt? Intelligente Systeme könnten in Zukunft das individuelle Leiden eines Patienten mit anderen Krankengeschichten, die in einer Datenbank gespeichert wären, vergleichen und so dazu beitragen, schneller die richtige Diagnose zu finden.

Risiken und Ängste

Mit den Entwicklungen in der K. I.-Forschung werden bald viele Arbeitsplätze wegfallen, befürchten Kritiker. Dies konstatierte auch Steven Hawking Ende 2017. Seiner Meinung nach könnten viele Menschen mit dem technologischen Fortschritt nicht mithalten. Ein anderes Problem, das mit dem Einsatz intelligenter Maschinen auftreten könnte, ist, dass viele Prozesse schwierig zu durchschauen wären, so Lakemeyer. Entscheidet ein Bank-Roboter beispielsweise über die Kreditunwürdigkeit eines Kunden aufgrund komplexer Berechnungen, würde die Entscheidung nicht so einfach nachzuvollziehen sein.

Stichwort Terminator?

Müssen wir uns sorgen, dass intelligente Maschinen zur Gefahr werden? Professor Lakemeyer ist davon nicht überzeugt. Vielmehr sieht er andere Schwächen, die die K.I. (noch) aufweist: In der rationalen Entscheidungsfindung ist der Mensch der Maschine weit voraus. Der Mensch besitze den gesunden Menschenverstand und könne aufgrund dessen in bestimmten Situationen besser abwägen, welche Entscheidung richtig oder falsch ist. Dies ist besonders im Kontext des autonomen Fahrens von Bedeutung. Intuition, ethisches Handeln und natürlich Emotionalität sind Fähigkeiten, die bisher dem Menschen vorbehalten sind.

Die Veranstaltungsreihe „Künstliche Intelligenz und Internationale Sicherheit: Quo vadis?“ wird am 24. Mai 2019 fortgeführt. Thema des Vortrags ist „Künstliche Intelligenz: militärische Nutzung ziviler Forschung? Zur Verantwortung der Wissenschaft.“ Am 24. Juni 2019 findet eine abschließende Podiumsdiskussion statt.