Drei Regeln entwarf der Science-Fiction-Schriftsteller und Biochemiker Isaac Asimov (2018) für
den menschlichen Umgang mit Robotern: 1. Ein Roboter darf einem menschlichen Wesen nicht
schaden. 2. Ein Roboter muss den Befehlen menschlicher Wesen gehorchen (sofern es mit dem
ersten Gesetz vereinbar ist). 3. Ein Roboter muss seine Existenz beschützen (sofern es nicht gegen
das erste oder zweite Gesetz verstößt). Fasst man den Begriff Roboter weiter und versteht darunter
sämtliche Maschinen und intelligente Software, die zum Nutzen von Menschen entwickelt werden,
findet man viele Technologien, die gemäß der Asimovschen Regeln große Erleichterungen für das
tägliche Leben darstellen: Smartphones, Einparkhilfen in intelligenten Autos,
Spracherkennungssoftware, um nur einige zu nennen.
Allerdings birgt die Entwicklung von Robotern und künstlicher Intelligenz nicht nur Vorteile
(Campolo et al. 2017, Görz et al. 2014). Selbstlernende Algorithmen können beispielsweise
rassistisches Gedankengut in sozialen Netzwerken reproduzieren und verstärken. Und
Arbeitsplatzverlust durch Maschinen wird nicht selbstverständlich sozialpolitisch kompensiert.
Während diese Beispiele der so genannten schwachen KI bereits Realität sind, vermuten manche
auch die Realisierung starker KI, wonach künstlich intelligente Systeme eines Tages mächtiger
werden als Menschen selbst (Bostrom 2014, British Science Association 2016).
In diesem Seminar werden maschinenethische Dimensionen künstlicher Intelligenz
behandelt. Das Seminar eignet sich als Ergänzung Herrn Prof. Raths Seminar „Digital Denken“.