Drei Regeln entwarf der Science-Fiction-Schriftsteller und Biochemiker Isaac Asimov (2018) für den menschlichen Umgang mit Robotern: 1. Ein Roboter darf einem menschlichen Wesen nicht schaden. 2. Ein Roboter muss den Befehlen menschlicher Wesen gehorchen (sofern es mit dem ersten Gesetz vereinbar ist). 3. Ein Roboter muss seine Existenz beschützen (sofern es nicht gegen das erste oder zweite Gesetz verstößt). Fasst man den Begriff Roboter weiter und versteht darunter sämtliche Maschinen und intelligente Software, die zum Nutzen von Menschen entwickelt werden, findet man viele Technologien, die gemäß der Asimovschen Regeln große Erleichterungen für das tägliche Leben darstellen: Smartphones, Einparkhilfen in intelligenten Autos, Spracherkennungssoftware, um nur einige zu nennen. Allerdings birgt die Entwicklung von Robotern und künstlicher Intelligenz nicht nur Vorteile (Campolo et al. 2017, Görz et al. 2014). Selbstlernende Algorithmen können beispielsweise rassistisches Gedankengut in sozialen Netzwerken reproduzieren und verstärken. Und Arbeitsplatzverlust durch Maschinen wird nicht selbstverständlich sozialpolitisch kompensiert. Während diese Beispiele der so genannten schwachen KI bereits Realität sind, vermuten manche auch die Realisierung starker KI, wonach künstlich intelligente Systeme eines Tages mächtiger werden als Menschen selbst (Bostrom 2014, British Science Association 2016). In diesem Seminar werden maschinenethische Dimensionen künstlicher Intelligenz behandelt.