ProjektCan software be "responsible"?
Grunddaten
Titel:
Can software be "responsible"?
Laufzeit:
01.04.2019 bis 31.03.2020
Abstract / Kurz- beschreibung:
Innerhalb der Künstlichen Intelligenz werden "Handlungsentscheidungen", zum Beispiel in der Steuerung von selbständig fahrenden Autos, von Computerprogrammen gefällt. Diese Programme müssen dabei Entscheidungen in Situationen treffen können, die vom Programmierer nicht vorhergesehen wurden. In dem Maße, in dem derartige Programme im Alltagsleben zur Anwendung kommen, stellt sich die Frage, wie sich die Verantwortung für die von Computerprogrammen getroffene Entscheidungen lokalisieren läßt.
In diesem Projekt sollen die folgenden Fragen beantwortet werden:
• Wie läßt sich die Verantwortung für Entscheidungen, die von Computerprogrammen der künstlichen Intelligenz getroffen werden, in der Hierarchie von Programmierer, Auftraggeber der Software, industriellem Anbieter bis hin zum individuellen Nutzer lokalisieren?
• Welche Formen der Verantwortlichkeitszuordnung sind nötig, um eine gesellschaftliche Akzeptanz von Künstlicher Intelligenz im Alltag zu erreichen?
Diese Fragen sollen zum einen von der technischen Seite — Identifikation von "Verantwortlichkeit" in der Softwaretechnik — angegangen werden;
zum anderen sollen Fallstudien zur Entwicklung der gesellschaftlichen Akzeptanz von technischen Neuerungen, die Fragen zur Verantwortung aufwerfen,
vergleichend herangezogen werden, auch um die spezifische Problematik der Künstlichen Intelligenz besser herausarbeiten zu können.
In diesem Projekt sollen die folgenden Fragen beantwortet werden:
• Wie läßt sich die Verantwortung für Entscheidungen, die von Computerprogrammen der künstlichen Intelligenz getroffen werden, in der Hierarchie von Programmierer, Auftraggeber der Software, industriellem Anbieter bis hin zum individuellen Nutzer lokalisieren?
• Welche Formen der Verantwortlichkeitszuordnung sind nötig, um eine gesellschaftliche Akzeptanz von Künstlicher Intelligenz im Alltag zu erreichen?
Diese Fragen sollen zum einen von der technischen Seite — Identifikation von "Verantwortlichkeit" in der Softwaretechnik — angegangen werden;
zum anderen sollen Fallstudien zur Entwicklung der gesellschaftlichen Akzeptanz von technischen Neuerungen, die Fragen zur Verantwortung aufwerfen,
vergleichend herangezogen werden, auch um die spezifische Problematik der Künstlichen Intelligenz besser herausarbeiten zu können.
Schlüsselwörter:
Verantwortung
künstliche Intelligenz
artificial intelligence
Beteiligte Mitarbeiter/innen
Leiter/innen
Carl Friedrich von Weizsäcker-Zentrum
Forum Scientiarum, Zentrale fakultätsübergreifende Einrichtungen
Forum Scientiarum, Zentrale fakultätsübergreifende Einrichtungen
Mathematisch-Naturwissenschaftliche Fakultät
Universität Tübingen
Universität Tübingen
Wilhelm-Schickard-Institut für Informatik (WSI)
Fachbereich Informatik, Mathematisch-Naturwissenschaftliche Fakultät
Fachbereich Informatik, Mathematisch-Naturwissenschaftliche Fakultät
Ansprechpartner/innen
Institut für Angewandte Physik (IAP)
Fachbereich Physik, Mathematisch-Naturwissenschaftliche Fakultät
Fachbereich Physik, Mathematisch-Naturwissenschaftliche Fakultät
Lokale Einrichtungen
Wilhelm-Schickard-Institut für Informatik (WSI)
Fachbereich Informatik
Mathematisch-Naturwissenschaftliche Fakultät
Mathematisch-Naturwissenschaftliche Fakultät
Geldgeber
Hannover, Niedersachsen, Deutschland