ProjektTheoretische Garantien für erklärbares maschinelles Lernen

Grunddaten

Titel:
Theoretische Garantien für erklärbares maschinelles Lernen
Laufzeit:
01.10.2025 bis 30.09.2028
Abstract / Kurz- beschreibung:
Explainable machine learning is often advertised as a universal tool where local post-hoc explanation algorithms can be applied to complex machine learning models in order to establish trust or reliability. This is the rationale behind attempts in legislation and EU regulation to achieve transparency through explainability. Similarly, one can observe that non-expert users of machine learning systems, for example, scientists of other domains than computer science, use explainable machine learning to “confirm” that their trained machine learning models are trustworthy. However, it is unclear whether and under which assumptions explainable machine learning can reliably be used for such purposes. The overall objective of this proposal is to develop and prove rigorous mathematical guarantees for feature attribution methods as provided by explainable AI, and to investigate which assumptions are necessary to achieve such guarantees.

Beteiligte Mitarbeiter/innen

Leiter/innen

Wilhelm-Schickard-Institut für Informatik (WSI)
Fachbereich Informatik, Mathematisch-Naturwissenschaftliche Fakultät
Exzellenzcluster: Maschinelles Lernen: Neue Perspektiven für die Wissenschaft (CML)
Zentren oder interfakultäre wissenschaftliche Einrichtungen
Tübingen AI Center
Fachbereich Informatik, Mathematisch-Naturwissenschaftliche Fakultät

Lokale Einrichtungen

Fachbereich Informatik
Mathematisch-Naturwissenschaftliche Fakultät
Universität Tübingen

Geldgeber

Bonn, Nordrhein-Westfalen, Deutschland
Hilfe

wird permanent gelöscht. Dies kann nicht rückgängig gemacht werden.