Seminar "Fair AI"

Information
Classification: 
Master Informatik/Wirtschaftsinformatik/IST
Credits: 
5
Exam: 
Anwesenheit in allen Veranstaltungen, Vortrag & Diskussion
Regular Dates: 
Donnerstag, 9.45 IZ251
Kickoff: Donnerstag, 22.10.2020 9.45 IZ251
Contents
Contents: 

Aktuelles

  • Verfügbare Seminarplätze: 8

Inhalt

Künstliche Intelligenz, wie z.B. Machine- oder Deep Learning, erobern Wirtschaft und Industrie im Sturm. In Zuge dessen werden mehr und mehr Entscheidungen vom Menschen an datengetriebene Algorithmen abgegeben. Klassische Beispiele hierfür finden sich in der Versicherungsbranche, bei Sprachassistenten oder der Bewerberauswahl. Wie aber kommen diese Algorithmen zu einer Entscheidung? Eine erste Intuition ist oft, dass Algorithmen per Konstruktion objektiv und daher automatisch "fair" sind. Ausgehend von diesem Gedanken untersuchen wir im Seminar "Fair AI" die folgenden Themengebiete:

  • Fairness-Metriken (stochastische Eigenschaften, Kausalität nach Pearl)
    • Wie kann Fairness definiert und gemessen werden? Welche Limitationen gibt es?
  • Data Preprocessing: Bias Mitigation
    • Grundidee: Algorithmen sind fair, wenn sie auf fairen Daten lernen.
  • Fairness by Construction
    • Können Algorithmen per Konstruktion fair sein?
  • Post-hoc explanations
    • Können Entscheidungen von Algorithmen im Nachhinein anhand der Input-Daten erklärt oder belegt werden?

Es ist vorgesehen pro Themenblock jeweils zwei Seminarplätze anzubieten.

 

 

 

Vorläufige Themen - wird laufend aktualisiert!

  1. Fifty shades of fairness:
    1. Observational criteria: Abilities and limitations of statistical parities
      1. Hardt, M., Price, E., & Srebro, N. (2016). Equality of opportunity in supervised learning. Advances in Neural Information Processing Systems, 3323–3331. https://arxiv.org/pdf/1610.02413.pdf

      2. Dwork, C., Hardt, M., Pitassi, T., Reingold, O., & Zemel, R. (2012). Fairness through awareness. ITCS 2012 - Innovations in Theoretical Computer Science Conference, 214–226. https://doi.org/10.1145/2090236.2090255

      3. Friedler, S. A., Scheidegger, C., & Venkatasubramanian, S. (2016). On the (im)possibility of fairness. im, 1–16. http://arxiv.org/abs/1609.07236

    2. Counterfactual fairness: Causality to the rescue (?)
      1. Kilbertus, N., Rojas-Carulla, M., Parascandolo, G., Hardt, M., Janzing, D., & Schölkopf, B. (2017). Avoiding discrimination through causal reasoning. Advances in Neural Information Processing Systems, 2017-Decem(Nips), 657–667. https://arxiv.org/pdf/1706.02744.pdf

      2. Kusner, M., Loftus, J., Russell, C., & Silva, R. (2017). Counterfactual fairness. Advances in Neural Information Processing Systems, 2017-Decem(Nips), 4067–4077. https://arxiv.org/pdf/1703.06856.pdf
      3. Salimi, B., Parikh, H., Kayali, M., Roy, S., Getoor, L., & Suciu, D. (2020). Causal Relational Learning. 1–25. http://arxiv.org/abs/2004.0364

  2. Pre-processing approaches: Dealing with biased data
    1. Kamiran FKAMIRAN, F. (2010). Classification with No Discrimination by Preferential Sampling Toon Calders. https://dtai.cs.kuleuven.be/events/Benelearn2010/submissions/benelearn20...

    2. Justifiable fairness: A database-repair perspective
  3. Fairness by construction approaches:
    1. Kamiran, F., Calders, T., & Pechenizkiy, M. (2010). Discrimination aware decision tree learning. Proceedings - IEEE International Conference on Data Mining, ICDM, 869–874. https://doi.org/10.1109/ICDM.2010.50

  4. Post-hoc explanations:
    1. Austel, V., Dash, S., Gunluk, O., Horesh, L., Liberti, L., Nannicini, G., & Schieber, B. (2017). “Why Should I Trust You?” Explaining the Predictions of Any Classifier. https://www.kdd.org/kdd2016/papers/files/rfp0573-ribeiroA.pdf