Deep Neural Networks and Tabular Data: A Survey von Vadim Borisov, Tobias Leemann, Kathrin Sessler, Johannes Haug, Martin Pawelczyk und Gjergji Kasneci wurde bei IEEE Transactions on Neural Networks and Learning Systems (TNNLS) angenommen.
Interventional SHAP Values and Interaction Values for Piecewise Linear Regression Trees von Artjom Zern, Klaus Broelemann, und Gjergji Kasneci wurde bei AAAI 2023 angenommen.
I Prefer not to Say: Operationalizing Fair and User-guided Data Minimization von Tobias Leemann, Martin Pawelczyk, Christian Thomas Eberle und Gjergji Kasneci wurde beim NeuIPS22 Workshop on Algorithmic Fairness through the Lens of Causality and Privacy angenommen.
On the Trade-Off between Actionable Explanations and the Right to be Forgotten von Martin Pawelczyk, Tobias Leemann, Asia Biega und Gjergji Kasneci wurde beim NeuIPS22 Workshop on Trustworthy and Socially Responsible Machine Learning angenommen.
Change Detection for Local Explainability in Evolving Data Streams von Johannes Haug, Alexander Braun, Stefan Zürn und Gjergji Kasneci wurde bei CIKM 2022 angenommen (github).
Disentangling Embedding Spaces with Minimal Distributional Assumptions von Tobias Leemann, Michael Kirchhof, Yao Rong, Enkelejda Kasneci and Gjergji Kasneci wurde als Preprint auf arXiv veröffentlicht.
Regressive Saccadic Eye Movements on Fake News von Efe Bozkir, Gjergji Kasneci, Sonja Utz und Enkelejda Kasneci wurde bei ETRA 2022 angenommen.
A Constistent and Efficient Evaluation Strategy for Attribution Methods von Yao Rong*, Tobias Leemann*, Vadim Borisov, Gjergji Kasneci und Enkelejda Kasneci wurde bei der International Conference on Machine Learning (ICML) 2022 angenommen.
Fairness in Agreement with European Values: An Interdisciplinary Perspective on AI Regulation von Alejandra Bringas Colmenarejo, Luca Nannini, Alisa Rieger, Kristen Marie Scott, Xuan Zhao, Gourab Patro, Gjergji Kasneci und Katharina Kinder-Kurlanda wurde bei AIES 2022 angenommen.
Standardized Evaluation of Machine Learning Methods for Evolving Data Streams von Johannes Haug, Effi Tramountani und Gjergji Kasneci wurde auf arXiv veröffentlicht. Das zugehörige float-evaluation Framework (Python) ist auf Github oder Pypi verfügbar.
Coherence Evaluation of Visual Concepts with Objects and Language von Tobias Leemann, Yao Rong, Stefan Kraft, Enkelejda Kasneci und Gjergji Kasneci wurde beim ICLR2022 Workshop on Objects, Structure and Causality vorgestellt.
Algorithmic recourse in the face of noisy human responses von Martin Pawelczyk, Teresa Datta, Johannes van-den-Heuvel, Gjergji Kasneci und Himabindu Lakkaraju wurde beim ICLR2022 Workshop on Socially Responsible Machine Learning vorgestellt.
Disentangling Algorithmic Recourse von Martin Pawelczyk, Lea Tiyavorabun und Gjergji Kasneci wurde beim ICLR2022 on Socially Responsible Machine Learning vorgestellt.
Dynamic Model Tree for Interpretable Data Stream Learning von Johannes Haug, Klaus Broelemann und Gjergji Kasneci wurde bei ICDE 2022 angenommen (github).
Do your eye movements reveal your performance on an IQ test? A study linking eye movements and socio-demographic information to fluid intelligence von Enkelejda Kasneci, Gjergji Kasneci, Ulrich Trautwein, Tobias Appel, Maike Tibus, Susanne M. Jaeggi & Peter Gerjets wurde beim PLOS ONE Journal angenommen.