Team
Forschung
Lehre
Thesis
Was wir tun...
Neuigkeiten
Mai 2023
Paper @ UAI
Unsere Arbeit "When are Post-hoc Conceptual Explanations Identifiable?" von Tobias Leemann, Michael Kirchhof, Yao Rong, Enkelejda Kasneci und Gjergji Kasneci wurde zur Veröffentlichung bei der Conference on Uncertainty in Artificial Intelligence (UAI) angenommen.
Januar 2023
Position Paper als Preprint veröffentlicht
Das Positionpaper "ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education" in Zusammenarbeit mit Kolleg:innen der TU München und LMU München wurde als Preprint veröffentlicht.
Januar 2023
3 Papers @ ICLR
Drei unserer Arbeiten wurden bei der International Conference on Learning Representations (ICLR) angenommen:
(1) "Language Models are Realistic Tabular Data Generators" by Vadim Borisov, Kathrin Sessler, Tobias Leemann, Martin Pawelczyk, and Gjergji Kasneci.
(2) "On the Trade-Off between Actionable Explanations and the Right to be Forgotten" by Martin Pawelczyk, Tobias Leemann, Asia Biega, and Gjergji Kasneci.
(3) "Probabilistically Robust Recourse: Navigating the Trade-offs between Costs and Robustness in Algorithmic Recourse" by Martin Pawelczyk, Teresa Datta, Johannes van-den-Heuvel, Gjergji Kasneci, and Himabindu Lakkaraju.
Dezember 2022
Paper @ TNNLS
Unsere Arbeit "Deep Neural Networks and Tabular Data: A Survey" von Vadim Borisov, Tobias Leemann, Kathrin Sessler, Johannes Haug, Martin Pawelczyk und Gjergji Kasneci wurde bei IEEE Transactions on Neural Networks and Learning Systems angenommen.
Dezember 2022
Paper @ AAAI 2023
Unsere Arbeit "Interventional SHAP Values and Interaction Values for Piecewise Linear Regression Trees" von Artjom Zern, Klaus Broelemann und Gjergji Kasneci wurde bei AAAI 2023 angenommen.
Oktober 2022
Two Papers @ NeurIPS Workshops 2022
We are happy to announce that our group will be present at the NeurIPS 22 conference in New Orleans, LA, USA to present two workshop contributions:
"I Prefer not to Say: Operationalizing Fair and User-guided Data Minimization" by Tobias Leemann et al. (Workshop on Algorithmic Fairness through the Lens of Causality and Pricacy) and
"On the Trade-Off between Actionable Explanations and the Right to be Forgotten" by Martin Pawelczyk et al. (Workshop on Trustworthy and Socially Responsible Machine Learning).
August 2022
Article @ International Journal of Data Science and Analytics
"DeepTLF: Robust Deep Neural Networks for Heterogeneous Tabular Data" von Vadim Borisov, Klaus Broelemann, Enkelejda Kasneci und Gjergji Kasneci wurde von International Journal of Data Science and Analytics angenommen.
August 2022
Paper @ CIKM 2022
"Change Detection for Local Explainability in Evolving Data Streams" von Johannes Haug, Alexander Braun, Stefan Zürn und Gjergji Kasneci wurde bei CIKM 2022 angenommen.
Juli 2022
Paper @ MICCAI MILLanD Workshop 2022
"BoxShrink: From Bounding Boxes to Segmentation Masks" von Michael Gröger, Vadim Borisov und Gjergji Kasneci wurde beim MICCAI Workshop zu "Medical Image Learning with Limited & Noisy Data" akzeptiert.
Mai 2022
Paper @ ICML
"A Consistent and Efficient Evaluation Strategy for Attribution Methods" von Yao Rong, Tobias Leemann, Vadim Borisov, Gjergji Kasneci and Enkelejda Kasneci wurde bei der International Conference on Machine Learning (ICML) angenommen.
April 2022
Paper @ AIES 2022
"Fairness in Agreement with European Values: An Interdisciplinary Perspective on AI Regulation" von Alejandra Bringas Colmenarejo, Luca Nannini, Alisa Rieger, Kristen Marie Scott, Xuan Zhao, Gourab Patro, Gjergji Kasneci und Katharina Kinder-Kurlanda wurde bei AIES 2022 angenommen.
April 2022
Paper @ arXiv
"Standardized Evaluation of Machine Learning Methods for Evolving Data Streams" von Johannes Haug, Effi Tramountani und Gjergji Kasneci ist fortan auf arXiv verfügbar. Das float-evaluation Python-Framework kann über Github und Pypi abgerufen werden.
März 2022
2 Papers @ ICLR SRML Workshop
"Disentangling Algorithmic Recourse" von Martin Pawelczyk, Lea Tiyavorabun und Gjergji Kasneci, und "Algorithmic Recourse in the Face of Noisy Human Responses" von Martin Pawelczyk, Teresa Datta, Johannes van-den-Heuvel, Gjergji Kasneci und Himabindu Lakkaraju wurden wurden beim ICLR SRML Workshop angenommen.
März 2022
Paper @ ICLR Workshop on Objects, Structure & Causality (OSC)
"Coherence Evaluation of Visual Concepts with Objects and Language" von Tobias Leemann, Yao Rong, Stefan Kraft, Enkelejda Kasneci und Gjergji Kasneci wurde bei beim Workshop zu "Objects, Structure & Causality" akzeptiert, der parallel zur ICLR 2022 stattfindet. Ein Link folgt in Kürze.
März 2022
Paper @ ICDE 2022
"Dynamic Model Tree for Interpretable Data Stream Learning" von Johannes Haug, Klaus Broelemann und Gjergji Kasneci wurde bei ICDE 2022 angenommen.
März 2022
Article @ PLOS ONE
"Do your eye movements reveal your performance on an IQ test? A study linking eye movements and socio-demographic information to fluid intelligence" von Enkelejda Kasneci, Gjergji Kasneci, Ulrich Trautwein, Tobias Appel, Maike Tibus, Susanne M. Jaeggi & Peter Gerjets wurde beim PLOS ONE Journal angenommen.
November 2021
Paper @ IEEE BigComp 2022
Aggregating the Gaussian Experts’ Predictions via Undirected Graphical Models von Hamed Jalali und Gjergji Kasneci wurde bei IEEE BigComp 2022 angenommen.
Oktober 2021
Paper @ Big Data 2021
"Model Selection in Local Approximation Gaussian Processes: A Markov Random Fields Approach" von Hamed Jalali, Martin Pawelczyk und Gjergji Kasneci wurde bei Big Data 2021: IEEE International Conference on Big Data angenommen.
Oktober 2021
Paper @ NeurIPS Workshop - OPT2021
"Gaussian Graphical Models as an Ensemble Method for Distributed Gaussian Processes" von Hamed Jalali and Gjergji Kasneci wurde beim Workshop "OPT2021: 13th Annual Workshop on Optimization for Machine Learning" der NeurIPS 2021 Konferenz angenommen.
Oktober 2021
Paper @ BMVC 2021
Unser Paper "SPARROW: Semantically Coherent Prototypes for Image Classification" von Stefan Kraft, Klaus Broelemann, Andreas Theissler und Gjergji Kasneci wurde bei BMVC 2021 angenommen.
Oktober 2021
Paper @ NeurIPS workshop - eXplainable AI approaches for debugging and diagnosis
"A Robust Unsupervised Ensemble of Feature-Based Explanations using Restricted Boltzmann Machines" von Vadim Borisov, Johannes Meier, Johan Van den Heuvel, Hamed Jalali und Gjergji Kasneci wurde beim Workshop zu "eXplainable AI approaches for debugging and diagnosis" der NeurIPS 2021 Konferenz angenommen. Das Paper basiert auf einer Arbeit aus unserem EFML Seminar im Sommersemsester 2021.
Oktober 2021
Survey Paper: Deep Learning und Tabular Data
Unsere Literatur-Review "Deep Neural Networks and Tabular Data: A Survey" von Vadim Borisov, Tobias Leemann, Kathrin Seßler, Johannes Haug, Martin Pawelczyk und Gjergji Kasneci ist nun auf arXiv verfügbar.
Juli 2021
Paper @ NeurIPS
Unser Paper "CARLA: A Python Library to Benchmark Algorithmic Recourse and Counterfactual Explanation Algorithms" von Martin Pawelczyk, Sascha Bielawski, Johan Van den Heuvel, Tobias Richter und Gjergji Kasneci wurde im NeurIPS 2021 Datasets and Benchmarks Track angenommen.
Juli 2021
Paper @ ISMAR
"TEyeD: Over 20 million real-world eye images with Pupil, Eyelid, and Iris 2D and 3D Segmentations, 2D and 3D Landmarks, 3D Eyeball, Gaze Vector, and Eye Movement Types" von Wolfgang Fuhl, Gjergji Kasneci und Enkelejda Kasneci wurde beim IEEE International Symposium on Mixed and Augmented Reality (ISMAR) 2021 angenommen.
Juni 2021
Article @ Computers in Human Behavior Reports
"Robust Cognitive Load Detection from Wrist-Band Sensors" von Vadim Borisov, Enkelejda Kasneci und Gjergji Kasneci wurde von Computers in Human Behavior Reports angenommen.
Juni 2021
Article @ Nature Scientific Data
"TüEyeQ, a rich IQ test performance data set with eye movement, educational and socio-demographic information" wurde in der aktuellen Ausgabe des Nature Scientific Data Journals veröffentlicht. Die Arbeit resultiert aus einer Kollaboration von Enkelejda Kasneci, Gjergji Kasneci, Tobias Appel, Johannes Haug, Franz Wortha, Maike Tibus, Ulrich Trautwein & Peter Gerjets.
Dezember 2020
Paper @ AAAI 2021 Workshop on Explainable Agency in AI
"On Baselines for Local Feature Attributions" von Johannes Haug, Stefan Zürn, Peter El-Jiz und Gjergji Kasneci wurde beim Workshop zu "Explainable Agency in AI" der AAAI 2021 Konferenz angenommen. Das Paper basiert auf einer Arbeit aus unserem EFML Seminar im Sommersemsester 2020.
Oktober 2020
1. Preis im Wettbewerb für maschinelles Lernen - Cognitive Load Monitoring @ UbiComp 2020
Wir freuen uns, dass unsere Gruppe auf der UniComp 2020 den ersten Preis im Wettbewerb für maschinelles Lernen "Cognitive Load Monitoring" gewonnen hat!
Mai 2020
Paper @ KDD 2020
"Leveraging Model Inherent Variable Importance for Stable Online Feature Selection" von Johannes Haug, Martin Pawelczyk, Klaus Broelemann und Gjergji Kasneci wurde bei KDD 2020 angenommen.
Mai 2020
Paper @ UAI 2020
On Learning Invariant Counterfactual Explanations under Predictive Multiplicity von Martin Pawelczyk, Klaus Broelemann und Gjergji Kasneci wurde bei UAI 2020 angenommen.
Mai 2020
Best-Paper Award @ Symposium on Eye Tracking Research and Applications, 2020
A MinHash approach for fast scanpath classification von David Geisler, Nora Castner, Gjergji Kasneci und Enkelejda Kasneci wurde bei ETRA (2020).
Januar 2020
Paper @ WWW 2020
"Learning model agnostic actionable counterfactual explanations for tabular data" von Martin Pawelczyk, Klaus Broelemann und Gjergji Kasneci wurde bei WWW 2020 akzeptiert. Im Paper wird eine neue Methode zur Generierung von counterfactual examples entwickelt.
Januar 2020
Acceptance @ WIRE's Data Mining and Knowledge Discovery Journal
Ein einleitender Survey "Bias in Data-driven AI Systems - An Introductory Survey" wurde bei WIRE's Data Mining and Knowledge Discovery Journal akzeptiert. Dies ist unsere erste multidisziplinäre Publikation im Kontext des EU "NoBias" Projekts: nobias-project.eu/index.php/partners/