10/07/2019

16 Paper bei NeurIPS 2019 akzeptiert

Bei der diesjährigen NeurIPS-Konferenz wurden 16 Beiträge von 11 Mitgliedern des Exzellenzcluster "Maschinelles Lernen" akzeptiert.

Die 33. Konferenz zu Neural Information Processing Systems (NeurIPS) findet vom 8. bis 14. Dezember 2019 in Vancouver, Kanada, statt. NeurIPS ist die größte Konferenz für Maschinelles Lernen und Computational Neuroscience. Ziel der jährlichen Treffen ist es, den Forschungsaustausch zu neuronalen Informationsverarbeitungssysteme in ihren biologischen, technologischen, mathematischen und theoretischen Aspekten zu fördern. Der Schwerpunkt liegt auf peer-reviewed, neuartigen Forschungsarbeiten, die in einer allgemeinen Session vorgestellt und diskutiert werden, sowie auf eingeladenen Vorträgen von ausgewiesenen Experten.

Im Jahr 2019 erhielt NeurIPS rekordverdächtige 6,743 Beiträge, von denen 1,428 angenommen wurden, darunter 16 Paper von 11 Mitgliedern des Exzellenzcluster "Maschinelles Lernen".

Liste der akzeptierten beiträge unserer Mitglieder (alle Beiträge sind hier zu finden):

  1. Modeling Conceptual Understanding in Image Reference Games.
    Rodolfo Corona Rodriguez, Stephan Alaniz, Zeynep Akata
  2. Approximate Bayesian Inference for a Mechanistic Model of Vesicle Release at a Ribbon Synapse.
    Cornelius Schröder, Ben James, Leon Lagnado, Philipp Berens
  3. Learning from brains how to regularize machines.
    Zhe Li, Wieland Brendel, Edgar Walker, Erick Cobos, Taliah Muhammad, Jacob Reimer, Matthias Bethge, Fabian Sinz, Zachary Pitkow, Andreas Tolias
  4. Accurate, reliable and fast robustness evaluation.
    Wieland Brendel, Jonas Rauber, Matthias Kümmerer, Ivan Ustyuzhaninov, Matthias Bethge
  5. Disentangled behavioural representations.
    Amir Dezfouli, Hassan Ashtiani, Omar Ghattas, Richard Nock, Peter Dayan, Cheng Soon Ong
  6. Generalized Matrix Means for Semi-Supervised Learning with Multilayer Graphs.
    Pedro Mercado, Francesco Tudisco, Matthias Hein
  7. Provably robust boosted decision stumps and trees against adversarial attacks.
    Maksym Andriushchenko, Matthias Hein
  8. Limitations of the empirical Fisher approximation for natural gradient descent.
    Frederik Kunstner, Philipp Hennig, Lukas Balles
  9. Convergence Guarantees for Adaptive Bayesian Quadrature Methods.
    Motonobu Kanagawa, Philipp Hennig
  10. Foundations of Comparison-Based Hierarchical Clustering.
    Debarghya Ghoshdastidar, Michaël Perrot, Ulrike von Luxburg
  11. Control What You Can: Intrinsically Motivated Task-Planning Agent.
    Sebastian Blaes, Marin Vlastelica Pogančić, Jiajie Zhu, Georg Martius
  12. Selecting causal brain features with a single conditional independence test per feature.
    Atalanti Mastakouri, Bernhard Schölkopf, Dominik Janzing
  13. On the Fairness of Disentangled Representations.
    Francesco Locatello, Gabriele Abbati, Thomas Rainforth, Stefan Bauer, Bernhard Schölkopf, Olivier Bachem
  14. On the Transfer of Inductive Bias from Simulation to the Real World: a New Disentanglement Dataset.
    Muhammad Waleed Gondal, Manuel Wuthrich, Djordje Miladinovic, Francesco Locatello, Martin Breidt, Valentin Volchkov, Joel Akpo, Olivier Bachem, Bernhard Schölkopf, Stefan Bauer
  15. Kernel Stein Tests for Multiple Model Comparison.
    Jen Ning Lim, Makoto Yamada, Bernhard Schölkopf, Wittawat Jitkrittum
  16. Perceiving the arrow of time in autoregressive motion.
    Kristof Meding, Dominik Janzing, Bernhard Schölkopf, Felix A. Wichmann
Back