A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | AA | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1 | Make sure your assignments are done by March 11th! | ||||||||||||||||||||||||||
2 | Instructor | Presenter | Topic (See second sheet for the classifications) | Paper title - 2021 | Web link for the PDF | ||||||||||||||||||||||
3 | |||||||||||||||||||||||||||
4 | Volkan Cevher | ||||||||||||||||||||||||||
5 | 1 | Reinforcement Learning | Logistic Q-Learning | https://arxiv.org/abs/2010.11151 | |||||||||||||||||||||||
6 | 2 | Reinforcement Learning | Efficiently Solving MDPs with Stochastic Mirror Descent | http://proceedings.mlr.press/v119/jin20f.html | |||||||||||||||||||||||
7 | 3 | Reinforcement Learning | On the Global Convergence Rates of Softmax Policy Gradient Methods | http://proceedings.mlr.press/v119/mei20b/mei20b.pdf | |||||||||||||||||||||||
8 | 4 | Reinforcement Learning | Finite Sample Analysis of Two-Time-Scale Natural Actor-Critic Algorithm | https://arxiv.org/pdf/2101.10506.pdf | |||||||||||||||||||||||
9 | 5 | Reinforcement Learning | Robust Reinforcement Learning via Adversarial training with Langevin Dynamics | https://arxiv.org/abs/2002.06063 | |||||||||||||||||||||||
10 | 6 | Eunji Shin | Reinforcement Learning | Choice of the presenter. Contact volkan.cevher@epfl.ch with your suggestion on an RL topic. | Suggested topics: Inverse RL, Imitation Learning, Behavior cloning, Reward Shaping, | Other presenters for this choice can list themselves here ---> | |||||||||||||||||||||
11 | |||||||||||||||||||||||||||
12 | Pascal Frossard | ||||||||||||||||||||||||||
13 | 1 | Tianzong Zhang | NN | What do neural networks learn when trained with random labels? | https://arxiv.org/abs/2006.10455 | ||||||||||||||||||||||
14 | 2 | NN | SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks | https://arxiv.org/pdf/2006.10503.pdf | |||||||||||||||||||||||
15 | 3 | Benoît Denkinger | NN | Generative Models as Distributions of Functions | https://arxiv.org/pdf/2102.04776.pdf | ||||||||||||||||||||||
16 | 4 | Lingjing Kong | Robust ML | Fast is better than free: Revisiting adversarial training | http://arxiv.org/abs/2001.03994 | ||||||||||||||||||||||
17 | 5 | Ines Haymann | Graph NN | Learning to Simulate Complex Physics with Graph Networks | https://arxiv.org/pdf/2002.09405.pdf | ||||||||||||||||||||||
18 | |||||||||||||||||||||||||||
19 | Martin Jaggi | ||||||||||||||||||||||||||
20 | 1 | Florian Haselbeck | Meta-learning | Meta-learning Transferable Representations with a Single Target Domain | https://arxiv.org/abs/2011.01418 | ||||||||||||||||||||||
21 | 2 | Rabeeh Karimi Mahabadi | NLP | The Power of Scale for Parameter-Efficient Prompt Tuning | https://arxiv.org/pdf/2104.08691.pdf | ||||||||||||||||||||||
22 | 3 | Ali Momeni | Distributed ML | Robust P2P Personalized Learning | https://doi.org/10.1109/SRDS51746.2020.00037 | ||||||||||||||||||||||
23 | 4 | Prabhu Teja Sivaprasad | SGD | Fast convergence of stochastic subgradient method under interpolation | https://openreview.net/forum?id=w2mYg3d0eot | ||||||||||||||||||||||
24 | 5 | Sina Sajadmanesh | Private ML | Differentially Private Learning Needs Better Features (or Much More Data) | https://openreview.net/pdf?id=YTWGvpFOQD- | ||||||||||||||||||||||
25 | |||||||||||||||||||||||||||
26 | Nicolas Flammarion | ||||||||||||||||||||||||||
27 | 1 | Tianzong Zhang | Neural Networks | What Do Neural Networks Learn When Trained With Random Labels? | https://arxiv.org/pdf/2006.10455.pdf | ||||||||||||||||||||||
28 | 2 | Apostolos Modas | Robust ML | Adversarial Weight Perturbation Helps Robust Generalization | https://proceedings.neurips.cc/paper/2020/file/1ef91c212e30e14bf125e9374262401f-Paper.pdf | ||||||||||||||||||||||
29 | 3 | Seyed Mohammad Mahdi Johari | Neural Networks | Sharpness-aware Minimization for Efficiently Improving Generalization | https://openreview.net/forum?id=6Tm1mposlrM | ||||||||||||||||||||||
30 | 4 | Samuel Beuret | Langevin | The Langevin Monte Carlo algorithm in the non-smooth log-concave case | https://arxiv.org/abs/2101.10695 | ||||||||||||||||||||||
31 | 5 | SGD | Least Squares Regression with Markovian Data: Fundamental Limits and Algorithms | https://arxiv.org/abs/2006.08916 | |||||||||||||||||||||||
32 | |||||||||||||||||||||||||||
33 | Robert West | ||||||||||||||||||||||||||
34 | 1 | Keyvan Farhang Razi | NLP | Extending Machine Language Models toward Human-Level Language Understanding | https://arxiv.org/abs/1912.05877 | ||||||||||||||||||||||
35 | 2 | Hossein Taji | NLP | Modifying Memories in Transformer Models | https://arxiv.org/abs/2012.00363.pdf | ||||||||||||||||||||||
36 | 3 | (Jan) Florian Mai | NLP | Language Models are Open Knowledge Graphs | https://arxiv.org/abs/2010.11967 | ||||||||||||||||||||||
37 | 4 | Giovanni Piccioli | NLP | Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question Answering | https://arxiv.org/abs/1911.10470 | ||||||||||||||||||||||
38 | 5 | Jelena Simeunovic | NLP | Large Memory Layers with Product Keys | https://papers.nips.cc/paper/2019/file/9d8df73a3cfbf3c5b47bc9b50f214aff-Paper.pdf | ||||||||||||||||||||||
39 | |||||||||||||||||||||||||||
40 | Boi Faltings | ||||||||||||||||||||||||||
41 | 1 | OPtions as REsponses: Grounding Behavioural Hierarchies in Multi-Agent Reinforcement Learning | https://arxiv.org/pdf/1906.01470.pdf | ||||||||||||||||||||||||
42 | 2 | Yves Rychener | Decentralized Reinforcement Learning: Global Decision-Making via Local Economic Transactions | http://proceedings.mlr.press/v119/chang20b/chang20b.pdf | |||||||||||||||||||||||
43 | 3 | Loris Di Natale | Learning to Incentivize other Learning Agents | https://arxiv.org/abs/2006.06051 | |||||||||||||||||||||||
44 | 4 | Hindsight and Sequential Rationality of Correlated Play | Hindsight and Sequential Rationality of Correlated Play | ||||||||||||||||||||||||
45 | 5 | ||||||||||||||||||||||||||
46 | |||||||||||||||||||||||||||
47 | |||||||||||||||||||||||||||
48 | |||||||||||||||||||||||||||
49 | |||||||||||||||||||||||||||
50 | |||||||||||||||||||||||||||
51 | |||||||||||||||||||||||||||
52 | |||||||||||||||||||||||||||
53 | |||||||||||||||||||||||||||
54 | |||||||||||||||||||||||||||
55 | |||||||||||||||||||||||||||
56 | |||||||||||||||||||||||||||
57 | |||||||||||||||||||||||||||
58 | |||||||||||||||||||||||||||
59 | |||||||||||||||||||||||||||
60 | |||||||||||||||||||||||||||
61 | |||||||||||||||||||||||||||
62 | |||||||||||||||||||||||||||
63 | |||||||||||||||||||||||||||
64 | |||||||||||||||||||||||||||
65 | |||||||||||||||||||||||||||
66 | |||||||||||||||||||||||||||
67 | |||||||||||||||||||||||||||
68 | |||||||||||||||||||||||||||
69 | |||||||||||||||||||||||||||
70 | |||||||||||||||||||||||||||
71 | |||||||||||||||||||||||||||
72 | |||||||||||||||||||||||||||
73 | |||||||||||||||||||||||||||
74 | |||||||||||||||||||||||||||
75 | |||||||||||||||||||||||||||
76 | |||||||||||||||||||||||||||
77 | |||||||||||||||||||||||||||
78 | |||||||||||||||||||||||||||
79 | |||||||||||||||||||||||||||
80 | |||||||||||||||||||||||||||
81 | |||||||||||||||||||||||||||
82 | |||||||||||||||||||||||||||
83 | |||||||||||||||||||||||||||
84 | |||||||||||||||||||||||||||
85 | |||||||||||||||||||||||||||
86 | |||||||||||||||||||||||||||
87 | |||||||||||||||||||||||||||
88 | |||||||||||||||||||||||||||
89 | |||||||||||||||||||||||||||
90 | |||||||||||||||||||||||||||
91 | |||||||||||||||||||||||||||
92 | |||||||||||||||||||||||||||
93 | |||||||||||||||||||||||||||
94 | |||||||||||||||||||||||||||
95 | |||||||||||||||||||||||||||
96 | |||||||||||||||||||||||||||
97 | |||||||||||||||||||||||||||
98 | |||||||||||||||||||||||||||
99 | |||||||||||||||||||||||||||
100 |