Lecture d’articles
En parallèle du cours, nous proposons de compléter les notions abordées par la lecture d’articles de recherche, portant sur des sujets directement abordés en cours, ou donnant un contexte éclairant sur celui-ci.
Consignes liées à l’évaluation:
- Présentation des articles:
- Chaque article est présenté par un ou deux étudiants volontaires
- La présentation est évaluée (avec bienveillance) et donne des points bonus
- Chaque article est présenté par un ou deux étudiants volontaires
- Chaque semaine, un quizz noté est donné sur l’article de la semaine
- Cela demande, bien entendu, que tous les étudiants aient lu cet article avant le cours lors duquel a lieu le quizz
- Pensez à les imprimer ou les télécharger sur votre ordinateur si vous souhaitez les consulter pendant le quizz. Accès à internet et utilisation du téléphone interdit pendant le quizz.
Détails des consignes:
- Les présentations peuvent se faire seul ou par groupe de deux. Dans le cas d’un binôme, les deux étudiants doivent présenter.
- Chaque présentation dure maximum 10 minutes. Les présentations sont accompagnées d’un support visuel: classiquement quelques transparents, mais une présentation au tableau est aussi possible. Pensez que du matériel fourni par les auteurs des papiers est souvent déjà disponible et peut vous aider (transparents, posters, démo, etc). Mais dans ce cas, pensez à donner le crédit !
- Soyez auto-suffisant pour vos supports (les salles n’ont pas d’ordinateur à disposition)
- Les articles peuvent être lus dès les premiers cours, il n’est pas nécessaire d’attendre le dernier moment ! Et vous en comprendrez d’autant mieux les cours.
Liste des articles sur lesquels porte l’évaluation
- Article 1 – Unsupervised Domain Adaptation by Backpropagation (UDA). ICML, 2015 [pdf] (presenté par Loïc Gaillard, Ruben Quast)
- Article 2 – Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset (Quo Vadis). CVPR, 2017 [pdf] (presenté par Anthony Dard, Léon Roussel)
- Article 3 – Learning without Forgetting (LwF). ECCV, 2016 [pdf] (presenté par Chloé Adnet, Alexandre Wendling)
- Article 4 – Incremental Learning of Object Detectors without Catastrophic Forgetting (IncDet). ICCV, 2017 [pdf] (présenté par Théo Lephay, Paul Marthelot)
- Article 5 – Unsupervised Representation Learning by Predicting Image Rotations (RotNet). ICLR, 2018 [pdf]
- Article 6 – Learning Transferable Visual Models From Natural Language Supervision (CLIP). ICML, 2021 [pdf] (only sections 1, 2, 3.1.1, 3.1.2, 3.1.3)
Pour aller plus loin
Pour compléter certains sujets abordés en cours, n’hésitez pas à également parcourir les articles suivants qui sont pertinents pour ce cours. Ces articles ne sont pas couverts par le quizz, mais peuvent vous donner des bases solides en compréhension des bases d’images.
- Datasets
- ImageNet Large Scale Visual Recognition Challenge. IJCV, 2015
[pdf][dataset page] - Visual Genome: Connecting Language and Vision Using Crowdsourced Dense Image Annotations. Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li Jia-Li, David Ayman Shamma, Michael Bernstein, Li Fei-Fei. IJCV 2017.
[pdf][dataset page]
- ImageNet Large Scale Visual Recognition Challenge. IJCV, 2015
- Deep architectures
- Self-supervised learning
- Momentum Contrast for unsupervised visual representation learning (MoCo). CVPR, 2020
[pdf] - Concept Generalization in Visual Representation Learning. ICCV, 2021
[pdf][project page]
- Momentum Contrast for unsupervised visual representation learning (MoCo). CVPR, 2020
- Continual learning
- Retrieval
- Detection and Segmentation
- Histograms of oriented gradients for human detection (HOG). N Dalal, B Triggs. CVPR, 2005
[pdf] - Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. ICLR, 2015
[pdf] - You Only Look Once (YOLO). CVPR, 2016
[pdf][project page] - Mask R-CNN. Kaiming He, Georgia Gkioxari, Piotr Dollar, Ross Girshick. ICCV, 2017 [pdf][project page]
- Histograms of oriented gradients for human detection (HOG). N Dalal, B Triggs. CVPR, 2005
- Other tasks
- Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros. ICCV 2017
[pdf][project page] - GQA: Visual Reasoning in the Real World
[pdf][project page] - LCR-Net: Localization-Classification-Regression for Human Pose. CVPR, 2017 (Attribué – LB, LC)
[pdf]
- Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros. ICCV 2017
- AI Ethics
- Practical Data Ethics – Fast AI [course page]