Presentations

Lecture d’articles

En parallèle du cours, nous proposons de compléter les notions abordées par la lecture d’articles de recherche, portant sur des sujets directement abordés en cours, ou donnant un contexte éclairant sur celui-ci.

Consignes liées à l’évaluation:

  • Présentation des articles:
    • Chaque article est présenté par un ou deux étudiants volontaires
      • La présentation est évaluée (avec bienveillance) et donne des points bonus
  • Chaque semaine, un quizz noté est donné sur l’article de la semaine
    • Cela demande, bien entendu, que tous les étudiants aient lu cet article avant le cours lors duquel a lieu le quizz
    • Pensez à les imprimer ou les télécharger sur votre ordinateur si vous souhaitez les consulter pendant le quizz. Accès à internet et utilisation du téléphone interdit pendant le quizz.
Détails des consignes:
  • Les présentations peuvent se faire seul ou par groupe de deux. Dans le cas d’un binôme, les deux étudiants doivent présenter.
  • Chaque présentation dure maximum 10 minutes. Les présentations sont accompagnées d’un support visuel: classiquement quelques transparents, mais une présentation au tableau est aussi possible. Pensez que du matériel fourni par les auteurs des papiers est souvent déjà disponible et peut vous aider (transparents, posters, démo, etc). Mais dans ce cas, pensez à donner le crédit !
  • Soyez auto-suffisant pour vos supports (les salles n’ont pas d’ordinateur à disposition)
  • Les articles peuvent être lus dès les premiers cours, il n’est pas nécessaire d’attendre le dernier moment ! Et vous en comprendrez d’autant mieux les cours.

Liste des articles sur lesquels porte l’évaluation

  • Article 1 – Unsupervised Domain Adaptation by Backpropagation (UDA). ICML, 2015 [pdf]
  • Article 2 – Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset (Quo Vadis). CVPR, 2017 [pdf]
  • Article 3 – Learning without Forgetting (LwF). ECCV, 2016 [pdf]
  • Article 4 – Incremental Learning of Object Detectors without Catastrophic Forgetting (IncDet). ICCV, 2017 [pdf]
  • Article 5 – Unsupervised Representation Learning by Predicting Image Rotations (RotNet). ICLR, 2018 [pdf]
  • Article 6 – Learning Transferable Visual Models From Natural Language Supervision (CLIP). ICML, 2021 [pdf] (only sections 1, 2, 3.1.1, 3.1.2, 3.1.3)

Pour aller plus loin

Pour compléter certains sujets abordés en cours, n’hésitez pas à également parcourir les articles suivants qui sont  pertinents pour ce cours. Ces articles ne sont pas couverts par le quizz, mais peuvent vous donner des bases solides en compréhension des bases d’images.

  • Datasets
    • ImageNet Large Scale Visual Recognition Challenge. IJCV, 2015
      [pdf][dataset page]
    • Visual Genome: Connecting Language and Vision Using Crowdsourced Dense Image Annotations. Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li Jia-Li, David Ayman Shamma, Michael Bernstein, Li Fei-Fei. IJCV 2017.
      [pdf][dataset page]
  • Deep architectures
    • Deep residual learning for image recognition (ResNet). CVPR 2016
      [pdf][Tutorial]
  • Self-supervised learning
    • Momentum Contrast for unsupervised visual representation learning (MoCo). CVPR, 2020
      [pdf]
    • Concept Generalization in Visual Representation Learning. ICCV, 2021
      [pdf][project page]
  • Continual learning
    • Learning without Forgetting. Zhizhong Li and Derek Hoiem. PAMI, 2017.
      [pdf][github]
    • iCaRL: Incremental Classifier and Representation Learning. Sylvestre-Alvise Rebuffi, Alexander Kolesnikov, Georg Sperl, Christoph H. Lampert. CVPR, 2017
      [pdf] [supp][poster]
  • Retrieval
    • Deep Image Retrieval: Learning global representations for image search. ECCV 2016
      [pdf]
    • Learning Deep Structure-Preserving Image-Text Embeddings. CVPR 2016
      [pdf]
  • Detection and Segmentation
    •  Histograms of oriented gradients for human detection (HOG). N Dalal, B Triggs. CVPR, 2005
      [pdf]
    • Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. ICLR, 2015
      [pdf]
    • You Only Look Once (YOLO). CVPR, 2016
      [pdf][project page]
    • Mask R-CNN. Kaiming He, Georgia Gkioxari, Piotr Dollar, Ross Girshick. ICCV, 2017 [pdf][project page]
  • Other tasks
    • Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros. ICCV 2017
      [pdf][project page]
    • GQA: Visual Reasoning in the Real World
      [pdf][project page]
    • LCR-Net: Localization-Classification-Regression for Human Pose. CVPR, 2017 (Attribué – LB, LC)
      [pdf]
  • AI Ethics

Comments are closed.