Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-007-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-007-alpha.b-cdn.net
      • sl-yoda-v2-stream-007-beta.b-cdn.net
      • 1678031076.rsc.cdn77.org
      • 1932936657.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

            3. května 2021

            Řečníci

            AD

            Alexey Dosovitskiy

            Řečník · 0 sledujících

            LB

            Lucas Beyer

            Řečník · 1 sledující

            AK

            Alexander Kolesnikov

            Řečník · 0 sledujících

            O prezentaci

            While the Transformer architecture has become the de-facto standard for natural language processing tasks, its applications to computer vision remain limited. In vision, attention is either applied in conjunction with convolutional networks, or used to replace certain components of convolutional networks while keeping their overall structure in place. We show that this reliance on CNNs is not necessary and a pure transformer applied directly to sequences of image patches can perform very well on…

            Organizátor

            I2
            I2

            ICLR 2021

            Účet · 911 sledujících

            Kategorie

            Umělá inteligence a data science

            Kategorie · 10,8k prezentací

            O organizátorovi (ICLR 2021)

            The International Conference on Learning Representations (ICLR) is the premier gathering of professionals dedicated to the advancement of the branch of artificial intelligence called representation learning, but generally referred to as deep learning. ICLR is globally renowned for presenting and publishing cutting-edge research on all aspects of deep learning used in the fields of artificial intelligence, statistics and data science, as well as important application areas such as machine vision, computational biology, speech recognition, text understanding, gaming, and robotics.

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Continual Learning in Recurrent Neural Networks
            05:16

            Continual Learning in Recurrent Neural Networks

            Benjamin Ehret, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Problem and Solution Documentation Template for Machine Learning Competitions to Enhance Explainability, Reproducibility, and Collaboration Between Stakeholders
            05:51

            Problem and Solution Documentation Template for Machine Learning Competitions to Enhance Explainability, Reproducibility, and Collaboration Between Stakeholders

            Hamzat Oluwaseun

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Fast Inference and Transfer of Compositional Task Structure for Few-shot Task Generalization
            09:56

            Fast Inference and Transfer of Compositional Task Structure for Few-shot Task Generalization

            Sungryull Sohn, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            A Good Image Generator Is What You Need for High-Resolution Video Synthesis
            10:03

            A Good Image Generator Is What You Need for High-Resolution Video Synthesis

            Yu Tian, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Offline Model-based Optimization via Normalized Maximum Likelihood Estimation
            07:37

            Offline Model-based Optimization via Normalized Maximum Likelihood Estimation

            Justin Fu, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Oral Session 7 - Q&A 2
            13:29

            Oral Session 7 - Q&A 2

            Krishnamurthy Dvijotham, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Zajímají Vás podobná videa? Sledujte ICLR 2021