Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Understanding and Improving Lexical Choice in Non-Autoregressive Translation
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-006-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-006-alpha.b-cdn.net
      • sl-yoda-v2-stream-006-beta.b-cdn.net
      • 1549480416.rsc.cdn77.org
      • 1102696603.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Understanding and Improving Lexical Choice in Non-Autoregressive Translation
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Understanding and Improving Lexical Choice in Non-Autoregressive Translation

            3. května 2021

            Řečníci

            LD

            Liang Ding

            Řečník · 1 sledující

            LW

            Longyue Wang

            Řečník · 1 sledující

            XL

            Xuebo Liu

            Řečník · 0 sledujících

            O prezentaci

            Knowledge distillation (KD) is essential for training non-autoregressive translation (NAT) models by reducing the complexity of the raw data with an autoregressive teacher model. In this study, we empirically show that as a side effect of this training, the lexical choice errors on low-frequency words are propagated to the NAT model from the teacher model. To alleviate this problem, we propose to expose the raw data to NAT models to restore the useful information of low-frequency words, which ar…

            Organizátor

            I2
            I2

            ICLR 2021

            Účet · 896 sledujících

            O organizátorovi (ICLR 2021)

            The International Conference on Learning Representations (ICLR) is the premier gathering of professionals dedicated to the advancement of the branch of artificial intelligence called representation learning, but generally referred to as deep learning. ICLR is globally renowned for presenting and publishing cutting-edge research on all aspects of deep learning used in the fields of artificial intelligence, statistics and data science, as well as important application areas such as machine vision, computational biology, speech recognition, text understanding, gaming, and robotics.

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Representation Learning for Sequence Data with Deep Autoencoding Predictive Components
            05:08

            Representation Learning for Sequence Data with Deep Autoencoding Predictive Components

            Junwen Bai, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Learning Generalizable Visual Representations via Interactive Gameplay
            14:17

            Learning Generalizable Visual Representations via Interactive Gameplay

            Luca Weihs, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Learning to Represent Action Values as a Hypergraph on the Action Vertices
            03:43

            Learning to Represent Action Values as a Hypergraph on the Action Vertices

            Arash Tavakoli, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Invited Talk - Alyosha Efros
            1:20:40

            Invited Talk - Alyosha Efros

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            MiCE: Mixture of Contrastive Experts for Unsupervised Image Clustering
            04:55

            MiCE: Mixture of Contrastive Experts for Unsupervised Image Clustering

            Tsung Wei Tsai, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Projected Latent Markov Chain Monte Carlo: Conditional Sampling of Normalizing Flows
            05:04

            Projected Latent Markov Chain Monte Carlo: Conditional Sampling of Normalizing Flows

            Chris Cannella, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Zajímají Vás podobná videa? Sledujte ICLR 2021