Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Pre-training for Speech Translation: CTC Meets Optimal Transport
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-005-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-005-alpha.b-cdn.net
      • sl-yoda-v2-stream-005-beta.b-cdn.net
      • 1034628162.rsc.cdn77.org
      • 1409346856.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Pre-training for Speech Translation: CTC Meets Optimal Transport
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Pre-training for Speech Translation: CTC Meets Optimal Transport

            24. července 2023

            Řečníci

            PL

            Phuong-Hang Le

            Sprecher:in · 0 Follower:innen

            HG

            Hongyu Gong

            Sprecher:in · 0 Follower:innen

            CW

            Changhan Wang

            Sprecher:in · 0 Follower:innen

            O prezentaci

            The gap between speech and text modalities is a major challenge in speech-to-text translation (ST). Different methods have been proposed for reducing this gap, but most of them require architectural changes in ST training. In this work, we propose to mitigate this issue at the pre-training stage, requiring no change in the ST model. First, we show that the connectionist temporal classification (CTC) loss can reduce the modality gap by design. We provide a quantitative comparison with the more co…

            Organizátor

            I2
            I2

            ICML 2023

            Konto · 657 Follower:innen

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            RankMe: Assessing the Downstream Performance of Pretrained Self-Supervised Representations by Their Rank
            07:22

            RankMe: Assessing the Downstream Performance of Pretrained Self-Supervised Representations by Their Rank

            Quentin Garrido, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Attribute-Efficient PAC Learning of Low-Degree Polynomial Threshold Functions with Nasty Noise
            05:08

            Attribute-Efficient PAC Learning of Low-Degree Polynomial Threshold Functions with Nasty Noise

            Shiwei Zeng, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Nearly-Linear Time and Streaming Algorithms for Outlier-Robust PCA
            05:32

            Nearly-Linear Time and Streaming Algorithms for Outlier-Robust PCA

            Thanasis Pittas, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            A Nearly-Optimal Construction for Well-Clustered Graphs
            05:19

            A Nearly-Optimal Construction for Well-Clustered Graphs

            Steinar Laenen, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            A Generalization of ViT/MLP-Mixer to Graphs
            05:17

            A Generalization of ViT/MLP-Mixer to Graphs

            Xiaoxin He, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Banker Online Mirror Descent: A Universal Approach for Delayed Online Bandit Learning
            05:42

            Banker Online Mirror Descent: A Universal Approach for Delayed Online Bandit Learning

            Jiatai Huang, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Zajímají Vás podobná videa? Sledujte ICML 2023