Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Evolving Semantic Prototype Improves Generative Zero-Shot Learning
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-003-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-003-alpha.b-cdn.net
      • sl-yoda-v2-stream-003-beta.b-cdn.net
      • 1544410162.rsc.cdn77.org
      • 1005514182.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Evolving Semantic Prototype Improves Generative Zero-Shot Learning
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Evolving Semantic Prototype Improves Generative Zero-Shot Learning

            24. července 2023

            Řečníci

            SC

            Shiming Chen

            Sprecher:in · 0 Follower:innen

            WH

            Wenjin Hou

            Sprecher:in · 0 Follower:innen

            ZH

            Ziming Hong

            Sprecher:in · 0 Follower:innen

            O prezentaci

            In zero-shot learning (ZSL), generative methods synthesize class-related sample features based on predefined semantic prototypes. They advance the ZSL performance by synthesizing unseen class sample features for better training the classifier. We observe that each class's predefined semantic prototype (also referred to as semantic embedding or condition) does not accurately match its real semantic prototype. So the synthesized visual sample features do not faithfully represent the real sample fe…

            Organizátor

            I2
            I2

            ICML 2023

            Konto · 657 Follower:innen

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Is RLHF More Difficult than Standard RL?
            31:04

            Is RLHF More Difficult than Standard RL?

            Chi Jin

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Label Distributionally Robust Losses for Multi-class Classification: Consistency, Robustness and Adaptivity
            04:59

            Label Distributionally Robust Losses for Multi-class Classification: Consistency, Robustness and Adaptivity

            Dixian Zhu, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Learning Expressive Priors for Generalization and Uncertainty Estimation in Neural Networks
            05:13

            Learning Expressive Priors for Generalization and Uncertainty Estimation in Neural Networks

            Dominik Schnaus, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Langerin Thompson Sampling with Logarithmic Batches: Bandits A Reinforcement Learning
            04:56

            Langerin Thompson Sampling with Logarithmic Batches: Bandits A Reinforcement Learning

            Amin Karbasi, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Cross-Modal Fine-Tuning: Align then Refine
            12:38

            Cross-Modal Fine-Tuning: Align then Refine

            Junhong Shen, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Cross-Entropy Loss Functions: Theoretical Analysis and Applications
            05:25

            Cross-Entropy Loss Functions: Theoretical Analysis and Applications

            Anqi Mao, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Zajímají Vás podobná videa? Sledujte ICML 2023