Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Get More at Once: Alternating Sparse Training with Gradient Correction
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-009-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-009-alpha.b-cdn.net
      • sl-yoda-v2-stream-009-beta.b-cdn.net
      • 1766500541.rsc.cdn77.org
      • 1441886916.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Get More at Once: Alternating Sparse Training with Gradient Correction
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Get More at Once: Alternating Sparse Training with Gradient Correction

            28. listopadu 2022

            Řečníci

            LY

            Li Yang

            Sprecher:in · 0 Follower:innen

            JM

            Jian Meng

            Sprecher:in · 0 Follower:innen

            JS

            Jae-sun Seo

            Sprecher:in · 0 Follower:innen

            O prezentaci

            Recently, a new trend of exploring training sparsity has emerged, which remove parameters during training, leading to both training and inference efficiency improvement. This line of works primarily aims to obtain a single sparse model under a pre-defined large sparsity ratio. It leads to a static/fixed sparse inference model that is not capable of adjusting or re-configuring its computation complexity (i.e., inference structure, latency) after training for real-world varying and dynamic hardwar…

            Organizátor

            N2
            N2

            NeurIPS 2022

            Konto · 961 Follower:innen

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            How to Select Important Participants in Vertical Federated Learning, Efficiently and Securely?
            04:38

            How to Select Important Participants in Vertical Federated Learning, Efficiently and Securely?

            Jiawei Jiang, …

            N2
            N2
            NeurIPS 2022 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Sobolev Acceleration and Statistical Optimality for Learning Elliptic Equations via Gradient Descent
            06:07

            Sobolev Acceleration and Statistical Optimality for Learning Elliptic Equations via Gradient Descent

            Yiping Lu, …

            N2
            N2
            NeurIPS 2022 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Understanding Hyperdimensional Computing for Parallel Single-Pass Learning
            05:04

            Understanding Hyperdimensional Computing for Parallel Single-Pass Learning

            Tao Yu, …

            N2
            N2
            NeurIPS 2022 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Fast Vision Transformers with HiLo Attention
            05:34

            Fast Vision Transformers with HiLo Attention

            Zizheng Pan, …

            N2
            N2
            NeurIPS 2022 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            On Efficient Online Imitation Learning via Classification
            04:37

            On Efficient Online Imitation Learning via Classification

            Yichen Li, …

            N2
            N2
            NeurIPS 2022 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            GAGA: Deciphering Age-path of Generalized Self-paced Regularizer
            05:02

            GAGA: Deciphering Age-path of Generalized Self-paced Regularizer

            Xingyu Qu, …

            N2
            N2
            NeurIPS 2022 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Zajímají Vás podobná videa? Sledujte NeurIPS 2022