Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: DIVISION: Memory Efficient Training via Dual Activation Precision
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-009-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-009-alpha.b-cdn.net
      • sl-yoda-v2-stream-009-beta.b-cdn.net
      • 1766500541.rsc.cdn77.org
      • 1441886916.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            DIVISION: Memory Efficient Training via Dual Activation Precision
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            DIVISION: Memory Efficient Training via Dual Activation Precision

            24. července 2023

            Řečníci

            GW

            Guanchu Wang

            Sprecher:in · 0 Follower:innen

            ZL

            Zirui Liu

            Sprecher:in · 0 Follower:innen

            ZJ

            Zhimeng Jiang

            Sprecher:in · 0 Follower:innen

            O prezentaci

            Activation compressed training provides a solution towards reducing the memory cost of training deep neural networks (DNNs).However, state-of-the-art work combines a search of quantization bit-width with the training, which makes the procedure complicated and less transparent. To this end, we propose a simple and effective method to compress DNN training. Our method is motivated by an instructive observation: DNN backward propagation mainly utilizes the low-frequency component (LFC) of the acti…

            Organizátor

            I2
            I2

            ICML 2023

            Konto · 657 Follower:innen

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Gradient-Free Structured Pruning with Unlabeled Data
            05:20

            Gradient-Free Structured Pruning with Unlabeled Data

            Azade Nova, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Learn to Accumulate Evidence from All Training Samples: Theory and Practice
            05:17

            Learn to Accumulate Evidence from All Training Samples: Theory and Practice

            Deep Pandey, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Federated Learning with Personalized and User-Level Differential Privacy
            38:13

            Federated Learning with Personalized and User-Level Differential Privacy

            Li Xiong

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            One-sided matrix completion from two observations per row
            05:20

            One-sided matrix completion from two observations per row

            Steven Cao, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Self-Supervised Learning in Vision: from Research Advances to Best Practices
            1:52:07

            Self-Supervised Learning in Vision: from Research Advances to Best Practices

            Xinlei Chen, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            What's so special about counterfactuals?
            27:40

            What's so special about counterfactuals?

            Thomas Icard

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Zajímají Vás podobná videa? Sledujte ICML 2023