Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Up or Down? Adaptive Rounding for Post-Training Quantization
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-010-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-010-alpha.b-cdn.net
      • sl-yoda-v2-stream-010-beta.b-cdn.net
      • 1759419103.rsc.cdn77.org
      • 1016618226.rsc.cdn77.org
      • Titulky
      • Off
      • en
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Up or Down? Adaptive Rounding for Post-Training Quantization
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Up or Down? Adaptive Rounding for Post-Training Quantization

            12. července 2020

            Řečníci

            MN

            Markus Nagel

            Řečník · 0 sledujících

            RAA

            Rana Ali Amjad

            Řečník · 0 sledujících

            MvB

            Mart van Baalen

            Řečník · 0 sledujících

            O prezentaci

            When quantizing neural networks, assigning each floating-point weight to its nearest fixed-point value is the predominant approach. We find that, perhaps surprisingly, this is not the best we can do. In this paper, we propose AdaRound, a better weight-rounding mechanism for post-training quantization that adapts to the data and the task loss. AdaRound is fast, does not require fine-tuning of the network, and only uses a small amount of unlabelled data. We start by theoretically analyzing the rou…

            Organizátor

            I2
            I2

            ICML 2020

            Účet · 2,7k sledujících

            Kategorie

            Umělá inteligence a data science

            Kategorie · 10,8k prezentací

            O organizátorovi (ICML 2020)

            The International Conference on Machine Learning (ICML) is the premier gathering of professionals dedicated to the advancement of the branch of artificial intelligence known as machine learning. ICML is globally renowned for presenting and publishing cutting-edge research on all aspects of machine learning used in closely related areas like artificial intelligence, statistics and data science, as well as important application areas such as machine vision, computational biology, speech recognition, and robotics. ICML is one of the fastest growing artificial intelligence conferences in the world. Participants at ICML span a wide range of backgrounds, from academic and industrial researchers, to entrepreneurs and engineers, to graduate students and postdocs.

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            GraphOpt: Learning Optimization Models of Graph Formation
            14:15

            GraphOpt: Learning Optimization Models of Graph Formation

            Rakshit Trivedi, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Exhaustive Nerual Importance Sampling applied to Monte Carlo event generation
            05:21

            Exhaustive Nerual Importance Sampling applied to Monte Carlo event generation

            Sebastian Pina-Otey, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Spectral Graph Matching and Regularized Quadratic Relaxations
            15:38

            Spectral Graph Matching and Regularized Quadratic Relaxations

            Zhou Fan, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Learning Action Priors for Visuomotor transfer
            04:22

            Learning Action Priors for Visuomotor transfer

            Anurag Ajay

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Discussion and Q&A
            29:12

            Discussion and Q&A

            Rich Caruana, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Landscape Connectivity and Dropout Stability of SGD Solutions for Over-parameterized Neural Networks
            13:19

            Landscape Connectivity and Dropout Stability of SGD Solutions for Over-parameterized Neural Networks

            Alexander Shevchenko, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Zajímají Vás podobná videa? Sledujte ICML 2020