Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Benign Overfitting in Deep Neural Networks under Lazy Training
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-001-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-001-alpha.b-cdn.net
      • sl-yoda-v2-stream-001-beta.b-cdn.net
      • 1824830694.rsc.cdn77.org
      • 1979322955.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Benign Overfitting in Deep Neural Networks under Lazy Training
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Benign Overfitting in Deep Neural Networks under Lazy Training

            24. července 2023

            Řečníci

            ZZ

            Zhenyu Zhu

            Sprecher:in · 0 Follower:innen

            FL

            Fanghui Liu

            Sprecher:in · 0 Follower:innen

            GGC

            Grigorios G. Chrysos

            Sprecher:in · 0 Follower:innen

            O prezentaci

            This paper focuses on over-parameterized deep neural networks (DNNs) with ReLU activation functions and proves that when the data distribution is well-separated, DNNs can achieve Bayes-optimal test error for classification while obtaining (nearly) zero-training error. For this purpose, we unify three interrelated concepts of overparameterization, benign overfitting, and the Lipschitz constant of DNNs. Our results indicate that interpolating with smoother functions leads to better generalization.…

            Organizátor

            I2
            I2

            ICML 2023

            Konto · 657 Follower:innen

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Evaluating Self-Supervised Learning via Risk Decomposition
            08:32

            Evaluating Self-Supervised Learning via Risk Decomposition

            Yann Dubois, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Half-Hop: A graph upsampling approach for slowing down message passing
            04:38

            Half-Hop: A graph upsampling approach for slowing down message passing

            Mehdi Azabou, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Optimal LP Rounding and Linear-Time Approximation Algorithms for Clustering Edge-Colored Hypergraphs
            05:22

            Optimal LP Rounding and Linear-Time Approximation Algorithms for Clustering Edge-Colored Hypergraphs

            Nate Veldt

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            On the Within-Group Fairness of Screening Classifiers
            05:43

            On the Within-Group Fairness of Screening Classifiers

            Nastaran Okati, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Neural Collapse in Deep Linear Networks: From Balanced to Imbalanced Data
            05:09

            Neural Collapse in Deep Linear Networks: From Balanced to Imbalanced Data

            Hien Dang, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Invited Talk: Pam Samuelson
            25:01

            Invited Talk: Pam Samuelson

            Pamela Samuelson

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Zajímají Vás podobná videa? Sledujte ICML 2023