Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Near Optimal Sample Complexity Bounds for Learning Latent k-polytopes and applications to Ad-Mixtures
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v3-stream-014-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v3-stream-014-alpha.b-cdn.net
      • sl-yoda-v3-stream-014-beta.b-cdn.net
      • 1978117156.rsc.cdn77.org
      • 1243944885.rsc.cdn77.org
      • Titulky
      • Off
      • en
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Near Optimal Sample Complexity Bounds for Learning Latent k-polytopes and applications to Ad-Mixtures
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Near Optimal Sample Complexity Bounds for Learning Latent k-polytopes and applications to Ad-Mixtures

            12. července 2020

            Řečníci

            CB

            Chiranjib Bhattacharyya

            Řečník · 0 sledujících

            RK

            Ravindran Kannan

            Řečník · 0 sledujících

            O prezentaci

            Recently near-optimal bounds on sample complexity of Mixture of Gaussians was shown in the seminal paper <cit.>. No such results are known for Ad-mixtures. In this paper we show that O^*(dk/m) samples are sufficient to learn each of k- topic vectors of LDA, a popular Ad-mixture model, with vocabulary size d and m∈Ω(1) words per document, to any constant error in L_1 norm. This is a corollary of the major contribution of the current paper: the first sample complexity upper bound for the pr…

            Organizátor

            I2
            I2

            ICML 2020

            Účet · 2,7k sledujících

            Kategorie

            Umělá inteligence a data science

            Kategorie · 10,8k prezentací

            Matematika

            Kategorie · 2,4k prezentací

            O organizátorovi (ICML 2020)

            The International Conference on Machine Learning (ICML) is the premier gathering of professionals dedicated to the advancement of the branch of artificial intelligence known as machine learning. ICML is globally renowned for presenting and publishing cutting-edge research on all aspects of machine learning used in closely related areas like artificial intelligence, statistics and data science, as well as important application areas such as machine vision, computational biology, speech recognition, and robotics. ICML is one of the fastest growing artificial intelligence conferences in the world. Participants at ICML span a wide range of backgrounds, from academic and industrial researchers, to entrepreneurs and engineers, to graduate students and postdocs.

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Active Learning on Graphs via Meta Learning
            05:10

            Active Learning on Graphs via Meta Learning

            Kaushalya Madhawa, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Topological Autoencoders
            13:09

            Topological Autoencoders

            Michael Moor, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 1 diváků, což je 0.1 %

            Training Linear Neural Networks: Non-Local Convergence and Complexity Results
            14:35

            Training Linear Neural Networks: Non-Local Convergence and Complexity Results

            Armin Eftekhari

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            AdaScale SGD: A User-Friendly Algorithm for Distributed Training
            14:22

            AdaScale SGD: A User-Friendly Algorithm for Distributed Training

            Tyler Johnson, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Efficient Domain Generalization via Common-Specific Low-Rank Decomposition
            14:50

            Efficient Domain Generalization via Common-Specific Low-Rank Decomposition

            Vihari Piratla, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Leveraging Frequency Analysis for Deep Fake Image Recognition
            12:44

            Leveraging Frequency Analysis for Deep Fake Image Recognition

            Joel Frank, …

            I2
            I2
            ICML 2020 5 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Zajímají Vás podobná videa? Sledujte ICML 2020