Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: VAST: Value Function Factorization with Variable Agent Sub-Teams
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-004-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-004-alpha.b-cdn.net
      • sl-yoda-v2-stream-004-beta.b-cdn.net
      • 1685195716.rsc.cdn77.org
      • 1239898752.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            VAST: Value Function Factorization with Variable Agent Sub-Teams
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            VAST: Value Function Factorization with Variable Agent Sub-Teams

            6. prosince 2021

            Řečníci

            TP

            Thomy Phan

            Sprecher:in · 0 Follower:innen

            FR

            Fabian Ritz

            Sprecher:in · 0 Follower:innen

            LB

            Lenz Belzner

            Sprecher:in · 0 Follower:innen

            O prezentaci

            Value function factorization (VFF) is a popular approach to cooperative multi-agent reinforcement learning in order to learn local value functions from global rewards. However, state-of-the-art VFF is limited to a handful of agents in most domains. We hypothesize that this is due to the flat factorization scheme, where the VFF operator becomes a performance bottleneck with an increasing number of agents. Therefore, we propose VFF with variable agent sub-teams (VAST). VAST approximates a factoriz…

            Organizátor

            N2
            N2

            NeurIPS 2021

            Konto · 1,9k Follower:innen

            O organizátorovi (NeurIPS 2021)

            Neural Information Processing Systems (NeurIPS) is a multi-track machine learning and computational neuroscience conference that includes invited talks, demonstrations, symposia and oral and poster presentations of refereed papers. Following the conference, there are workshops which provide a less formal setting.

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Closing remarks
            09:04

            Closing remarks

            Miriam Rateike

            N2
            N2
            NeurIPS 2021 3 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Learning Theory Can (Sometimes) Explain Generalisation in Graph Neural Networks
            10:06

            Learning Theory Can (Sometimes) Explain Generalisation in Graph Neural Networks

            Pascal M. Esser, …

            N2
            N2
            NeurIPS 2021 3 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Circa: Stochastic ReLUs for Private Deep Learning
            12:55

            Circa: Stochastic ReLUs for Private Deep Learning

            Zahra Ghodsi, …

            N2
            N2
            NeurIPS 2021 3 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Fast Axiomatic Attribution for Neural Networks
            14:49

            Fast Axiomatic Attribution for Neural Networks

            Robin Hesse, …

            N2
            N2
            NeurIPS 2021 3 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Lossy Compression for Lossless Prediction using Invariances
            14:46

            Lossy Compression for Lossless Prediction using Invariances

            Yann Dubois, …

            N2
            N2
            NeurIPS 2021 3 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            KALE Flow: A Relaxed KL Gradient Flow for Probabilities with Disjoint Support
            08:19

            KALE Flow: A Relaxed KL Gradient Flow for Probabilities with Disjoint Support

            Pierre Glaser, …

            N2
            N2
            NeurIPS 2021 3 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Zajímají Vás podobná videa? Sledujte NeurIPS 2021