Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Learning to Represent Action Values as a Hypergraph on the Action Vertices
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-010-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-010-alpha.b-cdn.net
      • sl-yoda-v2-stream-010-beta.b-cdn.net
      • 1759419103.rsc.cdn77.org
      • 1016618226.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Learning to Represent Action Values as a Hypergraph on the Action Vertices
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Learning to Represent Action Values as a Hypergraph on the Action Vertices

            3. května 2021

            Řečníci

            AT

            Arash Tavakoli

            Řečník · 0 sledujících

            MF

            Mehdi Fatemi

            Řečník · 0 sledujících

            PK

            Petar Kormushev

            Řečník · 0 sledujících

            O prezentaci

            Action-value estimation is a critical component of many reinforcement learning (RL) methods whereby sample complexity relies heavily on how fast a good estimator for action value can be learned. By viewing this problem through the lens of representation learning, good representations of both state and action can facilitate action-value estimation. While advances in deep learning have seamlessly driven progress in learning state representations, given the specificity of the notion of agency to RL…

            Organizátor

            I2
            I2

            ICLR 2021

            Účet · 897 sledujících

            Kategorie

            Umělá inteligence a data science

            Kategorie · 10,8k prezentací

            O organizátorovi (ICLR 2021)

            The International Conference on Learning Representations (ICLR) is the premier gathering of professionals dedicated to the advancement of the branch of artificial intelligence called representation learning, but generally referred to as deep learning. ICLR is globally renowned for presenting and publishing cutting-edge research on all aspects of deep learning used in the fields of artificial intelligence, statistics and data science, as well as important application areas such as machine vision, computational biology, speech recognition, text understanding, gaming, and robotics.

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Aligning Text and Embodied Environments for Interactive Learning
            04:39

            Aligning Text and Embodied Environments for Interactive Learning

            Mohit Shridhar, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Sequential Density Ratio Estimation for Simultaneous Optimization of Speed and Accuracy
            09:55

            Sequential Density Ratio Estimation for Simultaneous Optimization of Speed and Accuracy

            Akinori Ebihara, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Mapping the Timescale Organization of Neural Language Models
            05:48

            Mapping the Timescale Organization of Neural Language Models

            Hsiang-Yun Sherry Chien, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            S2D-OLAD: From shallow to deep, overcoming limited and adverse data
            10:14:04

            S2D-OLAD: From shallow to deep, overcoming limited and adverse data

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies
            07:03

            Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies

            Paul Liang, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Early Stopping in Deep Networks: Double Descent and How to Eliminate it
            04:37

            Early Stopping in Deep Networks: Double Descent and How to Eliminate it

            Reinhard Heckel, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Zajímají Vás podobná videa? Sledujte ICLR 2021