Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: CoCon: A Self-Supervised Approach for Controlled Text Generation
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v3-stream-013-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v3-stream-013-alpha.b-cdn.net
      • sl-yoda-v3-stream-013-beta.b-cdn.net
      • 1668715672.rsc.cdn77.org
      • 1420896597.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            CoCon: A Self-Supervised Approach for Controlled Text Generation
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            CoCon: A Self-Supervised Approach for Controlled Text Generation

            3. května 2021

            Řečníci

            AC

            Alvin Chan

            Řečník · 0 sledujících

            YO

            Yew-Soon Ong

            Řečník · 0 sledujících

            BP

            Bill Pung

            Řečník · 0 sledujících

            O prezentaci

            Pretrained Transformer-based language models (LMs) display remarkable natural language generation capabilities. With their immense potential, controlling text generation of such LMs is getting attention. While there are studies that seek to control high-level attributes (such as sentiment and topic) of generated text, there is still a lack of more precise control over its content at the word- and phrase-level. Here, we propose Content-Conditioner (CoCon) to control an LM's output text with a con…

            Organizátor

            I2
            I2

            ICLR 2021

            Účet · 900 sledujících

            Kategorie

            Vývoj webu a UX/UI

            Kategorie · 1,2k prezentací

            O organizátorovi (ICLR 2021)

            The International Conference on Learning Representations (ICLR) is the premier gathering of professionals dedicated to the advancement of the branch of artificial intelligence called representation learning, but generally referred to as deep learning. ICLR is globally renowned for presenting and publishing cutting-edge research on all aspects of deep learning used in the fields of artificial intelligence, statistics and data science, as well as important application areas such as machine vision, computational biology, speech recognition, text understanding, gaming, and robotics.

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Towards A Human-Like Reasoning System
            33:35

            Towards A Human-Like Reasoning System

            Mateja Jamnik, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Data-Efficient Training of Autoencoders for Mildly Non-Linear Problems
            04:19

            Data-Efficient Training of Autoencoders for Mildly Non-Linear Problems

            Muhammad Al-Digeil, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Supervised Contrastive Learning for Pre-trained Language Model Fine-tuning
            04:44

            Supervised Contrastive Learning for Pre-trained Language Model Fine-tuning

            Beliz Gunel, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Empirical or Invariant Risk Minimization? A Sample Complexity Perspective
            05:12

            Empirical or Invariant Risk Minimization? A Sample Complexity Perspective

            Kartik Ahuja

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Interpretable Models for Granger Causality Using Self-explaining Neural Networks
            05:16

            Interpretable Models for Granger Causality Using Self-explaining Neural Networks

            Ričards Marcinkevičs, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            A Machine Learning Model for Predicting Deterioration of COVID-19 Inpatients
            14:22

            A Machine Learning Model for Predicting Deterioration of COVID-19 Inpatients

            Omer Noy, …

            I2
            I2
            ICLR 2021 4 years ago

            Pro uložení prezentace do věčného trezoru hlasovalo 0 diváků, což je 0.0 %

            Zajímají Vás podobná videa? Sledujte ICLR 2021