Další
Živý přenos začne již brzy!
Živý přenos již skončil.
Prezentace ještě nebyla nahrána!
  • title: Generative network-based reduced-order model for prediction, data assimilation and uncertainty quantification
      0:00 / 0:00
      • Nahlásit chybu
      • Nastavení
      • Playlisty
      • Záložky
      • Titulky Off
      • Rychlost přehrávání
      • Kvalita
      • Nastavení
      • Debug informace
      • Server sl-yoda-v2-stream-006-alpha.b-cdn.net
      • Velikost titulků Střední
      • Záložky
      • Server
      • sl-yoda-v2-stream-006-alpha.b-cdn.net
      • sl-yoda-v2-stream-006-beta.b-cdn.net
      • 1549480416.rsc.cdn77.org
      • 1102696603.rsc.cdn77.org
      • Titulky
      • Off
      • English
      • Rychlost přehrávání
      • Kvalita
      • Velikost titulků
      • Velké
      • Střední
      • Malé
      • Mode
      • Video Slideshow
      • Audio Slideshow
      • Slideshow
      • Video
      Moje playlisty
        Záložky
          00:00:00
            Generative network-based reduced-order model for prediction, data assimilation and uncertainty quantification
            • Nastavení
            • Sync diff
            • Kvalita
            • Nastavení
            • Server
            • Kvalita
            • Server

            Generative network-based reduced-order model for prediction, data assimilation and uncertainty quantification

            28. července 2023

            Řečníci

            VLSS

            Vinicius L S Silva

            Sprecher:in · 0 Follower:innen

            CEH

            Claire E. Heaney

            Sprecher:in · 0 Follower:innen

            CCP

            Christopher C. Pain

            Sprecher:in · 0 Follower:innen

            O prezentaci

            We propose a new method in which a generative network (GN) integrate into a reduced-order model (ROM) framework is used to solve inverse problems for partial differential equations (PDE). The aim is to match available measurements and estimate the corresponding uncertainties associated with the states and parameters of a numerical physical simulation. The GN is trained using only unconditional simulations of the discretized PDE model. We compare the proposed method with the golden standard Marko…

            Organizátor

            I2
            I2

            ICML 2023

            Konto · 657 Follower:innen

            Baví vás formát? Nechte SlidesLive zachytit svou akci!

            Profesionální natáčení a streamování po celém světě.

            Sdílení

            Doporučená videa

            Prezentace na podobné téma, kategorii nebo přednášejícího

            Delay-agnostic Asynchronous Coordinate Update Algorithm
            04:58

            Delay-agnostic Asynchronous Coordinate Update Algorithm

            Xuyang Wu, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            A Representer Theorem for Vector-Valued Neural Networks: Insights on Weight Decay Regularization and Widths of DNNs
            11:20

            A Representer Theorem for Vector-Valued Neural Networks: Insights on Weight Decay Regularization and Widths of DNNs

            Joseph Shenouda, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            The Persistent Laplacian for Data Science: Evaluating Higher-Order Persistent Spectral Representations of Data
            05:02

            The Persistent Laplacian for Data Science: Evaluating Higher-Order Persistent Spectral Representations of Data

            Thomas Davies, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Future-conditioned Unsupervised Pretraining for Decision Transformer
            05:02

            Future-conditioned Unsupervised Pretraining for Decision Transformer

            Zhihui Xie, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Flipping Coins to Estimate Pseudocounts for Exploration in Reinforcement Learning
            08:30

            Flipping Coins to Estimate Pseudocounts for Exploration in Reinforcement Learning

            Sam Lobel, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Graph Inductive Biases in Transformers without Message Passing
            05:50

            Graph Inductive Biases in Transformers without Message Passing

            Liheng Ma, …

            I2
            I2
            ICML 2023 2 years ago

            Ewigspeicher-Fortschrittswert: 0 = 0.0%

            Zajímají Vás podobná videa? Sledujte ICML 2023