This paper deals with the following important research question. Traditionally, the neural network employs non-linear activation functions concatenated with linear operators to approximate a given physical phenomenon. They "fill the space" with the concatenations of the activation functions and linear operators and adjust their coefficients to approximate the physical phenomena. We claim that it is better to "fill the space" with linear combinations of smooth higher-order B-splines base functions as employed by isogeometric analysis and utilize the neural networks to adjust the coefficients of linear combinations. In other words, the possibilities of using neural networks for approximating the B-spline base functions' coefficients and by approximating the solution directly are evaluated. Solving differential equations with neural networks has been proposed by Maziar Raissi et al. in 2017 by introducing Physics-informed Neural Networks (PINN), which naturally encode underlying physical laws as prior information. Approximation of coefficients using a function as an input leverages the well-known capability of neural networks being universal function approximators. In essence, in the PINN approach the network approximates the value of the given field at a given point. We present an alternative approach, where the physcial quantity is approximated as a linear combination of smooth B-spline basis functions, and the neural network approximates the coefficients of B-splines. This research compares results from the DNN approximating the coefficients of the linear combination of B-spline basis functions, with the DNN approximating the solution directly. We show that our approach is cheaper and more accurate when approximating smooth physical fields.


翻译:本文涉及以下重要的研究问题 。 传统上, 神经网络使用非线性激活功能, 与线性操作员融合, 以近似特定物理现象。 它们“ 填充空间 ”, 与激活函数和线性操作员相近, 并调整系数以近于物理现象。 我们声称, 最好用光滑的更高顺序 B- spline 基函数的线性组合来“ 填充空间 ”, 并使用神经网络来调整线性组合的系数 。 换句话说, 使用线性操作者可以使用神经网络来接近 B- 线性基函数的近似物理现象。 2017年, Maziar Raisi 等人提议用线性网络的差异方程式来“ 填充空间 ”, 自然将物理法系作为先前的信息进行编码。 使用一种输入功能来调整系数, 将已知的线性网络功能能力用于接近 B- 线性基值的直线性软性函数 。 在目前 B 基点上, 的网络的直线性 直线性 直径性 直线性 基 直径性 的直径化 直径化 直方值 方法中, 直方值 直方值 直方值 直方值 直方值 直方值 直方值 直方 直方 直方 直方 基 基 基 方 向 向 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方 方

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
24+阅读 · 2022年2月4日
VIP会员
相关VIP内容
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
相关论文
相关基金
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员