基于人工神经网络的偏微分方程求解方法

更新时间:2023-06-01 23:43:14 阅读: 评论:0

2021年3月第40卷第1期
内蒙古科技大学学报
JournalofInnerMongoliaUniversityofScienceandTechnology法国高考
March,2021
Vol.40,No.1
基于人工神经网络的偏微分方程求解方法
刘文慧1,石琳2,郭勇2,袁冬芳 2
(1.内蒙古科技大学信息工程学院,内蒙古包头 014010;2.内蒙古科技大学理学院,内蒙古包头 014010)
摘 要:针对各种微分方程传统的数值方法的求解中,传统的数值方法在求解微分方程时存在计算存储量、计算时间等都随着微分方程维数的增加而剧烈增长的问题,严重制约了高维问题的求解 提出一种求
解偏微分方程的神经网络方法 通过数值算例说明,神经网络方法在求解微分方程问题上有高效率、很好地泛化等优点,为偏微分方程求解提供了一种有效的新途径
关键词:微分方程;人工神经网络;数值方法;损失函数
中图分类号:O313.7   文献标识码:A
文章编号:2095-2295(2021)01-0001-05     DOI:10.16559/j.cnki.2095-2295.2021.01.001
  微分方程常用的数值方法有Runge Kutta方法、线性多步方法、预测校正方法、有限元、有限差分和有限体积等[1,2] 传统的数值方法计算存储量和计算时间严重制约了高维问题的求解 近年来,人工神经网络在图像识别技术,语音识别和文本分析得到巨大的应用[3-5] 在电力系统[6]方面、化学工程[7]和环境工程等[8]领域引入神经网络方法来解决各自领域未能解决的任务 经过证明,多层神经网络可以逼近任何非线性函数,因此利用这个良好的性质对微分方程的求解进行研究
1997年LAGARIS等[9]开始用人工神经网络对常微分方程研究,通过算例看出求解的高精度和泛化性 JIANYUA用径向基神经网络来求解椭圆型偏微分方程[10] 后来,相关研究
人员利用小波神经网络研究非线性函数一阶导数的逼近[11] LEEST[12]基于小波神经网络,利用蝴蝶优化算法求解二维椭圆偏微分方程,最后从算例说明其算法的高精度和高效率性 1 神经网络结构
神经网络由最初的单层感知器发展到现在的多层神经网络结构 多层结构的神经网络具有更大容量,可逼近更大更复杂模型 神经网络的基本结构是由神经元构成,如图1,神经元有输入信号和输出信号 两者信号之间通过神经元内部决定,神经元的数学模型有Sigmoid函数,Tanh函数,Relu函数等 不同的场景应用的激活函数不同
图1 单个神经元结构图
采用Sigmoid函数作为激活函数 其公式为
(x)=
1+e-x
(1)相关理论证明多层神经网络可逼近任何非线性
基金项目:国家自然科学基金资助项目(11801287);内蒙古自治区自然科学基金资助项目(2018BS01002,2018LH01008,2020MS06010);内蒙古自治区高等学校科研基金资助项目(NJZZ18140);内蒙古自治区青年科技英才支持计划基金资助项目(NJYT20B15);内蒙古科技大学优秀青年基金资助项目(2019YQL02)
作者简介:刘文慧(1992-),男,内蒙古科技大学硕士研究生,研究方向为冶金过程建模和控制研究、机器学习等
通信作者:e mail:1281325549@qq.com
收稿日期:2020-09-28
内蒙古科技大学学报2021年3月 第40卷第1期
函数 采用3层神经网络作为训练模型,模型见图2 3层神经网络的基本结构由输入层、隐藏层和输出层组成,其中输入和输出的关系见式(2)
图2 3层神经网络示意图
N(X)=w2 (w1 (wX+b)+b1
) (2)
当神经网络结构确定后,要对神经网络进行学习,优化出逼近真实模型的神经网络参数 学习之前需要设置1种衡量的指标来判断真实模型和逼近模型的误差 常用的误差公式是均方差函数,对于m个训练样本{(x1,y1),(x2,y2)…(xm,ym)},神经网络输出{n1,n2…,nm},则根据均方差函数建立损失函数为:
Loss=
12∑m
j=1
(nj-yj
)2
(3)
神经网络模型是关于权值w和阈值b的函数,不同的权值和阈值表示不同的模型 神经网络主要对权值
和阈值进行学习,在每次迭代后更新w和b逼近真实模型 当损失函数建立后,选择1种神经网络学习方法 神经网络学习的方法有梯度下降法和共轭梯度法 梯度下降法常作为神经网络的学习规则 权值和阈值学习规则为:
wt=wt-1
+Δw,
(4)bt=bt-1finder是什么意思
+Δb,
(5)Δwjk
=-η Loosk
wjk,(6)Δbjk
=-η Loosk
bjk
(7)
式中:η为学习率,
学习率太大不容易收敛,太小导致神经网络学习速度过慢
2 神经网络求解微分方程方法
微分方程的一般形式及定解条件可描述为:
G(→ x,Ψ(→ x), Ψ(→ x), 2Ψ(→ x,…)=0,→ x∈D
boarder(8)
对于某个具体的方程既要满足微分,还要满足边界条件约束为
s.t.G(→ x,Ψ(→ x), Ψ(→ x), 2Ψ
(→ x,…)=0s.t.∑B.C.D
( pΨ(xb)-K(xb
)2
={
0 (9)
为了采用神经网络求解微分方程,将损失函数构造为两项和的形式,如式(10) 损失函数中的第一项满足对微分方程的约束,如式(11),第二项满足对边界条件的约束,如式(12)
Loss=LossMSE,D+LossMSE,B.Cs
,(10)LossMSE,D=mean(G(→ x,N, N, 2N,…, n
N)-G(→ x,Ψ, Ψ, 2Ψ,…, nΨ
))2,(11)LossMSE,B.Cs=mean((N(xB.Cs)-Ψ(XB.Cs
))2
+( N(XB.Cs)- Ψ(XB.Cs))2+( 2
N(XB.Cs)- 2Ψ(XB.Cs))2+…( nN(XB.Cs)- nΨ(XB.Cs
))2
) (12)
3 数值算例
考察4个微分方程算例来进行说明 算例1:
d2
Ψ(x)dx
+2xdΨ(x)dx+4(2eΨ(x)+eΨ
(x)/2)=0 其中求解的区间在[0,1] 该方程的边界条件Ψ
(0)=0,dΨ(x)dxx=0=0 该方程的解析解
Ψ
(x)=-2ln(1+x2
) 选择具有2个隐藏层,10个神经元,学习率为
0 001的3层神经网络进行模型训练
由图3可见,神经网络得到的近似解和解析解十分相似,平均误差在千分之一 为进一步说明神经网络的高精度特性,将真实模型的一阶导数和二阶导数与神经网络的一阶导数和二阶导数进行对比,对比图如图4所示,由图可看出神经网络近似解的一阶即二阶导数和真实解导数的误差也在千分之一 神经网络的精度比传统精度有着很大提升 为了验证模型的精度,在方程定义区间随机选取100个点样本进行测试验证,可看出测试样本的精度和解析解也是十分吻合,如图5所示
刘文慧,等:
基于人工神经网络的偏微分方程求解方法
图3 算例1训练模型和真实模型及其误差图
(a)神经网络训练和真实模型图;(b)
训练和真实模型误差图
马徐俊图4 算例1训练模型和真实模型一阶导及二阶导图
(a)神经网络训练和真实模型一阶导;(b)
神经网络训练和真实模型二阶导
图5 算例1测试模型和真实模型及其误差图
(a)神经网络测试和真实模型图;(b)测试和真实模型误差图
  算例2:
吸血鬼日记片尾曲
φ x2+ 2
φ
y2=0 边界条件:
φ(0,y)=0,φ
(1,y)=0,φ(x,0)=0,φ(x,1)=sin(πx),定义区间[0,1]×[0,1],方程解析解φ
(x,y)=1eπ
-e
-π
sin(πx)(eπy-e-π
)图6 算例2解析解和神经网络训练解图(a)真实模型图;(b)神经网络训练模型
内蒙古科技大学学报2021年3月 第40卷第1
图7 算例2解析解和神经网络训练解绝对误差图
算例3:考察二阶偏微分方程
φ
x2+ 2
φ y2-e-x(x-2+y3
+6y)=0 边界条件:
φ(0,y)=y3,φ
(1,y)=(1+y3)e-1
,φ(x,0)=xe-x,φ(x,1)=(1+x)e-x
,求解范围[0,1]×[0,1],方程解析解
φ
(x,y)=e-x(x+y3)
图8 算例3解析解和神经网络训练解图(a)真实模型图;(b)
神经网络训练模型
图9 算例3解析解和神经网络训练解绝对误差图
算例4考察二阶偏微分方程:
-( 2φ
x2+ 2
φ y2)+11+y φ
y=f(x,y)其中:
f(x,y)=(11+y-2
)ey-x
边界条件:
φ
(0,y)=ey+2-1(1+y)2
φ
炫耀英语
(1,y)=ey-1+2-1(1+y)2
i am me once more
φ(x,0)=e-x+2-1,φ(x,1)=e1-x+2求解范围[0,1]×[0,1],方程解析解为:φ
(x,y)=ey-x+2-1(1+y)
2图10 算例4解析解和神经网络训练解(a)真实模型图;(b)
神经网络训练模型
图11 算例4解析解和神经网络训练解绝对误差图
4 结论
采用神经网络方法对偏微分方程的求解提供了1种通用的解决方案 基于神经网络的方法与传统数值方法相比优势在于良好的泛化性以及高效的求解效率 通过4个算例充分说明神经网络方法能够精确的逼近微分方程的真实解 方法为微分方程的求解提供了新的解决方案 此外,将继续针对边界梯度较大的微分方程研究基于神经网络的求解方
metricton
刘文慧,等:基于人工神经网络的偏微分方程求解方法
参考文献:
[1] HAIRERE,WANNERG.SolvingordinarydifferentialequationsII[J].BulletinDesencesMathematiques,
1980,137(2):189.
[2] 李荣华.偏微分方程数值解法[M].2版.北京:高等教育出版社,2010.29.
[3] 王心宇,马良,蔡瑞.基于卷积神经网络的图像识别[J].工程技术研究,2018(4):101.
[4] 侯一民,李永平.基于卷积神经网络的孤立词语音识别[J].计算机工程与设计,2019,40(6):1751.
[5] 王芝辉,王晓东.基于神经网络的文本分类方法研究[J].计算机工程,2020,46(3):11.
[6] 李国庆,刘钊,金国彬,等.基于随机分布式嵌入框架及BP神经网络的超短期电力负荷预测[J].电网技
术,2020,44(2):437.
[7] 刘方,徐龙,马晓迅.BP神经网络的发展及其在化学化工中的应用[J].化工进展,2019,38(6):2559.
[8] 杨壮,武利,乔俊飞.基于GM RBF神经网络的污水环境预测[J].控制工程,2019,26(9):1728.[9] LAGARISIE,LIKASA.Artificialneuralnetworksforsolvingordinaryandpartialdifferntialequations[J].
IEEETransactionsonNeuralNetworks,1998,9(5):
987.
[10] JIANYUAL,SIWEIAL,YINGJIANAQ,etal.Nu mericalsolutionofellipticpartialdifferentialequationu
singradialbasisfunctionneuralnetworks[J].Neural
Networks,2003,16(5 6):729.
[11] NEJADHC,FARSHADM,KHAYATO,etal.Per formanceverificationofafuzzywaveletneuralnetworkin
thefirstorderpartialderivativeapproximationofnonlin
earfunctions[J].NeuralProcessingLetters,2016,43
(1):219.
[12] TANLS,ZAINUDDDINZ,ONGP.Waveletneuralnetworksbasedsolutionsforellipticpartialdifferentiale
quationswithimprovedbutterflyoptimizationalgorithm
training[J].AppliedSoftComputing,2020,9(95):
l开头的英文名106.
(责任编辑:李波)
Solvingpartialdifferentialequationbasedon全球中文成人
artificialneuralnetwork
LIUWenhui1,SHILin2,GUOYong2,YUANDongfang2
(1.InformationEngineeringSchool,InnerMongoliaUniversityofScienceandTechnology,Baotou014010,China;2.ScienceSchool,InnerMongoliaUniversityofScienceandTechnology,Baotou014010,China)
Abstract:Inthenumericalmethodsforsolvingvariousdifferentialequations,thetraditionalnumericalmethodshavetheproblemthatthecalculationstorageandcalculationtimeincreasesharplywiththeincreaseofthedimensionofthedifferentialequation,whichseri ouslyrestrictsthehigh dimensionalityproblemsolving.Herein,aneuralnetworkmethodwasproposedforsolvingpartialdifferentiale quations.Thenumericalexampleshowsthattheneuralnetworkmethodhastheadvantagesofhighefficiencyandgoodgeneralizationinsolvingdifferentialequations,providinganeffectivenewwayforsolvingpartialdifferentialequations.
Keywords:differentialequation;artificialneuralnetwork;numericalmethods;lossfunction

本文发布于:2023-06-01 23:43:14,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/90/130827.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:神经网络   方法   模型   求解   学习
相关文章
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图