第35卷第2期
2021年4月
江苏科技大学学报(自然科学版)
JournalofJiangsuUniversityofScienceandTechnology(NaturalScienceEdition)
Vol.35No2
Apr.2021
DOI:10.11917/j.issn.1673-4807.2021.02.008
一种基于改进GoogLeNet的油井故障识别方法
宋纯贺1,2,3,4,李泽熙4,5,于洪霞5,刘意杨1,2,3,4
,冯铁英6,张雪健6
(1.中国科学院沈阳自动化研究所机器人学国家重点实验室,沈阳110016)
(2.中国科学院网络化控制系统重点实验室,沈阳110016)
(3.中国科学院机器人与智能制造创新研究院,沈阳110169)
(4.中国科学院沈阳自动化研究所,沈阳110016)
(5.沈阳工业大学人工智能学院,沈阳110870)
(6.杭州西奥电梯有限公司,杭州311199)
摘 要:油井功图是油井工作状态分析和故障诊断的重要依据,深度学习为油井功图的识别提供了有效手段,针对合理的
深度神经网络架构的选择问题,构建了一个用于油井故障诊断的大型功图数据集,提出一种基于改进GoogLeNet网络结构
的油井故障识别方法,并对深度神经网络的结构、激活函数、归一化层、训练方法、学习率等重要参数对识别精度和训练时
间的影响进行了详细的分析.实验表明,相对于广泛使用的LeNet、ResNet和基本GoogLeNet等网络模型,提出的改进
GoogLeNet网络模型有着更高的准确率;同时相对于基本GoogLeNet网络模型,所提模型的运行时间得到了有效的降低.
关键词:故障识别;油井功图;深度学习;GoogLeNet
中图分类号:TP3914 文献标志码:A 文章编号:1673-4807(2021)02-052-07
收稿日期:2020-10-15 修回日期:2020-12-07
基金项目:国家重点研发计划项目(2018YFB1700200);国家自然科学基金资助项目(U1908212,61773368);兴辽英才项目(XLYC1907057)
作者简介:宋纯贺(1981—),男,研究员,博士,研究方向为边缘计算.Email:songchunhe@sia.cn
通信作者:刘意杨(1980—),男,研究员,博士,研究方向为智能控制与优化.Email:sialiuyiyang@sia.cn
引文格式:宋纯贺,李泽熙,于洪霞,等.一种基于改进GoogLeNet的油井故障识别方法[J].江苏科技大学学报(自然科学版),2021,35(2):
52-58.DOI:10.11917/j.issn.1673-4807.2021.02.008.
AnoilwellfaultidentificationmethodbasedonimprovedGoogLeNet
SONGChunhe1,2,3,4,LIZexi4,5,YUHongxia5,
LIUYiyang1,2,3,4
,FENGTieying6,ZHANGXuejian6
(1.StateKeyLaboratoryofRobotics,ShenyangInstituteofAutomation,ChineseAcademyofSciences,Shenyang110016,China)
(2.KeyLaboratoryofNetworkedControlSystems,ChineseAcademyofSciences,Shenyang110016,China)
(3.Instit春的寓意 utesforRoboticsandIntelligentManufacturing,ChineseAcademyofSciences,Shenyang110169,China)
(4.ShenyangInstituteofAutomation,ChineseAcademyofSciences,Shenyang110016,China)
(5.SchoolofArtificialIntelligence,ShenyangUniversityofTechnology,Shenyang110870,China)
(6.HangzhouXIOLIFTCo.Ltd.,Hangzhou311199,China)
Abstract:Oilwellpowerdiagramisveryimportantforoilwellworkingstateanalysisandfaultdiagnosis.Deep
learningprovidesaneffectivemeansforoilwellpowerdiagramanalysis,however,theoptimaldeepneuralnet
workarchitectureisdifficulttodetermine.Tosolvethisissue,first,alargepowerdiagramdatasetforoilwell
faultdiagnosisisconstructed,second,animprovedGoogLeNetstructureisproposedforoilwellfaultidentifica
tion.Meanwhile,theinfluenceofcorefactorsofadeepneuralnetwork,suchastheactivationfunction,thenor
malizationlayer,thetrainingmethod,andthelearningrateareanalyzed.Experimentalresultsshowthattheim
provedGoogLeNetnetworkmodelhashigheraccuracythanthewidelyusednetworkmodelssuchasLeNet,Res
Net,andbasicGoogLeNet.ComparedwiththebasicGoogLeNetnetworkmodel,therunningtimeofthepro
posedmodeliseffectivelyreduced.
Keywords:faultidentification,oilwelldiagram,deeplearning,GoogLeNet
目前油田主要采用的传统有杆抽油系统,一旦
系统出现故障,会造成采油成本增加、设备损坏,以
及采油量降低;如果发生事故,则可能引发严重的
人员和财产损失.因此设计可以及时且准确的识别
油井故障类型的解决方法,不但可以减少人力成
本,还可以提升油井的工作效率和安全性.文献
[1]将极限学习机的方法应用在有杆抽油机的故
障分析中,首先对示功图的特征进行提取,再利用
极限学习机进行故障分类.文献[2]使用傅里叶变
换的方式对功图进行特征提取,再使用径向基神经
网络对提取的特征进行故障分类.上述方法虽然可
以解决抽油井故障诊断的问题,但是存在训练时间
长,准确率不高,参数设置复杂等问题.
深度学习的发展极大地推动了智能识别技术,
目前深度学习模型已经被应用到油井功图故障识
别问题之中[3-5],但仍然存在数据量少、模型识别
精度不高的问题.在深度学习的理论基础上,文中
提出了一种基于改进GoogLeNet网络结构的油井
故障识别方法.实验证明,采用改进的GoogLeNet
网络结构,识别故障准确率为9605%,相对于基
于LeNet、ResNet,以及基本GoogLeNet等网络的识
别方法,识别准确率有了明显的提升.
1 油田功图数据集的构建
11 示功图样本预处理
文中数据来自辽河油田,其中包含了53个油
井,从2019年9月~2019年11月这3个月的油井
工况数据.数据包括了井号、数据采集时间、位移、
载荷、油管内径、油压等重要数据.考虑到泵工图能
够更加准确地表示抽油机的工作装填,因此将悬点
示功图转换为地层抽油泵处的泵功图.泵功图的横
坐标为位移数据,数据量为200个;纵坐标为载荷
数据,数据量为200个,图像形状为不规则的闭合
曲线.此后对功图进行标准化处理,生成224像素
224像素大小的标准示功图.
12 示功图样本的选择
在辽河油担子的意思 田得到的大量数据中,选择具有代表
性且已经完成标准化处理的大小为224像素224
像素的示功图作为样本.每一种工况类型对应
1050张样本数据图像,一共11种工况,总计
11550张图像.每种功图的典型图像如图1.
2 GoogLeNet及其改进思路
卷积神经网络的应用十分广泛,在图像识别,
计算机视觉[6-7],人脸识别[8-9]等方面有着重要作
用.卷积神经网络是一种深度学习模型,同时也是
一种类似于人工神经网络的多层感知器,常用于分
析视觉图像,进行语义识别.卷积神经网络[10]一般
包含数据输入层,卷积层,池化层,归一化层,全连
接层[11]等.目前常用的卷积神经网络架构包括
VGG、GoogleNet、ResNet等,文中比较各种常用深
度学习网络模型在油井功图故障识别数据集的性
能,选择了GoogLeNet作为基本网络架构,并进行
了相应的改进.
图1 11种工况的示功图
Fig.1 Indicatordiagramsof11workingconditions
GoogLeNet[12]采用模块化的结构,即Inception
结构,如图2.GoogLeNet网络结构模型有22层,由
21层卷积层,1层全连接层和2个额外的辅助分类
器层所组成.文中对GoogLeNet网络结构模型进行
改进,使得该网络结构模型更加适合需求.其主要
的改进体现在:
①
去掉额外的两个辅助分类器部
分,减少网络复杂程度,提升网络训练速度;
②
加
入CN归一化层;
③
在每一层卷积层之后加入激活
函数,使用ReLu激活函数和ELU激活函数,进一
步提升网络训练速度和准确率;
④
在平均池化层
后加入三层全连接层;
⑤
在三层全连接层后加入
Dropout层.
35第2期 宋纯贺,等:一种基于改进GoogLeNet的油井故障识别方法
图2 Block部分的结构
Fig.2 StructureofBlock
GoogLeNet要求原始输入图像像素大小为
2242243,且都需要进行预处理操作,使用7
7的卷积核,进行特征提取,卷积核的滑动步长为
2,填充宽度为3,卷积后进行ReLU操作,再经过
33的maxpooling层,其步长为2,再进行ReLU
操作.使用33的卷积核再次进行特征提取,卷积
核的滑动步长为1,填充宽度为1,卷积后进行Re
LU操作,经过33的maxpooling,其步长为2,再
进行ReLU操作,从而分析浅层的特征提取网络.
分析深层网络中含有Inception结构的部分,由于
Inception结构都是一样的,文中只分析第一个In
ception结构部分,其他部分同理.每一个Inception
结构分为4个分支,采用不同尺度的卷积核来进行
处理第一个分支为11的卷积核,然后进行ELU
操作.第二个分支为11的卷积核,它作为33
卷积核之前的降维,进行ELU操作,再进行33
的卷积,其填充宽度为1,进行ELU操作.第三个分
支为11的卷积核,它作为55卷积核之前的降
维,进行ELU操作,再进行55的卷积其填充宽
度为2,进行ELU操作.第四个分支为33的池
化,其填充宽度为2,再进行11的卷积,进行
ELU操作,最后将这4个分支连接在一起.在相同
的Inception结构之后进行77的平均池化层,3
个全连接层,将最后一层全连接层的参数设置为该
实验所需要的11,连接softmax分类器进行分类.
3 实验方法与结果分析
实验采用搭载了win10操作系统的64位笔记
本电脑,处理器为Inteli5-10210U@21GHz,
GPU为NVIDIAGeForceMX350,运行内存为16G,
操作软件为MATLAB2020A.
31 训练集与测试集比例的选择
训练集与测试集的选择是影响最终识别准确
率的重要因素(表1).训练集占比过高可能导致过
拟合现象,测试集占比过高会导致由于训练集数据
量致使模型欠拟合.
表1 训练集与测试集比例对准确率的影响
Table1 Impactoftheratiooftrainingset
totestsetonaccuracy
训练集∶测试集准确率/%
9∶19088
8∶29041
7∶39058
6∶48989
5∶58842
从表1可以看出:当训练集与测试集比例为
9∶1时其准确率最高,但是训练集比例大,测试集
比例小导致训练的图像过多,用来进行测试的图像
数量过少,不具有普遍代表性.所以选择训练集与
测试集比例为7∶3,作为实验的最终选择.
32 归一化层的选择
神经网络学习过程的本质就是为了学习数据
分布,如果没有做归一化处理,那么每一批次训练
数据的分布不一样,从大的方向上看,神经网络需
要在这多个分布中找到平衡点,从小的方向上看,
由于每层网络输入数据分布在不断变化,这也会导
致每层网络都在寻找平衡点,显然,神经网络就很
难收敛了,所以需要在神经网络的中间层加入归一
化处理.
321 批量归一化层(BatchNormalization,BN)
BN是优化深度神经网络中最激动人心的最新
创新之一[13].大量数据表明,BN在CNN上改进效
果很显著,具有加快模型收敛速度,增强模型泛化
能力的优点,但同时也存在一些缺点,如:对于有些
像素级图片的生成任务来说,BN效果不佳;对于
图片分类等任务,只要能够找出关键特征,就能正
确分类,这算是一种粗力度的任务,因为在Mini-
Batch内多张无关的图片之间计算统计量,弱化了
单张图片本身特有的一些细节信息.
322 通道归一化层(channelwisenormalization,
CN)
文中使用了更细力度的归一化方法,channel
wisenormalization(channelnorm)[14],该方法在每
层的channel维度上,使用最大的激活值对权值进
行归一化,其公式为:
槇
wl
i,j
=wl
i,j
l-1
i
l
j
(1)
l
j
=max(Al
j
)(2)
槇
bl
j
=
bl
j
l
j
(3)
45
江苏科技大学学报(自然科学版)2021年
式中:i和j为维度下标;l为层数;w为权值;b为偏
差;A为激活矩阵l层权值w通过在每个channel
使用最大激活值
l
j
进行归一化,该值依然是从训
练集计算的.对于非首层中,归一化的激活值必须
乘上
l-1
i
来将输入还原为上一层归一化前的值,
再进行本层的归一化,不然传递的信息会越来越
小.channelwisenormalization的归一化方法能够消
除激活值过小的问题,即得到更高但合适的发射频
率,从而更准确地传递信息.图3和表2中给出归
一化方法对训练过程的影响,可以看出,使用BN
归一化层和CN归一化层之后训练集准确率都达
到100%,说明了这两种归一化方法真实有效.使
用BN归一化层之后其验证集准确率提升了
197%,而使用CN归一化层之后其验证集准确率
提升了203%,因此文中选择使用CN归一化层.
图3 归一化层对于准确率的影响
Fig.3 Effectofnormalizationlayeronaccuracy
表2 使用不同归一化层对准确率的影响
Table2 Effectofusingdifferentnormalization
layersonaccuracy
归一化层的选择训练集准确率/%验证集准确率/%
未加入归一化层96889058
使用BN归一化层1009255
使用CN归一化层1009261
33 学习率的选择
学习率的选择是本实验中的重点问题之一,选
取一个好的学习率可以使训练过程高效准确,因此
使用了Adam优化器.
Adam优化器[15]是一种结合了AdaGrad和
RMSProp两种优化算法的优点的自适应调节学习
率的优化器.AdaGrad能够对每个不同的参数调整
不同的学习率,对频繁变化的参数以更小的步长进
行更新,而稀疏的参数以更大的步长进行更新[16].
RMSProp算法结合梯度平方的指数移动平均数来
调节学习率的变化,能够在不稳定的目标函数情况
下进行很好地收敛[17].Adam优化器主要包含以下
几个显著的优点:实现简单,计算高效,对内存需求
少,参数的更新不受梯度的伸缩变换影响,超参数
具有很好的解释性,且通常无需调整.通常设置参
数为
1
=0.9,
2
=0.999,
=10-8,
=00001[15].
其公式如下:
g
t
=
f+
t-1
(4)
m
t
=
1
m
t-1
+(1-
1
)g
t
(5)
v
t
=
2
v
t-1
+(1-
2
)g2
t
(6)
m
^
t
=m
t
/(1-
t
1
)(7)
v
^
t
=v
t
/(1-
t
2
)(8)
t
=
t-1
-
m
^
t
/v
^
t
+槡
(9)
式中:
f为被优化函数f关于Q的梯度值;
1
为
指数衰减率,控制动量与当前梯度的权重分配,默
认为09;
2
为指数衰减率,控制之前的梯度平方
的影响情况,类似于RMSProp算法对梯度的平方
进行加权均值,默认为0999;g
t
为梯度;m
t
为一阶
矩的估计;v
t
为二阶矩;m
^
t
和v
^
t
是对m
t
和v
t
的校
正;
t
为梯度下降,梯度由一阶矩和二阶矩的估
计[18].
从表3和图4看出,在未使用Adam优化器时,
最优学习率
=0001,这时验证集准确率为
9309%,采用Adam优化器之后验证集准确率能达
到9418%,提升了109%.因此,Adam优化器适合
文中训练模型,且对准确率有一定的改进效果.
表3 使用不同学习率对准确率的影响
Table3 Effectofusingdifferent
learningratesonaccuracy
学习率训练集准确率/%验证集准确率/%
=000011009261
=00011009309
=0011009234
Adam优化器1009418
图4 使用Adam优化器对准确率的影响
Fig.4 EffectofusingAdamoptimizeronaccuracy
34 激活函数的选择
在基本神经网络中,通常使用的激活函数为
55第2期 宋纯贺,等:一种基于改进GoogLeNet的油井故障识别方法
Sigmoid函数或者tanh函数.但由于其容易产生梯度
爆炸和梯度消失等问题,逐渐被ReLu函数及其改进
函数所替代,例如ELU函数、LeakyReLu函数等.
341 ReLu激活函数
ReLu激活函数的公式为:
ReLu=max(0,x)(10)
可以看到,ReLu函数是一个在特定区间取最
大值的函数[19],其收敛速度远快于Sigmoid函数和
tanh函数,而且计算速度快.
342 ELU激活函数
ELU激活函数的公式为:
f(x)=
x ifx>0
(ex-1){其他
(11)
ELU激活函数是一种修正类的激活函数,当
其输入值大于0时,其处理方式类似于ReLu激活
函数;但是当输入值小于0时,ELU激活函数输出
为接近于0的负值安全行车心得体会 ,只需要极少的运算量,使计算
速度相比于ReLu激活函数更快,且这部分输出具
有一定的抗干扰能力,从而可以消除ReLu激活函
数导致网络“死掉”的问题.
343 ReLu+ELU激活函数
文中将ReLu激活函数应用在GoogLeNet模型
的浅层网络结构,再将ELU激活函数应用在
GoogLeNet模型的深层网络结构.
从表4可以看出,采用Sigmo个人租房合同协议书 id和tanh作为激
活函数时,识别的准确率最低,并且运行时间最长.
而其他的激活函数,如ReLu、ELU、softplus、
leakyRelu,都在一定程度上提升了准确率.在组合方
案中,在准确率方面,ReLu+ELU>ReLu+softplus>
ReLu+leakyRelu,而在训练时间方面,ReLu+
leakyRelu<ReLu+ELU<ReLu+softplus.综合考虑
准确度和总运行时间,文中选择ReLu+ELU作为
激活函数.
表4 使用不同激活函数对准确率和运行时间的影响
Table4 Effectofusingdifferentactivationfunctions
onaccuracyandrunningtime
方案
训练集
准确率/%
验证集
准确率/%
总运行
时间/min
ReLu10094186053
Tanh941283326233
Sigmoid901180986547
ELU10094784201
softplus10094084311
leakyRelu10094615534
ReLu+Elu10095072732
ReLu+softplus10094英语阅读文章 953127
ReLu+leakyRelu10092132037
35 网络层数的增加与修改
351 改变全连接层数
在GoogLeNet网络结构中,经多个卷积层和激
活层后,连接着1个或1个以上的全连接层.全连
接层中的每个神经元与其前一层的所有神经元进
行全连接.全连接层可以整合卷积层或者池化层中
具有类别区分性的局部信息,适当增加全连接层的
层数,会提升模型的准确率.
从表5可以看出全连接层的层数进行适当地
增加确实可以增强识别的准确率,但是不建议全连
接层的层数超过4层.单纯的增加全连接的层数不
一定会增强识别的准确率,有的时候可能会导致相
反的情况出现,还会使得训练时间变长.
表5 全连接层层数对准确率的影响
Table5 Effectofthenumberoffully
connectedlayersonaccuracy
全连接层层数训练集准确率/%验证集准确率/%
一层全连接1009507
二层全连接1009564
三层全连接1009579
352 加入Dropout层
当网络结构过于复杂且数据量又比较少的时
候,会出现过拟合现象.Dropout层的直接作用是减
少中间特征的数量,从而减少冗余,即增加每层各个
特征之间的正交性.在神经网络训练每次迭代过程
中,Dropout层随机扔掉一些神经元.该神经元对应
的权重即保持上一步不变,其他的权重即更新,消除
减弱了神经元节点间的联合适应性,增强了泛化能
力,这样就可以避免局部最优和过拟合等问题[20].
从表6可以看出加入Dropout层对准确率有着
一定程度地提升,避免过拟合现象和陷入局部最优
的问题.改进Dropout层丢弃神经元的比例也对结
果有着一定的影响,一般选择隐含节点Dropout率
等于04~06,但经过交叉验证,隐含节点Dropout
率等于05的时候效果最好,原因是05的时候
Dropout随机生成的网络结构最多.
表6 加入并改变Dropout层比例对准确率的影响
Table6 Efectofaddingandchangingtheratioof
theDropoutlayeronaccuracy
Dropout层训练集准确率/%验证集准确率/%
无Dropout1009559
Dropout=041009579
Dropout=051009605
Dropout=061009576
Dropout=081009570
65
江苏科技大学学报(自然科学版)2021年
36 结果分析
使用多种不同的网络结构模型进行对比实验,
包括:LeNet,DarkNet-19,ResNet-18,DenseNet-
201,MobileNet,SqueezeNet,Shufflent,VGG-16,
GoogLeNet,其迭代次数统一设定为500次.从表7
可以看出DenseNet-201网络结构最复杂,是所有
网络结构模型中层数最多的,达到了201层,但是其
识别效果并不好,这说明了不是网络的层数越深,识
别的准确率就越高.对比MobileNet,SqueezeNet,
Shufflent这3种轻量级网络结构模型,其运行时间
都要短于其他网络结构,但是准确率不达标所以不
予考虑.在对比GoogLeNet,LeNet,DarkNet-19,Res
Net-18这4种经典的网络结构模型中,可以看出
GoogLeNet网络结构模型其个方面性能都要更优越,
所以选择GoogLeNet网络结构模型作为本实验的基
础,通过对原始GoogLeNet网络结构模型的改进得
出的改进GoogLeNet网络结构模型无论从准确率,
还是运行时间都要明显好于其他网络结构模型.在
油井功图故障识别问题上,文中网络模型具有高效
率,高准确率等优点,避免了由于人工识别功图故障
容易产生误判的问题,同时也避免了因为不能及时
识别油井故障而造成的经济损失.
表7 不同网络结构对准确率的影响
Table7 TheimpactofdifferentNetwork
structuresonaccuracy
网络结构
训练集
准确率/%
验证集
准确率/%
运行
时间/min
LeNet731250122253
DarkNet-19911288325633
ResNet-18901186985447
DenseNet9812900116789
MobileNet901689083111
SqueezeNet931290553034
Shufflent951287073014
VGG-1610089935219
GoogLeNet10090586053
改进的GoogLeNet10096052732
4 结论
针对抽油井故障类型识别问题,使用改进的
GoogLeNet网络结构,结论如下:
(1)在原始GoogLeNet网络结构中加入CN归
一化层,使其识别准确率提升203%.
(2)使用Adam优化器自适应调整学习率,使
其准确率提升157%.
(3)将ReLu和ELU激活函数混合使用,从大
幅提升训练时间,速度提高了122%,准确率提升
089%.
(4)改进网络层数:加入三层全连接层,加入
Dropout层(Dropout率为05),准确率提升
046%.
改进后的GoogLeNet网络结构识别准确率达
到了9605%,运行时间达到了2732min.可以看
出改进的GoogLeNet网络结构具有更加高效,准确
的优点,且具有更好的鲁棒性.在抽油井故障诊断
问题中给出了一个实用的解决方法.
参考文献(References)
[1] 侯延彬,陈炳均,高宪文.基于GM-ELM的有杆
泵抽油井故障诊断[J].东北大学学报(自然科学
版),2019,40(12):1673-1678.DOI:10.12068/j.
issn.1005-3026.2019.12.001.
HOUYanbin,CHENBingjun,GAOXianwen.Fault
diagnosisofsuckerrodpumpingwellsbasedonGM-
ELM[J].JournalofNortheasternUniversity(Natural
Science)2019,40(12):1673-1678.DOI:10.
12068/j.issn.1005-3026.2019.12.001.(inChi
nese)
[2] 李晓亮.基于自适应UKF-RBF神经网络的抽油机
故障诊断研究[D].重庆:重庆科技学院,2018.
[3] 于德亮,刘冬,孙浩,等.基于PSO-ELM模型的潜
油柱塞泵冲次优化方法[
J].信息与控制,2019,48
(4):459-468.DOI:10.13976/j.cnki.xk.2019.
8462.
YUDeliang,LIUDong,SUNHao,etal.Submersible
oilplungerpumpimpulseoptimizationstudybasedon
PSO-ELMmodel[J].InformationandControl,2019,
48(4):459-468.DOI:10.13976/j.cnki.xk.2019.
8462.(inChinese)
[4] 刘志刚,许少华,李盼池,等.基于极限学习离散过
程神经网络的示功图识别[J].信息与控制,2016,
45(5):627-633.DOI:10.13976/j.cnki.xk.2016.
0627.
LIUZhigang,XUShaohua,LIPanchi,etal.Indicator
diagramrecognitionbasedonextremelearningdiscrete
processneuralnetworks[J].InformationandControl,
2016,45(5):627-633.DOI:10.13976/j.cnki.xk.
2016.0627.(inChinese)
[
5] 王兵,许少华,孟耀华.基于半监督竞争学习过程神
经网络的抽油机故障诊断[J].信息与控制,2014,
43(2):235-240.DOI:10.3724/SP.J.1219.2014.
00235.
WANGBing,XUShaohua,MENGYaohua.Fa极限误差 ultdiag
nosisofpumpingunitbasedonsemisupervisedcom
petitivelearningprocessneuralnetwork[J].Informa
75第2期 宋纯贺,等:一种基于改进GoogLeNet的油井故障识别方法
tionandControl,2014,43(2):235-240.DOI:10.
3724/SP.J.1219.2014.00235.(inChinese)
[6] 张荣,李伟平,莫同.深度学习研究综述[J].信息与
控制,2018,47(4):385-397,410.DOI:10.13976/j.
cnki.xk.2018.8091.
ZHANGRong,LIWeiping,MOTong.Reviewofdeep
learning[J].人生的说说 InformationandControl,2018,47(4):
385-397,410.DOI:10.13976/j.cnki.xk.2018.
8091.(inChinese)
[7] 全红艳,王长波,林俊隽.基于视觉的增强现实技术
研究综述[J].机器人,2008,30(4):379-384.DOI:
10.3321/j.issn:1002-0446.2008.04.014.
QUANYanhong,WANGChangbo,LINYongjun.Sur
veyofvisionbasedaugmentedrealitytechnologies[J].
Robot,2008,30(4):379-384.DOI:10.3321/j.
issn:1002-0446.2008.04.014.(inChinese)
[8] 王卫东,郑宇杰,杨静宇.智能分类器方法[J].江苏
科技大学学报(自然科学版),2007,21(1):42-47.
DOI:10.3969/j.issn.1673-4807.2007.01.010.
WANGWeidong,ZHENGYujie,YANGJingyu.In
telligenceclassifiermethod[J].JournalofJiangsuU
niversityofScienceandTechnology(NaturalScience
Edition),2007,21(1):42-47.DOI:10.3969/j.
issn.1673-4807.2007.01.010.(inChinese)
[9] 程实,陈晓勇,沐燕舟,等.嵌入式人脸检测摄像机
的开发与应用研究[J].江苏科技大学学报(自然科
学版),2017,31(6):781-786.DOI:10.3969/j.
issn.1673-4807.2017.06.016.
CHENGShi,CHENXiaoyong,MUYanzhou,etal.
Researchondevelopmentandapplicationofembedded
facedetectioncameras[J].JournalofJiangsuUniver
sityofScienceandTechnology(NaturalScienceEdi
tion),2017,31(6):781-786.DOI:10.3969/j.issn.
1673-4807.2017.06.016.(inChinese)
[10] LECUNY,BOTTOUL,BENGIOY.Readingchecks
withmuitilayergraphtransformernetworks[C]
∥
Pro
ceedingsofthe1997IEEEInternationalConferenceon
Acoustics,Speech,andSignalProcessing(ICASSP′
97).NWWashington,DC,UnitedStates:IEEE,
1997,1:15l-154.
[11] LONGJ,SHELHAMERE,DARRELLT.Fullyconv
olutionalnetworksforsemanticsegmentation[J].
IEEETransactionsonPatternAnalysisandMachine
Intelligence,2015,39(4):3431-3440.DOI:10.
1109/CVPR.2015.7298965.
[12] SZEGEDYChristian,LIUWei,JIAYangqing,etal.
Goingdeeperwithconvolutions[C]
∥
2015IEEECon
ferenceonComputerVisionandPatternRecognition
(CVPR).Boston,MA,USA:IEEE,2015:1-9.
DOI:10.1109/CVPR.2015.7298594.
[13] HUANGL,YANGD,LANGB,etal.Decorrelated
batchnormalization[C]
∥
2018IEEE/CVFConference
onComputerVisionandPatternRecognition.SaltLake
City,UT,USA:IEEE,2018:791-800.DOI:10.
1109/CVPR.2018.00089.
[14] KIMSeijoon,PARKSeongsik,NAByunggook.Spi
king-YOLO:spikingneuralnetworkforenergyeffi
cientobjectdetection[C]
∥
AAAITechnicalTrack:
Vision,2020,34(7):938-951.DOI:10.1609/aaai.
v34i07.6787.
[15] YID,AHNJ,JIS.Aneffectiveoptimizationmethod
formachinelearningbasedonADAM[J].Applied
Sciences,2020,10(3):1073.DOI:10.3390/
app10031073.
[16] DUCHIJ,HAZANE,SINGERY.Adaptivesubgradi
entmethodsforonlinelearningandstochasticoptimiza
tion[J].JournalofMachineLearningResearch,
2011,12(7):2121-2159.DOI:10.1109/TNN.
2011.2146788.
[17] ZOUF,SHENL,JIEZ,etal.Asufficientcondition
forconvergencesofadamandrmsprop[C]
∥
2019
IEEE/CVFConferenceonComputerVisionandPattern
Recognition(CVPR).LongBeach,CA,USA:IEEE,
2019:11127-11135.DOI:10.1109/CVPR.2019.
01138.
[18] 高子翔.基于多尺度池化的卷积神经网络图像分类
方法研究[D].包头:内蒙古科技大学,2019.
[19] SHAMIRO.Discussionof:"Nonparametricregression
usingdeepneuralnetworkswithReLUactivationfunc
tion"[J].TheAnnalsofStatistics,48(4):1911-
1915.DOI:10.1214/19-AOS1915.
[20] 韩梦娇.基于选择性区域丢弃的dropout方法研究
与实现[D].成都:电子科技大学,2020.
(责任编辑:曹莉)
85
江苏科技大学学报(自然科学版)2021年
本文发布于:2023-03-26 03:47:38,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/1679773661389806.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:于进.doc
本文 PDF 下载地址:于进.pdf
留言与评论(共有 0 条评论) |