于进

更新时间:2023-03-26 03:47:41 阅读: 评论:0

管人理事-古琴曲欣赏

于进
2023年3月26日发(作者:求婚现场布置)

第35卷第2期

2021年4月

江苏科技大学学报(自然科学版)

JournalofJiangsuUniversityofScienceandTechnology(NaturalScienceEdition)

Vol.35No2

Apr.2021

DOI:10.11917/j.issn.1673-4807.2021.02.008

一种基于改进GoogLeNet的油井故障识别方法

宋纯贺1,2,3,4,李泽熙4,5,于洪霞5,刘意杨1,2,3,4

,冯铁英6,张雪健6

(1.中国科学院沈阳自动化研究所机器人学国家重点实验室,沈阳110016)

(2.中国科学院网络化控制系统重点实验室,沈阳110016)

(3.中国科学院机器人与智能制造创新研究院,沈阳110169)

(4.中国科学院沈阳自动化研究所,沈阳110016)

(5.沈阳工业大学人工智能学院,沈阳110870)

(6.杭州西奥电梯有限公司,杭州311199)

摘 要:油井功图是油井工作状态分析和故障诊断的重要依据,深度学习为油井功图的识别提供了有效手段,针对合理的

深度神经网络架构的选择问题,构建了一个用于油井故障诊断的大型功图数据集,提出一种基于改进GoogLeNet网络结构

的油井故障识别方法,并对深度神经网络的结构、激活函数、归一化层、训练方法、学习率等重要参数对识别精度和训练时

间的影响进行了详细的分析.实验表明,相对于广泛使用的LeNet、ResNet和基本GoogLeNet等网络模型,提出的改进

GoogLeNet网络模型有着更高的准确率;同时相对于基本GoogLeNet网络模型,所提模型的运行时间得到了有效的降低.

关键词:故障识别;油井功图;深度学习;GoogLeNet

中图分类号:TP3914 文献标志码:A 文章编号:1673-4807(2021)02-052-07

收稿日期:2020-10-15 修回日期:2020-12-07

基金项目:国家重点研发计划项目(2018YFB1700200);国家自然科学基金资助项目(U1908212,61773368);兴辽英才项目(XLYC1907057)

作者简介:宋纯贺(1981—),男,研究员,博士,研究方向为边缘计算.Email:songchunhe@sia.cn

通信作者:刘意杨(1980—),男,研究员,博士,研究方向为智能控制与优化.Email:sialiuyiyang@sia.cn

引文格式:宋纯贺,李泽熙,于洪霞,等.一种基于改进GoogLeNet的油井故障识别方法[J].江苏科技大学学报(自然科学版),2021,35(2):

52-58.DOI:10.11917/j.issn.1673-4807.2021.02.008.

AnoilwellfaultidentificationmethodbasedonimprovedGoogLeNet

SONGChunhe1,2,3,4,LIZexi4,5,YUHongxia5,

LIUYiyang1,2,3,4

,FENGTieying6,ZHANGXuejian6

(1.StateKeyLaboratoryofRobotics,ShenyangInstituteofAutomation,ChineseAcademyofSciences,Shenyang110016,China)

(2.KeyLaboratoryofNetworkedControlSystems,ChineseAcademyofSciences,Shenyang110016,China)

(3.Instit春的寓意 utesforRoboticsandIntelligentManufacturing,ChineseAcademyofSciences,Shenyang110169,China)

(4.ShenyangInstituteofAutomation,ChineseAcademyofSciences,Shenyang110016,China)

(5.SchoolofArtificialIntelligence,ShenyangUniversityofTechnology,Shenyang110870,China)

(6.HangzhouXIOLIFTCo.Ltd.,Hangzhou311199,China)

Abstract:Oilwellpowerdiagramisveryimportantforoilwellworkingstateanalysisandfaultdiagnosis.Deep

learningprovidesaneffectivemeansforoilwellpowerdiagramanalysis,however,theoptimaldeepneuralnet

workarchitectureisdifficulttodetermine.Tosolvethisissue,first,alargepowerdiagramdatasetforoilwell

faultdiagnosisisconstructed,second,animprovedGoogLeNetstructureisproposedforoilwellfaultidentifica

tion.Meanwhile,theinfluenceofcorefactorsofadeepneuralnetwork,suchastheactivationfunction,thenor

malizationlayer,thetrainingmethod,andthelearningrateareanalyzed.Experimentalresultsshowthattheim

provedGoogLeNetnetworkmodelhashigheraccuracythanthewidelyusednetworkmodelssuchasLeNet,Res

Net,andbasicGoogLeNet.ComparedwiththebasicGoogLeNetnetworkmodel,therunningtimeofthepro

posedmodeliseffectivelyreduced.

Keywords:faultidentification,oilwelldiagram,deeplearning,GoogLeNet

目前油田主要采用的传统有杆抽油系统,一旦

系统出现故障,会造成采油成本增加、设备损坏,以

及采油量降低;如果发生事故,则可能引发严重的

人员和财产损失.因此设计可以及时且准确的识别

油井故障类型的解决方法,不但可以减少人力成

本,还可以提升油井的工作效率和安全性.文献

[1]将极限学习机的方法应用在有杆抽油机的故

障分析中,首先对示功图的特征进行提取,再利用

极限学习机进行故障分类.文献[2]使用傅里叶变

换的方式对功图进行特征提取,再使用径向基神经

网络对提取的特征进行故障分类.上述方法虽然可

以解决抽油井故障诊断的问题,但是存在训练时间

长,准确率不高,参数设置复杂等问题.

深度学习的发展极大地推动了智能识别技术,

目前深度学习模型已经被应用到油井功图故障识

别问题之中[3-5],但仍然存在数据量少、模型识别

精度不高的问题.在深度学习的理论基础上,文中

提出了一种基于改进GoogLeNet网络结构的油井

故障识别方法.实验证明,采用改进的GoogLeNet

网络结构,识别故障准确率为9605%,相对于基

于LeNet、ResNet,以及基本GoogLeNet等网络的识

别方法,识别准确率有了明显的提升.

1 油田功图数据集的构建

11 示功图样本预处理

文中数据来自辽河油田,其中包含了53个油

井,从2019年9月~2019年11月这3个月的油井

工况数据.数据包括了井号、数据采集时间、位移、

载荷、油管内径、油压等重要数据.考虑到泵工图能

够更加准确地表示抽油机的工作装填,因此将悬点

示功图转换为地层抽油泵处的泵功图.泵功图的横

坐标为位移数据,数据量为200个;纵坐标为载荷

数据,数据量为200个,图像形状为不规则的闭合

曲线.此后对功图进行标准化处理,生成224像素

224像素大小的标准示功图.

12 示功图样本的选择

在辽河油担子的意思 田得到的大量数据中,选择具有代表

性且已经完成标准化处理的大小为224像素224

像素的示功图作为样本.每一种工况类型对应

1050张样本数据图像,一共11种工况,总计

11550张图像.每种功图的典型图像如图1.

2 GoogLeNet及其改进思路

卷积神经网络的应用十分广泛,在图像识别,

计算机视觉[6-7],人脸识别[8-9]等方面有着重要作

用.卷积神经网络是一种深度学习模型,同时也是

一种类似于人工神经网络的多层感知器,常用于分

析视觉图像,进行语义识别.卷积神经网络[10]一般

包含数据输入层,卷积层,池化层,归一化层,全连

接层[11]等.目前常用的卷积神经网络架构包括

VGG、GoogleNet、ResNet等,文中比较各种常用深

度学习网络模型在油井功图故障识别数据集的性

能,选择了GoogLeNet作为基本网络架构,并进行

了相应的改进.

图1 11种工况的示功图

Fig.1 Indicatordiagramsof11workingconditions

GoogLeNet[12]采用模块化的结构,即Inception

结构,如图2.GoogLeNet网络结构模型有22层,由

21层卷积层,1层全连接层和2个额外的辅助分类

器层所组成.文中对GoogLeNet网络结构模型进行

改进,使得该网络结构模型更加适合需求.其主要

的改进体现在:

去掉额外的两个辅助分类器部

分,减少网络复杂程度,提升网络训练速度;

入CN归一化层;

在每一层卷积层之后加入激活

函数,使用ReLu激活函数和ELU激活函数,进一

步提升网络训练速度和准确率;

在平均池化层

后加入三层全连接层;

在三层全连接层后加入

Dropout层.

35第2期 宋纯贺,等:一种基于改进GoogLeNet的油井故障识别方法

图2 Block部分的结构

Fig.2 StructureofBlock

GoogLeNet要求原始输入图像像素大小为

2242243,且都需要进行预处理操作,使用7

7的卷积核,进行特征提取,卷积核的滑动步长为

2,填充宽度为3,卷积后进行ReLU操作,再经过

33的maxpooling层,其步长为2,再进行ReLU

操作.使用33的卷积核再次进行特征提取,卷积

核的滑动步长为1,填充宽度为1,卷积后进行Re

LU操作,经过33的maxpooling,其步长为2,再

进行ReLU操作,从而分析浅层的特征提取网络.

分析深层网络中含有Inception结构的部分,由于

Inception结构都是一样的,文中只分析第一个In

ception结构部分,其他部分同理.每一个Inception

结构分为4个分支,采用不同尺度的卷积核来进行

处理第一个分支为11的卷积核,然后进行ELU

操作.第二个分支为11的卷积核,它作为33

卷积核之前的降维,进行ELU操作,再进行33

的卷积,其填充宽度为1,进行ELU操作.第三个分

支为11的卷积核,它作为55卷积核之前的降

维,进行ELU操作,再进行55的卷积其填充宽

度为2,进行ELU操作.第四个分支为33的池

化,其填充宽度为2,再进行11的卷积,进行

ELU操作,最后将这4个分支连接在一起.在相同

的Inception结构之后进行77的平均池化层,3

个全连接层,将最后一层全连接层的参数设置为该

实验所需要的11,连接softmax分类器进行分类.

3 实验方法与结果分析

实验采用搭载了win10操作系统的64位笔记

本电脑,处理器为Inteli5-10210U@21GHz,

GPU为NVIDIAGeForceMX350,运行内存为16G,

操作软件为MATLAB2020A.

31 训练集与测试集比例的选择

训练集与测试集的选择是影响最终识别准确

率的重要因素(表1).训练集占比过高可能导致过

拟合现象,测试集占比过高会导致由于训练集数据

量致使模型欠拟合.

表1 训练集与测试集比例对准确率的影响

Table1 Impactoftheratiooftrainingset

totestsetonaccuracy

训练集∶测试集准确率/%

9∶19088

8∶29041

7∶39058

6∶48989

5∶58842

从表1可以看出:当训练集与测试集比例为

9∶1时其准确率最高,但是训练集比例大,测试集

比例小导致训练的图像过多,用来进行测试的图像

数量过少,不具有普遍代表性.所以选择训练集与

测试集比例为7∶3,作为实验的最终选择.

32 归一化层的选择

神经网络学习过程的本质就是为了学习数据

分布,如果没有做归一化处理,那么每一批次训练

数据的分布不一样,从大的方向上看,神经网络需

要在这多个分布中找到平衡点,从小的方向上看,

由于每层网络输入数据分布在不断变化,这也会导

致每层网络都在寻找平衡点,显然,神经网络就很

难收敛了,所以需要在神经网络的中间层加入归一

化处理.

321 批量归一化层(BatchNormalization,BN)

BN是优化深度神经网络中最激动人心的最新

创新之一[13].大量数据表明,BN在CNN上改进效

果很显著,具有加快模型收敛速度,增强模型泛化

能力的优点,但同时也存在一些缺点,如:对于有些

像素级图片的生成任务来说,BN效果不佳;对于

图片分类等任务,只要能够找出关键特征,就能正

确分类,这算是一种粗力度的任务,因为在Mini-

Batch内多张无关的图片之间计算统计量,弱化了

单张图片本身特有的一些细节信息.

322 通道归一化层(channelwisenormalization,

CN)

文中使用了更细力度的归一化方法,channel

wisenormalization(channelnorm)[14],该方法在每

层的channel维度上,使用最大的激活值对权值进

行归一化,其公式为:

wl

i,j

=wl

i,j

l-1

(1)

=max(Al

)(2)

bl

bl

(3)

45

江苏科技大学学报(自然科学版)2021年

式中:i和j为维度下标;l为层数;w为权值;b为偏

差;A为激活矩阵l层权值w通过在每个channel

使用最大激活值

进行归一化,该值依然是从训

练集计算的.对于非首层中,归一化的激活值必须

乘上

l-1

来将输入还原为上一层归一化前的值,

再进行本层的归一化,不然传递的信息会越来越

小.channelwisenormalization的归一化方法能够消

除激活值过小的问题,即得到更高但合适的发射频

率,从而更准确地传递信息.图3和表2中给出归

一化方法对训练过程的影响,可以看出,使用BN

归一化层和CN归一化层之后训练集准确率都达

到100%,说明了这两种归一化方法真实有效.使

用BN归一化层之后其验证集准确率提升了

197%,而使用CN归一化层之后其验证集准确率

提升了203%,因此文中选择使用CN归一化层.

图3 归一化层对于准确率的影响

Fig.3 Effectofnormalizationlayeronaccuracy

表2 使用不同归一化层对准确率的影响

Table2 Effectofusingdifferentnormalization

layersonaccuracy

归一化层的选择训练集准确率/%验证集准确率/%

未加入归一化层96889058

使用BN归一化层1009255

使用CN归一化层1009261

33 学习率的选择

学习率的选择是本实验中的重点问题之一,选

取一个好的学习率可以使训练过程高效准确,因此

使用了Adam优化器.

Adam优化器[15]是一种结合了AdaGrad和

RMSProp两种优化算法的优点的自适应调节学习

率的优化器.AdaGrad能够对每个不同的参数调整

不同的学习率,对频繁变化的参数以更小的步长进

行更新,而稀疏的参数以更大的步长进行更新[16].

RMSProp算法结合梯度平方的指数移动平均数来

调节学习率的变化,能够在不稳定的目标函数情况

下进行很好地收敛[17].Adam优化器主要包含以下

几个显著的优点:实现简单,计算高效,对内存需求

少,参数的更新不受梯度的伸缩变换影响,超参数

具有很好的解释性,且通常无需调整.通常设置参

数为

=0.9,

=0.999,

=10-8,

=00001[15].

其公式如下:

f+

t-1

(4)

t-1

+(1-

)g

(5)

t-1

+(1-

)g2

(6)

=m

/(1-

)(7)

=v

/(1-

)(8)

t-1

/v

+槡

(9)

式中:

f为被优化函数f关于Q的梯度值;

指数衰减率,控制动量与当前梯度的权重分配,默

认为09;

为指数衰减率,控制之前的梯度平方

的影响情况,类似于RMSProp算法对梯度的平方

进行加权均值,默认为0999;g

为梯度;m

为一阶

矩的估计;v

为二阶矩;m

和v

是对m

和v

的校

正;

为梯度下降,梯度由一阶矩和二阶矩的估

计[18].

从表3和图4看出,在未使用Adam优化器时,

最优学习率

=0001,这时验证集准确率为

9309%,采用Adam优化器之后验证集准确率能达

到9418%,提升了109%.因此,Adam优化器适合

文中训练模型,且对准确率有一定的改进效果.

表3 使用不同学习率对准确率的影响

Table3 Effectofusingdifferent

learningratesonaccuracy

学习率训练集准确率/%验证集准确率/%

=000011009261

=00011009309

=0011009234

Adam优化器1009418

图4 使用Adam优化器对准确率的影响

Fig.4 EffectofusingAdamoptimizeronaccuracy

34 激活函数的选择

在基本神经网络中,通常使用的激活函数为

55第2期 宋纯贺,等:一种基于改进GoogLeNet的油井故障识别方法

Sigmoid函数或者tanh函数.但由于其容易产生梯度

爆炸和梯度消失等问题,逐渐被ReLu函数及其改进

函数所替代,例如ELU函数、LeakyReLu函数等.

341 ReLu激活函数

ReLu激活函数的公式为:

ReLu=max(0,x)(10)

可以看到,ReLu函数是一个在特定区间取最

大值的函数[19],其收敛速度远快于Sigmoid函数和

tanh函数,而且计算速度快.

342 ELU激活函数

ELU激活函数的公式为:

f(x)=

x ifx>0

(ex-1){其他

(11)

ELU激活函数是一种修正类的激活函数,当

其输入值大于0时,其处理方式类似于ReLu激活

函数;但是当输入值小于0时,ELU激活函数输出

为接近于0的负值安全行车心得体会 ,只需要极少的运算量,使计算

速度相比于ReLu激活函数更快,且这部分输出具

有一定的抗干扰能力,从而可以消除ReLu激活函

数导致网络“死掉”的问题.

343 ReLu+ELU激活函数

文中将ReLu激活函数应用在GoogLeNet模型

的浅层网络结构,再将ELU激活函数应用在

GoogLeNet模型的深层网络结构.

从表4可以看出,采用Sigmo个人租房合同协议书 id和tanh作为激

活函数时,识别的准确率最低,并且运行时间最长.

而其他的激活函数,如ReLu、ELU、softplus、

leakyRelu,都在一定程度上提升了准确率.在组合方

案中,在准确率方面,ReLu+ELU>ReLu+softplus>

ReLu+leakyRelu,而在训练时间方面,ReLu+

leakyRelu<ReLu+ELU<ReLu+softplus.综合考虑

准确度和总运行时间,文中选择ReLu+ELU作为

激活函数.

表4 使用不同激活函数对准确率和运行时间的影响

Table4 Effectofusingdifferentactivationfunctions

onaccuracyandrunningtime

方案

训练集

准确率/%

验证集

准确率/%

总运行

时间/min

ReLu10094186053

Tanh941283326233

Sigmoid901180986547

ELU10094784201

softplus10094084311

leakyRelu10094615534

ReLu+Elu10095072732

ReLu+softplus10094英语阅读文章 953127

ReLu+leakyRelu10092132037

35 网络层数的增加与修改

351 改变全连接层数

在GoogLeNet网络结构中,经多个卷积层和激

活层后,连接着1个或1个以上的全连接层.全连

接层中的每个神经元与其前一层的所有神经元进

行全连接.全连接层可以整合卷积层或者池化层中

具有类别区分性的局部信息,适当增加全连接层的

层数,会提升模型的准确率.

从表5可以看出全连接层的层数进行适当地

增加确实可以增强识别的准确率,但是不建议全连

接层的层数超过4层.单纯的增加全连接的层数不

一定会增强识别的准确率,有的时候可能会导致相

反的情况出现,还会使得训练时间变长.

表5 全连接层层数对准确率的影响

Table5 Effectofthenumberoffully

connectedlayersonaccuracy

全连接层层数训练集准确率/%验证集准确率/%

一层全连接1009507

二层全连接1009564

三层全连接1009579

352 加入Dropout层

当网络结构过于复杂且数据量又比较少的时

候,会出现过拟合现象.Dropout层的直接作用是减

少中间特征的数量,从而减少冗余,即增加每层各个

特征之间的正交性.在神经网络训练每次迭代过程

中,Dropout层随机扔掉一些神经元.该神经元对应

的权重即保持上一步不变,其他的权重即更新,消除

减弱了神经元节点间的联合适应性,增强了泛化能

力,这样就可以避免局部最优和过拟合等问题[20].

从表6可以看出加入Dropout层对准确率有着

一定程度地提升,避免过拟合现象和陷入局部最优

的问题.改进Dropout层丢弃神经元的比例也对结

果有着一定的影响,一般选择隐含节点Dropout率

等于04~06,但经过交叉验证,隐含节点Dropout

率等于05的时候效果最好,原因是05的时候

Dropout随机生成的网络结构最多.

表6 加入并改变Dropout层比例对准确率的影响

Table6 Efectofaddingandchangingtheratioof

theDropoutlayeronaccuracy

Dropout层训练集准确率/%验证集准确率/%

无Dropout1009559

Dropout=041009579

Dropout=051009605

Dropout=061009576

Dropout=081009570

65

江苏科技大学学报(自然科学版)2021年

36 结果分析

使用多种不同的网络结构模型进行对比实验,

包括:LeNet,DarkNet-19,ResNet-18,DenseNet-

201,MobileNet,SqueezeNet,Shufflent,VGG-16,

GoogLeNet,其迭代次数统一设定为500次.从表7

可以看出DenseNet-201网络结构最复杂,是所有

网络结构模型中层数最多的,达到了201层,但是其

识别效果并不好,这说明了不是网络的层数越深,识

别的准确率就越高.对比MobileNet,SqueezeNet,

Shufflent这3种轻量级网络结构模型,其运行时间

都要短于其他网络结构,但是准确率不达标所以不

予考虑.在对比GoogLeNet,LeNet,DarkNet-19,Res

Net-18这4种经典的网络结构模型中,可以看出

GoogLeNet网络结构模型其个方面性能都要更优越,

所以选择GoogLeNet网络结构模型作为本实验的基

础,通过对原始GoogLeNet网络结构模型的改进得

出的改进GoogLeNet网络结构模型无论从准确率,

还是运行时间都要明显好于其他网络结构模型.在

油井功图故障识别问题上,文中网络模型具有高效

率,高准确率等优点,避免了由于人工识别功图故障

容易产生误判的问题,同时也避免了因为不能及时

识别油井故障而造成的经济损失.

表7 不同网络结构对准确率的影响

Table7 TheimpactofdifferentNetwork

structuresonaccuracy

网络结构

训练集

准确率/%

验证集

准确率/%

运行

时间/min

LeNet731250122253

DarkNet-19911288325633

ResNet-18901186985447

DenseNet9812900116789

MobileNet901689083111

SqueezeNet931290553034

Shufflent951287073014

VGG-1610089935219

GoogLeNet10090586053

改进的GoogLeNet10096052732

4 结论

针对抽油井故障类型识别问题,使用改进的

GoogLeNet网络结构,结论如下:

(1)在原始GoogLeNet网络结构中加入CN归

一化层,使其识别准确率提升203%.

(2)使用Adam优化器自适应调整学习率,使

其准确率提升157%.

(3)将ReLu和ELU激活函数混合使用,从大

幅提升训练时间,速度提高了122%,准确率提升

089%.

(4)改进网络层数:加入三层全连接层,加入

Dropout层(Dropout率为05),准确率提升

046%.

改进后的GoogLeNet网络结构识别准确率达

到了9605%,运行时间达到了2732min.可以看

出改进的GoogLeNet网络结构具有更加高效,准确

的优点,且具有更好的鲁棒性.在抽油井故障诊断

问题中给出了一个实用的解决方法.

参考文献(References)

[1] 侯延彬,陈炳均,高宪文.基于GM-ELM的有杆

泵抽油井故障诊断[J].东北大学学报(自然科学

版),2019,40(12):1673-1678.DOI:10.12068/j.

issn.1005-3026.2019.12.001.

HOUYanbin,CHENBingjun,GAOXianwen.Fault

diagnosisofsuckerrodpumpingwellsbasedonGM-

ELM[J].JournalofNortheasternUniversity(Natural

Science)2019,40(12):1673-1678.DOI:10.

12068/j.issn.1005-3026.2019.12.001.(inChi

nese)

[2] 李晓亮.基于自适应UKF-RBF神经网络的抽油机

故障诊断研究[D].重庆:重庆科技学院,2018.

[3] 于德亮,刘冬,孙浩,等.基于PSO-ELM模型的潜

油柱塞泵冲次优化方法[

J].信息与控制,2019,48

(4):459-468.DOI:10.13976/j.cnki.xk.2019.

8462.

YUDeliang,LIUDong,SUNHao,etal.Submersible

oilplungerpumpimpulseoptimizationstudybasedon

PSO-ELMmodel[J].InformationandControl,2019,

48(4):459-468.DOI:10.13976/j.cnki.xk.2019.

8462.(inChinese)

[4] 刘志刚,许少华,李盼池,等.基于极限学习离散过

程神经网络的示功图识别[J].信息与控制,2016,

45(5):627-633.DOI:10.13976/j.cnki.xk.2016.

0627.

LIUZhigang,XUShaohua,LIPanchi,etal.Indicator

diagramrecognitionbasedonextremelearningdiscrete

processneuralnetworks[J].InformationandControl,

2016,45(5):627-633.DOI:10.13976/j.cnki.xk.

2016.0627.(inChinese)

5] 王兵,许少华,孟耀华.基于半监督竞争学习过程神

经网络的抽油机故障诊断[J].信息与控制,2014,

43(2):235-240.DOI:10.3724/SP.J.1219.2014.

00235.

WANGBing,XUShaohua,MENGYaohua.Fa极限误差 ultdiag

nosisofpumpingunitbasedonsemisupervisedcom

petitivelearningprocessneuralnetwork[J].Informa

75第2期 宋纯贺,等:一种基于改进GoogLeNet的油井故障识别方法

tionandControl,2014,43(2):235-240.DOI:10.

3724/SP.J.1219.2014.00235.(inChinese)

[6] 张荣,李伟平,莫同.深度学习研究综述[J].信息与

控制,2018,47(4):385-397,410.DOI:10.13976/j.

cnki.xk.2018.8091.

ZHANGRong,LIWeiping,MOTong.Reviewofdeep

learning[J].人生的说说 InformationandControl,2018,47(4):

385-397,410.DOI:10.13976/j.cnki.xk.2018.

8091.(inChinese)

[7] 全红艳,王长波,林俊隽.基于视觉的增强现实技术

研究综述[J].机器人,2008,30(4):379-384.DOI:

10.3321/j.issn:1002-0446.2008.04.014.

QUANYanhong,WANGChangbo,LINYongjun.Sur

veyofvisionbasedaugmentedrealitytechnologies[J].

Robot,2008,30(4):379-384.DOI:10.3321/j.

issn:1002-0446.2008.04.014.(inChinese)

[8] 王卫东,郑宇杰,杨静宇.智能分类器方法[J].江苏

科技大学学报(自然科学版),2007,21(1):42-47.

DOI:10.3969/j.issn.1673-4807.2007.01.010.

WANGWeidong,ZHENGYujie,YANGJingyu.In

telligenceclassifiermethod[J].JournalofJiangsuU

niversityofScienceandTechnology(NaturalScience

Edition),2007,21(1):42-47.DOI:10.3969/j.

issn.1673-4807.2007.01.010.(inChinese)

[9] 程实,陈晓勇,沐燕舟,等.嵌入式人脸检测摄像机

的开发与应用研究[J].江苏科技大学学报(自然科

学版),2017,31(6):781-786.DOI:10.3969/j.

issn.1673-4807.2017.06.016.

CHENGShi,CHENXiaoyong,MUYanzhou,etal.

Researchondevelopmentandapplicationofembedded

facedetectioncameras[J].JournalofJiangsuUniver

sityofScienceandTechnology(NaturalScienceEdi

tion),2017,31(6):781-786.DOI:10.3969/j.issn.

1673-4807.2017.06.016.(inChinese)

[10] LECUNY,BOTTOUL,BENGIOY.Readingchecks

withmuitilayergraphtransformernetworks[C]

Pro

ceedingsofthe1997IEEEInternationalConferenceon

Acoustics,Speech,andSignalProcessing(ICASSP′

97).NWWashington,DC,UnitedStates:IEEE,

1997,1:15l-154.

[11] LONGJ,SHELHAMERE,DARRELLT.Fullyconv

olutionalnetworksforsemanticsegmentation[J].

IEEETransactionsonPatternAnalysisandMachine

Intelligence,2015,39(4):3431-3440.DOI:10.

1109/CVPR.2015.7298965.

[12] SZEGEDYChristian,LIUWei,JIAYangqing,etal.

Goingdeeperwithconvolutions[C]

2015IEEECon

ferenceonComputerVisionandPatternRecognition

(CVPR).Boston,MA,USA:IEEE,2015:1-9.

DOI:10.1109/CVPR.2015.7298594.

[13] HUANGL,YANGD,LANGB,etal.Decorrelated

batchnormalization[C]

2018IEEE/CVFConference

onComputerVisionandPatternRecognition.SaltLake

City,UT,USA:IEEE,2018:791-800.DOI:10.

1109/CVPR.2018.00089.

[14] KIMSeijoon,PARKSeongsik,NAByunggook.Spi

king-YOLO:spikingneuralnetworkforenergyeffi

cientobjectdetection[C]

AAAITechnicalTrack:

Vision,2020,34(7):938-951.DOI:10.1609/aaai.

v34i07.6787.

[15] YID,AHNJ,JIS.Aneffectiveoptimizationmethod

formachinelearningbasedonADAM[J].Applied

Sciences,2020,10(3):1073.DOI:10.3390/

app10031073.

[16] DUCHIJ,HAZANE,SINGERY.Adaptivesubgradi

entmethodsforonlinelearningandstochasticoptimiza

tion[J].JournalofMachineLearningResearch,

2011,12(7):2121-2159.DOI:10.1109/TNN.

2011.2146788.

[17] ZOUF,SHENL,JIEZ,etal.Asufficientcondition

forconvergencesofadamandrmsprop[C]

2019

IEEE/CVFConferenceonComputerVisionandPattern

Recognition(CVPR).LongBeach,CA,USA:IEEE,

2019:11127-11135.DOI:10.1109/CVPR.2019.

01138.

[18] 高子翔.基于多尺度池化的卷积神经网络图像分类

方法研究[D].包头:内蒙古科技大学,2019.

[19] SHAMIRO.Discussionof:"Nonparametricregression

usingdeepneuralnetworkswithReLUactivationfunc

tion"[J].TheAnnalsofStatistics,48(4):1911-

1915.DOI:10.1214/19-AOS1915.

[20] 韩梦娇.基于选择性区域丢弃的dropout方法研究

与实现[D].成都:电子科技大学,2020.

(责任编辑:曹莉)

85

江苏科技大学学报(自然科学版)2021年

本文发布于:2023-03-26 03:47:38,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/zuowen/1679773661389806.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

本文word下载地址:于进.doc

本文 PDF 下载地址:于进.pdf

上一篇:凡小
下一篇:返回列表
标签:于进
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
  • 于进
    管人理事-古琴曲欣赏2023年3月26日发(作者:求婚现场布置)第35卷第2期2021年4月 江苏科技大学学报(自然科学版)JournalofJiangsuUniversityofScienceandTechnology(NaturalScienceEdition) Vol.35No2Apr.2021 DOI:10.11917/j.issn.1673-4807.2021.02.008一
  • 0℃凡小
  • 0℃15小时
  • 0℃充充
  • 0℃闻闻
  • 0℃竹里馆原文及翻译
  • 0℃完全手册
  • 0℃时钟设置
  • 0℃各种各样的树叶
  • 0℃可爱的玩具蛇
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图