E-mail Alert Rss
 

物探与化探, 2024, 48(5): 1359-1367 doi: 10.11720/wtyht.2024.1522

方法研究·信息处理·仪器研制

基于深度学习的变差函数自动拟合方法研究

赵丽芳,1,2, 喻思羽,1,2, 李少华1,2

1.长江大学 油气资源与勘探技术教育部重点实验室,湖北 武汉 430100

2.长江大学 地球科学学院,湖北 武汉 430100

An automatic fitting method for a variogram based on deep learning

ZHAO Li-Fang,1,2, YU Si-Yu,1,2, LI Shao-Hua1,2

1. Key Laboratory of Exploration Technologies for Oil and Gas Resources, Ministry of Education, Yangtze University, Wuhan 430100, China

2. School of Geosciences, Yangtze University, Wuhan 430100, China

通讯作者: 喻思羽(1987-),男,长江大学地球科学学院副教授,主要从事地质统计学与人工智能的研究工作。Email:573315294@qq.com

第一作者: 赵丽芳(2000-),女,长江大学地球科学学院硕士研究生,研究方向为储层地质建模与人工智能。Email:1372397547@qq.com

责任编辑: 王萌

收稿日期: 2023-12-1   修回日期: 2024-04-2  

基金资助: 国家自然科学基金项目(42002147)
油气资源与勘探技术教育部重点实验室(长江大学)开放基金项目(PI2023-04)

Received: 2023-12-1   Revised: 2024-04-2  

摘要

变差函数是量化空间相关性的重要工具,现有变差函数拟合方法存在拟合结果不稳定现象。针对现有方法的不足,本文提出一种基于深度学习的变差函数自动拟合方法,以提高自动拟合的精度与稳定性。实验变差函数的拟合本质是一种非线性优化问题,即实现实验变差函数与理论变差函数之间的匹配度最优化。新方法采用多组参数值不同的理论变差函数生成大量训练数据集并进行深度神经网络训练学习,最后采用训练模型完成实验变差函数自动拟合。多组实验结果表明,基于深度神经网络的强大拟合能力,新方法拟合稳定性、计算效率均优于最小二乘法,为地质统计学中变差函数自动拟合提供了新思路。

关键词: 变差函数; 自动拟合; 深度学习; 地质统计学

Abstract

A variogram serves as a crucial tool for quantifying spatial correlations. However, existing variogram fitting methods often yield unstable results. This study proposed an automatic variogram fitting method based on deep learning, aiming to enhance the precision and stability of automatic fitting. The fitting of the experimental variogram is essentially a nonlinear optimization problem, which involves optimizing the matching between the experimental and theoretical variograms. The proposed method generated substantial training datasets using several sets of theoretical variograms with varying parameter values for training and learning in deep neural networks. The trained model was then used for the automatic fitting of the experimental variogram. Multiple sets of experimental results demonstrate that based on the robust fitting capability of deep neural networks, the proposed method manifested superior fitting stability and computational efficiency compared to the least squares method, providing a novel approach for automatic variogram fitting in geostatistics.

Keywords: variogram; automatic fitting; deep learning; geostatistics

PDF (3408KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

赵丽芳, 喻思羽, 李少华. 基于深度学习的变差函数自动拟合方法研究[J]. 物探与化探, 2024, 48(5): 1359-1367 doi:10.11720/wtyht.2024.1522

ZHAO Li-Fang, YU Si-Yu, LI Shao-Hua. An automatic fitting method for a variogram based on deep learning[J]. Geophysical and Geochemical Exploration, 2024, 48(5): 1359-1367 doi:10.11720/wtyht.2024.1522

0 引言

地质统计方法在资源储量评价和空间预测领域具有重要地位,该方法主要研究地质属性的空间相关性及其变化规律。变差函数是地质统计学中用于定量评价空间相关性的工具。通过建立空间距离与地质属性值的关系,变差函数揭示了空间属性变量的分布变化规律,为空间预测提供了可靠依据。基于地质统计学实施空间预测时,必须首先进行实验变差函数拟合,获取研究区的理论变差函数,如此才能获取任意距离的空间相关性。现有变差函数拟合方法包括最小二乘法[1]、加权多项式回归法[2]、线性规划法[3]和遗传算法[4]等,这些方法在实际使用中存在一定不足:例如当实验变差函数的数据点与理论模型存在较大偏差时,最小二乘法的拟合效果将不再稳定;遗传算法在求解非线性优化问题时具有寻找全局最优解的特点,但是需要调整多个参数,结构复杂且计算效率较低[5];粒子群优化算法虽能直接处理实数编码和连续可导问题,但同样需要进行参数调整,计算效率较低,容易陷入局部最优解[6]。由于传统机器学习方法在处理复杂的变差函数和包含噪声的数据时存在线性假设限制、局部极值问题等一定的局限性。深度学习采用多层神经网络[7],学习能力强,对噪声具有较强的容错性,可以充分逼近复杂的任意非线性关系函数[8],在分类与回归分析问题中表现优异。相比传统模型的滞后距与半变异函数学习,深度学习更适用于波动特征明显且不需要传统理论模型的情况,但对于强波动情况传统模型更合适[9]。因此本文在前人基础上,结合深度学习算法提出一种变差函数自动拟合方法。

1 方法原理

1.1 实验变差函数

变差函数用于衡量一个实数函数在某个区间上的波动性或不规则性[10],对于一个函数fx,如果将其在一个闭区间a,b上分割成若干个小区间,并计算每个相邻点之间函数值的差的绝对值之和,然后取这些绝对值之和的方差,就得到了这个函数在该区间上的总变差。变差函数值随着距离增加而增加,反映了空间变异程度随着距离增加而增加的特征[11],包括空间相关程度影响区域的范围,空间各向异性以及空间连续性。其数学表达式为:

yh=12Nhk=1Nhzxi-zxj2

其中:yh是向量h=xi-xj的实验变差函数的值;N(h)h数据对的数量;zxizxj是在点xixj处的观察值或实验值[12]

1.2 理论变差函数模型

常用变差函数理论模型包括球状模型、高斯模型和指数模型等[13]。理论模型在描述储层参数在同一方向上的变化速度以及变化方式上存在差异。在实际应用中,根据地质属性的变异特征和数据分析的结果,选择合适的变差函数模型来描述地质属性的空间变异性至关重要。球状模型在空间上呈现出一种随距离递增而逐渐趋于平稳的趋势,其在空间上的变异性相对较小[5],对于实验数据的噪声和异常值具有一定的鲁棒性和稳定性[14],可有效地减少误差和干扰;球状模型到达基台值后其空间相关性不再随变程增加而显著变化,减少了变程对模型准确性的敏感度,且球状模型的参数较少,适合进行深度学习模型的拟合和优化,可以在保证拟合效果的同时,提高模型的训练速度和效率,本文选取球状模型作为理论变差函数模型开展研究。球状模型表达式如下:

γ(h)=0,h=0C0+C3h2a-h32a3,0<haC0+C,h>a

式中:C0为块金值常数;C为拱高;C+C0为基台值;a为变程。

1.3 新方法神经网络结构

除了图像识别、语音分析和自然语言处理等领域,将深度学习运用于储层建模和油气预测领域已成为当前研究热点[15]。深度学习通过大量样本数据的自主学习即可提取关键特征,取得了比传统指标更准确的识别效果。常用深度学习网络架构包括全连接神经网络(fully connected neural network,简称FCNN)、卷积神经网络(CNN)以及循环神经网络(RNN)等,其中FCNN属于一种多层感知机(MLP),FCNN中每个神经元都与前一层和后一层的所有神经元相连接,构成一个密集的连接结构,FCNN能够学习输入数据的复杂特征,并有效解决分类、回归等任务。根据实验变差函数进行拟合计算,得到最匹配的理论变差函数模型,属于典型的非线性回归问题,因此本文设计一种FCNN框架实现实验变差函数自动拟合。

FCNN由输入层、隐藏层、输出层组成,通过激活函数引入非线性映射特征,使得神经网络具备拟合复杂非线性特征能力[16]。其中每个层包含多个神经元,多层神经元互相连接,使其能够捕捉输入层数据的复杂关系。本文采用的FCNN架构(见图1)输入层信息是实验变差函数的滞后距及其对应的变差函数值;输出层是拟合的理论变差函数模型参数,包括变差函数的变程、块金值和基台值;中间层为隐藏层,可由单个神经层或者多个神经层组成,每层包含大量神经元,这些神经元负责存储非线性权重信息。本次测试输入层的神经元数量设定为20,即包含20个不同滞后距及其对应的变差函数值,隐藏层神经元数量设定为25;输出层神经元数量为3,即变差函数的变程、块金值和基台值。

z(l)=W(l)a(l-1)+b(l)
a(l)=f(z(l))

式中:l(1,,L)表示神经网络的隐藏层数,z(l)为该层的线性输出向量,其通过权重矩阵W(l)和前一层的激活值a(l-1)的矩阵乘法,加上偏置向量b(l)来计算得出。随后线性变换的输出z(l)通过一个非线性激活函数f被转换,生成激活输出a(l)。因此每个神经元连接关系可以视为一个仿射变换和一个非线性变换。激活函数用于引入非线性因素,使得神经网络能过够拟合复杂的非线性关系。

图1

图1   神经网络结构

Fig.1   Neural network structure


训练FCNN的超参数包括损失函数、优化算法、激活函数、学习率。选择合适超参数有助于提高学习性能和计算效率[17]。ReLU会使一部分神经元的输出为0,造成网络的稀疏性,减少了参数的相互依存关系,缓解了过拟合问题的发生,因此本文选择ReLU[18]作为激活函数,ReLU激活函数定义如下:

fx=max0,x

损失函数则采用RMSE,定义如下:

LW,b=1Ni=1Nyi-yi2

式中:yi为真实值;yi为输入值。其用于度量样本点到回归线的距离,通过平方损失使样本点更好地拟合回归曲线,均方误差损失函数值越小,表明预测模型的样本数据具有越好的精度。

优化算法包括随机梯度下降算法(SGD)[19]、Adam[20]算法和RMSProp[20]算法等。在变差函数拟合中,通过迭代数据集学习样本特征,更新FCNN模型参数,使得模型参数逐渐逼近最优解。SGD可以根据预测值与实际值的差异进行梯度计算和参数更新,以减小拟合误差,最终实现对实验变差函数的拟合,在经过多组测试后将学习率设置为0.000 05,选择SGD作为优化算法,并结合合适的损失函数RMSE来度量预测值与实际值的差异,可以有效地进行模型训练和优化,提高拟合精度。

2 实例

2.1 训练样本

根据图1的流程,首先随机生成多组不同参数的理论变差函数模型[21],根据已知的C0(块金值)、range(变程)、sill(基台值)等参数采用随机抽样的方式得到对应的滞后距和变差函数值,生成的数据被用作训练集。将已知的滞后距离及其相应的实验变差函数值进行训练,得到对应的参数,将此数据作为测试集,用于评估训练后模型的性能。

表1所示,训练数据集由两部分组成:输入层数据(列名为v1~v20)和输出层数据(列名为C0rangesill)。输入层数据主要包括实验变差函数的滞后距离以及相应的变差函数值。输出层数据则包括理论变差函数的参数。以球状模型为例,这些参数为C0rangesill

表1   1 000×20 实验变差函数数据

Table 1  1 000×20 experimental variational function data

v1v2v3v4v19v20C0rangesill
13.0423.7336.6641.2585.4387.01544.1484.75
6.0416.9943.7645.6177.4882.78535.8979.97
14.4517.5433.0539.6678.5176.79543.6475.19
14.5335.2745.2149.8085.1887.15534.7785.23
21.7540.6251.5668.2389.9990.32528.0787.99

新窗口打开| 下载CSV


为对应各种不同参数的变差函数拟合情况,本文生成了一个包含20个随机且不等距分布的数据点的训练数据集。其中参数设置为C0 = 0,range = [20,45],sill = [70,85],数据集规模为1 000×20。设置训练次数为20 000次,经过不同数据集的多次实验验证,更改不同参数发现,当学习率为0.000 05时均方差损失最小,说明深度学习训练的结果与样本点数据相接近,拟合效果越好。

测试数据来源于理论变差函数,与训练数据来源类似,从表2中给定理论变差函数中随机抽取20个滞后距和变差函数值作为测试数据,将相应理论变差函数参数与测试结果进行对比,检验拟合效果。

表2   实验变差函数各数据参数

Table 2  Parameters of each data of the experimental variance function

分组C0rangesill
第一组020 ~ 4570 ~ 85
第二组1025 ~ 5075 ~ 90
第三组1530 ~ 5580 ~ 95
第四组2035 ~ 6085 ~ 100

新窗口打开| 下载CSV


2.2 方法比较

变差函数自动拟合经典算法以最小二乘法为代表,Schwanghart根据文献[22-24]中最小二乘法的变差函拟合方法编写了Matlab版本程序并取得了广泛使用,该程序可以选择有界(如球形)或无界(如指数)模型,也可以建立块金方差模型,其输入参数包含hγa0、C0numobs(滞后距的观测值个数)。本文将基于该程序进行最小二乘法变差函数拟合方法与本文所提出的深度学习方法的对比分析,以评估新方法拟合效果(图2)。

图2

图2   两种不同方法拟合效果对比

a—变差函数的range范围为25~50时最小二乘法和深度学习法range映射关系,红色点为异常点;b—变差函数的range范围为35~60时最小二乘法和深度学习法range映射关系,红色点为异常点;c—变差函数的range范围为35~60时最小二乘法和深度学习法range映射关系,红色点为异常点;a1—对应a红色异常点横纵坐标分别对应最小二乘法拟合曲线和深度学习曲线变程;b1—对应b红色异常点横纵坐标分别对应最小二乘法拟合曲线和深度学习曲线变程;c1—对应c红色异常点横纵坐标分别对应最小二乘法拟合曲线和深度学习曲线变程

Fig.2   Comparison of the fitting effect of the two different methods

a—range mapping relationship between the least squares method and the deep learning method when the variogram function's range is 25~50, with red points indicating outliers; b—range mapping relationship between the least squares method and the deep learning method when the variogram function's range is 35~60, with red points indicating outliers; c—range mapping relationship between the least squares method and the deep learning method when the variogram function's range is 35~60, with red points indicating outliers; a1—the x and y coordinates of the red outliers in a correspond to the values of the least squares fitting curve and the deep learning curve, respectively; b1—the x and y coordinates of the red outliers in b correspond to the range values of the least squares fitting curve and the deep learning curve, respectively; c1—the x and y coordinates of the red outliers in c correspond to the range values of the least squares fitting curve and the deep learning curve, respectively


图2所示,对两种方法分别进行100次实验变差函数自动拟合测试。由图2a~c可知,两种方法拟合结果的变程值绝大部分都与实际理论变差函数具有极小误差。但是结果表明依然存在少量数据异常点,这些测试实例的变程表明两种拟合方法的结果存在较大差异。

图2a~c中的异常点找出并标红,绘制出相应具体的变差函数拟合曲线对比图。如图2a1~c1所示,黑色点代表了实验变差函数的值,蓝线表示利用最小二乘法拟合得到的理论变差函数曲线,红线则表示使用深度学习拟合得到的理论变差函数曲线。表3为3组不同方法拟合参数结果对比,深度学习方法拟合结果更接近原始数据;通过拟合效果对比图2a1~c1可以明显看出,无论是参数不同还是实验数据点不同,深度学习方法拟合得到的曲线具有比最小二乘法拟合得到的曲线变程更贴近理论变差函数的变程,数据相关性越强,拟合曲线也更贴近实验数据点。与此相比,蓝色所代表的传统方法拟合结果在某些地方与实验数据存在较大偏差,变差范围更大,表明其在捕捉数据变异性方面的效果相对较差。因此本文所提出的深度学习方法对实验变差函数拟合具有更精确的效果。

表3   变差函数C0rangesill参数对比

Table 3  Comparison of the parameters of the variational functions C0, range, and sill

参数第一组第二组第三组
理论变差函数最小二乘法深度学习理论变差函数最小二乘法深度学习理论变差函数最小二乘法深度学习
C000-0.1320.001.6717.97000.2
range28.226.4030.0137.634.9832.4758.938.7857.62
sill84.2778.1183.8685.1778.2581.2496.8353.1894.37

新窗口打开| 下载CSV


本文利用均方根误差和平均绝对误差来对拟合结果进行评价,公式如下:

RMSE=1ni=1nyi-yi2 
MAE=1ni=1nyi-yi

式中:RMSEMAE分别为均方根误差和平均误差;yi为真实值;yi为拟合值;n为数据点的个数。由式(7)、(8)可以得出,均方根误差和平均绝对误差越小,拟合效果越好,拟合值越接近于真实值。

通过对图3中采用最小二乘方法和深度学习方法得到的理论变差函数值进行均方根误差和平均误差的比较,结果表明,采用深度学习方法得到的理论变差函数的均方根误差和平均误差均小于最小二乘方法得到的理论变差函数。因此,通过采用深度学习算法,得到的理论变差函数更符合实际数据,具有更小的拟合偏差,说明本文的方法在变差函数拟合方面具有更高的精度。

图3

图3   两种方法的均方根误差和平均误差对比

Fig.3   Comparison of root mean square error and average error of the two methods


本次研究生成了3个数据集,每个数据集分别包含2 000、6 000和10 000个样本,旨在评估并比较深度学习和最小二乘法在计算效率方面的表现。如图4左所示,两种方法的计算时间对比分析,结果明确表明深度学习在处理上述不同规模的数据集时,计算效率显著高于最小二乘法。此外,对于包含10 000个样本的数据集,深度学习和最小二乘法在预测结果的概率分布对比中(见图4右),深度学习在预测精度及与真实值的吻合度方面均表现出显著优势。具体而言,最小二乘法在预测中存在较多异常点,并且其预测结果与真实值之间有显著偏差。

图4

图4   两种方法的效率对比

Fig.4   Efficiency comparison chart of two methods


总体来看,无论是从计算时间还是预测准确性的角度评估,深度学习方法在实验变差函数拟合方面的效率与效果均优于最小二乘法。

2.3 输入层的滞后距数量问题

为了确保神经网络能够有效地接受、处理和表示输入数据,从而使神经网络能够在各种学习任务中发挥良好的性能,本文采用线性插值的方法[25],使输入特征数量与输入层神经元数量相匹配以实现输入层的神经元数量等于输入特征的数量[26]。为了在训练数据集中考虑不同的数据点数量和参数范围,我们对数据集进行了多样性的设计将数据点设置为10、15,对应参数范围如图5a中设置数据点的区间为[0,60],包含10个原始数据点的数据集;图5c数据点区间为[20,80],包含15个原始数据点的数据集。为匹配输入层的神经元数量,本文通过线性插值生成额外的数据点,以确保每个训练数据集都包含了20个数据点,与输入层的神经元数量相对应。图5中红色为原始数据点,蓝色为插值数据点,图5b、5d分别为插值训练后的拟合结果。训练数据集如表4所示,输入层数据为10个数据点和输出层数据。

图5

图5   深度学习插值拟合

a—数据点为10实验变差函数经插值后变为20个数据点红色为原始点蓝色为插值点;b—图a插值后的数据点拟合效果;c—数据点为15实验变差函数经插值后变为20个数据点红色为原始点蓝色为插值点;d—图c插值后数据点拟合效果

Fig.5   Depth learning interpolated fit plot

a—data points of 10 experimental variogram functions interpolated to 20 data points, with red indicating original points and blue indicating interpolated points; b—fitting effect diagram of fig.a interpolated data points; c—data points of 15 experimental variogram functions interpolated to 20 data points, with red indicating original points and blue indicating interpolated points; d—fitting effect diagram of fig.c interpolated data points.


表4   1 000×6 实验变差函数数据点

Table 4  1 000×6 experimental variational function data

v1v2v10C0rangesill
19.1038.9391.271049.4292.01
17.0327.9497.511054.1288.67
11.3630.0594.781058.9194.25
17.6835.5392.451054.4293.44

新窗口打开| 下载CSV


为使输入特征数量与输入层神经元数量相匹配,对数据集进行插值能够充分利用有限的原始数据点,并确保输入数据与网络结构的匹配,从而提高了模型的性能和泛化能力。通过这种方式,可以更好地适应不同的数据集,并实现更好的拟合效果。

3 讨论

深度学习模型在拟合变差函数方面表现出色,经过20 000次迭代训练,模型的均方误差等性能指标表明,模型的预测与真实数据非常接近。并且模型在不同数据集上都表现出良好的泛化能力。将深度学习方法与最小二乘拟合方法进行对比,结果表明本文方法在变差函数拟合方面具有显著的优势,本文模型更能捕捉数据中的复杂关系,这在高度非线性的变差函数中尤为明显。但当前方法的主要局限在于仅针对球状模型对应的神经网络进行考虑。未来的工作将完善其他变差函数模型(如高斯模型和指数模型)相对应的神经网络,来扩展这一框架,形成一个完整体系更好地适应不同数据对模型选择的多样性需求。

通过深入研究模型在不同数据类型、地质结构和噪声水平下的表现,可以更全面地评估该方法适用性。其次,考虑到地质学中的不确定性,引入深度学习方法如贝叶斯神经网络[27],有助于更好地捕捉和量化地下结构的变异性和测量误差,提高地质模型的可靠性。扩充数据集、融合多源数据,引入更多地质信息,能够进一步提升模型性能。在处理大规模地质数据和复杂变差函数时,采用高性能计算和分布式计算技术,以加速训练和推理过程。将深度学习方法应用于实际地质问题,如矿产勘探、油气勘探和地震预测,可以验证方法的实际效益和可行性。

4 结论

根据实验变差函数自动拟合得到理论变差函数模型属于典型的非线性回归分析问题,深度学习模型具有强大的拟合能力,可以学习数据中的非线性关系和复杂规律,深度学习拟合实验变差函数在回归效果和鲁棒性以及运算效率方面都表现出优异性。经过大量数据测试深度学习模型具有较强的泛化能力,可以对未知数据进行良好的预测和推断,对于实验变差函数的预测具有较高的精度和可靠性。因此,本文提出的基于深度学习的变差函数自动拟合方法,能够更准确、高效地拟合实验变差函数,并且在波动特征明显的情况下不依赖于传统理论模型。这一新方法不仅提高了拟合的精度和稳定性,而且为地质统计学中的变差函数自动拟合提供了新的思路和解决方案,拓展了地质统计学在资源评估和空间预测方面的应用范围。

参考文献

李正文, 李琼, 吴朝容. 沉积盆地有效储集层综合识别技术[M]. 成都: 四川科学技术出版社, 2002.

[本文引用: 1]

Li Z W, Li Q, Wu C R. Comprehensive identification technology of effective reservoirs in sedimentary basins[M]. Chengdu: Sichuan Science and Technology Press, 2002.

[本文引用: 1]

Mardia K V, Marshall R J.

Maximum likelihood estimation of models for residual covariance in spatial regression

[J]. Biometrika, 1984, 71(1):135-146.

[本文引用: 1]

李少华, 张昌民, 马玉震.

线性规划法自动拟合变差函数的改进

[J]. 江汉石油学院学报, 2001, 23(S1):36-37,5.

[本文引用: 1]

Li S H, Zhang C M, Ma Y Z.

Improvement of automatic fit of variation functions in linear programming

[J]. Journal of Oil and Gas Technology, 2001, 23(S1):36-37,5.

[本文引用: 1]

矫希国, 刘超.

变差函数的参数模拟

[J]. 物探化探计算技术, 1996, 18(2):157-161.

[本文引用: 1]

Jiao X G, Liu C.

Estimation of variation parameter

[J]. Computing Techniques for Geophysical and Geochemical Exploration, 1996, 18(2):157-161.

[本文引用: 1]

谢源, 李琼, 陈杰, .

基于改进的量子粒子群算法的变差函数拟合方法及应用

[J]. 成都理工大学学报:自然科学版, 2018, 45(3):379-385.

[本文引用: 2]

Xie Y, Li Q, Chen J, et al.

Research on variogram fitting method and its application based on the improved quantum particle swarm algorithm

[J]. Journal of Chengdu University of Technology:Science and Technology Edition, 2018, 45(3):379-385.

[本文引用: 2]

成洪甲, 杨雨, 孙寅萍.

一种基于随机粒子群的变差函数优化方法

[J]. 科学技术与工程, 2012, 12(31):8373-8378.

[本文引用: 1]

Cheng H J, Yang Y, Sun Y P.

Based on the variogram of the random particle swarm optimization method

[J]. Science Technology and Engineering, 2012, 12(31):8373-8378.

[本文引用: 1]

王一飞, 刘光浚, 刘轩吉, .

基于神经网络的脉搏波信号血压检测算法

[J]. 中国医学物理学杂志, 2022, 39(8):998-1002.

[本文引用: 1]

Wang Y F, Liu G J, Liu X J, et al.

Neural network-based blood pressure detection algorithms for pulse wave signals

[J]. Chinese Journal of Medical Physics, 2022, 39(8):998-1002.

[本文引用: 1]

Yu X, Yu Z D, Ramalingam S.

Learning strict identity mappings in deep residual networks

[C]// Salt Lake City: 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.IEEE,2018: 4432-4440.

[本文引用: 1]

Yang L, Zhong B R, Xu X H, et al.

Application of a semivariogram based on a deep neural network to Ordinary Kriging interpolation of elevation data

[J]. PLOS One, 2022, 17(4):e0266942.

[本文引用: 1]

王仁铎.

用加权多项式回归进行球状模型变差图的最优拟合

[J]. 地球科学, 1986, 11(2):143-151.

[本文引用: 1]

Wang R D.

On the best fitting of the spherical model variogram with the weighted polynomial regression

[J]. Earth Science, 1986, 11(2):143-151.

[本文引用: 1]

梅杨, 杨勇, 李浩.

时空理论变异函数模型及其精度影响

[J]. 测绘科学, 2017, 42(6):1-5,35.

[本文引用: 1]

Mei Y, Yang Y, Li H.

Study of spatio-temporal theory model and its influence on the sptio-temporal prediction accuracy

[J]. Science of Surveying and Mapping, 2017, 42(6):1-5,35.

[本文引用: 1]

Soltani-Mohammadi S, Safa M.

A simulated annealing based optimization algorithm for automatic variogram model fitting

[J]. Archives of Mining Sciences, 2016, 61(3):635-649.

[本文引用: 1]

张磊. 煤矿井下煤质预测及工作面三维可视化研究与实现[D]. 西安: 西安科技大学, 2017.

[本文引用: 1]

Zhang L. Research and implementation of coal quality prediction and three-dimensional visualization of working face in underground coal mine[D]. Xi’an: Xi’an University of Science and Technology, 2017.

[本文引用: 1]

Matheron G.

Principles of geostatistics

[J]. Economic Geology, 1963, 58(8):1246-1266.

[本文引用: 1]

Hinton G E, Osindero S, Teh Y W.

A fast learning algorithm for deep belief nets

[J]. Neural Computation, 2006, 18(7):1527-1554.

DOI:10.1162/neco.2006.18.7.1527      PMID:16764513      [本文引用: 1]

We show how to use "complementary priors" to eliminate the explaining-away effects that make inference difficult in densely connected belief nets that have many hidden layers. Using complementary priors, we derive a fast, greedy algorithm that can learn deep, directed belief networks one layer at a time, provided the top two layers form an undirected associative memory. The fast, greedy algorithm is used to initialize a slower learning procedure that fine-tunes the weights using a contrastive version of the wake-sleep algorithm. After fine-tuning, a network with three hidden layers forms a very good generative model of the joint distribution of handwritten digit images and their labels. This generative model gives better digit classification than the best discriminative learning algorithms. The low-dimensional manifolds on which the digits lie are modeled by long ravines in the free-energy landscape of the top-level associative memory, and it is easy to explore these ravines by using the directed connections to display what the associative memory has in mind.

刘梦炀, 武利娟, 梁慧, .

一种高精度LSTM-FC大气污染物浓度预测模型

[J]. 计算机科学, 2021, 48(S1):184-189.

[本文引用: 1]

Liu M Y, Wu L J, Liang H, et al.

A kind of high-precision LSTM-FC atmospheric contaminant concentrations forecasting model

[J]. Computer Science, 2021, 48(S1):184-189.

[本文引用: 1]

贺婷, 周宁, 吴啸宇.

基于深度全连接神经网络的储层有效砂体厚度预测

[J]. 吉林大学学报:地球科学版, 2023, 53(4):1262-1274.

[本文引用: 1]

He T, Zhou N, Wu X Y.

Thickness prediction of reservoir effective sand body by deep fully connected neural network

[J]. Journal of Jilin University:Earth Science Edition, 2023, 53(4):1262-1274.

[本文引用: 1]

Krizhevsky A, Sutskever I, Hinton G E.

ImageNet classification with deep convolutional neural networks

[J]. Communications of the ACM, 2017, 60(6):84-90.

[本文引用: 1]

Amari S I.

Backpropagation and stochastic gradient descent method

[J]. Neurocomputing, 1993, 5(4-5):185-196.

[本文引用: 1]

Kingma D P, Ba J.

Adam:A method for stochastic optimization

[C]// Proceedings of the 3rd International Conference on Learning Representations(ICLR 2015), 2015.

[本文引用: 2]

肖克焱.

地质统计学变差函数人机对话拟合

[J]. 长春地质学院学报, 1994, 24(2):218-221,233.

[本文引用: 1]

Xiao K Y.

The study of variogram model fitting by interactive computer-aided program

[J]. Journal of Jilin University:Earth Science Edition, 1994, 24(2):218-221,233.

[本文引用: 1]

Wackernagel H, Oliveira V D, Kedem B.

Multivariate geostatistics

[J]. SIAM Review, 1997, 39(2):340-340.

[本文引用: 1]

Webster R, Oliver M A. Geostatistics for environmental scientists[M]. London: John Wiley Sons, 2007.

[本文引用: 1]

Minasny B, McBratney A B.

The Matérn function as a general model for soil variograms

[J]. Geoderma, 2005, 128(3-4):192-207.

[本文引用: 1]

李长胜, 刘刚.

线性插值算法研究

[J]. 机床与液压, 2002, 30(1):107-108.

[本文引用: 1]

Li C S, Liu G.

Research on linear interpolation algorithm

[J]. Machine Tool & Hydraulics, 2002, 30(1):107-108.

[本文引用: 1]

何定桥, 王鹏军, 杨军.

深度神经网络在EMD虚假分量识别中的应用

[J]. 工程力学, 2021, 38(S1):195-201.

[本文引用: 1]

He D Q, Wang P J, Yang J.

Application of deep neural networks in emd false component identification

[J]. Engineering Mechanics, 2021, 38(S1):195-201.

[本文引用: 1]

樊春玲, 孙四通, 金志华.

贝叶斯神经网络建模预测方法及其应用

[J]. 中国惯性技术学报, 2009, 17(1):85-88.

[本文引用: 1]

Fan C L, Sun S T, Jin Z H.

Modeling & predictive method of Bayesian neural network

[J]. Journal of Chinese Inertial Technology, 2009, 17(1):85-88.

[本文引用: 1]

/

京ICP备05055290号-3
版权所有 © 2021《物探与化探》编辑部
通讯地址:北京市学院路29号航遥中心 邮编:100083
电话:010-62060192;62060193 E-mail:whtbjb@sina.com , whtbjb@163.com