储层预测技术

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

4.1 LPM 储层预测技术

LPM 是斯伦贝谢公司GeoFrame 地震解释系统中最新推出的储层预测软件,利用地震属性体来指导储层参数(如砂岩厚度)在平面的展布,以此来实现储层参数的准确预测。

LPM 预测储层砂体可分两步进行:首先,它是将提取的地震属性特征参数与井孔处的砂岩厚度、有效厚度进行数据分析,将对储层预测起关键作用的地震属性特征参数优选出来,根据线性相关程度的大小,建立线性或非线性方程。线性方程的建立主要采用多元线性回归方法;非线性方程的建立主要采用神经网络方法;其次,根据建立的方程,利用网格化的地震属性体来指导储层参数(如砂岩厚度)在平面的成图。

4.1.1多元线性回归基本原理

设因变量y 与自变量x 1, x 2 ,…,x m 有线性关系,那么建立y 的m元线性回归模型:

ξβββ++++=m m x x y 110 (4.1)

其中β0,β1,…,βm 为回归系数;ξ是遵从正态分布N(0,σ2)的随机误差。 在实际问题中,对y 与x 1, x 2 ,…,x m 作n 次观测,即x 1t , x 2t ,…,x mt ,即有:

t m t m t t x x y ξβββ++++= 110 (4.2)

建立多元回归方程的基本方法是:

(1)由观测值确定回归系数β0,β1,…,βm 的估计b 0,b 1, …,b m 得到y t 对x 1t ,x 2t ,…,x mt ;的线性回归方程:

t m t m t t e x x y ++++=βββ 110 (4.3)

其中t y 表示t y 的估计;t e 是误差估计或称为残差。

(2)对回归效果进行统计检验。

(3)利用回归方程进行预报。

回归系数的最小二乘法估计

根据最小二乘法,要选择这样的回归系数b 0,b 1, …,b m 使

∑∑∑===----=-==n

t n t mt m t t t t n t t

x b x b b y y y e Q 11211012

)()( (4.4) 达到极小。为此,将Q 分别对b 0,b 1, …,b m 求偏导数,并令

0=∂∂b

Q ,经化简整理可以得到b 0,b 1, …,b m ,必须满足下列正规方程组:

⎪⎪⎩

⎪⎪⎨⎧=+++=+++=+++my m mm m m y m m y m m S b S b S b S S b S b S b S S b S b S b S

22112222212111212111 (4.5) m m x b x b x b y b ----= 22110 (4.6)

其中

∑==n

t t y n y 1

1 (4.7) m i x n x n

t it i ,,2,111

==∑= (4.8) ),,2,1())((1))((11

11m i x x n x x x x x x S S n

t n t jt it jt n t it j jt i n t it ji ij =-=--==∑∑∑∑==== (4.9) ),,2,1())((1))((1111m i y x n y x y y x x S n

t n t t it n t t it t i n t it iy =-=--=∑∑∑∑==== (4.1

0)

解线性方程组(4.5),即可求得回归系数i b ,将i b 代入(4.6)式可求出常数项0b 。

4.1.2 BP 网络网络基本原理

多层感知器具有独特的学习算法,该学习算法就是著名的BP 算法,所以多层感知器常常被称为BP 网络。BP 网络是一种层状结构的前馈神经网络,它是由输入层、隐含层(一层或者多层)和输出层构成(图4-3);输入层神经元的个数为输入信号的维数,隐含层个数视具体情况而定,输出层神经元个数为输入信号维数。BP 神经网络输入层中的每个源节点的激励模式(输入向量)单元组成了应用于第二层(如第一隐层)中神经元(计算节点)的输入信号,第二层输出信号称为第三层的输入,其余层类似。网络每一层神经元只含有作为他们输入前一层的输出信号,网络输出层(终止层)神经元的输出信号组成了对网络中输入信号(起始层)源节点产生激励模式的全部响应。即信号从输入层输入,经隐层传给输入层,由输出层得到输出信号。

BP 学习过程可以描述如下:

工作信号正向传播:输入信号从输入层经隐单元传向输出层,在输出端产生输出信号,这是工作信号的正向传播。在信号向前传递过程中网络的权值是固定不变的,每一层神经元的状态只影响下一层神经元的状态。如果输出层不能得到期望的输出,则转入误差信号的反向传播。

误差信号的反向传播:网络实际输出与期望输出之间的差值即为误差信号,误差信号由输出端开始逐层向前传播,这是误差信号的反向传播。在误差信号反向传播过程中,网络权值由误差反馈进行调节。经过权值的不断修正使网络实际输出更接近期望输出。

误差反传播算法(BP 算法)利用梯度下降技术使实际输出y (t)与期望输出d (t)的误差能量最小。

∑-=2/)(2)()()(t t t y d e (4.11)

网络学习时,开始取一小的随机数作为网络权值和内部阈值的初值,然后反复输入训练样本,计算实际输出与期望输出的差值,据此调整权值,直至权值收敛,并使代价函数降至可接受值。

对训练样本集中第P 个输入及其期望输出,网络的第j 个节点与第i 个节点的联接权修正量p ji W ∆可用下式计算

ij pj pj W O ηδ∆=∙∙ (4.12)

式中 η—学习率

pi δ—误差项

图4-1 BP 人工神经元模型

pi O —节点i 的输出

其中误差信号δ对输出层和隐含层分别为:

)()1()2()()()2()()2()(2t t t t t O d O O -∙-∙=)(δ (4.13)

∑-=++∙-∙=1

0)1()1()()()()()()1(k n i k ji

k t i k t j k t j k t W O O δδ)( (4.14) 调整后的权值与阈值分别为:

)()()()()()1(k t ij k t ij k t ij W W W ∆+=+ (4.15)

)(

)()(

)()(

)1(k t j k t j k t j δηθθ∙-=+ (4.16)

节点输出O 由前向传播算得:

)()0(

)(t j t j x O = (4.17)

()⎪⎪⎭

⎫ ⎝⎛-∙=∑-=-10)(1)()

1()(k n i k j k i k ij t j O W f O θ (4.18) (2)

()()t j t y O = (4.19)

以上各式中k =0,1,2代表输入层、第一隐层和输出层;N k 为第k 层节点个数;j=0,1,…,(N k -1)。

BP 算法的步骤可归纳为

第一步 设置变量和参量:

X k =[x k1,x k2,…,x kM ],(k =1,2, …,N )为输入向量,或称训练样本,N 为训练样本个数。

Y k (n)=[y k1(n), y k2(n),…,y kM (n)],(k =1,2, …,N )为第n 次迭代时网络的输出。

η为学习率

n 为迭代次数

第二步 初始化,赋给初始权值和初始阈值较小的随机非零值。

第三步 随机输入样本X k ,n =0。

第四步 对输入样本前向计算BP 网络每层神经元的输入信号u 和输出信号o 。

第五步 由期望输出d k 和上一步求得的实际输出Y k (n )计算误差E (n ),判断是否满足要求,若满足转至第八步;不满足转至第六步。

第六步 判断n +1是否大于最大迭代次数,若大于转至第八步,若不大于,对输入样本X k ,反向计算每层神经元的局部梯度δ。

第七步 计算权值修正量Δw ,并修正权值;n =n +1,转至第四步。

相关文档
最新文档