基于Matlab的回归分析

合集下载

用MATLAB求解回归分析

用MATLAB求解回归分析


F值、与F对应的概率p

相关系数 r2 越接近 1,说明回归方程越显著;
.


省显
时著
为性
0
水 平
05

F > F1-α(k,n-k-1)时拒绝 H0,F 越大,说明回归方程越显著;
与 F 对应的概率 p 时拒绝 H0,回归模型成立.
3、画出残差及其置信区间: rcoplot(r,rint)
例1 解:1、输入数据:
stats = 0.9702 40.6656
0.0005
1、回归:
非线性回 归
是事先用m-文件定 义的非线性函数
(1)确定回归系数的命令: [beta,r,J]=nlinfit(x,y,’model’, beta0)
估计出的 回归系数
残差 Jacobian矩阵
输入数据x、y分别为 n m矩阵和n维列向 量,对一元非线性回 归,x为n维列向量。
r2=0.9282, F=180.9531, p=0.0000
p<0.05, 可知回归模型 y=-16.073+0.7194x 成立.
3、残差分析,作残差图: rcoplot(r,rint)
从残差图可以看出,除第二个数据外,其余数据的残
差离零点均较近,且残差的置信区间均包含零点,这说明 回归模型 y=-16.073+0.7194x能较好的符合原始数据,而第 二个数据可视为异常点.
2、预测和预测误差估计:
(1)Y=polyval(p,x)求polyfit所得的回归多项式在 x处 的预测值Y; (2)[Y,DELTA]=polyconf(p,x,S,alpha)求 polyfit所得的回归多项式在x处的预测值Y及预测值的 显著性为 1-alpha的置信区间Y DELTA;alpha缺省时为0.5

使用Matlab技术进行回归分析的基本步骤

使用Matlab技术进行回归分析的基本步骤

使用Matlab技术进行回归分析的基本步骤回归分析是统计学中一种用于研究变量间关系的方法,可以用来预测和解释变量之间的相关性。

在实际应用中,使用计算工具进行回归分析可以提高分析效率和准确性。

本文将介绍使用Matlab技术进行回归分析的基本步骤,并探讨其中的一些关键概念和技巧。

一、数据准备在进行回归分析之前,首先需要收集和整理相关的数据。

这些数据通常包括自变量和因变量。

自变量是用来解释或预测因变量的变量,而因变量是需要解释或预测的变量。

在Matlab中,可以将数据保存为数据矩阵,其中每一列代表一个变量。

二、模型建立在回归分析中,需要建立一个数学模型来描述自变量和因变量之间的关系。

最简单的线性回归模型可以表示为:Y = βX + ε,其中Y是因变量,X是自变量,β是回归系数,ε是误差项。

在Matlab中,可以使用regress函数来进行线性回归分析。

三、模型拟合模型拟合是回归分析的核心步骤,它的目标是找到最佳的回归系数,使得预测值与实际观测值之间的差异最小。

在Matlab中,可以使用OLS(Ordinary Least Squares)方法来进行最小二乘法回归分析。

该方法通过最小化残差平方和来估计回归系数。

四、模型诊断模型诊断是回归分析中非常重要的一步,它可以帮助我们评估模型的合理性和有效性。

在Matlab中,可以使用多种诊断方法来检验回归模型是否满足统计假设,例如残差分析、方差分析和假设检验等。

这些诊断方法可以帮助我们检测模型是否存在多重共线性、异方差性和离群值等问题。

五、模型应用完成模型拟合和诊断之后,我们可以使用回归模型进行一些实际应用。

例如,可以使用模型进行因变量的预测,或者对自变量的影响进行解释和分析。

在Matlab中,可以使用该模型计算新的观测值和预测值,并进行相关性分析。

六、模型改进回归分析并不是一次性的过程,我们经常需要不断改进模型以提高预测的准确性和解释的可靠性。

在Matlab中,可以使用变量选择算法和模型改进技术来优化回归模型。

利用Matlab进行线性回归分析

利用Matlab进行线性回归分析

利用Matlab进行线性回归分析回归分析是处理两个及两个以上变量间线性依存关系的统计方法。

可以通过软件Matlab实现。

1.利用Matlab软件实现在Matlab中,可以直接调用命令实现回归分析,(1)[b,bint,r,rint,stats]=regress(y,x),其中b是回归方程中的参数估计值,bint 是b的置信区间,r和rint分别表示残差及残差对应的置信区间。

stats包含三个数字,分别是相关系数,F统计量及对应的概率p值。

(2)recplot(r,rint)作残差分析图。

(3)rstool(x,y)一种交互式方式的句柄命令。

以下通过具体的例子来说明。

例现有多个样本的因变量和自变量的数据,下面我们利用Matlab,通过回归分析建立两者之间的回归方程。

% 一元回归分析x=[1097 1284 1502 1394 1303 1555 1917 2051 2111 2286 2311 2003 2435 2625 2948 3, 55 3372];%自变量序列数据y=[698 872 988 807 738 1025 1316 1539 1561 1765 1762 1960 1902 2013 2446 2736 2825];%因变量序列数据X=[ones(size(x')),x'],pause[b,bint,r,rint,stats]=regress(y',X,0.05),pause%调用一元回归分析函数rcoplot(r,rint)%画出在置信度区间下误差分布。

% 多元回归分析% 输入各种自变量数据x1=[5.5 2.5 8 3 3 2.9 8 9 4 6.5 5.5 5 6 5 3.5 8 6 4 7.5 7]';x2=[31 55 67 50 38 71 30 56 42 73 60 44 50 39 55 7040 50 62 59]';x3=[10 8 12 7 8 12 12 5 8 5 11 12 6 10 10 6 11 11 9 9]';x4=[8 6 9 16 15 17 8 10 4 16 7 12 6 4 4 14 6 8 13 11]';%输入因变量数据y=[79.3 200.1 163.1 200.1 146.0 177.7 30.9 291.9 160 339.4 159.6 86.3 237.5 107.2 155 201.4 100.2 135.8 223.3 195]';X=[ones(size(x1)),x1,x2,x3,x4];[b,bint,r,rint,stats]=regress(y,X)%回归分析Q=r'*rsigma=Q/18rcoplot(r,rint);%逐步回归X1=[x1,x2,x3,x4];stepwise(X1,y,[1,2,3])%逐步回归% X2=[ones(size(x1)),x2,x3];% X3=[ones(size(x1)),x1,x2,x3];% X4=[ones(size(x1)),x2,x3,x4];% [b1,b1int,r1,r1int,stats1]=regress(y,X2)% [b2,b2int,r2,r2int,stats2]=regress(y,X3);% [b3,b3int,r3,r3int,stats3]=regress(y,X4);。

在MATLAB中进行分类和回归分析

在MATLAB中进行分类和回归分析

在MATLAB中进行分类和回归分析在科学和工程领域,分类和回归分析是常见的数据分析方法。

而MATLAB作为一种功能强大的数据分析软件,提供了丰富的工具和函数,使得分类和回归分析变得更加简单和高效。

本文将介绍在MATLAB中进行分类和回归分析的方法和技巧,帮助读者更好地理解和应用这些技术。

一、背景介绍分类和回归分析是基于已知数据的模式进行预测和分类的统计方法。

分类分析用于将数据分为不同的类别,而回归分析则试图通过已知数据的模式预测未知数据的数值。

这些方法在各个领域都有广泛的应用,如金融、医疗、市场营销等。

二、数据准备在进行分类和回归分析之前,需要准备好相应的数据。

一般来说,数据应当包含自变量(也称为特征或输入)和因变量(也称为标签或输出)。

自变量是用来作为预测或分类的输入变量,而因变量是要预测或分类的目标变量。

通常情况下,数据应当是数值型的,如果包含分类变量,需要进行相应的编码或处理。

三、分类分析在MATLAB中进行分类分析,有多种方法和技术可供选择。

其中最常见的方法包括K最近邻算法(K-nearest neighbors)和支持向量机(Support Vector Machines)等。

这些方法都有相应的函数,可以用于在MATLAB中实现分类分析。

K最近邻算法基于训练样本和测试样本之间的距离,将测试样本分类为与其最近的K个训练样本所属的类别。

而支持向量机则试图找到一个超平面,将不同类别的样本分开,并使得分类误差最小化。

在MATLAB中,我们可以使用fitcknn和fitcsvm函数来实现K最近邻算法和支持向量机。

除了上述方法,还有其他的分类算法可以在MATLAB中使用,如决策树、随机森林等。

根据数据的具体情况和需求,选择适合的分类算法非常重要。

四、回归分析在进行回归分析时,我们需要首先选择适当的回归模型。

常用的回归模型包括线性回归、多项式回归、岭回归等。

根据数据的分布和特点,选择合适的回归模型能够提高分析的准确性。

应用MATLAB进行非线性回归分析

应用MATLAB进行非线性回归分析

应用MATLAB进行非线性回归分析非线性回归分析是一种用于建立非线性函数与自变量之间的关系的统计方法。

与线性回归不同,非线性回归假设因变量与自变量之间的关系是一个非线性函数,通常是指数型、对数型、幂函数等。

MATLAB是一种强大的科学计算软件,提供了丰富的函数和工具箱,可以用于进行非线性回归分析。

下面将介绍如何在MATLAB中进行非线性回归分析的步骤。

1.数据准备首先,需要准备用于非线性回归分析的数据。

数据应包括自变量和因变量的观测值。

可以将数据保存在一个MATLAB数据文件中,或使用MATLAB中的数组或矩阵来表示。

2.建立模型根据实际情况,选择适当的非线性函数模型来描述自变量和因变量之间的关系。

例如,可以使用指数函数模型y = a * exp(b * x)、对数函数模型y = a * log(b * x)、幂函数模型y = a * x^b等。

3.拟合模型并求解参数使用MATLAB中的非线性最小二乘法函数(如lsqcurvefit)拟合模型,并求解模型中的参数。

这些函数需要提供待拟合的非线性模型、观测数据和初始参数值。

例如,可以使用以下代码进行非线性最小二乘拟合:```MATLABx=[1,2,3,4,5];%自变量观测值y=[2,3,5,7,9];%因变量观测值p0=[1,1];%初始参数值p = lsqcurvefit(model, p0, x, y); % 拟合模型和求解参数```4.分析结果通过拟合模型得到的参数,可以分析和解释自变量和因变量之间的关系。

可以通过计算拟合优度等指标评价模型的拟合效果。

5.可视化结果使用MATLAB的绘图函数,将观测数据和拟合函数的曲线绘制在同一张图上,以直观地展示非线性回归分析的结果。

例如,可以使用以下代码绘制拟合曲线:```MATLABxx = linspace(min(x), max(x), 100); % 生成等间距的自变量yy = model(p, xx); % 计算拟合函数的因变量plot(x, y, 'o', xx, yy); % 绘制观测数据和拟合曲线```通过以上步骤,就能够应用MATLAB进行非线性回归分析。

matlAB第11讲回归分析

matlAB第11讲回归分析
别对模型进行训练和测试。
Part
03
多元线性回归
多元线性回归模型
多元线性回归模型是用来预测一 个因变量(目标变量)基于多个 自变量(特征)的线性关系。
模型的一般形式为:Y = β0 + β1X1 + β2X2 + ... + βpXp + ε, 其中Y是因变量,X1, X2, ..., Xp 是自变量,β0, β1, β2, ..., βp是
回归模型的评估与选择
评估指标
为了评估回归模型的预测性能, 可以使用各种评估指标,如均方
误差(MSE)、均方根误差 (RMSE)、决定系数(R方)
等。
模型选择
根据评估指标,可以选择最佳的 回归模型。通常选择具有较高决 定系数和较低均方误差的模型。
交叉验证
为了更准确地评估模型的泛化能 力,可以使用交叉验证技术将数 据集分成训练集和测试集,并分
通过交叉验证、调整模型参数等方法可以对多元线性回归模型进行优化,提高预测精度。
Part
04
逻辑回归
逻辑回归模型
逻辑回归是一种用于解决二分类问题 的回归分析方法。它通过将线性回归 模型的输出转换为概率形式,来预测 一个事件发生的概率。
在逻辑回归中,自变量(特征)和因 变量(目标变量)之间的关系是非线 性的,通过sigmoid函数实现从线性 到非线性的转换。
示例代码:`X = [ones(n,1) x]; % 构造设计矩阵,包括常数项` `Y = y; % 因变量矩阵` `B = fitlm(X,Y); % 拟合多元线性回归模型` `Yfit = predict(B,X); % 进行预测`
多元线性回归的评估与优化
评估多元线性回归模型的性能可以使用各种统计指标,如均方误差(MSE)、均方根误 差(RMSE)、决定系数(R^2)等。

基于MATLAB的岭回归分析程序设计及其应用

基于MATLAB的岭回归分析程序设计及其应用

基于MATLAB的岭回归分析程序设计及其应用岭回归是一种用于解决线性回归中多重共线性问题的方法。

在MATLAB中,我们可以使用内置函数ridge来实现岭回归分析。

本文将介绍如何进行岭回归分析的程序设计,并探讨其应用领域。

岭回归分析的程序设计主要包括以下几个步骤:1.数据准备:将原始数据导入MATLAB中,并进行必要的预处理,如数据清洗、缺失值处理等。

确保数据能够正确输入岭回归模型。

2. 特征选择:根据分析的目的,选择合适的自变量作为输入。

MATLAB提供了一些特征选择算法,如逐步回归、lasso等,可以帮助我们选择最佳的自变量。

3. 模型构建:使用ridge函数构建岭回归模型。

该函数的基本语法如下:```[beta,stats] = ridge(y,X,k)```其中,y是因变量,X是自变量矩阵,k是岭参数。

函数返回的beta 是回归系数,stats用于存储回归相关的统计信息。

4. 模型评估:评估岭回归模型的拟合效果。

可以通过计算均方误差(MSE)或决定系数(R-squared)来评估模型的预测能力。

5. 结果可视化:使用MATLAB的绘图函数,如plot,scatter等,将回归结果可视化。

可以绘制预测值与实际值的散点图,拟合曲线等。

岭回归分析可以应用于许多领域,如金融、医疗、经济等。

1.金融领域:使用岭回归分析来预测股票价格或市场指数。

通过选择合适的自变量,建立模型并进行预测,可以帮助投资者做出更准确的决策。

2.医疗领域:使用岭回归分析来研究患者的生存时间或疾病的进展情况。

通过分析患者的各种因素,如年龄、性别、病情等,可以建立预测模型,帮助医生做出更好的诊断和治疗决策。

3.经济领域:使用岭回归分析来研究经济指标之间的关系。

通过分析各种经济因素,如通货膨胀率、利率等,可以建立经济模型,预测经济发展趋势,并为决策者提供参考依据。

总之,岭回归分析在MATLAB中的实现是一个简单而强大的工具,可以用于解决多重共线性问题,并预测各种现象和现象之间的关系。

MATLAB回归分析

MATLAB回归分析

MATLAB回归分析回归分析是统计学中常用的一种方法,用于建立一个依赖于自变量(独立变量)的因变量(依赖变量)的关系模型。

在MATLAB环境下,回归分析可以实现简单线性回归、多元线性回归以及非线性回归等。

简单线性回归是一种最简单的回归分析方法,它假设自变量和因变量之间存在线性关系。

在MATLAB中,可以通过`polyfit`函数进行简单线性回归分析。

该函数可以拟合一元数据点集和一维多项式,返回回归系数和截距。

例如:```matlabx=[1,2,3,4,5];y=[2,3,4,5,6];p = polyfit(x, y, 1);slope = p(1);intercept = p(2);```上述代码中,`x`是自变量的数据点,`y`是因变量的数据点。

函数`polyfit`的第三个参数指定了回归的阶数,这里是1,即一次线性回归。

返回的`p(1)`和`p(2)`分别是回归系数和截距。

返回的`p`可以通过`polyval`函数进行预测。

例如:```matlabx_new = 6;y_pred = polyval(p, x_new);```多元线性回归是在有多个自变量的情况下进行的回归分析。

在MATLAB中,可以使用`fitlm`函数进行多元线性回归分析。

例如:```matlabx1=[1,2,3,4,5];x2=[2,4,6,8,10];y=[2,5,7,8,10];X=[x1',x2'];model = fitlm(X, y);coefficients = model.Coefficients.Estimate;```上述代码中,`x1`和`x2`是两个自变量的数据点,`y`是因变量的数据点。

通过将两个自变量放在`X`矩阵中,可以利用`fitlm`函数进行多元线性回归分析。

返回值`model`是回归模型对象,可以通过`model.Coefficients.Estimate`获得回归系数。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Matlab 回归分析
许多实际问题往往需要对大量数据进行分析,尤为重要的是统计分析
(statistical analysis)。

如统计预报中的预测、经验公式中的参数确定等等,常常用到各种统计方法。

回归分析(regression analysis )是研究各变量间相互关系的一种统计方法。

在回归分析中,分析者所关心的问题有以下几个方面:
(1) 拟合:建立因变量与自变量之间有效的经验函数关系,为进一步的研究提供线索;
(2) 变量选择:在一批自变量中确定哪些变量确实对因变量有影响,而哪些没有的影响;
(3) 估计与检验:估计回归模型中的未知参数,并且对模型提出的各种假设进行推断;
(4) 预测:根据已经观测的数据来预测因变量在未经观测的自变量上的值。

本章主要介绍一元或多元线性回归以及非线性回归的基本方法,介绍怎样使用MATLAB 软件进行回归分析,并且应用回归方程对因变量进行各种预测。

1 回归模型及回归分析 1.1 一元线性回归模型
一元线性回归模型:2;~(0,)
Y a bx N εεσ=++⎧⎨⎩ 或 ),(~2σbx a N Y + 称Y 与x 之间存在线性回归关系,其中的参数a 和b 称为一元线性回归的回归系数。

解决的问题归纳为以下几个方面:
1) 在回归模型中如何估计参数a 、b 和 σ2
? 2) 建模的假设是否正确?
3) 如何应用所求的回归方程对试验指标进行预测? 1. 回归系数a 、b 的最小二乘估计
已知观测值为 (,)x y i i (i =1,2,…,n)。

将它代入回归模型中有如下关系: y a bx i i i =++ε 其中i = 1,2,…,n。

采用最小二乘法,求观测值与期望值的离差平方和最小。

min (,)[()]Q a b y a bx i i n
i =-+=∑1
2
求出的解记为 a b ∧∧
,,回归方程为: y a b x ∧∧

=+。

(可用MATLAB 软件求解) 2. 回归模型的统计检验
回归模型的假设(f(x)= a+bx )是否成立?该问题可转化为对系数b 提出假设,
0:;0:10≠=b H b H
然后判断H 0是否成立,这就是假设检验问题。

有两种检验方法: 1) 相关系数检验法
在概率论中,相关系数(correlation coefficient)计算公式
为:
DY DX Y X r ⋅=
),cov(,它反映了X 与Y 线性相关密切程度的数量指标。

但计算它需要用X ,Y 的联合分布函数,而许多实际问题事先并不知道它的分布规律。

因此,需用样本相关系数的计算公式:
yy
xx xy n
i i
n
i i
n
i i i
L L L y y
x x
y y x x
r
=
-⋅
---=∑∑∑===1
2
1
2
1
)
()()
)((ˆ, r
ˆ是r 的一个点估计值。

其中 1|ˆ|0≤≤r
,当 |ˆ|r 越接近于1时,说明X 与Y 的线性关系就越显著;当 |ˆ|r 靠近零时,表明X 与Y 的线性关系不明显。

或者X 与Y 之间可能是非线性的关系,或者是两者根本不存在什么关系。

检验上述原假设 0:0=b H ,其拒绝域为: )}2(|ˆ{|0->=n r r αχ, α为检验水平。

2) F 检验法
平方和分解公式:
∑∑∑===-+-=-n
i i n i i i n
i i
y y y
y y y
1
21
2
1
2
)ˆ()ˆ()(
简记为: U Q L yy += 其中 Q 被称为残差平方和(residual sum of squares),
U 被称为回归平方和(regressive sum of squares)。

考虑检验假设 0:;0:10≠=b H b H 。

在 0H 为真时,可证明:
)}2,1({)
2,1(~)
2/(10->=--=
-n F F n F n Q U
F αχ拒绝域
上述检验法只是针对一元线性回归模型。

注意:
1. 对多元线性回归模型,同样存在类似的F 检验法和相关系数检验法。


∑∑==--=
n
i i
n
i i
y y
y y
r 12
12)()ˆ(为多元线性回归的复相关系数(multiple correlation
coefficient)。

2. 回归分析的计算工作量大,现在已有多种用于进行回归分析的计算机软件可供使用,比如:MATLAB 、SAS 、SPSS 、EXEL 等。

本节只介绍MATLAB 的使用方法。

3. 回归模型应用
建立回归模型目的在于应用,主要有两方面的应用——预测与控制。

下面做简单介绍。

1) 预测
对于给定的控制量x = x 0,给出E(y 0)的点估计: 00x b a y ∧


+=。

精度如何呢?
关于y 0的置信度为(1-a)%的预测区间为: )ˆ,ˆ(00n n d y d y
+-
其中 xx
n L x x n n t d 2
02)(11ˆ)2(-++-=σα,
2ˆ2-=n Q σ 2) 控制
观察值y 在某个区间 (y 1,y 2) 取值时,应如何控制x 的取值范围, 使得相应的观
察值落入指定区间(y 1,y 2)内的概率至少为1-a %.
解方程
2
1
211ˆˆˆˆˆαασσz x b a z y y -+=-=
2
2
222ˆˆˆˆˆαασσz x b a z y y ++=+=
求解得的x 1,x 2,即x 的控制区间的两个端点值.
1.2 多元线性、非线性回归模型 1.多元线性回归模型的形式及假设:
0112
...~(0,)
m m Y x x N βββε
εσ=++++⎧⎨⎩
1) 回归系数 βββ01,,...,m 的确定
根据观测值 (,,...,,)(,,...,)x x x y i n i i im i 1212=,要确定回归系数 βββ01,,...,m ,其方法仍然是最小二乘法。

y x x y x x m m n n m nm n 1011111011=++++=++++βββεβββε.........
... 建立优化目标函数:
min Q y x x m i i i n
i n
i m im (,,...,)[(...)]βββεβββ0121
1
0112
==-+++==∑∑
2)回归模型的检验 问题可转化为:
H 0: m βββ===...10= 0
检验法同样有两种--------相关系数和F 检验法。

这里只简介F 检验法。

平方和分解公式: 简记为: U Q L yy += 其中 Q 被称为剩余平方和,自由度为n-m-1;
U 被称为回归平方和,自由度为m ;
F 检验统计量: 在 0H 为真时,可证明:
3) 回归系数的检验
问题提出:H 0: 0=i β(i=1,…,m ),H 1: 0≠i β。

可以证明: ),(~ˆ2σββij i i c N (i=1,…,m )。

可用该结果求95%的置信区间和对上述假设进行检验。

若检验结果是接受H 0,则说明自变量
x i 对因变量y 的影响较小,可以将该变量从回归模型中剔除。

实际上,该检验结果成为剔除哪些自变量的一个重要依据。

4) 预测
给定一组值(x 1,x 2,…,x m )0,可以得到一点估计值y 0。

同理,可以计算它的预测区间。

2.多元非线性回归模型
⎩⎨⎧+=)
,0(~),...,,(221σεεN x x x f Y m
函数f(x 1,x 2,…,x m )为非线性函数形式,对该模型进行统计分析较为困难。

若已知函数形式, 则问题转换为确定某些参数问题, 在MATLAB 软件中只需进行参数的曲线拟合即可. 2 MATLAB 实现
MATLAB 统计工具箱用命令regress 实现多元线性回归,具体用法是:
b = regress(Y,X)
或 [b, bint, r, rint, stats] = regress(Y, X, alpha) 其中 Y 是因变量数据向量,X 是自变量数据矩阵,其排列方式如下:

⎥⎥
⎥⎦⎤
⎢⎢⎢
⎢⎣⎡=nm n m x x x x X
1
111
11,
⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=n y y Y 1 alpha 为显著性水平(缺省时设定为0.05),输出向量b ,bint 为回归
系数估计值 βββ01,,...,m 和它们的置信区间,r,rint 为残差(向量)及其置信区间,stats 是用于检验回归模型的统计量,有三个数值,第1
个是R2,R是相关系数,第2个是F统计量值,第三个是与统计量F对应的概率p,当p<α时拒绝H0,说明回归模型假设成立。

注意:残差及其置信区间可以用rcoplot(r, rint)画图。

相关文档
最新文档