用最小二乘法求线性回归方程
回归系数的最小二乘估计

: 冬季积雪期限(单位为周), : 每年化雪日期(以 2 月 1 日为 1), : 二月份平均气温(℃), : 三月份平均气温(℃), : 二化螟发生总量(头),
,
,
体重( )
28 39 41 44 43 50 51 57 63 66 70 76 80 81
,
,
,
,
, 于是正规方程组为
解此方程组得 ,
又
因此所求预测回归方程为
, ,
,
回归方程中系数 与 的含义是体长 每增加 1cm, 则猪体重毛重平均增加 0.522kg, 胸围 每增 加 1cm, 则猪体重毛重平均增加 0.475kg。
, (2.6)
, (2.7)
因此正规方程(2.6)的矩阵形式为 , (2.9)
或 , (2.10)
, (2.8)
其中 有
为正规方程中待定的未知实数向量, 如果系数矩阵 满秩, 则 存在, 此时
, (2.11) (2.11)式即为多元线性回归模型(1.2)式中参数的最小二乘估计。
正规方程组(2.6)亦可表达为下述另一种形式, 如果记
立 与 及 的预测方程。
序号
1 2 3 4 5 6 7 8 9 10 11 12 13 14
经计算:
体长( )
41 45 51 52 59 62 69 72 78 80 90 92 98 103
,
,
表 2.1
胸围( )
49 58 62 71 62 74 71 74 79 84 85 94 91 95
一元线性回归的最小二乘法详解及代码。

⼀元线性回归的最⼩⼆乘法详解及代码。
个⼈记录,⼤部分摘⾃概率论与数理统计⼀元线性回归模型设y与x间有相关关系,称x为⾃变量,y为因变量,我们只考虑在x是可控变量,只有y是随机变量,那么他们之间的相关关系可以表⽰为y=f(x)+ε其中ε是随机误差,⼀般假设ε~N(0,σ2)。
由于ε是随机变量,导致y也是随机变量。
进⾏回归分析⾸先是回归函数形式的选择。
通常采⽤画散点图来进⾏选择。
有⼀份合⾦钢强度y与碳含量x的数据表数据散点图如下可以看出,数据点基本在⼀条直线上,说明两个数据有线性相关关系,可以表⽰为y=β0+β1x+ε这是y关于x的⼀元线性回归的数据结构,其中β0,β1分别是截距和斜率。
ε~N(0,σ2)则回归⽅程为回归系数的最⼩⼆乘法估计。
我们⾸先令偏差平⽅和Q(β0,β1)=∑n i=1(y i-β0-β1x i)2最⼩⼆乘法就是尽量使Q(β0,β1)=∑n i=1(y i-β0-β1x i)2=0,分别对β0,β1求偏导整理后可知⽅程组 1如⽆特殊声明Σ均表⽰Σn i=1,则有解⽅程组1 可知python代码1import numpy as np2#导⼊回归数据3 x=np.array([0.1,0.11,0.12,0.13,0.14,0.15,0.16,0.17,0.18,0.2,0.21,0.23])4 y=np.array([42,43,45,45,45,47.5,49,53,50,55,55,60])5#x求和6 sx=sum(x)7# y求和8 sy=sum(y)9#参数个数10 n=len(x)11#x的平均值12 mx=np.mean(x)13#y的平均值14 my=np.mean(y)15#∑(xi)^2,所有xi的平⽅和16 sx2=sum(x*x)17#∑(yi)^2所有yi的平⽅和18 sy2=sum(y*y)19#∑xiyi 所有xiyi的和20 sxy=sum(x*y)21#lxx22 lxx=sx2-1/n*pow(sx,2)23#lxy24 lxy=sxy-1/n*sx*sy25#lyy26 lyy=sy2-1/n*pow(sy,2)27#β128β1=lxy/lxx29#β030β0=my-mx*β13132#结果 y=28.08+132.90到此结束。
线性回归之最小二乘法

1.最小二乘法的原理最小二乘法的主要思想是通过确定未知参数(通常是一个参数矩阵),来使得真实值和预测值的误差(也称残差)平方和最小,其计算公式为E=\sum_{i=0}^ne_i^2=\sum_{i=1}^n(y_i-\hat{y_i})^2 ,其中 y_i 是真实值,\hat y_i 是对应的预测值。
如下图所示(来源于维基百科,Krishnavedala 的作品),就是最小二乘法的一个示例,其中红色为数据点,蓝色为最小二乘法求得的最佳解,绿色即为误差。
图1图中有四个数据点分别为:(1, 6), (2, 5), (3, 7), (4, 10)。
在线性回归中,通常我们使用均方误差来作为损失函数,均方误差可以看作是最小二乘法中的 E 除以m(m 为样本个数),所以最小二乘法求出来的最优解就是将均方误差作为损失函数求出来的最优解。
对于图中这些一维特征的样本,我们的拟合函数为h_\theta(x)=\theta_0+\theta_1x ,所以损失函数为J(\theta_0,\theta_1)=\sum_\limits{i=0}^m(y^{(i)}-h_\theta(x^{(i)}))^2=\sum_\limits{i=0}^m(y^{(i)}-\theta_0-\theta_1x^{(i)})^2 (这里损失函数使用最小二乘法,并非均方误差),其中上标(i)表示第 i 个样本。
2.最小二乘法求解要使损失函数最小,可以将损失函数当作多元函数来处理,采用多元函数求偏导的方法来计算函数的极小值。
例如对于一维特征的最小二乘法, J(\theta_0,\theta_1) 分别对 \theta_0 , \theta_1 求偏导,令偏导等于 0 ,得:\frac{\partial J(\theta_0,\theta_1)}{\partial\theta_0}=-2\sum_\limits{i=1}^{m}(y^{(i)}-\theta_0-\theta_1x^{(i)}) =0\tag{2.1}\frac{\partial J(\theta_0,\theta_1)}{\partial\theta_1}=-2\sum_\limits{i=1}^{m}(y^{(i)}-\theta_0-\theta_1x^{(i)})x^{(i)} = 0\tag{2.2}联立两式,求解可得:\theta_0=\frac{\sum_\limits{i=1}^m(x^{(i)})^2\sum_\limits{i=1}^my^{(i)}-\sum_\limits{i=1}^mx^{(i)}\sum_\limits{i=1}^mx^{(i)}y^{(i)}}{m\sum_\limits{i=1}^m(x^{(i)})^2-(\sum_\limits{i=1}^mx^{(i)})^2} \tag{2.3}\theta_1=\frac{m\sum_\limits{i=1}^mx^{(i)}y^{(i)}-\sum_\limits{i=1}^mx^{(i)}\sum_\limits{i=1}^my^{(i)}}{m\sum_\limits{i=1}^m(x^{(i)})^2-(\sum_\limits{i=1}^mx^{(i)})^2} \tag{2.4}对于图 1 中的例子,代入公式进行计算,得: \theta_0 = 3.5, \theta_1=1.4,J(\theta) = 4.2 。
“最小二乘法求线性回归方程”教学设计

“最小二乘法求线性回归方程”教学设计一.内容和内容解析本节课的主要内容为用最小二乘法求线性回归方程。
本节课内容作为上节课线性回归方程探究的知识发展,在知识上有很强的联系,所以,核心概念还是回归直线。
在“经历用不同估算方法描述两个变量线性相关关系”的过程后,解决好用数学方法刻画“从整体上看,各点与此直线的距离最小”,让学生在此基础上了解更为科学的数据处理方式——最小二乘法,有助于更好的理解核心概念,并最终体现回归方法的应用价值。
就统计学科而言,对不同的数据处理方法进行“优劣评价”是“假设检验”的萌芽,而后者是统计学学科研究的另一重要领域。
了解“最小二乘法思想”,比较各种“估算方法”,体会它的相对科学性,既是统计学教学发展的需要,又在体会此思想的过程中促进了学生对核心概念的进一步理解。
“最小二乘法思想”作为本节课的核心思想,由此得以体现。
而回归思想和贯穿统计学科中的随机思想,也在本节课中需有所渗透。
所以,在内容重点的侧重上,本节课与上节课有较大的区别:上节课侧重于估算方法设计,在不同的数据处理过程中,体会回归直线作为变量相关关系代表这一概念特征;本节课侧重于估算方法评价与实际应用,在评价中使学生体会核心思想,理解核心概念。
考虑到本节课的教学侧重点与新课程标准的要求,对线性回归方程系数的计算公式,可直接给出。
由于公式的复杂性,一方面,既要通过教学设计合理体现知识发生过程,不搞“割裂”;另一方面,要充分利用计算机或计算器,简化繁琐的求解系数过程,简化过于形式化的证明说理过程。
基于上述内容分析,确定本节课的教学重点为知道最小二乘法思想,并能根据给出的线性回归方程的系数公式建立线性回归方程。
二.目标和目标解析本节课要求学生了解最小二乘法思想,掌握根据给出的线性回归方程系数公式建立线性回归方程,理解线性回归方程概念和回归思想,在以上过程中体会随机思想:1.能用数学符号刻画出“从整体上看,各点与此直线的点的偏差”的表达方式;2.通过减少样本点个数,经历对表达式的展开,把“偏差最小”简化为“二次多项式”最小值问题,通过合情推理,使学生接受最小二乘法的科学性,在此过程中了解最小二乘法思想;3.能结合具体案例,经历数据处理步骤,根据回归方程系数公式建立回归方程;4.通过改变同一问题下样本点的选择进而对照回归方程的差异,体会随机思想;5.利用回归方程预测,体现用“确定关系研究相关关系”的回归思想;三.教学目标分析在经历用不同估算方法描述两个变量线性相关的过程后,在学生现有知识能力范围内,如何选择一个最优方法,成为知识发展的逻辑必然。
最小二乘法一元线性回归

最小二乘法产生的历史
• 最小二乘法最早称为回归分析法。由著 名的英国生物学家、统计学家道尔顿 (F.Gallton)——达尔文的表弟所创。 • 早年,道尔顿致力于化学和遗传学领域 的研究。 • 他研究父亲们的身高与儿子们的身高之 间的关系时,建立了回归分析法。
14
最小二乘法的地位与作用
• 现在回归分析法已远非道尔顿的本意 • 已经成为探索变量之间关系最重要的方 法,用以找出变量之间关系的具体表现 形式。 • 后来,回归分析法从其方法的数学原 理——误差平方和最小(平方乃二乘也) 出发,改称为最小二乘法。
• 五、随机干扰项服从正态分布。该假设 给出了被解释变量的概率分布。 • 六、随机干扰项的期望值为0。即: • E(u)=0 • 七、随机干扰项具有方差齐性。即: • 八、随机干扰项相互独立。 •
11
•
第二节 模型参数的估计 一、普通最小二乘法 ( OLS 估计) 通过协方差或相关系数证实变量之间存在关系,仅仅
i
(1) (2) 或 n xi (6)
23
na xi b yi 2 a xi b x i y i xi
(3) (4)
i i
a y x b x x y
185
180
175 Y
170
y
x
150 160 170
X
165
160 140
180
190
200
“回归”一词的由来
• 从图上虽可看出,个子高的父亲确有生出个子 高的儿子的倾向,同样地,个子低的父亲确有 生出个子低的儿子的倾向。得到的具体规律如 下: y a bx u
822一元线性回归模型参数的最小二乘估计 课件(共23张PPT)

观测数据与直线 y bx a的“整体接近程度”.
探究新知
残差:实际值与估计值之间的差值,即 yi (bxi a )
n
| y
i 1
i
(bxi a ) |
n
残差平方和: Q(a, b) yi (bxi a )
2
i 1
求a, b的值,使Q(a, b)最小
的变化的方法称为回归分析.
探究新知
一元线性回归模型Y bx a e
对于响应变量Y,通过观测得到的数据为观测值,通过经验回归
方程得到的 ŷ称为预测值,观测值减去预测值称为残差,即eˆ y yˆ .
残差是随机误差的估计值,通过对残差的分析可判断回归模
型刻画数据的效果,以及判断原始数据中是否存在可疑数据等,
C.a 0, b 0
D.a 0, b 0
6
n
i 1
i 1
2
(
x
x
)
17.5
x 5.5, y 0.25 ( xi x)( yi y) 24.5 i
25.5
b
1.4
17.5
â bˆ x y 7.95
利用公式(2)可以计算出b=0.839, a=28.957, 得到儿子身高Y
关于父亲身高x的经验回归方程为 y 0.839 x 28.957
相应的经验回归直线如下图所示:
儿子身高/cm
190
185
180
ŷ 0.839 x 28.957
175
170
165
160
160
165
170
175
探究新知
最小二乘法求解线性回归问题

最小二乘法求解线性回归问题最小二乘法是回归分析中常用的一种模型估计方法。
它通过最小化样本数据与模型预测值之间的误差平方和来拟合出一个线性模型,解决了线性回归中的参数估计问题。
在本文中,我将详细介绍最小二乘法在线性回归问题中的应用。
一、线性回归模型在介绍最小二乘法之前,先了解一下线性回归模型的基本形式。
假设我们有一个包含$n$个观测值的数据集$(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)$,其中$x_i$表示自变量,$y_i$表示因变量。
线性回归模型的一般形式如下:$$y=\beta_0+\beta_1 x_1+\beta_2 x_2+\dots+\beta_px_p+\epsilon$$其中,$\beta_0$表示截距,$\beta_1,\beta_2,\dots,\beta_p$表示自变量$x_1,x_2,\dots,x_p$的系数,$\epsilon$表示误差项。
我们希望通过数据集中的观测值拟合出一个线性模型,即确定$\beta_0,\beta_1,\dots,\beta_p$这些未知参数的值,使得模型对未知数据的预测误差最小化。
二、最小二乘法的思想最小二乘法是一种模型拟合的优化方法,其基本思想是通过最小化优化问题的目标函数来确定模型参数的值。
在线性回归问题中,我们通常采用最小化残差平方和的方式来拟合出一个符合数据集的线性模型。
残差代表观测值与模型估计值之间的差异。
假设我们有一个数据集$(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)$,并且已经选定了线性模型$y=\beta_0+\beta_1 x_1+\beta_2 x_2+\dots+\beta_p x_p$。
我们希望选择一组系数$\beta_0,\beta_1,\dots,\beta_p$,使得模型对数据集中的观测值的预测误差最小,即最小化残差平方和(RSS):$$RSS=\sum_{i=1}^n(y_i-\hat{y}_i)^2$$其中,$y_i$表示第$i$个观测值的实际值,$\hat{y}_i$表示该观测值在当前模型下的预测值。
最小二乘法OLS和线性回归

1
本章要点
最小二乘法的基本原理和计算方法
经典线性回归模型的基本假定
BLUE统计量的性质 t检验和置信区间检验的原理及步骤 多变量模型的回归系数的F检验 预测的类型及评判预测的标准 好模型具有的特征
2
第一节
最小二乘法的基本属性
一、有关回归的基本介绍
金融、经济变量之间的关系,大体上可以分 为两种:
(1)函数关系:Y=f(X1,X2,….,XP),其中Y的 值是由Xi(i=1,2….p)所唯一确定的。 (2)相关关系: Y=f(X1,X2,….,XP) ,这里Y的 值不能由Xi(i=1,2….p)精确的唯一确定。
3
图2-1 货币供应量和GDP散点图
注意:SRF中没有误差项,根据这一方程得到 的是总体因变量的期望值
17
于是方程(2.7)可以写为:
ˆ ˆ ˆ yt xt ut
和残差项(
(2.9)
总体y值被分解为两部分:模型拟合值(
ˆ u t )。
ˆ y)
18
3.线性关系 对线性的第一种解释是指:y是x的线性函数, 比如,y= x。 对线性的第二种解释是指:y是参数的一个线 性函数,它可以不是变量x的线性函数。 2 比如,y= x 就是一个线性回归模型, 但 y x 则不是。
(一) 方法介绍
本章所介绍的是普通最小二乘法(ordinary least squares,简记OLS);
最小二乘法的基本原则是:最优拟合直线应该 使各点到直线的距离的和最小,也可表述为距 离的平方和最小。
假定根据这一原理得到的α、β估计值为 、 , ˆ yt 。 xt ˆ ˆ ˆ 则直线可表示为
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
最小二乘法主要用来求解两个具有线性相关关系的变量的回归方程,该方法适用于求解与线性回归方程相关的问题,如求解回归直线方程,并应用其分析预报变量的取值等.破解此类问题的关键点如下:
①析数据,分析相关数据,求得相关系数r,或利用散点图判断两变量之间是否存在线性相关关系,若呈非线性相关关系,则需要通过变量的变换转化构造线性相关关系.
②建模型.根据题意确定两个变量,结合数据分析的结果建立回归模型.
③求参数.利用回归直线y=bx+a的斜率和截距的最小二乘估计公式,求出b,a,的值.从而确定线性回归方程.
④求估值.将已知的解释变量的值代入线性回归方程y=bx+a中,即可求得y的预测值.
注意:回归直线方程的求解与应用中要注意两个方面:一是求解回归直线方程时,利用样本点的中心(x,y)必在回归直线上求解相关参数的值;二是回归直线方程的应用,利用回归直线方程求出的数值应是一个估计值,不是真实值.
经典例题:
下图是某地区2000年至2016年环境基础设施投资额(单位:亿元)的折线图.
为了预测该地区2018年的环境基础设施投资额,建立了与时间变量的两个线性回归模型.根据2000年至2016年的数据(时间变量的值依次为1,2.,……,17)建立模型①:y=+;根据2010年至2016年的数据(时间变量的值依次为)建立模型②:y=99+.
(1)分别利用这两个模型,求该地区2018年的环境基础设施投资额的预测值;
(2)你认为用哪个模型得到的预测值更可靠并说明理由.
思路分析:(1)两个回归直线方程中无参数,所以分别求自变量为2018时所对应的函数值,就得结果,(2)根据折线图知2000到2009,与2010到2016是两个有明显区别的直线,且2010到2016的增幅明显高于2000到2009,也高于模型1的增幅,因此所以用模型2更能较好得到2018的预测.
解析:(1)利用模型①,该地区2018年的环境基础设施投资额的预测值为
=–+×19=(亿元).
利用模型②,该地区2018年的环境基础设施投资额的预测值为
=99+×9=(亿元).
(2)利用模型②得到的预测值更可靠.理由如下:
(i)从折线图可以看出,2000年至2016年的数据对应的点没有随机散布在直线y=–+上下,这说明利用2000年至2016年的数据建立的线性模型①不能很好地描述环境基础设施投资额的变化趋势.2010年相对2009年的环境基础设施投资额有明显增加,2010年至2016年的数据对应的点位于一条直线的附近,这说明从2010年开始环境基础设施投资额的变化规律呈线性增长趋势,利
用2010年至2016年的数据建立的线性模型=99+可以较好地描述2010年以后的环境基础设施投资额的变化趋势,因此利用模型②得到的预测值更可靠.(ii)从计算结果看,相对于2016年的环境基础设施投资额220亿元,由模型①得到的预测值亿元的增幅明显偏低,而利用模型②得到的预测值的增幅比较合理,说明利用模型②得到的预测值更可靠.
以上给出了2种理由,考生答出其中任意一种或其他合理理由均可得分.
总结:若已知回归直线方程,则可以直接将数值代入求得特定要求下的预测值;若回归直线方程有待定参数,则根据回归直线方程恒过中心点求参数.
线性回归方程是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一,线性回归也是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。
按自变量个数可分为一元线性回归分析方程和多元线性回归分析方程。
线性方程不难,公式会直接给出,有
时会出现在选择题,这部分难度同样是在于计算,刚开始学这部分知识的时候很多同学没有耐心计算,其实很简单的列个表格算就行了
某公司要推出一种新产品,分6个相等时长的时段进行试销,并对卖出的产品进行跟踪以及收集顾客的评价情况(包括产品评价和服务评价),在试销阶段
共卖出了480件,通过对所卖出产品的评价情况和销量情况进行统计,一方面发现对该产品的好评率为5/6,对服务的好评率为,对产品和服务两项都没有好评有30件,另一方面发现销量和单价有一定的线性相关关系,具体数据如下表:
考点分析:
线性回归方程.
线性回归方程是高考新增内容,主要考查散点图、变量间的相关关系的判断以及线性回归方程的求法。
题干分析:
(1)由题意得到2×2列联表,由公式求出K2的观测值,对比参考表格得结论;
(2)求出样本的中心点坐标,计算回归方程的系数,写出利润函数w的解析式,求出w(x)的最大值以及对应的x的值.
解题反思:
高考对线性回归方程的考查力度逐步增加,以前只有很少题型出现,但在近几年高考试题中就很常见了,逐渐成为高考数学热点问题之一,由此可以看出这部分知识的重要性了。
3.(2017·山东卷)为了研究某班学生的脚长x (单位:厘米)和身高y (单位:厘米)的关系,从该班随机抽取10名学生,根据测量数据的散点图可以看出y 与x 之间
有线性相关关系,设其回归直线方程为y ^=b ^x +a ^.已知∑10i =1x i =225,∑10i =1y i
=1 600,b ^=4.该班某学生的脚长为24,据此估计其身高为( )
解析 由已知得x =,y =160,
∵回归直线方程过样本点中心(x ,y ),且b
^=4, ∴160=4×+a ^,解得a ^=70.
∴回归直线方程为y ^=4x +70,当x =24时,y ^=166.故选C.
(2)(2016·全国Ⅲ卷)如图是我国2008年至2014年生活垃圾无害化处理量(单位:亿吨)的折线图.
注:年份代码1~7分别对应年份2008~2014.
①由折线图看出,可用线性回归模型拟合y 与t 的关系,请用相关系数加以说明;
②建立y 关于t 的回归方程(系数精确到,预测2016年我国生活垃圾无害化处
理量.
附注:
参考数据:∑7i =1y i =,∑7i =1t i y i =,∑7
i =1 (y i -y )2=,7≈.
回归方程y ^=a ^+b ^t 中斜率和截距的最小二乘估计公式分别为:
(2)解 ①由折线图中的数据和附注中参考数据得
t =4,∑7i =1
(t i -t )2=28,∑7i =1 (y i -y )2=. ∑7i =1 (t i -t )(y i -y )=∑7i =1t i y i -t ∑7i =1
y i =-4×=,所以r ≈错误!≈. 因为y 与t 的相关系数近似为,说明y 与t 的线性相关程度相当高,从而可以用线性回归模型拟合y 与t 的关系. ②由y =错误!=及(1)得错误!=错误!=错误!≈,
a ^=y -b
^t ≈-×4≈. 所以,y 关于t 的回归方程为y ^=+.
将2016年对应的t =9代入回归方程得:y ^=+×9=.
所以预测2016年我国生活垃圾无害化处理量约为亿吨.
探究提高 1.求回归直线方程的关键及实际应用
(1)关键:正确理解计算b ^,a ^的公式和准确地计算.
(2)实际应用:在分析实际中两个变量的相关关系时,可根据样本数据作出散点图来确定两个变量之间是否具有相关关系,若具有线性相关关系,则可通过线性回归方程估计和预测变量的值.
(2)(2017·唐山一模)某市春节期间7家超市的广告费支出x i (万元)和销售额y i (万元)数据如下:
超市 A B C D E F G 广告费支出x i 1 2 4 6 11 13 19 销售额y i
19
32
40
44
52
53
54
①若用线性回归模型拟合y 与x 的关系,求y 关于x 的线性回归方程; ②用对数回归模型拟合y 与x 的关系,可得回归方程y ^=12ln x +22,经计算得出线性回归模型和对数模型的R 2分别约为和,请用R 2说明选择哪个回归模型更合适,并用此模型预测A 超市广告费支出为8万元时的销售额.
参数数据及公式:x =8,y =42,∑7
i =1x i y i =2 794,∑7
i =1
x 2i
=708,
(1)解析 ∵k ≈>,且P (K 2≥k 0==,根据独立性检验思想“这种血清能起到预防感冒的作用”出错的可能性不超过5%. 答案 B
(2)解 ①∵x =8,y =42,∑7
i =1x i y i =2 794,∑7
i =1
x 2i =708.
因此a ^=y -b
^x =42-×8=.
所以,y 关于x 的线性回归方程是y ^=+. ②∵<,
∴对数回归模型更合适.
当x =8时,y ^=12ln 8+22=36ln 2+22=36×+22=万元. ∴广告费支出8万元时,预测A 超市销售额为万元.。