机器学习算法系列(2):线性回归
人工智能常用算法模型

人工智能常用算法模型介绍人工智能(Artificial Intelligence,AI)是指通过计算机技术实现类似人类智能的一种技术。
人工智能常用算法模型是指在人工智能领域中常用的用于解决各种问题的算法模型。
这些算法模型可以帮助计算机实现自动化处理和决策,以模拟人类的思维过程和行为。
本文将介绍一些常用的人工智能算法模型,包括机器学习算法、深度学习算法等,并探讨它们在不同领域的应用。
机器学习算法模型机器学习(Machine Learning,ML)是一种人工智能的分支,它通过从大量数据中进行学习和模式识别,来实现对未知数据的预测和决策。
以下是一些常见的机器学习算法模型:1. 线性回归模型线性回归是一种用于预测连续性数值的模型。
它基于假设输入变量与输出变量之间存在线性关系,并通过拟合最优直线来进行预测。
线性回归模型可以应用于房价预测、销量预测等问题。
2. 逻辑回归模型逻辑回归是一种用于预测离散性数值的模型。
它基于假设输入变量与输出变量之间存在逻辑关系,并通过拟合最优曲线来进行预测。
逻辑回归模型常用于分类问题,如垃圾邮件分类、疾病诊断等。
3. 决策树模型决策树是一种用于进行决策的模型。
它通过一系列的判断条件和分支,将数据划分为不同的类别或预测结果。
决策树模型可用于预测乘客是否幸存、贷款违约风险等问题。
4. 支持向量机模型支持向量机是一种用于分类和回归分析的模型。
它通过找到一个最优的超平面,将数据分隔开来,使得不同类别的数据能够尽可能远离超平面。
支持向量机模型广泛应用于图像分类、手写数字识别等问题。
深度学习算法模型深度学习(Deep Learning,DL)是一种机器学习的方法,以神经网络为基础,通过多层次、分层次的学习和表达来解决复杂问题。
以下是一些常见的深度学习算法模型:1. 卷积神经网络模型卷积神经网络是一种使用卷积操作和池化操作进行图像处理和图像分类的模型。
它模拟了人类视觉系统的结构,通过提取图像的特征来实现图像识别、物体检测等任务。
线性回归的求解方法

线性回归的求解方法线性回归是一种广泛应用于机器学习和数据分析领域的数学方法,它能从现有数据中分析出变量间的关系,从而预测未来的结果。
该方法在各行各业都得到了广泛应用,包括经济学、工程学、医学、生物学等领域。
本文将主要介绍线性回归的求解方法,包括最小二乘法和梯度下降法。
一、最小二乘法最小二乘法是一种常见的线性回归求解方法,它的基本思想是找到一条直线,使得这条直线与数据点之间的距离最短。
距离通常是指欧几里得距离或曼哈顿距离。
具体来说,最小二乘法的公式如下:$$\hat{\beta} = (X^TX)^{-1}X^TY$$其中,$\hat{\beta}$表示回归系数的向量,$X$表示自变量的矩阵,$Y$表示因变量的向量。
最小二乘法的求解过程包括以下几个步骤:1. 将自变量和因变量分别存储在矩阵$X$和向量$Y$中。
2. 计算$X^TX$的逆矩阵,如果逆矩阵不存在,则说明矩阵$X$线性相关,需要进行特征分解或奇异值分解来处理。
3. 计算$\hat{\beta}$的值,即$(X^TX)^{-1}X^TY$。
最小二乘法的优点在于简单易懂,求解速度较快。
但是,它也存在一些缺点,例如当数据集中存在极端值时,该方法会对这些极端值敏感。
二、梯度下降法与最小二乘法相比,梯度下降法在面对大规模数据时能够更好地处理。
梯度下降法的基本思想是根据误差的方向和大小不断更新回归系数的值,以达到最小化误差的目的。
梯度下降法的公式如下:$$\beta_{new}=\beta_{old}-\alpha\frac{\partial RSS}{\partial\beta}$$其中,$\beta_{new}$表示迭代后的回归系数向量,$\beta_{old}$表示迭代前的回归系数向量,$\alpha$表示学习率,$RSS$表示残差平方和。
梯度下降法的求解过程包括以下几个步骤:1. 初始化回归系数向量$\beta$和学习率$\alpha$。
2. 计算回归函数的预测值$y$3. 计算误差$e=y-y_{true}$4. 计算残差平方和$RSS=\sum_{i=1}^{n}e_i^2$5. 计算参数向量的梯度$\frac{\partial RSS}{\partial \beta}$6. 更新参数向量:$\beta_{new}=\beta_{old}-\alpha\frac{\partial RSS}{\partial \beta}$7. 通过迭代不断更新参数,直到误差达到最小值。
机器学习常见算法分类

机器学习常见算法分类机器学习算法主要可以分为监督学习、无监督学习和强化学习三大类。
在这三大类下,又可以进一步细分为多个具体的算法。
1.监督学习算法:- 线性回归(Linear Regression): 基于线性模型,通过最小化预测与实际值之间的差距进行训练。
- 逻辑回归(Logistic Regression): 用于二分类问题,通过建立逻辑回归模型,将输入映射到一个概率值。
- 决策树(Decision Tree): 通过一系列判断节点和叶节点的组合,建立一个树形结构的分类模型。
- 支持向量机(Support Vector Machine,SVM): 通过寻找最大间隔来划分不同类别之间的边界。
- 随机森林(Random Forest): 基于多个决策树的集成算法,通过投票选择最终结果。
- K近邻算法(K-Nearest Neighbors,KNN): 根据新样本与训练样本之间的距离来确定分类。
2.无监督学习算法:无监督学习是指从输入数据中寻找隐藏结构或模式,而不需要预先标记的训练数据。
常见的无监督学习算法包括:- 聚类算法(Clustering): 将数据分成不同的簇,使得同一簇内的数据相似度较高,不同簇间的数据差异较大。
- K均值算法(K-Means): 将数据分成K个簇,每个簇中的数据与该簇的中心点距离最近。
-DBSCAN:根据数据点的密度划分簇,具有自动确定簇个数的能力。
- 关联规则学习(Association Rule Learning): 发现数据中的关联规则,例如购物篮分析等。
3.强化学习算法:强化学习是一种与环境进行交互的学习方式,通过试错而不是通过标记的训练数据进行学习。
常见的强化学习算法包括:- Q学习(Q-Learning): 通过探索和利用的方式学习到一个动作值函数,用于选择在给定状态下的最优动作。
- 深度强化学习(Deep Reinforcement Learning): 结合深度神经网络和强化学习的方法,用于处理高维、复杂的任务。
人工智能:机器学习中常用的六大算法

人工智能:机器学习中常用的六大算法人工智能(AI)是当今世界一个非常热门的话题。
在AI领域中,机器学习是一个重要的分支,它利用算法和数据让计算机能够自动学习和改进。
而在机器学习中,有许多常用且重要的算法。
在本文中,我们将介绍六个常用的机器学习算法,以及它们在人工智能领域中的应用。
1. 线性回归算法线性回归是最简单也是最常用的机器学习算法之一。
它的思想非常简单,通过拟合一个线性方程来预测输出变量与输入变量之间的关系。
这个方程可以用来预测未来的数值,也可以用来分析变量之间的相关性。
线性回归算法在许多领域都有广泛的应用,比如经济学、金融学和市场营销等。
它可以用来预测股票价格、销售额以及其他连续变量。
此外,线性回归算法还可以通过分析变量之间的相关性来帮助研究人员获得对数据的更深入理解。
2. 逻辑回归算法逻辑回归是一种二分类算法,用于预测一个变量的取值是0还是1。
它通过计算输入变量与输出变量之间的概率关系来进行预测。
这个算法可以用来解决许多实际问题,比如判断邮件是否是垃圾邮件、预测一个人是患有某种疾病的可能性等。
逻辑回归算法在医学、生物学和金融等领域有广泛的应用。
它可以用来辅助医生做出合理的诊断决策,也可以用来预测一个人是否会违约或者犯罪等。
3. 决策树算法决策树是一种非常直观且易于理解的机器学习算法。
它通过树状结构来表示决策过程,并基于输入变量来进行分类或预测。
决策树的每个节点代表一个特征变量,每个分支代表一个可能的取值,而叶子节点代表了输出变量的取值。
决策树算法在许多领域都有广泛的应用。
它可以用于分析客户的购买模式、预测患者的疾病风险以及判断一封电子邮件是否是垃圾邮件等。
决策树的优势在于它的结果易于解释和理解,同时也可以处理具有非线性关系的数据。
4. 支持向量机算法支持向量机(SVM)是一种强大的机器学习算法,可以用于分类和回归问题。
它的基本思想是找到一个最佳的超平面来将不同类别的样本点进行分割。
SVM算法在许多领域中都有广泛的应用,比如图像分类、文本分类和生物信息学等。
机器学习的算法原理

机器学习的算法原理机器学习是一门研究如何让计算机通过学习从数据中获取知识和经验的学科。
它的核心是算法,通过算法实现对数据的分析和模式的发现。
本文将介绍几种常见的机器学习算法原理。
一、监督学习算法1. 线性回归算法线性回归算法是一种基本的监督学习算法,它通过拟合数据集中的线性模型来预测连续数值。
该算法的原理是最小化预测值与真实值之间的平方差。
2. 逻辑回归算法逻辑回归算法是一种用于分类问题的监督学习算法。
它通过拟合数据集中的逻辑模型来预测样本的类别。
该算法的原理是通过将线性回归的输出映射到一个概率上,根据阈值判断样本的类别。
3. 决策树算法决策树算法是一种基于树结构进行决策的算法。
它通过选择最优特征进行划分,构建一个树形的决策模型。
该算法的原理是通过一系列的判断条件对样本进行分类。
二、无监督学习算法1. K均值聚类算法K均值聚类算法是一种常用的无监督学习算法,它将数据集中的样本划分为K个簇,以使得同一簇内的样本相似度最高,不同簇间的样本相似度最低。
该算法的原理是通过迭代优化簇的中心位置,使得样本与所属簇中心的距离最小。
2. 主成分分析算法主成分分析算法是一种降维技术,它通过线性变换将高维数据映射到低维空间。
该算法的原理是找到数据中方差最大的方向作为第一主成分,然后找到与第一主成分正交且方差次大的方向作为第二主成分,依次类推。
三、增强学习算法1. Q学习算法Q学习算法是一种强化学习算法,它通过学习一个动作值函数Q来进行决策。
该算法的原理是在一个环境中,智能体通过不断尝试和观察反馈来更新动作值函数,并选择能够最大化总回报的动作。
2. 蒙特卡洛树搜索算法蒙特卡洛树搜索算法是一种用于决策的强化学习算法,它通过模拟对未来可能的情况进行评估,并选择最优的行动。
该算法的原理是基于蒙特卡洛方法,利用随机采样和策略评估来搜索决策空间。
总结:机器学习的算法原理涵盖了监督学习、无监督学习和增强学习等多个领域。
不同的算法适用于不同的问题和数据类型。
机器学习算法分类回归和聚类方法

机器学习算法分类回归和聚类方法机器学习是一门研究如何让计算机通过大量数据自动学习并改善性能的学科。
在机器学习中,算法的选择至关重要。
本文将介绍机器学习中的三种常见算法:分类、回归和聚类。
一、分类算法分类是机器学习中最基本的任务之一,其目的是根据给定的数据集将实例划分到不同的类别中。
常见的分类算法有决策树、朴素贝叶斯分类器和支持向量机。
1. 决策树:决策树是一种基于树形结构的分类方法。
它通过对数据集进行递归划分,每次都选择最能提高分类准确性的特征进行划分。
通过构建决策树,可以得到一系列条件判断规则,从而对新实例进行分类。
2. 朴素贝叶斯分类器:朴素贝叶斯分类器基于贝叶斯定理和特征条件独立性假设。
该算法通过统计每个类别下各个特征的概率分布,并利用贝叶斯定理计算后验概率,从而进行分类。
3. 支持向量机:支持向量机通过构建超平面来实现分类。
其目标是找到一个最优超平面,使得训练集中的不同类别的样本距离超平面的间隔最大化。
该算法可以处理高维数据,具有很强的泛化能力。
二、回归算法回归是机器学习中另一种重要的任务,其目的是通过学习数据的输入输出关系,预测连续数值型的输出。
常见的回归算法有线性回归、多项式回归和支持向量回归。
1. 线性回归:线性回归是一种基于线性模型的回归方法。
它通过拟合数据集中的直线或超平面,来建立输入与输出之间的线性关系。
线性回归常用于分析连续变量之间的关系,以及进行趋势预测。
2. 多项式回归:多项式回归是一种基于多项式模型的回归方法。
它通过将输入特征的多项式形式引入回归模型,可以拟合更为复杂的数据分布。
多项式回归在非线性情况下能够提供更准确的预测。
3. 支持向量回归:支持向量回归与支持向量机类似,但它用于回归问题。
支持向量回归通过找到一个最优超平面,使得训练集中的样本与超平面的距离最小化,从而建立输入输出之间的非线性关系。
三、聚类算法聚类是机器学习中一种无监督学习方法,其目的是将数据集中的样本划分为若干个类别,使得同类样本之间的相似度高于异类样本。
机器学习线性回归

机器学习——线性回归一.线性模型评价指标在开始线性回归模型前,先介绍一下线性模型的几个统计指标。
下面是参数说明:•MSE (Mean Squared Error 平均平方误差)MSE=1m∑i=1m(y(i)−y^(i))2•RMSE (Root Mean Squared Error 平均平方误差的平方根) RMSE=1m∑i=1m(y(i)−y^(i))2•MAE (Mean Absolute Error 平均绝对值误差)MAE=1m∑i=1m|y(i)−y^(i)|•R^2 决定系数用来表示模型拟合性的分值,值越高表示模型的拟合程度越高o TSS:所有样本数据与均值的差异,是方差的m倍;y¯=1m∑i=1my(i) TSS=∑i=1m(y(i)−y¯)2o RSS:样本数据误差的平方和,是MSE的倍。
RSS=∑i=1m(y(i)−y^(i))2则R2 :R2=1−RSSTSS , R∈[0,1]二.一元线性回归了解了评价模型的评价指标后就可开始一元线性回归模型的学习了。
1.基本形式一元线性回归模型是最简单的机器学习模型,其形式如下:y^=ax+b2.模型求解其求解过程也很简单:b^=∑i=1nxiyi−nxy¯∑i=1nxi2−nx¯2a=y¯−b^x¯详细推导过程太多了,等有缘再写吧。
三.多元线性回归1.基本形式给定有d个属性描述的示例X=(x_1;x_2;...;x_d),其中x_i是X在第i个属性上的取值,线性模型试图学得:f(x)=ωbx1+ω2x2+...+ωdxd+b一般向量形式写成:f(x)=ωTX+b其中ω(ω1;ω2;...ωd),ω和b学得了之后,模型就确定了。
2.模型求解给定数据集D={(xi,yi)}i=1m , 使得MSE最小化的过程就是实现一元线性回归模型的过程,即(w∗,b∗)=argmin(w,b)∑i=1m(f(xi)−yi)2 =argmin(w,b)∑i=1m(yi−ωx−b)2求解(ω∗,b∗) 的方法叫做最小二乘法。
线性回归是一种分类方法

线性回归是一种分类方法线性回归是一种经典的机器学习算法,主要用于解决回归问题而非分类问题。
线性回归的目标是找到一条直线(或超平面),使得样本数据在直线上的投影与实际值之间的误差最小化。
虽然线性回归常用于解决回归问题,但它也可以用于二分类问题,通过设定一个阈值将预测值分成两个类别。
线性回归的基本形式可以表示为:y = w_0 + w_1*x_1 + w_2*x_2 + ... + w_n*x_n其中,y是预测值,w_0,w_1,w_2,...,w_n是待求的参数,x_1,x_2,...,x_n是输入特征。
线性回归假设输入特征与输出之间存在线性关系,通过最小化损失函数来求解参数。
最常用的线性回归方法是最小二乘法(Ordinary Least Squares,OLS)。
最小二乘法将预测值与实际值之间的误差平方和最小化,使得参数可以通过求解一个优化问题来得到。
线性回归的优点在于它简单而直观,易于理解和实现。
此外,线性回归的计算速度快,适用于大规模数据集。
然而,线性回归也有一些缺点。
首先,线性回归假设输入特征和输出之间存在线性关系。
然而,真实世界的数据通常是复杂的,其中的关系可能是非线性的。
在解决这种问题时,线性回归可能无法提供准确的预测结果。
其次,线性回归对异常值敏感。
在数据中存在异常值时,线性回归很容易受到其影响,导致预测结果的不准确性。
因此,在使用线性回归时,需要注意异常值的处理。
此外,线性回归还有可能出现过拟合和欠拟合的情况。
过拟合指的是模型过于复杂,过度拟合训练数据,导致在新数据上表现不佳。
欠拟合指的是模型过于简单,不能很好地拟合数据。
为了解决这些问题,可以通过正则化、特征选择等方法来改进线性回归模型。
总结来说,线性回归是一种用于解决回归问题的经典机器学习算法。
虽然它的应用范围主要是回归问题,但也可以用于二分类问题。
线性回归的优点是简单而直观,计算速度快,适用于大规模数据集。
然而,它也有一些缺点,如对非线性关系的无法处理、对异常值敏感、容易出现过拟合和欠拟合等。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
线性回归假设特征和结果满⾜足线性关系。
其实线性关系的表达能⼒力力⾮非常强⼤大,每个特征对结果的影响强弱可以由前⾯面的参数体现,⽽而且每个特征变量量可以⾸首先映射到⼀一个函数,然后再参与线性计算。
这样就可以表达特征与结果之间的⾮非线性关系。
我们可以有这样的模型表达:其中,表示⾃自变量量(特征分量量),表示因变量量,表示对应⾃自变量量(特征)的权重,是偏倚项(⼜又称为截距)。
对于参数,在物理理上可以解释为:在⾃自变量量(特征)之间相互独⽴立的前提下,反映⾃自变量量对因变量量的影响程度,越⼤大,说明对结果的影响越⼤大。
因此,我们可以通过每个⾃自变量量(特征)前⾯面的参数,可以很直观的看出那些特征分量量对结果的影响⽐比较⼤大。
如果令,可以将上述模型写成向量量形式,即:其中均为向量量,为的转置。
在上述公式中,假设特征空间与输⼊入空间相同。
准确地讲,模型表达式要建⽴立的是特征空间与结果之间的关系。
在⼀一些应⽤用场合中,需要将输⼊入空间映射到特征空间中,然后建模,定义映射函数为,因此我们可以把公式写成更更通⽤用的表达公式:特征映射相关技术,包括特征哈希、特征学习、等。
机器器学习算法系列列(2):线性回归⼀一、线性回归模型y =+++···+θ0θ1x 1θ2x 2θn x n,,···,x 1x 2x n y θi θ0θθi x i y θi x i y =1,y =(x )x 0h θ(x )==xh θ∑i =0n θi x i θT θ=(,,···,),x =(1,,,···,)θ0θ1θn x 1x 2x n θT θx Φ(x )(x )=Φ(x )h θθT Kernel ⼆二、⽬目标函数2.1 ⽬目标函数上⾯面的公式的参数向量量是维的,每个参数的取值是实数集合,也就是说参数向量量在维实数空间中取值结果有⽆无穷种可能。
那么,如何利利⽤用⼀一个规则或机制帮助我们评估求得的参数,并且使得线性模型效果最佳呢?直观地认为,如果求得参数线性求和后,得到的结果与真实值之差越⼩小越好。
这时我们需要映⼊入⼀一个函数来衡量量表示真实值好坏的程度,该函数称为损失函数(loss function ,也称为错误函数)。
数学表示如下:这个损失函数⽤用的是的预测值与真实值之差的平⽅方和。
如果不不考虑诸如过拟合等其他问题,这就是我们需要优化的⽬目标函数。
⼀一般地,机器器学习中不不同的模型会有相应的⽬目标函数。
⽽而回归模型(尤其是线性回归类)的⽬目标函数通常⽤用平⽅方损失函数来作为优化的⽬目标函数(即真实值与预测值之差的平⽅方和)。
为什什么要选⽤用误差平⽅方和作为⽬目标函数呢?答案可以从概率论中的中⼼心极限定理理、⾼高斯分布等知识中找到。
⽬目标函数的概率解释需要⽤用到中⼼心极限定理理。
中⼼心极限定理理本身就是研究独⽴立随机变量量和的极限分布为正态分布的问题。
中⼼心极限定理理的公式表示为:设个随机变量量相互独⽴立,均具有相同的数学期望与⽅方差,即,令为随机变量量之和,有称随机变量量为个随机变量量的规范和。
它的定义为:设从均值为、⽅方差为(有限)的任意⼀一个总体中抽取样本量量为的样本,当充分⼤大时,样本均值的抽样分布近似服从于均值为、⽅方差为的正态分布。
θn +1θn +1θθ(x )h θy (x )h θy J (θ)=12∑i =1n((()−))h θx (i )y (i )2J (θ)min θx (i )()h θx (i )y (i )2.2 ⽬目标函数的概率解释2.2.1 中⼼心极限定理理n ,,···,X 1X 2X n E ()=μ;D ()=X i X i σ2Y n =++···+Y n X 1X 2X n==→N (0,1)Z n −E ()Y n Y n D ()Y n ‾‾‾‾‾‾√−n μY n σn ‾√Z n n ,,···,X 1X 2X n μσ2n n Y nn μσ2假设给定⼀一个输⼊入样例例根据公式得到预测值与真实值之间存在误差,即为。
那么,它们之间的关系表示如下:⽽而这⾥里里假设误差服从标准⾼高斯分布是合理理的。
解释如下:回归模型的最终⽬目标是通过函数表达式建⽴立⾃自变量量与结果之间的关系,希望通过能较为准确地表示结果。
⽽而在实际的应⽤用场合中,很难甚⾄至不不可能把导致的所有变量量(特征)都找出来,并放到回归模型中。
那么模型中存在的通常认为是影响结果最主要的变量量集合(⼜又称为因⼦子,在ML 中称为特征集)。
根据中⼼心极限定理理,把那些对结果影响⽐比较⼩小的变量量(假设独⽴立同分布)之和认为服从正态分布是合理理的。
可以⽤用⼀一个示例例来说明误差服从⾼高斯分布是合理理的:的课程中第⼀一节线性回归的例例⼦子中,根据训练数据建⽴立房屋的⾯面积与房屋的售价之间的函数表达。
它的数据集把房屋⾯面积作为最为主要的变量量。
除此之外我们还知道房屋所在的地段(地铁、学区、城区、郊区),周边交通状况,当地房价、楼层、采光、绿化⾯面积等等诸多因素会影响房价。
实际上,因数据收集问题可能拿不不到所有影响房屋售价的变量量,可以假设多个因素变量量相互独⽴立,根据中⼼心极限定理理,认为变量量之和服从⾼高斯分布。
即:那么和的条件概率可表示为:根据上述公式估计得到⼀一条样本的结果概率,模型的最终⽬目标是希望在全部样本上预测最准,也就是概率积最⼤大,这个概率积就是似然函数。
优化的⽬目标函数即为似然函数,表示如下:2.2.2 ⾼高斯分布x (i )θT x (i )y (i )ε(i )=+y (i )θT x (i )ε(i )ε(i )x y x y y x y AndrewNg x y =−ϵ(i )y (i )θT x (i )x y p (|;θ)=exp (−)y (i )x (i )1σ2π‾‾‾√(−)y (i )θT x(i )22σ22.2.3 极⼤大似然估计与损失函数极⼩小化等价L (θ)=exp (−)max θ∏i =1m 1σ2π‾‾‾√(−)y (i )θT x (i )22σ2对取对数,可得对数似然函数:由于都为常数,因此上式等价于我们可以发现,经过最⼤大似然估计推导出来的待优化的⽬目标函数与平⽅方损失函数是等价的。
因此可以得出结论:线性回归误差平⽅方损失极⼩小化与极⼤大似然估计等价。
其实在概率模型中,⽬目标函数的原函数(或对偶函数)极⼩小化(或极⼤大化)与极⼤大似然估计等价,这是⼀一个带有普遍性的结论。
⽐比如在最⼤大熵模型中,有对偶函数极⼤大化与极⼤大似然估计等价的结论。
那上⾯面为什什么是条件概率呢?因为我们希望预测值与真实值更更接近,这就意味着希望求出来的参数,在给定输⼊入的情况下,得到的预测值等于真实值得可能性越⼤大越好。
⽽而,均为前提条件,因此⽤用条件概率表示。
即越⼤大,越能说明估计的越准确。
当然也不不能⼀一味地只有该条件函数,还要考虑拟合过度以及模型的泛化能⼒力力问题。
如何调整参数使得取得最⼩小值?⽅方法有很多,这⾥里里介绍⼏几种⽐比较经典的⽅方法,即最⼩小⼆二乘法、梯度下降法以及⽜牛顿法。
将个维样本组成矩阵:则⽬目标函数的矩阵形式为L (x )l (θ)=−m log σ−max θ2π‾‾‾√12σ2∑i =1m (−)y (i )θT x (i )2n ,σmin θ12∑i =1m (−)y (i )θT x (i )2p (y |x ;θ)θx θx p (y |x ;θ)p (y |x ;θ)三、参数估计θJ (θ)3.1 最⼩小⼆二乘法3.1.1 ⽬目标函数的矩阵形式m n X ⎛⎝⎜⎜⎜⎜⎜11···1x (1)1x (1)2···x (1)m x (2)1x (2)2···x (2)m ·········x (n )1x (n )2x (n )m⎞⎠⎟⎟⎟⎟⎟(θ)==(X θ−y )m这是⼀一个表示参数与⽬目标函数的关系图,红⾊色的部分是表示有⽐比较⾼高的取值,我们需要的是,能够让的值尽量量的低。
也就是深蓝⾊色的部分。
和表示向量量的两个维度。
在上⾯面提到梯度下降法的第⼀一步是给⼀一个初值,假设随机给的初值是在图上的⼗十字点。
然后我们将按照梯度下降的⽅方向进⾏行行调整,就会使得往更更低的⽅方向进⾏行行变化,如图所示,算法的结束将是在下降到⽆无法继续下降为⽌止。
当然,可能梯度下降的最终点并⾮非是全局最⼩小点,可能是⼀一个局部最⼩小点,⽐比如下⾯面这张图中描述的就是⼀一个局部最⼩小点,这是我们重新选择了了⼀一个初始点得到的,看来我们这个算法会在很⼤大程度上被初始点的选择影响⽽而陷⼊入局部最⼩小点。
θJ (θ)J (θ)J (θ)θ0θ1θθθJ (θ)θ下⾯面对于⽬目标函数求偏导数:下⾯面是更更新的过程,也就是会向着梯度最⼩小的⽅方向进⾏行行减少。
表示更更新之前的值,表示步⻓长,也就是每次按照梯度减少的⽅方向变化多少,由于求得是极⼩小值,因此梯度⽅方向是偏导数的反⽅方向,结果为⼀一个很重要的地⽅方值得注意的是,梯度是有⽅方向的,对于⼀一个向量量,每⼀一维分量量都可以求出⼀一个梯度的⽅方向,我们就可以找到⼀一个整体的⽅方向,在变化的时候,我们就朝着下降最多的⽅方向进⾏行行变化就可以达到⼀一个最⼩小点,不不管他是全局的还是局部的。
在对⽬目标函数求偏导时,可以⽤用更更简单的数学语⾔言(倒三⻆角表示梯度)进⾏行行描述:J (θ)J (θ)=∂∂θj ∂∂θj 12((x )−y )h θ2=2·((x )−y )((x )−y )12h θ∂∂θjh θ=((x )−y )h θx jθi θa θ:=+a ((x )−y )θj h θx jθθi J (θ)J =∇θ⎡⎣⎢⎢⎢⎢⎢J ∂∂θ0······J ∂∂θn ⎤⎦⎥⎥⎥⎥⎥将梯度下降法应⽤用到线性回归有三种⽅方式:批处理理梯度下降法、随机梯度下降法。
可以看出,参数的值每更更新⼀一次都要遍历样本集中的所有的样本,得到新的,看是否满⾜足阈值要求,若满⾜足,则迭代结束,根据此值就可以得到;否则继续迭代。
注意到,虽然梯度下降法易易受到极⼩小值的影响,但是⼀一般的线性规划问题只有⼀一个极⼩小值,所以梯度下降法⼀一般可以收敛到全局的最⼩小值。