统计学习理论基本知识
高中数学统计与概率知识点归纳

高中数学统计与概率知识点归纳高中数学中的统计与概率是两个非常重要的知识点,它们在日常生活和工作中也具有广泛的应用价值。
本文将对这些知识点进行归纳和总结,以便读者更好地理解和掌握。
首先,让我们来看看统计。
统计是研究如何从数据中获取有用信息的学科。
在高中数学中,统计的主要内容包括以下三个方面:1、概率分布:这是统计的基础知识,它描述了各种可能结果出现的概率。
例如,投掷一枚硬币,正面朝上的概率为0.5,反面朝上的概率为0.5。
2、参数估计:参数估计是通过样本数据来估计总体参数的方法。
例如,通过样本的平均值来估计总体的平均值。
3、假设检验:假设检验是用来检验一个假设是否成立的统计学方法。
例如,我们想要检验某种新药的疗效是否优于安慰剂,可以通过比较实验组和对照组的数据来进行假设检验。
接下来,让我们来看看概率。
概率是描述事件发生可能性大小的数学工具。
在高中数学中,概率的主要内容包括以下三个方面:1、事件的关系和运算:事件的关系包括互斥、独立、不独立等,事件之间的运算包括并、交、差等。
2、概率的性质和计算:概率的性质包括加法定理、乘法定理、全概率公式等,概率的计算方法包括直接计算、利用公式计算等。
3、概率分布:概率分布描述了随机变量的取值概率,例如伯努利分布、二项分布、正态分布等。
在应用方面,统计与概率的知识点可以应用于很多领域,例如金融、医学、工业、农业等。
例如,在金融领域,可以通过统计方法来分析股票数据的规律和趋势;在医学领域,可以通过概率方法来预测疾病的发病率和死亡率。
总之,统计与概率是高中数学中非常重要的知识点,它们在日常生活和工作中也具有广泛的应用价值。
通过对这些知识点的归纳和总结,我们可以更好地理解和掌握它们,从而更好地应用于实际问题的解决中。
高中数学概率与统计知识点总结高中数学:概率与统计知识点总结一、前言在现实生活中,我们经常需要处理各种与概率和统计相关的问题。
例如,在掷骰子时计算点数、在班级中选取学生、或者在评估天气预报的准确性。
统计学习理论及其应用研究

统计学习理论及其应用研究近年来,随着人工智能技术的发展,统计学习理论逐渐受到广泛关注。
统计学习理论是一种基于统计学的学习方法,可以被广泛应用于各种机器学习问题,如分类、回归、聚类等。
本文将介绍统计学习理论的基本概念,以及其在实践中的应用研究。
一、统计学习理论的基本概念统计学习理论是一种用于解决数据分析和机器学习问题的途径和方法。
它的基本假设是数据集中包含某些已知信息,包括变量之间的相关性、变量的分布情况和变量之间的复杂性等。
统计学习理论旨在开发一种机器学习方法,使得机器能够从数据集中学习这些已知信息,并能够根据学习到的知识作出更好的预测。
统计学习理论包括一系列的算法和模型,其中最常用的是监督学习算法和无监督学习算法。
监督学习算法是一种用于解决分类问题的方法,其中给定一些输入和输出数据,算法根据这些数据学习如何预测未知数据的输出标签。
无监督学习算法是一种用于解决聚类和降维问题的方法,其中给定一些输入数据,算法试图从中挖掘出一些有意义的模式和结构。
在统计学习理论中,一个核心的问题是如何选择模型。
模型选择是一门复杂的科学,在选择模型时需要平衡模型的复杂性和准确性,以及对于未知数据的泛化性能。
经过多年的研究和实践,已经开发了许多用于模型选择的方法,如交叉验证和正则化等。
二、统计学习理论的应用研究统计学习理论已经被广泛应用于各个领域,如自然语言处理、图像识别、推荐系统等。
以下将介绍几个有代表性的应用研究案例。
1.自然语言处理自然语言处理是一种用于处理人类语言的计算机科学领域。
它涉及到从文本中提取信息、理解文本中的意义以及生成新的文本等问题。
统计学习理论已经被广泛应用于自然语言处理问题,例如文本分类、信息检索和机器翻译等。
其中最常用的算法是基于词频和文档频率的分类算法,例如朴素贝叶斯算法和支持向量机算法。
2.图像识别图像识别是一种用于识别图像中对象的计算机科学领域。
它涉及到从数字图像中提取特征、识别对象以及对图像进行分类等问题。
统计知识应知应会手册

统计知识应知应会手册统计知识是一种重要的工具,它被广泛应用于医学研究、商业分析、社会科学等领域。
作为一名统计学爱好者或学习者,掌握一些基本的统计知识非常重要。
本手册将为您介绍一些应知应会的统计知识,希望能为您的学习提供帮助。
一、统计学的基本概念1. 统计学的定义和作用统计学是一门研究数据收集、处理和分析的学科,它为我们提供了理解和解释数据的工具和方法。
2. 数据的类型和测量尺度数据分为定性数据和定量数据两种类型,定性数据是以文字或符号表示的,而定量数据是用数字表示的。
测量尺度有四种:名义尺度、序数尺度、区间尺度和比例尺度。
3. 有效样本和总体在统计学中,我们经常使用样本来推断总体的特征。
一个有效的样本应当具有代表性,并能够准确反映总体的情况。
二、数据的收集与整理1. 数据的来源数据可以从实验、观察、调查等渠道获得。
在选择数据来源时,要确保数据的可靠性和准确性。
2. 数据采集方法常用的数据采集方法有问卷调查、实验、观察等。
在采集数据时,要注意问题的设计和取样的方法。
3. 数据整理和清洗在获得数据后,需要对数据进行整理和清洗,去除异常值和错误数据,以保证后续分析的准确性和可信度。
三、描述统计与推断统计1. 描述统计描述统计是通过统计指标和图表对数据进行总结和描述。
常用的描述统计指标包括均值、中位数、标准差等。
2. 推断统计推断统计是通过样本对总体进行推断。
常用的推断统计方法有假设检验、置信区间等。
四、概率与随机变量1. 概率的基本概念概率是描述事件发生可能性的数值,它的取值范围在0到1之间。
常用的概率计算方法有频率法和古典概率法。
2. 随机变量与概率分布随机变量是用于描述随机试验结果的变量,它可以是离散型的或连续型的。
概率分布是随机变量各取值的概率。
五、统计推断与假设检验1. 统计推断的基本思想统计推断是通过样本对总体进行推断,它的基本思想是根据样本所提供的信息来推断总体的特征。
2. 假设检验的基本原理假设检验是用于检验某个关于总体的假设是否成立的统计方法。
统计基础知识学习之参数估计

总体总量、总体平均数、总体成数、总 体方差和标准差
总体平均数:是总体所研究标志的平均值, 用 表示。 X 例如:研究某县102个行政村的人均纯收入, 那么该县每个村的纯收入之和除以该县常 住人口数得到的平均数就是总体平均数。
X=
∑x
i =1
i
n
其中:xi为每个村的纯收入,n为该县常住人口数。
总体总量、总体平均数、总体成数、总 体方差和标准差
参数估计
二00八年六月 八年六月
主要内容
总体参数 统计量 估计的理论依据 统计误差 点估计 区间估计
一、参数估计的概念
估计就是根据从样本中收集的信息对总 体未知量进行推断的过程。参数估计就是 根据随机抽样调查得来的样本数据,对未 知的总体水平、结构、规模等数量特征进 行估计,即样本指标估计总体指标。
中心极限定理的意义
只要是服从正态分布,我们就有可能 开展抽样调查。 中心极限定理为点估计和区间估计奠 定了理论基础 。 我们就可以用样本代替总体,用样本 值来推断总体数。
二、统计误差
●统计误差是指统计数据与客观实际数量之
间的差异。 间的差异。
(一)登记误差和代表性误差
1、登记误差 登记误差又称工作误差,是指在调查、整理工作 中,由于各种主观原因引起的误差。 例如:由于指标含义不清、口径不同而造成的误 差;在登记、计算、抄写上有差错造成的误差。
2、样本指标
●样本指标是根据样本各单位标志值计算的综合
指标。 ●常用的样本指标有样本平均数、样本成数、样 本方差和样本标准差。
●样本指标一般用小写字母表示。
x
(三)参数估计的理论基础
●大数定律:
它说明:如果被研究的总体是由大 量的相互独立的随机因素组成,而且 每个因素对总体的影响都相对小,那 么对这些大量因素加以综合平均,因 素的个别影响将相互抵消,而呈现出 其共同作用的影响,使总体具有稳定 的性质。
统计学习基础

统计学习基础统计学习是一门研究如何从数据中学习模型并做出预测的学科。
它是统计学、机器学习和计算机科学的交叉领域,旨在通过分析数据来发现数据中的规律和模式,从而做出准确的预测和决策。
统计学习的基础是统计学和概率论,它们为我们提供了一种理论框架来理解数据和模型之间的关系。
在统计学习中,我们通常会面临一个监督学习的问题,即给定一组输入数据和对应的输出标签,我们的目标是学习一个模型来预测未知数据的输出标签。
这个过程可以分为两个阶段:模型训练和模型预测。
在模型训练阶段,我们会使用训练数据来拟合模型的参数,使得模型能够最好地拟合训练数据。
在模型预测阶段,我们会使用训练好的模型来对未知数据进行预测。
统计学习中最常用的模型包括线性回归、逻辑回归、支持向量机、决策树、随机森林等。
这些模型都有各自的优缺点,适用于不同类型的数据和问题。
在选择模型时,我们需要考虑模型的复杂度、泛化能力、计算效率等因素。
除了模型选择,统计学习中还有一些重要的概念和技术,如特征选择、交叉验证、正则化等。
特征选择是指选择对预测目标有最大影响的特征,以提高模型的预测性能。
交叉验证是一种评估模型性能的方法,通过将数据集分为训练集和测试集来评估模型的泛化能力。
正则化是一种用来控制模型复杂度的技术,可以避免模型过拟合训练数据。
总的来说,统计学习是一门非常重要的学科,它在各个领域都有广泛的应用,如金融、医疗、电商等。
通过统计学习,我们可以从数据中挖掘出有用的信息,帮助我们做出更准确的预测和决策。
因此,掌握统计学习的基础知识是非常有必要的,它将为我们的学习和工作带来很大的帮助。
高中数学必修2《统计》知识点讲义

高中数学必修2《统计》知识点讲义一、引言高中数学必修2中的《统计》部分是我们在日常生活中应用广泛的数学知识。
通过学习统计,我们可以更好地理解世界,做出更明智的决策。
本篇文章将详细讲解统计部分的重要知识点。
二、知识点概述1、描述性统计描述性统计是统计学的基石,它主要研究如何用图表和数值来描述数据的基本特征。
这部分内容将介绍如何制作频数分布表、绘制条形图、饼图和折线图等。
2、概率论基础概率论是统计学的核心,它研究随机事件发生的可能性。
在本部分,我们将学习如何计算事件的概率,了解独立事件与互斥事件的概念。
3、分布论基础分布论是研究随机变量及其分布的数学分支。
本部分将介绍如何计算随机变量的期望和方差,了解正态分布的特点及其在日常生活中的应用。
三、知识点详解1、描述性统计本文1)频数分布表:频数分布表是一种用于表示数据分布情况的表格,其中每一列表示数据的一个取值,每一行表示该取值的频数。
通过频数分布表,我们可以直观地看到数据分布的集中趋势和离散程度。
本文2)图表:图表是描述数据的一种有效方式。
通过绘制条形图、饼图和折线图,我们可以直观地展示数据的数量关系和变化趋势。
2、概率论基础本文1)概率:概率是指事件发生的可能性,通常用P表示。
P(A)表示事件A发生的概率,其值在0和1之间,其中0表示事件不可能发生,1表示事件一定会发生。
本文2)独立事件与互斥事件:独立事件是指两个事件不相互影响,即一个事件的发生不影响另一个事件的概率;互斥事件是指两个事件不包括共同的事件,即两个事件不可能同时发生。
3、分布论基础本文1)期望:期望是随机变量的平均值,通常用E表示。
E(X)表示随机变量X的期望,它是所有可能取值的概率加权平均值。
期望对于预测随机变量的行为非常有用。
本文2)方差:方差是衡量随机变量取值分散程度的指标,通常用D表示。
D(X)表示随机变量X的方差,它是每个取值与期望之差的平方的平均值。
方差越大,随机变量的取值越分散;方差越小,取值越集中。
统计学习理论与支持向量机
统计学习理论与支持向量机统计学习理论是一门使用数学、统计和计算方法来研究数据推断的领域,通过这门学科可以更好地利用数据来做预测和决策。
而支持向量机(Support Vector Machine, SVM)则是统计学习理论中的一种重要算法,被广泛应用于模式识别、分类和回归分析等领域。
一、统计学习理论的基本概念统计学习理论主要研究的是如何从数据中学习到模型,并利用这个模型进行预测和决策。
在统计学习理论中,最关键的概念是泛化能力,即模型对新样本的预测能力。
一个好的模型应该具有较强的泛化能力,即在未知数据上也能表现良好。
统计学习理论通过对样本空间、假设空间、损失函数等方面的研究,提出了一系列关于学习算法性能保证的理论结果。
二、支持向量机的原理与应用支持向量机是一种由Vapnik等人在上世纪90年代初提出的机器学习算法,它通过寻找能够完全划分两个类别的超平面来进行分类。
在支持向量机中,选择最大间隔超平面是一种最优化问题,通过求解支持向量和决策边界,可以得到一个准确率较高的分类器。
支持向量机不仅适用于二分类问题,还可以通过核函数处理非线性问题,如多分类、回归等。
三、统计学习理论与支持向量机的关系统计学习理论与支持向量机有着密切的联系,统计学习理论为支持向量机提供了理论基础,支持向量机则是统计学习理论的一个重要应用。
支持向量机通过最小化结构风险来保证泛化性能,这与统计学习理论中的结构风险最小化原则是一致的。
支持向量机的核心思想也是基于统计学习理论中的泛化能力和结构风险最小化的理念。
四、支持向量机的优势与局限支持向量机作为一种强大的分类算法,具有以下优势:一是泛化能力强,可以处理高维数据和非线性问题;二是支持向量机具有较高的准确率和鲁棒性,在实际应用中被广泛使用;三是支持向量机有着数学理论基础,能够保证在训练集上取得较好的性能。
但是支持向量机也存在一些局限性,计算复杂度较高、对参数选择敏感等问题都是需要注意的。
统计学统计分析与实证研究方法综合复习
统计学统计分析与实证研究方法综合复习统计学是一门应用广泛的学科,它通过收集、处理和解释数据,帮助我们理解和解决现实生活中的问题。
统计分析是统计学的核心技术之一,它包括数据收集、数据整理、数据描述和数据推断等步骤。
而实证研究方法则是在统计分析的基础上,通过实证数据的分析和研究,得出科学结论的一种方法。
本篇文章将综合复习统计学统计分析与实证研究方法,帮助大家更好地理解和应用这些知识。
一、统计学基础知识综述1. 概率与统计概率论是研究随机事件发生的规律性的数学理论,而统计学则是通过数据的收集和分析,研究已经发生的现象的规律性。
概率论和统计学在统计分析中密不可分,是我们进行数据处理和推断的基础。
2. 数据的类型与测量尺度数据可以分为定量数据和定性数据。
定量数据是可以用数字来表示的数据,如身高、年龄等;定性数据是描述性的数据,如性别、颜色等。
在进行统计分析时,我们需要根据数据的类型选择合适的测量尺度和相应的统计方法。
3. 数据的收集与整理数据收集是统计分析的第一步,常见的数据收集方法包括调查问卷、实验和观察等。
在收集到数据后,我们需要进行数据整理,包括数据清洗、数据录入和数据验证等环节,确保数据的准确性和完整性。
4. 数据的描述统计描述统计是对数据进行整体和局部的描述和总结,常用的描述统计方法包括均值、中位数、众数、方差和标准差等。
通过描述统计分析,我们可以了解数据的分布规律和特征。
5. 数据的推断统计推断统计是通过样本数据对总体进行推断和判断,常见的推断统计方法包括假设检验和置信区间估计等。
通过推断统计分析,我们可以对总体特征作出合理的推断和预测。
二、统计学在实证研究中的应用1. 实证研究的设计与方法实证研究是指通过实证数据的收集和分析,验证假设或检验理论的一种研究方法。
在实证研究中,研究者需要设计研究问题、确定样本和选择合适的实证研究方法,如实验、调查或案例研究等。
2. 实证数据的收集与整理在实证研究中,数据的收集与整理是至关重要的环节。
统计分析学基础知识点总结
统计分析学基础知识点总结一、统计学的基本概念1.总体和样本总体是指研究对象的全部个体或事物的集合,样本是从总体中抽取的部分个体或事物的集合。
在统计学中,我们通常通过对样本进行分析来进行总体的推断。
2.变量和数据类型变量是指在研究中所测量的特定属性或属性,它可以是数量变量(比如身高、体重)也可以是分类变量(比如性别、职业)。
数据类型包括定量数据和定性数据,定量数据是指其取值可以进行数值运算,定性数据是指其取值为某种类别或符号。
3.测度尺度在统计学中,我们通常将变量分为不同的测度尺度,包括名义尺度(仅仅表示事物标识的意义)、顺序尺度(表示顺序关系)、区间尺度(表示等距关系)和比率尺度(表示等比关系),不同的尺度对于统计分析的方法和技术有重要的影响。
4.概率概率是描述不确定事件发生可能性的一种数值。
在统计学中,我们通过概率来对随机事件进行描述和预测,并且使用统计概率来进行统计推断。
5.统计量统计量是指从样本数据中计算得到的数值指标,比如均值、方差、标准差等。
统计量可以帮助我们从样本数据中获取总体特征的信息,并且在假设检验、参数估计等统计推断中起到重要的作用。
6.概率分布在统计学中,我们通常通过概率分布来描述随机变量的取值概率规律。
常见的概率分布包括正态分布、均匀分布、指数分布等,它们在统计分析中都有重要的应用。
7.统计推断统计推断是指根据样本数据对总体特征进行推断的一种方法。
它包括参数估计和假设检验两种基本方法,通过这些方法,我们可以对总体参数进行估计和推断。
8.统计学的应用统计学在科学研究、社会调查、市场调查、生物医学等领域都有重要的应用,它可以帮助我们从数据中获取信息,揭示事物规律,为决策提供依据。
二、常用的统计方法和分析技术1.描述统计描述统计是指通过对数据的整理和描述来获取数据特征的一种方法。
常见的描述统计方法包括均值、中位数、众数、标准差、方差等指标,它们可以帮助我们了解数据的集中趋势和离散程度。
统计学基础知识概念
统计学基础知识概念
统计学是数量研究的学科,最初用于收集和研究人类行为和事件,例如工资水平,构成社会特征和关系的密度等。
它还是收集、储存、分析和反映人类活动的数字形式或信息的数学工具,可以用来帮助人们在关键的决策中作出更好的准确决定。
与一般意义上的统计学有关的基本概念包括数据集、样本、概率、变量、统计描述等。
数据集是关于某个主题的观察或测量,它是根据测量模型而收集的信息。
在数据集之内,可以识别出样本的存在,样本是关于该主题的一组观察。
概率则是统计学的基础,即样本中某一事件发生的可能性。
变量是指一组数据中容易变化的量,它们通常分为定性和定量变量两大类。
统计描述则是一种通过数据的分析和利用,用来反映量测数据的特性和趋势。
对于有兴趣学习该学术领域的人来说,了解这些基本概念是非常重要的,因为它们能够帮助你去解决实际问题,并且还能让你找出合适的解决方案。
但是,这些概念的理解不是一件容易的事情,需要经过深入的学习和掌握,才能将其应用于实际问题的解决中。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
赖关系的估计,使它能够对未知输出作出尽可能准确的预测。机器学习问题可以
形式化地表示为:已知变量 y 与输入 x 之间存在一定的未知依赖关系,即存在一
个未知的联合概率 F(x, y) ,机器学习就是根据 n 个独立同分布观测样本
(x1, y1), (x2 , y2 ),..., (xn , yn )
(2.1)
>
e]
=
0
, "e
>
0
(2.6)
其中,P 为概率,Remp (w) 和 R(w) 分别为在 n 个样本下的经验风险和对同一个 w 的
真实风险。
该定理把学习一致性的问题转化为式(2.6)的一致收敛问题,但是并没有给
出哪种函数集能够满足这个充分必要条件,因此,统计学习理论定义了衡量函数
集性能的一些指标,其中最重要的指标是 VC 维。
2.1.2 VC 维
模式识别问题中的 VC 维的直观定义是:如果一个指示函数集存在 h 个样本 能够被函数集中的函数按所有可能的 2h 种形式分开,则称函数集能够把 h 个样本
8
最小二乘支持向量机算法及应用研究
打散,函数集的 VC 维就是它能打散的最大样本数目 h ,即如果存在 h 个样本的 样本集能够被函数集打散,而不存在有 h + 1 个样本的样本集能被函数集打散,则 函数集的 VC 维就是 h 。若对任意数目的样本都有函数能将其打散,则函数集的 VC 维是无穷大。有界实函数的 VC 维可以通过用一定的阈值将其转化成指示函数 来定义。VC 维反映了函数集的学习能力,VC 维越大则学习机器越复杂(容量越 大)。遗憾的是,目前尚没有通用的关于任意函数集 VC 维计算的理论,只对一些 特殊的函数集知道其 VC 维。对于一些比较复杂的学习机器(如神经网络),其 VC 维除了与函数集(神经网结构)有关外,还受学习算法等的影响,其确定更 加困难[30]。
第 2 章 统计学习理论基本知识
统计学习理论是一种专门基于小样本的统计理论,它为研究有限样本情况下 的统计模式识别和更广泛的机器学习问题建立了一个较好的理论框架,同时也发 展了一种新的模式识别方法——支持向量机,能够较好地解决小样本学习问题。
2.1 统计学习理论的核心内容
机器学习的目的是根据给定的已知训练样本求取对系统输入和输出之间的依
n i =1
Байду номын сангаас
L( yi ,
f
(xi , w))
(2.3)
来逼近式(2.2)定义的期望风险。由于 Remp (w) 是用已知的训练样本(即经验数
6
最小二乘支持向量机算法及应用研究
据)定义的,因此称作经验风险。用对参数 w 求经验风险 Remp (w) 的最小值代替求期
望风险 R(w) 的最小值就是所谓的经验风险最小化(Empirical Risk Minimization, ERM)原则。
数集的一般特性和概率测度。对于前面的一致性的定义存在一种特殊的情况:预
测函数集中包含某个特殊函数,它使定义中的条件得到满足;而如果从函数集中
去掉这个函数,这些条件就不能得到满足。为了保证一致性不是由于函数集中的
个别函数导致的而产生了所谓非平凡一致性的概念,即要求定义中的条件对预测
函数集的所有子集都成立。后面说到的一致性指的就是非平凡一致性。
要使式(2.2)定义的期望风险最小化,必须依赖关于联合概率 F(x, y) 的信息,
但在实际的机器学习问题中,我们只能利用已知样本(2.1)的信息,因此期望风 险无法直接计算和最小化。
根据概率论中大数定律定理的思想,人们自然想到用算术平均代替式(2.2)
的数学期望,于是定义了
å Remp (w)
=
1 n
真实风险值(期望风险)。当下面两式成立时称这个经验风险最小化学习过程是一
致的:
R(w*
)
®
n ®¥
R
(w0
)
(2.4)
Remp
(
w*
)
®
n ®¥
R
(
w0
)
(2.5)
其中,
R(w0 )
=
inf w
R(w)
为实际可能的最小风险,即式(2.2)的下确界或最小值。
现在的关键问题是保证经验风险最小化方法一致性的条件,这个条件针对函
下面的定理给出了保证经验风险最小化方法一致性的条件,由于该定理在统
计学习理论中的重要地位,该定理被称为学习理论的关键定理[8]。
定理 2.1 对于有界的损失函数,经验风险最小化学习一致性的充分必要条
件是经验风险在如下意义上一致地收敛于真实风险:
lim
n ®¥
P[sup(R(w)
w
-
Remp (w))
定义 2.1 记 f (x, w* ) 为在式(2.1)的 n 个独立同分布样本下,在函数集中使 经验风险取最小的预测函数,由它带来的损失函数为 L( y, f (x, w*)) ,相应的最小
第2章
统计学习理论基本知识
7
经验风险值为 Remp (w* ) 。记 R(w* ) 为在 L( y, f (x, w*)) 函数下的式(2.2)所取得的
统计学习理论被认为是目前针对小样本统计估计和预测学习的最佳理论,它 从理论上较系统地研究了经验风险最小化原则成立的条件、有限样本下经验风险 与期望风险的关系、如何利用这些理论找到新的学习原则和方法等问题。其主要 内容包括以下四个方面[8]:
(1)经验风险最小化原则下统计学习一致性的条件。 (2)在这些条件下关于统计学习方法推广性的界的结论。 (3)在这些界的基础上建立的小样本归纳推理原则。 (4)实现这些新原则的实际方法(算法)。
仔细研究经验风险最小化原则和机器学习问题中的期望风险最小化要求可以 发现,从期望风险到经验风险最小化并没有可靠的理论依据,只是直观上合理的 想当然做法。但是,经验风险最小化作为解决模式识别等机器学习问题的基本思 想仍在相当长的时间内统治了这一领域的几乎所有研究,人们多年来一直将大部 分注意力集中到如何更好地求取最小经验风险上。与此相反,统计学习理论则对 用经验风险最小化原则解决期望风险最小化问题的前提是什么、当这些前提不成 立时经验风险最小化方法的性能如何,以及是否可以找到更合理的原则等基本问 题进行了深入的研究。
2.1.1 学习过程一致性的条件
学习过程一致性是统计学习理论的基础,也是与传统渐进统计学的基本联系。 学习过程一致性就是指当训练样本的数目趋于无穷大时,经验风险的最优值能够 收敛到真实风险的最优值。只有满足一致性条件,才能保证经验风险最小化原则 下得到的最优解在样本无穷大时趋近于使用期望风险最小的最优结果[8]。
在一组函数{ f (x, w)} 中求一个最优的函数 f (x, w0 ) ,使预测的期望风险最小。
R(w) = ò L(y, f (x, w))dF (x, y)
(2.2)
其中,{ f (x, w)} 为预测函数集, w Î W 为函数的广义参数,故{ f (x, w)} 可以表示
任何函数集; L( y, f (x, w)) 为由于用 f (x, w) 对 y 进行预测而造成的损失。