理解机器学习算法一点心得应用

合集下载

学习机器学习的心得体会

学习机器学习的心得体会

学习机器学习的心得体会机器学习是一门涉及统计学、人工智能和计算机科学的领域,它通过构建模型和算法,使计算机能够从数据中学习并自主进行决策和预测。

作为一个学习者,我在学习机器学习的过程中积累了一些心得体会,现在分享给大家。

一、培养数学基础机器学习是建立在数学理论之上的,因此,对于学习机器学习来说,培养数学基础是至关重要的。

线性代数、概率论和统计学是机器学习的核心基础,掌握了这些数学工具,才能更好地理解和应用机器学习算法。

在学习过程中,我发现通过参加相关的数学课程、阅读相关的数学教材以及解决数学问题的实践,可以帮助我更好地理解机器学习的原理和算法。

二、掌握编程技能机器学习是一个实践性很强的领域,编程技能是必不可少的工具。

Python是机器学习领域最常用的编程语言之一,它具有简洁、易读、易学的特点,非常适合机器学习的实践。

在学习过程中,我通过编写Python代码来实现机器学习算法,不仅加深了对算法原理的理解,还提高了自己的编程能力。

此外,还可以利用一些开源的机器学习库,如Scikit-learn、TensorFlow等,来加速开发过程。

三、理论与实践相结合机器学习是一个理论与实践相结合的学科,理论知识只有应用到实际问题中才能发挥作用。

在学习过程中,我不仅阅读了大量的机器学习论文和书籍,还积极参与了一些实际项目的开发。

通过实践,我能够更好地理解机器学习算法的应用场景,掌握如何选择合适的算法以及如何调整算法的参数。

同时,实践还帮助我发现了一些理论上的不足之处,并通过调整算法或者采用其他方法进行改进。

四、持续学习和探索机器学习是一个不断发展和演进的领域,新的算法和技术层出不穷。

因此,持续学习和探索是学习机器学习的关键。

我经常阅读最新的研究论文和技术博客,参加学术会议和研讨会,与其他机器学习从业者进行交流和讨论。

通过与行业内的专家和同行交流,我能够及时了解最新的研究方向和技术趋势,并将其应用到实际项目中。

总结起来,学习机器学习需要培养数学基础,掌握编程技能,理论与实践相结合,并且持续学习和探索。

机器学习课程的心得体会(2篇)

机器学习课程的心得体会(2篇)

第1篇随着人工智能技术的飞速发展,机器学习已成为当今科技领域的热门话题。

我有幸参加了为期一个月的机器学习课程,通过这段时间的学习,我对机器学习有了更深入的理解,以下是我的一些心得体会。

一、机器学习的魅力机器学习是一门跨学科的领域,涉及数学、统计学、计算机科学等多个学科。

在学习这门课程之前,我对机器学习只是一知半解,甚至有些迷茫。

但通过系统的学习,我逐渐被机器学习的魅力所吸引。

首先,机器学习能够使计算机具备自主学习和适应的能力。

这意味着,机器可以在没有人为干预的情况下,通过数据分析和算法优化,不断改进自己的性能。

这种能力在现实世界中有着广泛的应用,如智能推荐系统、自动驾驶汽车、医疗诊断等。

其次,机器学习能够处理海量数据。

在当今信息爆炸的时代,数据已成为重要的战略资源。

机器学习算法能够从海量数据中提取有价值的信息,帮助我们更好地理解世界。

这种能力在商业、科研、教育等领域都有着巨大的应用潜力。

最后,机器学习具有强大的预测能力。

通过学习历史数据,机器学习模型可以预测未来的趋势和变化。

这种预测能力在金融市场、天气预报、资源调度等领域具有重要意义。

二、课程内容与学习方法本次机器学习课程主要内容包括:1. 机器学习基础理论:介绍了机器学习的基本概念、分类、原理和应用场景。

2. 线性代数与概率论:讲解了线性代数和概率论在机器学习中的应用,为后续课程打下了坚实的基础。

3. 特征工程与数据预处理:重点讲解了如何从原始数据中提取特征,以及如何对数据进行预处理。

4. 监督学习算法:介绍了线性回归、逻辑回归、支持向量机等常见的监督学习算法。

5. 无监督学习算法:讲解了聚类、降维、关联规则等无监督学习算法。

6. 深度学习:介绍了神经网络的基本原理,以及深度学习在图像识别、自然语言处理等领域的应用。

在学习过程中,我采用了以下方法:1. 理论学习与实践相结合:在理解理论知识的基础上,通过编程实践加深对知识的掌握。

2. 积极参与课堂讨论:与同学和老师共同探讨问题,拓宽思路。

学习机器学习的心得体会

学习机器学习的心得体会

学习机器学习的心得体会随着科技的快速发展,机器学习作为一门重要的技术正在迅速崭露头角。

作为一名对机器学习充满兴趣的学习者,我通过课程学习和实践经验,深刻体会到了机器学习的重要性和应用潜力。

下文将从自身学习经历、机器学习应用、学习心得和未来发展等方面进行论述。

一、自身学习经历在探索机器学习之前,我接触到了相关的数学和计算机科学知识。

数学是机器学习的基础,我通过学习线性代数、概率与统计等课程,为深入理解机器学习的原理打下了坚实基础。

计算机科学知识则使我具备了对机器学习算法的编程实现和应用的能力。

通过参加机器学习的在线课程和学习资料,我了解了机器学习的基本概念和算法。

从监督学习到无监督学习,从决策树到神经网络,我逐渐掌握了各种常见的机器学习算法,并在实践中应用。

二、机器学习应用机器学习作为一种数据驱动的技术,在各个领域都有广泛的应用。

例如,医疗领域可以利用机器学习算法进行疾病诊断和预测;金融领域可以利用机器学习算法进行风险评估和交易预测;智能驾驶和无人机技术也离不开机器学习的支持。

我在学习中了解到机器学习的应用案例,例如基于监督学习的文本分类、基于聚类分析的市场细分以及基于回归分析的销售预测等。

这些应用案例给我启示,机器学习可以帮助我们从大量的数据中发现规律,为实际问题提供解决思路。

三、学习心得学习过程中,我深切感受到了机器学习的挑战和乐趣。

机器学习需要对复杂数学算法的理解和编程实现的能力,同时还需要良好的数据分析和问题解决能力。

这些都需要坚持不懈地学习和实践。

在此过程中,我发现持续的实践对于掌握机器学习的关键。

通过挑战实际问题并不断调整和改进模型,我逐渐提升了自己的数据分析和机器学习算法应用能力。

同时,与同学和专家开展交流和合作也让我从多个角度理解机器学习的应用和原理。

四、未来发展学习机器学习是一项长期的任务,我将继续深入学习和实践,不断提升自己的技术能力和创新能力。

我计划通过开展机器学习项目、参与相关行业的实践,不断拓宽自己的学习视野和应用能力。

机器学习方法心得体会

机器学习方法心得体会

机器学习方法心得体会机器学习是一门涉及数学、统计学和计算机科学的跨学科领域,通过使用算法和统计模型,让计算机从数据中学习并自动改进性能。

在我学习和实践机器学习方法的过程中,我积累了一些心得体会。

首先,机器学习的基础是数据。

数据是机器学习的原料,良好的数据质量对于获得有效模型至关重要。

在使用机器学习方法前,首先要进行数据的收集和预处理。

这包括数据清洗、缺失值处理、特征提取和特征选择等步骤。

只有经过充分的数据预处理,才能保证数据的质量,提高模型的准确性。

其次,机器学习的关键在于模型选择和调优。

机器学习方法有很多种,如决策树、支持向量机、神经网络等。

不同的模型适用于不同的问题和数据集。

在选择模型时,需要考虑数据的属性、问题的复杂度和要求等因素。

此外,模型调优也是很重要的一步。

通过调整模型的参数和超参数,可以使模型更好地适应问题,并提高模型的性能。

另外,模型评估和验证是机器学习的重要环节。

模型的性能评估可以通过多种指标进行,如准确率、精确率、召回率、F1得分等。

根据具体问题的需求,选择适合的评估指标进行模型评估。

此外,验证模型的泛化能力也是很重要的。

通常使用交叉验证来验证模型的泛化能力。

通过将数据集划分为训练集和验证集,可以评估模型在未见过数据上的表现,并避免过拟合问题。

此外,特征工程也是机器学习中的重要一环。

特征工程涉及到对原始数据进行转换和处理,以便更好地表达数据的特征。

通过选择和提取有意义的特征,可以提高模型的性能。

特征工程包括数据的标准化、离散化、归一化等操作,也可以使用多项式特征、交叉特征等方式来丰富特征空间。

此外,机器学习还存在一些挑战和注意事项。

首先是数据的质量问题。

不完整、不准确的数据会对模型的训练和性能产生负面影响。

因此,在数据预处理过程中,需要谨慎处理各种异常情况。

其次是模型的可解释性问题。

有些机器学习模型是黑盒模型,虽然能够取得很好的预测结果,但无法解释原因。

对于一些关键决策的场景,需要选择可解释性较强的模型。

机器学习心得(精品4篇)

机器学习心得(精品4篇)

机器学习心得(精品4篇)机器学习心得篇1在进行机器学习项目时,我发现有许多不同的工具和算法可供选择,这使项目实施变得复杂。

此外,数据预处理阶段非常重要,因为错误的数据可能会导致后续的算法和模型选择出现偏差。

在这个阶段,我学习了很多有关缺失数据和异常值的影响以及如何使用不同的方法来处理它们。

在选择算法和模型时,我意识到它们之间的关系。

了解算法和模型的特点以及如何选择适合项目的算法和模型是非常重要的。

此外,数据集的大小也会影响模型的性能,因此,在选择数据集时,我学习了很多有关数据集大小和分布对模型性能影响的知识。

在实现模型时,我遇到了许多挑战,例如内存问题、计算资源问题和模型过拟合问题。

为了解决这些问题,我学习了很多有关超参数和正则化的知识,并尝试了许多不同的算法和模型。

最终,我成功地解决了这些问题并得到了良好的结果。

总的来说,机器学习是一个非常有趣和有用的领域,我从中学习了很多有关数据预处理、算法和模型选择、计算资源管理等方面的知识。

我相信这些经验将对我未来的学习和工作产生积极影响。

机器学习心得篇2以下是一份机器学习心得:自从我开始接触机器学习,我的生活就充满了各种各样的惊喜和挑战。

这是一个让我既兴奋又紧张的旅程,我从中了解到很多关于机器学习和人工智能的知识。

首先,我了解到机器学习不仅仅是算法和模型,它更是解决问题的艺术。

机器学习算法可以从数据中自动学习,无需明确的编程。

这使得我们能够处理以前无法处理的问题,得出以前无法得出的结论。

例如,在图像识别任务中,机器学习算法可以自动学习特征,使得图像识别的准确率大大提高。

其次,我学习到了各种机器学习技术,如监督学习、无监督学习、强化学习等。

每种技术都有其特定的应用场景,使得我们可以更精确地解决复杂的问题。

例如,在医疗诊断中,我们可以使用深度学习来自动识别图像中的异常,从而帮助医生诊断。

同时,我也意识到了数据的重要性。

机器学习需要大量的数据进行训练,而且数据的质量和完整性对结果影响很大。

机器学习应用心得体会3篇

机器学习应用心得体会3篇

机器学习应用心得体会3篇机器研究应用心得体会文档一:机器研究的核心原理在应用机器研究过程中,我发现掌握机器研究的核心原理是非常重要的。

了解机器研究的基本概念、不同的算法和模型以及训练和评估模型的方法,可以帮助我们更好地应用机器研究技术。

首先,了解机器研究的基本概念是必要的。

机器研究是一种通过建立数学模型来识别和利用数据中的模式和关系的技术。

研究机器研究的基本术语和概念,如特征、标签、训练集和测试集,可以帮助我们理解机器研究问题的本质。

其次,掌握不同的机器研究算法和模型对于选择合适的方法非常重要。

常见的机器研究算法包括线性回归、决策树、支持向量机、神经网络等。

了解这些算法的原理、适用场景和优缺点可以帮助我们根据问题的特点选择适合的算法。

最后,训练和评估模型是实际应用中不可或缺的步骤。

训练模型是通过使用已有的数据来调整模型的参数,使其能够更好地拟合数据。

评估模型是用来衡量模型对新数据的预测能力。

选择合适的评估指标,如准确率、召回率、F1值等,可以帮助我们评估模型的性能并进行模型的优化。

综上所述,掌握机器研究的核心原理对于有效应用机器研究技术十分重要。

文档二:数据预处理的重要性在机器研究应用过程中,我认识到数据预处理的重要性。

数据预处理是在应用机器研究算法之前对原始数据进行清洗、转换和整理的过程。

首先,数据清洗是数据预处理的第一步。

这包括处理缺失值、异常值和重复值等问题。

通过填充缺失值、删除异常值和处理重复值,可以保证数据的质量和一致性,从而提高模型的性能。

其次,数据转换也是常见的数据预处理方法。

常见的数据转换方法包括特征缩放、特征编码和特征选择等。

特征缩放可以将不同尺度的特征转换为统一的尺度,以避免某些特征对模型的影响过大。

特征编码可以将非数值型特征转换为数值型特征,以便模型能够处理。

特征选择可以选择最相关的特征,减少模型的复杂度和计算成本。

最后,数据整理是将数据整合为适合机器研究算法输入的形式。

这包括将数据集划分为训练集和测试集,以及进行数据平衡等操作。

人工智能实训课程学习总结机器学习算法应用与实践

人工智能实训课程学习总结机器学习算法应用与实践

人工智能实训课程学习总结机器学习算法应用与实践人工智能实训课程学习总结——机器学习算法应用与实践近年来,人工智能领域取得了突破性的发展,机器学习算法作为其中的核心技术之一,被广泛应用于各个领域。

本文将对我在人工智能实训课程中学习到的机器学习算法应用与实践进行总结。

一、算法背景及原理简介在开始介绍具体的机器学习算法应用与实践之前,我们先来简单了解一下机器学习的基本原理。

机器学习是一种通过样本数据进行模型训练,从而实现自主学习和预测的方法。

其核心思想是通过建立数学模型,通过对历史数据的学习,实现对未知数据的预测。

二、机器学习算法应用案例分析1. 监督学习算法监督学习算法是一种通过标记好的训练数据对模型进行训练,从而实现对未知数据的分类、回归等预测任务。

在实训课程中,我们学习到了多种监督学习算法的应用,如线性回归、逻辑回归、决策树等。

这些算法在金融、医疗、电商等领域都有着广泛的应用。

例如,在金融领域中,我们可以利用历史交易数据,运用线性回归算法来预测未来的股票走势,从而为投资者提供一定的参考依据。

在医疗领域中,我们可以利用逻辑回归算法对患者的病情进行预测和分析,为临床医生提供辅助决策的依据。

这些监督学习算法的应用,大大提高了相关领域的效率和准确性。

2. 无监督学习算法无监督学习算法是一种通过未标记的训练数据对模型进行训练,从而实现对数据的聚类、降维等处理任务。

在实训课程中,我们学习到了聚类算法、主成分分析等无监督学习算法的应用。

举个例子,在市场营销领域,我们可以利用聚类算法对潜在顾客进行分组,从而实现有针对性的推销活动。

在图像处理领域,我们可以利用主成分分析算法对图像数据进行降维处理,从而减少存储空间和计算开销。

这些无监督学习算法的应用,为相关领域的决策和处理提供了重要的参考。

三、实践案例分析除了学习和理解机器学习算法的原理和应用,实践案例的完成也是课程中的重要环节。

我们根据不同的场景,利用Python等编程语言实现了一些经典的机器学习算法。

机器学习实训课程学习总结应用算法解决复杂问题的实践经验分享

机器学习实训课程学习总结应用算法解决复杂问题的实践经验分享

机器学习实训课程学习总结应用算法解决复杂问题的实践经验分享近年来,随着人工智能领域的迅猛发展,机器学习作为其中重要的一环,受到了广泛关注。

机器学习实训课程为学习者提供了一个实践的平台,让我们能够将理论应用到实际问题中并通过合适的算法解决复杂的难题。

在这个过程中,我积累了一些宝贵的经验,现在我将与大家分享我的学习总结以及应用算法解决复杂问题的实践。

首先,机器学习实训课程的学习总结。

在课程的学习过程中,我们首先需要了解机器学习的基本概念和方法,包括监督学习、无监督学习以及强化学习等。

了解这些基础知识是我们进一步应用算法解决问题的基础。

其次,我们需要学会如何选择适当的算法来解决复杂问题。

在实际的应用中,不同的算法有着不同的适用场景,因此我们需要根据实际问题的特点选择合适的算法。

例如,在处理分类问题时,我们可以选择支持向量机(SVM)算法或者决策树算法;而在处理聚类问题时,我们可以选择K均值聚类算法或者DBSCAN算法。

掌握了不同算法的特点和适用场景,我们才能更好地解决实际问题。

另外,数据预处理也是机器学习实训课程中一个重要的环节。

在实际问题中,数据往往是不完整或者包含噪声的,因此我们需要进行数据清洗、缺失值处理、特征选择等预处理操作,以提高算法的精度和稳定性。

通过对数据的预处理,我们可以减少算法在训练阶段的误差,提高模型的泛化能力。

接下来,我将分享一些我在应用算法解决复杂问题时的实践经验。

首先,对于图像分类问题,卷积神经网络(CNN)是一种非常有效的算法。

在该算法中,通过卷积层和池化层的多次迭代,我们可以提取出图像的各种特征,并将其用于分类。

在实际应用中,我使用了CNN算法对一批手写数字进行分类,取得了较好的效果。

其次,对于推荐系统问题,协同过滤是一种常见的算法。

该算法通过分析用户的历史行为以及与其他用户的相似性来推荐感兴趣的物品。

在实践中,我使用协同过滤算法实现了一个简单的音乐推荐系统,并通过评估指标验证了其准确性和效果。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

理解机器学习算法的一点心得
从Andrew ng的公开课开始,机器学习的算法我接触到的也越来越多,我觉得机器学习算法和传统算法的最大不同就是:不会要求一个问题被100%求解,也就意味着不会有完美的解法,这也是著名的“Essentially, all models are wrong, but some are useful.”所表达的意思。

正因为如此,机器学习算法往往不会有一个固定的算法流程,取而代之的把问题转化为最优化的问题,无论是ML(maximum likelihood),MAP(Maximum a Posterior)和
EM(Expectation Maximization),都是这样的。

然后用不同的方法来优化这个问题,得到尽量好的结果,给人的感觉就像是一个黑盒,实际使用中需要不断地调参实验,但倘若你能理解好算法,至少能让这个盒子透明一点,这也是机器学习算法确实需要使用者去理解算法的原因,举个例子:传统算法比如一些高效的数据结构,我只需要知道一些接口就可以使用,不需要进行太多的理解,了解传统算法更多的是理解算法的思想,开阔思路,增强能力;而机器学习算法,你即使知道接口,也至少要调一些参数来达到实际使用的目的。

这样一来,阅读各类书籍和paper也就在所难免了,甚至去阅读代码以至于实现加深理解,对于实际使用还是有很大的好处的,因为不是100%求解问题,所以面对不同的应用场景,想要达到最好的效果都需要加以变化。

本文记录了一点自己学习的心得,私以为只要你能对算法有一种说得通的解释,就是OK的,不一定要去深挖其数学上的证明(表示完全挖不动啊…………>_<)
=================================================================== ==
O. 目的
之前说到机器学习算法常常把问题转化为一个最优化问题,理解这个最优化问题的目的能很好地帮助我们理解算法,比如最简单的最小二乘法(Least-squares):
(这里的x是参数,和一些机器学习的常用表示里面有出入)
好多机器学习入门书都是从最小二乘开始引入的,其实这是线性代数(还是概率统计?囧rz)的课本内容嘛。

理解上式应该非常简单呐,括号内的就是目标值和与测试的差,取平方之后抹掉正负,而该式是要最小化这个东西,那么这个优化问题的“目的”就是最小化预测函数在训练集上的误差。

当然这是最简单的一个例子了,我们接着看朴素贝叶斯分类器的优化目标:
(这里xi,yi是训练集,π和θ是参数)
无论他后面怎么变化,用了什么优化方式,该算法的目的就是在训练集上最大化这个东西,只不过对于朴素贝叶斯来说,它加入了非常强的假设来简化问题而已。

然后朴素贝叶斯用了一系列的参数来描述这个需要优化的概率值,为了达到目的还是用了log来变换一下,但对于你来说,只需要记住他的“目的”,就可以很容易地理解算法了。

一. 趋势
接下来要讲的是"趋势",广义上来说和目的是一回事,但算法的优化目标的一些部分是与算法总体目的相对分割的,比如一些正则化(regularization)的项,这些项对于算法实际使用效果往往有着重大影响,但并不绝对大的方向(目的),所以“趋势”我们单独开一章来讲。

我们还是从最简单的 L2-norm regularization 来开启这个话题吧,把这个项加到最小二乘后面:
虽然也能把该式表示为标准的最小二乘结构,但对理解算法并无帮助,我们不这样做。

可以看到该式的第二项是想要参数的平方和,而整个是Minimize的,所以直观来说就是想要学到的参数的绝对值越小越好,这就是我理解的“趋势”
可是为什么让参数平方和越小能防止over-fitting呢?这里就有很多解释了,比如加入该项是对数据的原始分布加了个高斯分布作为先验(有证明的貌似),但像我这种数学渣渣还是走intuition的方向吧,这样理解:(这是Convex Optimizition课上提到的,我也不知道是否是对的,但能够说通)
我们得到的训练数据是有测量误差的,记为delta,参数为x,要优化的为:||Ax-y||,其实是||(A'+delta)x-y||=||A'x-y+delta*x||:
所以参数x的值越小,误差delta对于模型的影响就越小,所以能增加模型的泛化能力。

二. 还是趋势
再写上面一章就略长了,新开一段…………还是讲趋势,对于最小二乘,其实是Loss function一种,也就是我们想要最小化的东西,除此之外还有其它的一些Loss function,其选择同样也会影响算法的效果。

(这里的xi和yi又是训练集了,不是参数,略乱,见谅)
上面的Huber是在一个阀值内是二次的,阀值外则是线性的
这能体现什么趋势呢?可以明显看到,对于偏差很大的case来说(|y-f|>2),平方项【1】的要比绝对值【2】的惩罚大不少,这意味着【1】对于极端outlier的容忍能力更差,离太远了简直是没法承受的,对算法带来的影响就是要去满足这个outlier,从而带来一些问题。

而在一定阀值以内的时候,平方项【1】的惩罚却比绝对值【2】还要小。

综合来看,相对于绝对值,平方项的趋势就是去满足outlier,把绝大多数训练数据的loss降低到够小的范围即可。

(略绕,但应该不难理解)
Huber的优点就是既对outlier有容忍力(大于阀值其增长是线性的),又不至于全是线性增长,对误差重要程度没有太大区分(小于阀值是二次的),所以Boyd在公开课上就说:对于绝大多数使用二次Loss function的地方来说,换用Huber基本上都会有更好的效果
三. 一个复杂点的例子
前段时间组内读书会有大大分享了一片论文,开始读着无比顺畅,但就是到了其中一步无法理解,考虑了很久,就用我的“趋势”分析法^_^理解了下来,这里就不给上下文了,论文叫<Learning Continuous Phrase Representations and Syntactic Parsing with Recursive Neural Networks>,有兴趣可以去看,我现在单把那一个公式提出来分析其目的(趋势)
其中的s()是表示传入参数的一个得分值,A( xi )表示对于xi来说所有可能的y 结构,Δ(y,yi) 是对结构y 和yi 相异程度的惩罚项目,Δ( yi , yi)=0
这个式子很难理解就在于maximize里还减去一个max,而且max里面还不是norm 的结构,乍一看是和以前见过的有巨大差异
但仔细思考其实可以发现,A( xi )之中是有yi 的,即训练数据。

所以 max() 那一项最小的取值就是s( xi,yi ),不会比这个小,那这个式子的目的是什么呢?
作者坚定地认为训练数据就是最好最正确的,其得分就该是最高的,所以一旦max 项里面选出来的是比s( xi,yi )大的,就对其进行惩罚,最后该式的目的就是在所有xi 可能对应的结构y 中,训练数据yi 应该是最好的。

与此同时加入Δ项,是为了使与yi 结构更接近的y 得分更高( 这个这么理解:算法给所有结构加了一个上限在那,超过了就砍头,那么Δ(y,yi)值越小,剩下的可喘息的部分就越大,也就是得分就越高)
这个式子和经验里看到的有很大差异,但通过分析他的目的和趋势,就可以较好地理解算法和里面一些参数的意义,从而到达我们学习算法的目的
四. 尾巴
这是我理解算法的一点小心得,可能会有错的地方,求指正啊~~~~~ 【ref】:
【1】.《Convex Optimization 》(Byod)
【2】.《Machine Learning - A Probabilistic Perspective》
【3】.《The Elements of Statistical Learning》
【4】:Learning Continuous Phrase Representations and Syntactic Parsing with Recursive Neural Networks。

相关文档
最新文档