机器学习工具WEKA的使用总结 包括算法选择、属性选择、参数优化
一、属性选择:
1、理论知识:
见以下两篇文章:
数据挖掘中的特征选择算法综述及基于WEKA的性能比较_陈良龙
数据挖掘中约简技术与属性选择的研究_刘辉
2、weka中的属性选择
2.1评价策略(attribute evaluator)
总的可分为filter和wrapper方法,前者注重对单个属性进行评价,后者侧重对特征子集进行评价。
Wrapper方法有:CfsSubsetEval
Filter方法有:CorrelationAttributeEval
2.1.1Wrapper方法:
(1)CfsSubsetEval
根据属性子集中每一个特征的预测能力以及它们之间的关联性进行评估,单个特征预测能力强且特征子集内的相关性低的子集表现好。
Evaluates the worth of a subset of attributes by considering the individual predictive ability of each feature along with the degree of redundancy between them.Subsets of features that are highly correlated with the class while having low intercorrelation are preferred.
For more information see:
M.A.Hall(1998).Correlation-based Feature Subset Selection for Machine Learning.Hamilton,New Zealand.
(2)WrapperSubsetEval
Wrapper方法中,用后续的学习算法嵌入到特征选择过程中,通过测试特征
子集在此算法上的预测性能来决定其优劣,而极少关注特征子集中每个特征的预测性能。因此,并不要求最优特征子集中的每个特征都是最优的。
Evaluates attribute sets by using a learning scheme.Cross validation is used to estimate the accuracy of the learning scheme for a set of attributes.
For more information see:
Ron Kohavi,George H.John(1997).Wrappers for feature subset selection. Artificial Intelligence.97(1-2):273-324.
2.1.2Filter方法:
如果选用此评价策略,则搜索策略必须用Ranker。
(1)CorrelationAttributeEval
根据单个属性和类别的相关性进行选择。
Evaluates the worth of an attribute by measuring the correlation(Pearson's) between it and the class.
Nominal attributes are considered on a value by value basis by treating each value as an indicator.An overall correlation for a nominal attribute is arrived at via a weighted average.
(2)GainRatioAttributeEval
根据信息增益比选择属性。
Evaluates the worth of an attribute by measuring the gain ratio with respect to the class.
GainR(Class,Attribute)=(H(Class)-H(Class|Attribute))/H(Attribute).
(3)InfoGainAttributeEval
根据信息增益选择属性。
Evaluates the worth of an attribute by measuring the information gain with respect to the class.
InfoGain(Class,Attribute)=H(Class)-H(Class|Attribute).
(4)OneRAttributeEval
根据OneR分类器评估属性。
Class for building and using a1R classifier;in other words,uses the minimum-error attribute for prediction,discretizing numeric attributes.For more information,see:
R.C.Holte(1993).Very simple classification rules perform well on most commonly used datasets.Machine Learning.11:63-91.
(5)PrincipalComponents
主成分分析(PCA)。
Performs a principal components analysis and transformation of the https://www.360docs.net/doc/6112851224.html,e in conjunction with a Ranker search.Dimensionality reduction is accomplished by choosing enough eigenvectors to account for some percentage of the variance in the original data---default0.95(95%).Attribute noise can be filtered by transforming to the PC space,eliminating some of the worst eigenvectors,and then transforming back to the original space.
(6)ReliefFAttributeEval
根据ReliefF值评估属性。
Evaluates the worth of an attribute by repeatedly sampling an instance and considering the value of the given attribute for the nearest instance of the same and different class.Can operate on both discrete and continuous class data.
For more information see:
Kenji Kira,Larry A.Rendell:A Practical Approach to Feature Selection.In: Ninth International Workshop on Machine Learning,249-256,1992.
Igor Kononenko:Estimating Attributes:Analysis and Extensions of RELIEF.In: European Conference on Machine Learning,171-182,1994.
Marko Robnik-Sikonja,Igor Kononenko:An adaptation of Relief for attribute estimation in regression.In:Fourteenth International Conference on Machine Learning,296-304,1997.
(7)SymmetricalUncertAttributeEval
根据属性的对称不确定性评估属性。
Evaluates the worth of an attribute by measuring the symmetrical uncertainty with respect to the class.
SymmU(Class,Attribute)=2*(H(Class)-H(Class|Attribute))/H(Class)+ H(Attribute).
2.2搜索策略(Search Method)
2.2.1和评价策略中的wrapper方法对应
(1)BestFirst
最好优先的搜索策略。是一种贪心搜索策略。
Searches the space of attribute subsets by greedy hillclimbing augmented with a backtracking facility.Setting the number of consecutive non-improving nodes allowed controls the level of backtracking done.Best first may start with the empty set of attributes and search forward,or start with the full set of attributes and search backward,or start at any point and search in both directions(by considering all possible single attribute additions and deletions at a given point).
(2)ExhaustiveSearch
穷举搜索所有可能的属性子集。
Performs an exhaustive search through the space of attribute subsets starting from the empty set of attrubutes.Reports the best subset found.
(3)GeneticSearch
基于Goldberg在1989年提出的简单遗传算法进行的搜索。
Performs a search using the simple genetic algorithm described in Goldberg (1989).
For more information see:
David E.Goldberg(1989).Genetic algorithms in search,optimization and machine learning.Addison-Wesley.
(4)GreedyStepwise
向前或向后的单步搜索。
Performs a greedy forward or backward search through the space of attribute subsets.May start with no/all attributes or from an arbitrary point in the space.Stops when the addition/deletion of any remaining attributes results in a decrease in evaluation.Can also produce a ranked list of attributes by traversing the space from one side to the other and recording the order that attributes are selected.
(5)RandomSearch
随机搜索。
Performs a Random search in the space of attribute subsets.If no start set is supplied,Random search starts from a random point and reports the best subset found. If a start set is supplied,Random searches randomly for subsets that are as good or better than the start point with the same or or fewer https://www.360docs.net/doc/6112851224.html,ing RandomSearch in conjunction with a start set containing all attributes equates to the LVF algorithm of Liu and Setiono(ICML-96).
For more information see:
H.Liu,R.Setiono:A probabilistic approach to feature selection-A filter solution. In:13th International Conference on Machine Learning,319-327,1996.
(6)RankSearch
用一个评估器计算属性判据值并排序。
Uses an attribute/subset evaluator to rank all attributes.If a subset evaluator is specified,then a forward selection search is used to generate a ranked list.From the ranked list of attributes,subsets of increasing size are evaluated,ie.The best attribute, the best attribute plus the next best attribute,etc....The best attribute set is reported. RankSearch is linear in the number of attributes if a simple attribute evaluator is used such as GainRatioAttributeEval.For more information see:
Mark Hall,Geoffrey Holmes(2003).Benchmarking attribute selection techniques for discrete class data mining.IEEE Transactions on Knowledge and Data Engineering.15(6):1437-1447.
2.2.2和评价策略中的filter方法对应
(1)Ranker:
对属性的判据值进行排序,和评价策略中的Filter方法结合使用。
Ranks attributes by their individual https://www.360docs.net/doc/6112851224.html,e in conjunction with attribute evaluators(ReliefF,GainRatio,Entropy etc).
3、我的总结
针对某一算法及其参数设置,选用WrapperSubsetEval评价策略和ExhaustiveSearch搜索策略,能够保证找到适合该算法即参数设置的最优属性子集。但其计算时间较长,并且随着属性个数的增多成指数级增长。
二、参数优化
针对某一特定算法,进行参数优化有以下三种方法:CVParameterSelection、GridSearch、MultiSearch。
1、CVParameterSelection
采用交叉验证的方法,对参数进行优化选择。
优点:
可以对任意数量的参数进行优化选择;
缺点:
①参数太多时,可能造成参数组合数量的爆炸性增长;②只能优化分类器的直接参数,不能优化其嵌入的参数,比如可以优化weka.classifiers.functions.SMO 里的参数C,但不能优化weka.classifiers.meta.FilteredClassifier中的嵌入算法weka.classifiers.functions.SMO里的参数C。
示例:优化J48算法的置信系数C
1载数据集;
2选择weka.classifiers.meta.CVParameterSelection作为分类器;
3选择weka.classifiers.trees.J48作为②的基分类器;
4参数优化的字符串:C0.10.55(优化参数C,范围是从0.1至0.5,步距是0.5/5=0.1)
5进行运算,得到如下图所示的结果(最后一行是优化的参数):
2、GridSearch
采用网格搜索,而不是试验所有的参数组合,进行参数的选择。
优点:
①理论上,相同的优化范围及设置,GridSearch应该比CVParameterSelection 要快;②不限于优化分类器的直接参数,也可以优化其嵌入算法的参数;③优化的2个参数中,其中一个可以是filter里的参数,所以需要在属性表达式中加前缀classifier.或filter.;④支持范围的自动扩展。
缺点:
最多优化2个参数。
示例:优化以RBFKernel为核的SMO算法的参数1加载数据集;
2选择GridSearch为Classifier;
3选择GridSearch的Classifier为weka.classifiers.functions.SMO,kernel为
weka.classifiers.functions.supportVector.RBFKernel。
4设置X参数。XProperty:classifier.c,XMin:1,XMax:16,XStep:1,XExpression:I。
这的意思是:选择参数c,其范围是1到16,步长1。
5设置Y参数。YProperty:
"classifier.kernel.gamma,YMin:-5,YMax:2,YStep:1,YBase:10,YExpression:
pow(BASE,I)。这的意思是:选择参数kernel.gamma,其范围是
10-5,10-4, (102)
6输出如下(最后一行是优化的参数):
3、MultiSearch
类似网格参数,但更普通更简单。
优点:
①不限于优化分类器的直接参数,也可以优化其嵌入算法的参数或filter的参数;②支持任意数量的参数优化;
缺点:
不支持自动扩展边界。
4、我的总结
①如果需要优化的参数不大于2个,选用gridsearch,并且设置边界自动扩展;
②如果需要优化的参数大于2个,选用MultiSearch;
③如果优化分类器的直接参数,且参数数量不大于2个,也可以考虑用CVParameterSelection。
三、meta-Weka的算法
1、算法及描述
LocalWeightedLearning:局部加权学习;
AdaBoostM1:AdaBoost方法;
AdditiveRegression:GBRT(Grandient Boosting Regression Tree)梯度下降回归树。是属于Boosting算法,也是将多分类器进行级联训练,后一级的分类器则更多关注前面所有分类器预测结果与实际结果的残差,在这个残差上训练新的分类器,最终预测时将残差级联相加。
AttributeSelectedClassifier:将属性选择和分类器集成设置,先进行属性选择、再进行分类或回归;
Bagging:bagging方法;
ClassificationViaRegression:用回归的方法进行分类;
LogitBoost:是一种boosting算法,用回归进行分类。
MultiClassClassifier:使用两类分类器进行多类分类的方法。
RondomCommittee:随机化基分类器结果的平均值作为结果。
RandomSubspace;
FilterClassifier:将过滤器和分类器集成设置,先进行过滤、再进行分类或回归;(autoweka中没有)
MultiScheme:在所指定的多个分类器或多种参数配置中,选择最优的一个。(犹如experiment)(autoweka中没有)
RandomizableFitteredClassifier:是FilterClassifier的变体,对于RondomCommittee的ensemble classifiers是很有用的。要求不管是filter还是classifier都支持randomizable接口。(autoweka中没有)
Vote;
Stacking。
2、我的总结
Meta提供了很多以基分类器为输入的方法,其中:
①AdaBoostM1和Bagging方法是常用的meta方法;
②MultiScheme和experiment的功能类似;
③AttributeSelectedClassifier将属性选择和分类器集成设置,比较方便。
四、Auto-WEKA
Auto-WEKA支持属性、算法、参数的自动选择。
1、属性选择
属性选择作为数据的预处理步骤,在分类或回归前运行。
Auto-WEKA中属性选择的评价策略和搜索策略如上图所示。其中标*的是搜
索策略,其余的是评价策略。可见,不包括WrapperSubsetEval评价策略和ExhaustiveSearch搜索策略组合的完备搜索。
2、算法选择
上图是Auto-WEKA中包括的分类或回归算法,共39种:27种基分类器、10种meta分类器、2种ensemble分类器。其中,meta分类器可以选任意一种基分类器作为输入,ensemble分类器可以使用最多5种基分类器作为输入。
27种基分类器包括:
Bayes里的3种:BayesNet、NaiveBayes、和NaiveBayesMultinomial;
Functions里的9种:GaussianProcesses、LinearRegression、LogisticRegression、SingleLayerPerceptron、SGD、SVM、SimpleLinearRegression、SimpleLogistivRegression、VotedPerceptron。注意,没有常用的MultilayerPerceptron、RBFClassifier和RBFNetwork。
Lazy里的2种:KNN、KStar(*)。
Rules里的6种:DecisionTables、RIPPER、M5Rules、1-R、PART、0-R。
Trees里的7种:DecisionStump、C4.5DecisionTrees、LogisticModelTree、M5Tree、RandomForest、RondomTree、REPTree。
10种meta分类器:
LocalWeightedLearning:局部加权学习;
AdaBoostM1:AdaBoost方法;
AdditiveRegression:GBRT(Grandient Boosting Regression Tree)梯度下降回归树。是属于Boosting算法,也是将多分类器进行级联训练,后一级的分类器则更多关注前面所有分类器预测结果与实际结果的残差,在这个残差上训练新的分类器,最终预测时将残差级联相加。
AttributeSelectedClassifier:将属性选择和分类器集成设置,先进行属性选择、再进行分类或回归;
Bagging:bagging方法;
ClassificationViaRegression:用回归的方法进行分类;
LogitBoost:是一种boosting算法,用回归进行分类。
MultiClassClassifier:使用两类分类器进行多类分类的方法。
RondomCommittee:随机化基分类器结果的平均值作为结果。
RandomSubspace。
2种ensamble方法:
Vote和stacking。
3、我的总结
Auto-Weka有两点不足:
①属性选择里不包括WrapperSubsetEval评价策略和ExhaustiveSearch搜索策略组合的完备搜索。
②注意,没有常用的MultilayerPerceptron、RBFClassifier和RBFClassifier。
五、总结
1、属性、算法、参数的选择及优化
对于一个不熟悉的数据集合,想要快速获取最佳的分类器、参数设置、属性子集,可以按照以下步骤:
①Auto-Weka:选择范围是大部分分类器和属性选择策略,但不包括MultilayerPerceptron、RBFClassifier和RBFNetwork等分类器和完备搜索的属性选择策略;
②补充常用分类器及其参数、属性的选择:针对①的不足,选用常用分类器进行属性选择和参数优化,这些常用分类器有MultilayerPerceptron、RBFClassifier、RBFClassifier、BayesNet、Na?veBayes、SMO或SVM、linerRegression,选用其中一种,或逐一试验,进行③④⑤;
③特定分类器的属性选择:选择explorer中的“Select attributes”选项卡,属性评估策略(Attribute Evaluator)选择WrapperSubsetEval,搜索策略(SearchMethod)选择ExhaustiveSearch,WrapperSubsetEval中的Classifier选择参数优化算法(CVParameterSelection、GridSearch、MultiSearch),比如CVParameterSelection,选择CVParameterSelection的Classifier为特定分类器,进行参数优化的相关配置;运算后,得到Selected Attributes,暂时记下来;
④特定分类器的参数优化:在Preprocess中预处理数据仅使用③中的SelectedAttributes,在Classifier中选择和③中相同的参数优化算法及其配置,包括分类器;
⑤结果:③的SelectedAttributes和④的参数优化值就是特定分类器最佳的属性子集和参数设置。
2、特别注意
2.1数据标准化
有些算法,在进行运算前,要求必须对数据进行标准化处理,而有些不用。
数据标准化的优点:
1避免数值问题。
2使网络快速的收敛。
3统一评价标准,便于不同单位或量级的指标能够进行比较和加权。
4bp中常采用sigmoid函数作为转移函数,归一化能够防止净输入绝对值过大引起的神经元输出饱和现象。
5保证输出数据中数值小的不被吞食。
数据标准化的常用方法:
1Min-max标准化
min-max标准化方法是对原始数据进行线性变换,映射到区间[0,1]或[-1,1]。2Z-Score标准化
Z-Score标准化方法适用于属性A的最大值和最小值未知的情况,或有超出取值范围的离群数据的情况。这种方法基于原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化,新数据=(原数据-均值)/标准差
3方法选取
如果数据分布均匀,则用Min-max方法。如果有离群数据,最好找出来删掉,再用Min-max方法,如果不好找出来,则用z-score方法。
何种情况下,要进行标准化:
主要看模型是否具有伸缩不变性。一般来说,神经网络类和支持向量机类的算法都需要,并且最好是标准化到[-1,1]。决策树类的一般不需要。
如果不确定,就标准化到[-1,1]或Z-Score吧。
2.2TestOptions的选择
主要是UseTrainingSet和CrossValidation的选择。
一般,根据算法的说明,可以判断出是否需要CrossValidation。有一个小技巧,如果算法的参数设置中有交叉验证的折数(numFolds)和随机选取的种子(seed),则不需要CrossValidation;否则,需要CrossValidation。
CrossValidation之前,最好对数据进行随机排序。
机械优化设计论文(基于MATLAB工具箱的机械优化设计)
基于MATLAB工具箱的机械优化设计 长江大学机械工程学院机械11005班刘刚 摘要:机械优化设计是一种非常重要的现代设计方法,能从众多的设计方案中找出最佳方案,从而大大提高设计效率和质量。本文系统介绍了机械优化设计的研究内容及常规数学模型建立的方法,同时本文通过应用实例列举出了MATLAB 在工程上的应用。 关键词:机械优化设计;应用实例;MATLAB工具箱;优化目标 优化设计是20世纪60年代随计算机技术发展起来的一门新学科, 是构成和推进现代设计方法产生与发展的重要内容。机械优化设计是综合性和实用性都很强的理论和技术, 为机械设计提供了一种可靠、高效的科学设计方法, 使设计者由被动地分析、校核进入主动设计, 能节约原材料, 降低成本, 缩短设计周期, 提高设计效率和水平, 提升企业竞争力、经济效益与社会效益。国内外相关学者和科研人员对优化设计理论方法及其应用研究十分重视, 并开展了大量工作, 其基本理论和求解手段已逐渐成熟。 国内优化设计起步较晚, 但在众多学者和科研人员的不懈努力下, 机械优化设计发展迅猛, 在理论上和工程应用中都取得了很大进步和丰硕成果, 但与国外先进优化技术相比还存在一定差距, 在实际工程中发挥效益的优化设计方案或设计结果所占比例不大。计算机等辅助设备性能的提高、科技与市场的双重驱动, 使得优化技术在机械设计和制造中的应用得到了长足发展, 遗传算法、神经网络、粒子群法等智能优化方法也在优化设计中得到了成功应用。目前, 优化设计已成为航空航天、汽车制造等很多行业生产过程的一个必须且至关重要的环节。 一、机械优化设计研究内容概述 机械优化设计是一种现代、科学的设计方法, 集思考、绘图、计算、实验于一体, 其结果不仅“可行”, 而且“最优”。该“最优”是相对的, 随着科技的发展以及设计条件的改变, 最优标准也将发生变化。优化设计反映了人们对客观世界认识的深化, 要求人们根据事物的客观规律, 在一定的物质基和技术条件下充分发挥人的主观能动性, 得出最优的设计方案。 优化设计的思想是最优设计, 利用数学手段建立满足设计要求优化模型; 方法是优化方法, 使方案参数沿着方案更好的方向自动调整, 以从众多可行设计方案中选出最优方案; 手段是计算机, 计算机运算速度极快, 能够从大量方案中选出“最优方案“。尽管建模时需作适当简化, 可能使结果不一定完全可行或实际最优, 但其基于客观规律和数据, 又不需要太多费用, 因此具有经验类比或试验手段无可比拟的优点, 如果再辅之以适当经验和试验, 就能得到一个较圆满的优化设计结果。 传统设计也追求最优结果, 通常在调查分析基础上, 根据设计要求和实践
人工智能之机器学习常见算法
人工智能之机器学习常见算法 摘要机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。这里小编为您总结一下常见的机器学习算法,以供您在工作和学习中参考。 机器学习的算法很多。很多时候困惑人们都是,很多算法是一类算法,而有些算法又是从其他算法中延伸出来的。这里,我们从两个方面来给大家介绍,第一个方面是学习的方式,第二个方面是算法的类似性。 学习方式 根据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法的学习方式。在机器学习领域,有几种主要的学习方式。将算法按照学习方式分类是一个不错的想法,这样可以让人们在建模和算法选择的时候考虑能根据输入数据来选择最合适的算法来获得最好的结果。 监督式学习: 在监督式学习下,输入数据被称为训练数据,每组训练数据有一个明确的标识或结果,如对防垃圾邮件系统中垃圾邮件非垃圾邮件,对手写数字识别中的1,2,3,4等。在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与训练数据的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率。监督式学习的常见应用场景如分类问题和回归问题。常见算法有逻辑回归(LogisTIc Regression)和反向传递神经网络(Back PropagaTIon Neural Network) 非监督式学习: 在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。常见的应用场景包括关联规则的学习以及聚类等。常见算法包括Apriori算法以及k-Means 算法。 半监督式学习: 在此学习方式下,输入数据部分被标识,部分没有被标识,这种学习模型可以用来进行预
机器视觉检测的分析简答作业及答案要点学习资料
2012研究生机器视觉课程检测及课程设计内容 一、回答下列问题: 1、什么是机器视觉,它的目标是什么?能否画出机器视觉检测系统的结构方 块图,并说出它们的工作过程原理和与人类视觉的关系? 机器视觉是机器(通常指计算机)对图像进行自动处理并报告“图像中有什么”的过程,也就是说它识别图像中的内容。图像中的内容往往是某些机器零件,而处理的目标不仅要能对机器零件定位,还要能对其进行检验。 原始数据特征向量类别标识 特征度量模式分类器 机器视觉系统的组成框图 2、在机器视觉检测技术中:什么是点视觉技术、一维视觉技术、二维视觉技 术、三维视觉技术、运动视觉技术、彩色视觉技术、非可见光视觉技术等? 能否说出他们的应用领域病句、案例?能否描述它们的技术特点? 答:点视觉:用一个独立变量表示的视觉称之为点视觉。如应用位移传感器测量物体的移动速度。 一维视觉:普通的CCD。 两维视觉:用两个独立变量表示的视觉称之为两维视觉。比如普通的CCD。 三维视觉:用三个独立变量表示的视觉称之为三维视觉。比如用两个相机拍摄(双目视觉);或者使用一个相机和一个辅助光源。 彩色视觉:用颜色作为变量的视觉称之为彩色视觉。物体的颜色是由照 射光源的光谱成分、光线在物体上反射和吸收的情况决定的。比如,一 个蓝色物体在日光下观察呈现蓝色,是由于这个物体将日光中的蓝光 反射出来,而吸收了光谱中的其他部分的光谱,而同样的蓝色物体, 在红色的光源照射下,则呈现红紫色, 非可见光视觉技术:用非可见光作为光源的视觉技术。比如非可见光成像技术。
3、机器视觉检测技术中:光源的种类有哪些?不同光源的特点是什么?光照 方式有几种?不同光照方式的用途是什么?又和技术特点和要求? 机器视觉检测技术中光源有以下几种:荧光灯,卤素灯+光纤导管,LED 光源,激光,紫外光等。几种光源的特点如下: 成本亮度稳定度使用寿命复杂设计温度影响种类名 称 荧光灯低差差一般低一般 卤素灯+光纤导管高好一般差一般差LED光源一般一般好好高低光照方式有以下几种: 背景光法(背光照射)是将被测物置于相机和光源之间。这种照明方式的优点是可将被测物的边缘轮廓清晰地勾勒出来。由于在图像中,被测物所遮挡的部分为黑色,而未遮挡的部分为白色,因此形成“黑白分明”的易于系统分析的图像。此方法被应用于90%的测量系统中。 前景光法(正面照射)是将灯源置于被测物和相机之前。又可分为明场照射和暗场照射。明场照射是为了获得物体的几乎全部信息,照射物体的光在视野范围之内几乎全部反射回去;暗场照射是为了获取物体表面的凹凸,照射物体的光在视野范围之外有部分光反射回去。 同轴光法是将灯源置于被测物和相机之间。 4、机器视觉检测系统中,光学系统的作用是什么?光学器件有哪几种,它们 各自的作用是什么?光学镜头有几种类型,它们各自有何用途?光学镜头有哪些技术参数,各自对测量有什么影响? 答:机器视觉检测系统中,光学系统用来采集物体的轮廓、色彩等信息。 光学器件主要有:镜头、成像器件(CCD和CMOS)、光圈、快门等。 镜头的作用是对成像光线进行调焦等处理,使成像更清晰;成像器件的作用是将光学图像转换成模拟电信号;光圈的作用如同人得瞳孔, 控制入射光的入射量,实现曝光平衡;快门的作用是将想要获取的光学
机械优化设计方法论文
浅析机械优化设计方法基本理论 【摘要】在机械优化设计的实践中,机械优化设计是一种非常重要的现代设计方法,能从众多的设计方案中找出最佳方案,从而大大提高设计的效率和质量。每一种优化方法都是针对某一种问题而产生的,都有各自的特点和各自的应用领城。在综合大量文献的基础上,总结机械优化设计的特点,着重分析常用的机械优化设计方法,包括无约束优化设计方法、约束优化设计方法、基因遗传算方法等并提出评判的主 要性能指标。 【关键词】机械;优化设计;方法特点;评价指标 一、机械优化概述 机械优化设计是适应生产现代化要求发展起来的一门科学,它包括机械优化设计、机械零部件优化设计、机械结构参数和形状的优化设计等诸多内容。该领域的研究和应用进展非常迅速,并且取得了可观的经济效益,在科技发达国家已将优化设计列为科技人员的基本职业训练项目。随着科技的发展,现代化机械优化设计方法主要以数学规划为核心,以计算机为工具,向着多变量、多目标、高效率、高精度方向发展。]1[ 优化设计方法的分类优化设计的类别很多,从不同的角度出发,可以做出各种不同的分类。按目标函数的多少,可分为单目标优化设计方法和多目标优化设计方法按维数,可分为一维优化设计方法和多维优化设计方法按约束情况,可分为无约束优化设计方法和约束优化设计方法按寻优途径,可分为数值法、解析法、图解法、实验法和情况研究法按优化设计问题能否用数学模型表达,可分为能用数学模型表达的优化设计问题其寻优途径为数学方法,如数学规划法、最优控制法等。 1.1 设计变量 设计变量是指在设计过程中进行选择并最终必须确定的各项独立参数,在优化过程中,这些参数就是自变量,一旦设计变量全部确定,设计方案也就完全确定了。设计变量的数目确定优化设计的维数,设计变量数目越多,设计空间的维数越大。优化设计工作越复杂,同时效益也越显著,因此在选择设计变量时。必须兼顾优化效果的显著性和优化过程的复杂性。