SAJ以最小化空间代价为目标的F&B索引构建算法
人工智能机器学习技术练习(试卷编号1131)

人工智能机器学习技术练习(试卷编号1131)1.[单选题]我们常用 ( ) 版。
A)apache 版B)cdh 版C)Hortonworks版本答案:B解析:2.[单选题]以下哪项是解决NLP用例(如语义相似性、阅读理解和常识推理)的更好选择?A)ELMoB)Open AI’s GPTC)ULMFit答案:B解析:3.[单选题]逻辑回归拟合的函数是()A)sigmoidB)tanhC)relu答案:A解析:4.[单选题]回归评估指标中RMSE和MSE的关系是()A)MSE是RMSE的平方B)没有关系C)RMSE是MSE的平方答案:A解析:5.[单选题]在NumPy通用函数中,用于计算元素级最大值的函数是( )。
A)maxB)maximumC)minD)maximal答案:B解析:6.[单选题]下列不属于聚类性能度量外部指标的是(__)。
C)Rand指数D)DB指数答案:D解析:7.[单选题]关于竞争型学习算法描述错误的是A)是一种监督学习策略;B)每个时刻只有一个竞争获胜的神经元被激活;C)其他神经元的状态被抑制;D)ART网络通过竞争型学习算法寻优;答案:A解析:8.[单选题]分析逻辑回归表现的一个良好的方法是AIC,它与线性回归中的R平方相似。
有关AIC,以下哪项是正确的?A)具有最小AIC值的模型更好B)具有最大AIC值的模型更好C)视情况而定D)以上都不是答案:A解析:AIC信息准则即Akaike information criterion,是衡量统计模型拟合优良性的一种标准,由于它为日本统计学家赤池弘次创立和发展的,因此又称赤池信息量准则。
考虑到AIC=2k-2In(L) ,所以一般而言,当模型复杂度提高(k增大)时,似然函数L也会增大,从而使AIC变小,但是k过大时,似然函数增速减缓,导致AIC增大,模型过于复杂容易造成过拟合现象。
目标是选取AIC最小的模型,AIC不仅要提高模型拟合度(极大似然),而且引入了惩罚项,使模型参数尽可能少,有助于降低过拟合的可能性。
人工智能a算法例题

人工智能a算法例题人工智能领域中的A算法是指A算法,它是一种常用的启发式搜索算法。
A算法在路径规划、游戏AI等领域有广泛应用。
下面我将从多个角度来回答关于A算法的例题。
首先,让我们假设有一个迷宫,其中包含起点(S)和终点(G),以及一些障碍物(#)。
我们的目标是找到从起点到终点的最短路径。
现在,我将使用A算法来解决这个例题。
A算法的基本思想是维护两个列表,开放列表和关闭列表。
开放列表用于存储待探索的节点,关闭列表用于存储已经探索过的节点。
算法通过计算每个节点的估计代价(f值)来决定下一个要探索的节点,其中f值等于节点的实际代价(g值)加上节点到目标节点的估计代价(h值)。
首先,将起点加入开放列表,并将其g值设为0。
然后,重复以下步骤直到找到终点或者开放列表为空:1. 从开放列表中选择f值最小的节点,将其移入关闭列表。
2. 对于该节点的每个相邻节点,计算它们的g值和h值。
3. 如果相邻节点已经在关闭列表中,则跳过。
4. 如果相邻节点不在开放列表中,将其加入开放列表,并更新其父节点为当前节点,并计算其g值和h值。
5. 如果相邻节点已经在开放列表中,比较当前路径下的g值和已有路径下的g值。
如果当前路径下的g值更小,则更新父节点为当前节点,并更新g值。
当找到终点时,回溯路径即可得到从起点到终点的最短路径。
除了以上的步骤说明,还可以从其他角度来解释A算法。
例如,可以从算法的优点和缺点来进行分析。
A算法的优点包括:1. 可以找到最短路径,A算法使用启发式函数来估计代价,因此可以找到最短路径。
2. 效率较高,A算法在大多数情况下具有较高的搜索效率,尤其是在启发式函数设计得合理的情况下。
3. 可以应用于多种问题,A算法是一种通用的搜索算法,可以应用于路径规划、游戏AI等多个领域。
然而,A算法也有一些缺点:1. 启发式函数的设计有一定难度,为了使A算法能够找到最优解,需要设计一个合适的启发式函数。
但是,启发式函数的设计并不是一件容易的事情,需要对问题有深入的理解。
模式识别习题集答案解析

模式识别习题集答案解析1、PCA和LDA的区别?PCA是⼀种⽆监督的映射⽅法,LDA是⼀种有监督的映射⽅法。
PCA只是将整组数据映射到最⽅便表⽰这组数据的坐标轴上,映射时没有利⽤任何数据部的分类信息。
因此,虽然做了PCA后,整组数据在表⽰上更加⽅便(降低了维数并将信息损失降到了最低),但在分类上也许会变得更加困难;LDA在增加了分类信息之后,将输⼊映射到了另外⼀个坐标轴上,有了这样⼀个映射,数据之间就变得更易区分了(在低纬上就可以区分,减少了很⼤的运算量),它的⽬标是使得类别的点距离越近越好,类别间的点越远越好。
2、最⼤似然估计和贝叶斯⽅法的区别?p(x|X)是概率密度函数,X是给定的训练样本的集合,在哪种情况下,贝叶斯估计接近最⼤似然估计?最⼤似然估计把待估的参数看做是确定性的量,只是其取值未知。
利⽤已知的样本结果,反推最有可能(最⼤概率)导致这样结果的参数值(模型已知,参数未知)。
贝叶斯估计则是把待估计的参数看成是符合某种先验概率分布的随机变量。
对样本进⾏观测的过程,把先验概率密度转化为后验概率密度,利⽤样本的信息修正了对参数的初始估计值。
当训练样本数量趋于⽆穷的时候,贝叶斯⽅法将接近最⼤似然估计。
如果有⾮常多的训练样本,使得p(x|X)形成⼀个⾮常显著的尖峰,⽽先验概率p(x)⼜是均匀分布,此时两者的本质是相同的。
3、为什么模拟退⽕能够逃脱局部极⼩值?在解空间随机搜索,遇到较优解就接受,遇到较差解就按⼀定的概率决定是否接受,这个概率随时间的变化⽽降低。
实际上模拟退⽕算法也是贪⼼算法,只不过它在这个基础上增加了随机因素。
这个随机因素就是:以⼀定的概率来接受⼀个⽐单前解要差的解。
通过这个随机因素使得算法有可能跳出这个局部最优解。
4、最⼩错误率和最⼩贝叶斯风险之间的关系?基于最⼩风险的贝叶斯决策就是基于最⼩错误率的贝叶斯决策,换⾔之,可以把基于最⼩错误率决策看做是基于最⼩风险决策的⼀个特例,基于最⼩风险决策本质上就是对基于最⼩错误率公式的加权处理。
人工智能深度学习技术练习(习题卷14)

人工智能深度学习技术练习(习题卷14)第1部分:单项选择题,共47题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]可以直观地看到各层网络结构和参数的工具的是?A)tfB)tf.nnC)TFD)TensorBoard答案:D解析:2.[单选题]关于drop_duplicates函数,下列说法中错误的是()。
A)对Dataframe的数据有效B)仅支持单一特征的数据去重C)数据有重复时默认保留第一个数据D)该函数不会改变原始数据排列答案:B解析:难易程度:中题型:3.[单选题]pytorch中批量归一化使用的是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:D解析:4.[单选题]训练时使用( )随机忽略一部分神经元,以避免模型过拟合。
在AlexNet中主要是最后几个全连接层使用了这个环节。
A)DropoutB)Conv2dC)max-poolD)FC6-8答案:A解析:5.[单选题]可以帮助将数据大小缩小的方式是A)卷积层B)池化层C)全连接层D)激活层答案:B解析:6.[单选题]超参数范围中说法正确的是A)随机取值可以提升搜索效率B)随机取值就是随机均匀取值C)范围就是[0,1]D)随机取值对搜索无影响答案:A解析:7.[单选题]计算机视觉,主要研究方法是A)机器学习B)数据挖掘C)卷积神经网络D)openCV答案:C解析:8.[单选题]什么是卷积?A)缩小图像的技术B)放大图像的技术C)隔离图像特征的技术D)过滤掉不需要的图像的技术答案:C解析:9.[单选题]深度学习中,以下哪些方法不可以降低模型过拟合?A)增加更多的样本B)DropoutC)增大模型复杂度,提高在训练集上的效果D)增加参数惩罚答案:C解析:10.[单选题]函数tf.log( ),该函数返回的是一个( )A)向量B)张量C)矢量D)范数答案:B解析:11.[单选题]torch.nn.Conv2d中控制卷积尺寸的参数为A)strideB)kerner_sizeC)in_channelsD)out_channels答案:B解析:12.[单选题]连续词袋模型的英文缩写是A)CBOWB)CBOMC)CCOWD)BBOW答案:A解析:13.[单选题]LSTM中,哪个门的作用是“确定输出,把前面的信息保存到隐层中去”?A)输入门B)遗忘门C)输出门D)更新门答案:C解析:14.[单选题]下面哪个选项可以直接读取一副灰度图像( )A)cv2.imread(path)B)cv2.imread(path,0)C)cv2.imread(path,1)D)cv2.imread(path,-1)答案:B解析:cv2.imread(filename, flags)参数:filepath:读入imge的完整路径flags:标志位,{cv2.IMREAD_COLOR,cv2.IMREAD_GRAYSCALE,cv2.IMREAD_UNCHANGED}cv2.IMREAD_COLOR:默认参数,读入一副彩色图片,忽略alpha通道,可用1作为实参替代cv2.IMREAD_GRAYSCALE:读入灰度图片,可用0作为实参替代cv2.IMREAD_UNCHANGED:顾名思义,读入完整图片,包括alpha通道,可用-1作为实参替代PS:alpha通道,又称A通道,是一个8位的灰度通道,该通道用256级灰度来记录图像中的透明度复信息,定义透明、不透明和半透明区域,其中黑表示全透明,白表示不透明,灰表示半透明15.[单选题]softmax函数说法错误的是A)输出的结果和为1B)使用于多分类C)可以防止数据过拟合D)输出的结果为正类别的概率答案:C解析:softmax没有防止数据过拟合的作用16.[单选题]简单细胞对应的视网膜上的光感受细胞所在的区域很小,而复杂系统则对应更大的区域,这个区域被称为()A)感受区域B)复杂细胞C)简单细胞D)感受野答案:D解析:17.[单选题]假设你需要调整超参数来最小化代价函数(cost function),会使用下列哪项技术?A)举搜索B)随机搜索C)Bayesian优化D)都可以答案:D解析:18.[单选题]查看gpu显卡数量的函数是A)tensor_gpu.is_cudaB)torch.cuda.device_count()C)tensor_gpu.deviceD)torch.cuda.is_available()答案:B解析:19.[单选题]关于通道理解错误的是A)单通道为灰度图B)卷积后的通道越多,效果越好C)彩色图进行卷积处理只能是三通道D)彩色图是三通道答案:C解析:20.[单选题]利用tf.GradientTape求微分的方法叫做Tensorflow的()机制A)梯度下降B)模型处理C)梯度处理D)自动微分答案:D解析:21.[单选题]resnet和Inception使用()代替全连接处理A)平均池化B)最大池化C)1*1卷积D)3*3卷积答案:A解析:22.[单选题]如果词汇量是10000,每个词汇由300个特征表示,那么嵌入矩阵就是一个()的矩阵A)10000*10000B)300*300C)300*10000D)100*10000答案:C解析:23.[单选题]假定你在神经网络中的隐藏层中使用激活函数 X。
人工智能核心算法模拟习题含答案

人工智能核心算法模拟习题(含答案)1、图像分类是根据图像的语义信息对不同类别图像进行区分,是计算机视觉的核心,是()、人脸识别等其他高层次视觉任务的基础A、物体检测B、图像分割C、物体跟踪D、行为分析答案:ABCD2、决策树分为两大类OoA、回归树B、分类树C、交叉树D、森林答案:AB3、关于学习器结合的描述,正确的是OoA、避免单学习器可能因误选而导致泛化性能不佳B、降低陷入局部极小点的风险C、假设空间扩大,有可能学得更好的近似D、多学习器结合有可能冲突答案:ABC4、()类型的数据集不适合用深度学习?A、数据集太小B、数据集有局部相关性C、数据集太大D、数据集没有局部相关性答案:AD5、需要循环迭代的算法有OoA、k-meansB、线性回归C、svmD、逻辑回归答案:ABD6、下列描述正确的是OA、K均值一般会聚类所有对象,但DBSCAN会丢弃被它识别为噪声的对象B、当簇具有很不相同的密度时,K均值和DBSCAN的性能都很差C、K均值可以用于高维的稀疏数据,DBSCAN则通常在此类数据上性能很差D、K均值可以发现不是明显分离的簇,但DBSCAN会合并有重叠的簇答案:ABCD7、深度学习中常用的损失函数有?A、11损失函数B、均方误差损失函数C、交叉燧误差损失函数D、自下降损失函数答案:BC8、预剪枝使得决策树的很多分子都没有展开,会导致OOA、显著减少训练时间开销B、显著减少测试时间开销C、降低过拟合风险I)、提高欠拟合风险答案:ABCD9、在某神经网络的隐层输出中,包含0.75,那么该神经网络采用的激活函数可能是OA、sigmoidB、tanhC、re1u答案:ABC10、关于随机森林说法正确的是OA、与AdaboOSt相比,随机森林采用一个固定的概率分布来产生随机向量B、随着个体学习器数目的增加,随机森林通常会收敛到更低的泛化误差C、与AdabOOSt相比,随机森林鲁棒性更好D、随机森林的训练效率往往低于Bagging答案:ABC11、下列哪些项用于对问题进行形式化A、感知B、初始状态C、动作D、环境答案:BC12、深度学习中的激活函数需要具有哪些属性?A、计算简单B、非线性C、具有饱和区D、几乎处处可微答案:ABC13、常见的聚类算法有哪些?A、密度聚类B、层次聚类C、谱聚类D、Kmeans答案:ABCD14、对于朴素贝叶斯分类器,下面说法正确的是OA、适用于小规模数据集B、适用于多分类任务C、适合增量式训练D、对输入数据的表达形式不敏感答案:ABC15、下列可用于隐马尔可夫预测的算法是OOA、维特比算法B、Baum-We1ch算法C、前向-后向算法D、拟牛顿法答案:ABCD16^Hiatp1ot1ib中,SUbPIOts_adjust方法中的()和()参数分别控制图片的宽度和高度百分比,以用作子图间的间距。
人工智能机器学习技术练习(习题卷8)

人工智能机器学习技术练习(习题卷8)说明:答案和解析在试卷最后第1部分:单项选择题,共62题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]基于二次准则函数的H-K算法较之于感知器算法的优点是()?A)计算量小B)可以判别问题是否线性可分C)其解完全适用于非线性可分的情况2.[单选题]构建回归树的时间复杂度最重要的因素是()A)特征中类别的个数B)label列值域C)样本总量3.[单选题]()是指为最小化总体风险,只需在每个样本上选择能使特定条件风险最小的类别标记。
A)支持向量机B)间隔最大化C)线性分类器D)贝叶斯判定准则4.[单选题]下列选择 Logistic回归中的 One-Vs-All方法中,()是真实的。
A)我们需要在n类分类问题中适合n个模型B)我们需要适合n-1个模型来分类为n个类C)我们需要只适合1个模型来分类为n个类D)以上答案都不正确5.[单选题](__)不属于相关分析。
A)正相关B)负相关C)线性相关D)误差相关6.[单选题]移动运营商对客户进行细分,设计套餐和营销活动可以使用下面哪种机器学习方法( )。
A)贝叶斯分类器B)关联方法C)聚类算法D)多层前馈网络7.[单选题]下面是三个散点图(A,B,C,从左到右)和和手绘的逻辑回归决策边界。
alt="" >上图中哪一个显示了决策边界过度拟合训练数据?A)AD)这些都没有8.[单选题]半监督学习包括。
A)主动学习B)回归学习C)聚类学习D)直推学习9.[单选题]在统计语言模型中,通常以概率的形式描述任意语句的可能性,利用最大相似度估计进行度量,对于一些低频词,无论如何扩大训练数据,出现的频度仍然很低,下列哪种方法可以解决这一问题()A)一元切分B)一元文法C)数据平滑D)N元文法10.[单选题]将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务?A)频繁模式挖掘B)分类和预测C)数据预处理D)数据流挖掘11.[单选题]图像数据分析的常用方法不包括( )A)图像变换B)图像编码和压缩C)图像增强和复原D)图像数据采集12.[单选题]下列关于数据的说法,不正确的是()A)数据的类别有多种多样B)数据库中的一列代表一个特征C)一组数据平均值不会受异常值影响D)数据点之间的距离满足d_ij+d_jk≥d_ikB)采用类似于LINUX命令进行数据访问C)具备临时节点和永久节点D)永久节点会随客户端会话的结束而结束其生命周期14.[单选题]下面数据结构能够支持随机的插入和删除操作、并具有较好的性能的是A)链表和哈希表B)数组和链表C)哈希表和队列D)堆栈和双向队列15.[单选题]下面关于数据科学与统计学的关系描述不正确的有(__)。
人工智能教程习题及答案第5章习题参考解答
第五章搜索策略习题参考解答5.1 练习题5.1 什么是搜索?有哪两大类不同的搜索方法?两者的区别是什么?5.2 用状态空间法表示问题时,什么是问题的解?求解过程的本质是什么?什么是最优解?最优解唯一吗?5.3 请写出状态空间图的一般搜索过程。
在搜索过程中OPEN表和CLOSE表的作用分别是什么?有何区别?5.4 什么是盲目搜索?主要有几种盲目搜索策略?5.5 宽度优先搜索与深度优先搜索有何不同?在何种情况下,宽度优先搜索优于深度优先搜索?在何种情况下,深度优先搜索优于宽度优先搜索?5.6 用深度优先搜索和宽度优先搜索分别求图5.10所示的迷宫出路。
图5.10 习题5.6的图5.7 修道士和野人问题。
设有3个修道士和3个野人来到河边,打算用一条船从河的左岸渡到河的右岸去。
但该船每次只能装载两个人,在任何岸边野人的数目都不得超过修道士的人数,否则修道士就会被野人吃掉。
假设野人服从任何一种过河安排,请使用状态空间搜索法,规划一使全部6人安全过河的方案。
(提示:应用状态空间表示和搜索方法时,可用(N m,N c)来表示状态描述,其中N m和N c分别为传教士和野人的人数。
初始状态为(3,3),而可能的中间状态为(0,1),(0,2),(0,3), (1,1),(2,1),(2,2),(3,0),(3,1),(3,2)等。
)5.8 用状态空间搜索法求解农夫、狐狸、鸡、小米问题。
农夫、狐狸、鸡、小米都在一条河的左岸,现在要把它们全部送到右岸去。
农夫有一条船,过河时,除农夫外,船上至多能载狐狸、鸡和小米中的一样。
狐狸要吃鸡,鸡要吃小米,除非农夫在那里。
试规划出一个确保全部安全的过河计划。
(提示:a.用四元组(农夫,狐狸,鸡,米)表示状态,其中每个元素都可为0或1,0表示在左岸,1表示在右岸;b.把每次过河的一种安排作为一个算符,每次过河都必须有农夫,因为只有他可以划船。
)5.9 设有三个大小不等的圆盘A 、B 、C 套在一根轴上,每个圆盘上都标有数字1、2、3、4,并且每个圆盘都可以独立地绕轴做逆时针转动,每次转动90°,初始状态S 0和目标状态S g 如图5.11所示,用宽度优先搜索法和深度优先搜索法求从S 0到S g 的路径。
人工智能深度学习技术练习(习题卷9)
人工智能深度学习技术练习(习题卷9)第1部分:单项选择题,共50题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]以下的序列数据中,属于一对多(一个输入,多个输出)的关系是哪个?A)音乐生成B)情感分类C)机器翻译D)DNA序列分析答案:A解析:2.[单选题]在构建一个神经网络时,batch size通常会选择2的次方,比如256和512。
这是为什么呢?A)当内存使用最优时这可以方便神经网络并行化B)当用偶数是梯度下降优化效果最好C)这些原因都不对D)当不用偶数时,损失值会很奇怪答案:A解析:3.[单选题]函数x*ln(x)的导数是A)ln(x)+1B)xC)lnxD)1/x答案:A解析:4.[单选题]为什么会有10个输出神经元?A)纯粹随意B)有10个不同的标签C)使训练速度提高10倍D)使分类速度提高10倍答案:B解析:5.[单选题]在梯度下降的课程中,PPT图片中的小人下山的路径是什么颜色的()。
A)红色B)蓝色C)绿色D)橙色答案:C解析:难易程度:易题型:6.[单选题]曼哈顿距离的的运算方法是D)线性运算答案:A解析:7.[单选题]使用二维滤波器滑动到被卷积的二维图像上所有位置,并在每个位置上与该像素点及其领域像素点做内积,这就是( )A)一维卷积B)二维卷积C)三维卷积D)四维卷积答案:B解析:8.[单选题]深度学习中的“深度”是指A)计算机理解深度B)中间神经元网络的层次很多C)计算机的求解更加精确D)计算机对问题的处理更加灵活答案:B解析:9.[单选题]启动图/会话的第一步是创建一个Session对象,如:A)sess = tf.Session()B)sess.close()C)tf.addD)tf.eqeal答案:A解析:10.[单选题]在构建一一个神经网络时,batch size通常会选择2的次方,比如256和512。
这是为什么.呢?( )A)当内存使用最优时这可以方便神经网络并行化B)当用偶数是梯度下降优化效果最好C)这些原因都不对.D)当不用偶数时,损失值会很奇怪。
西工大计算智能试题
一、选择题(10小题,共10分)6、产生式系统的推理不包括()A)正向推理B)逆向推理C)双向推理D)简单推理8、在公式中∀y∃xp(x,y)),存在量词是在全称量词的辖域内,我们允许所存在的x可能依赖于y值。
令这种依赖关系明显地由函数所定义,它把每个y值映射到存在的那个x。
这种函数叫做()A) 依赖函数B)Skolem函数C)决定函数D)多元函数9、子句~P∨Q和P经过消解以后,得到( )A)P B)~PC)Q D) P∨Q10、如果问题存在最优解,则下面几种搜索算法中,()必然可以得到该最优解。
A)宽度(广度)优先搜索B)深度优先搜索C) 有界深度优先搜索D)启发式搜索二、填空题(10个空,共10分)1、化成子句形式为:~。
2、假言推理(A→B)∧A⇒B,假言三段论(A→B)∧(B→C)⇒ A —〉C.3、在启发式搜索当中,通常用启发函数来表示启发性信息.5、状态空间法三要点分别是:状态和算符, 状态空间方法。
6. 鲁宾逊提出了⑦归结原理使机器定理证明成为可能。
7。
宽度优先搜索与深度优先搜索方法的一个致命的缺点是当问题比较复杂是可能会发生组合爆炸。
8、产生式系统是由___综合数据库知识库___和_推理机________三部分组成的。
9、谓词公式G是不可满足的,当且仅当对所有的解释G都为假.10、谓词公式与其子句集的关系是包含。
11、利用归结原理证明定理时,若得到的归结式为空集,则结论成立。
12、若C1=┐P∨Q,C2=P∨┐Q,则C1和C2的归结式R(C1,C2)= ┐P∨P或┐Q∨Q。
13、在框架和语义网络两种知识表示方法中,框架适合于表示结构性强的知识,而语义网络则适合表示一些复杂的关系和联系的知识。
三、简答题(4小题,共40分)1.什么是A*算法的可纳性?(4分)答:在搜索图存在从初始状态节点到目标状态节点解答路径的情况下,若一个搜索法总能找到最短(代价最小)的解答路径,则称算法具有可采纳性.2.在一般图搜索算法中,当对某一个节点n进行扩展时,n的后继节点可分为三类,请举例说明对这三类节点的不同的处理方法。
人工智能多选模拟练习题含参考答案
人工智能多选模拟练习题含参考答案一、多选题(共100题,每题1分,共100分)1、下面对机器学习方法叙述正确的是()。
A、解释学习需要环境提供一组示例,而示例学习只要环境提供一个示例。
B、符号学习对模拟人类较低级的神经活动是比较有效的C、观察与发现学习是基于归纳推理的D、机械式学习是没有推理能力的正确答案:CD2、支持向量机的求解通常是借助于凸优化技术,针对线性核SVM来说,主要的求解提升效率方法为(____)。
A、坐标下降法B、快速采样法C、割平面法D、随机梯度下降正确答案:ACD3、以下哪项关于决策树的说法是正确的 ( )A、决策树算法对于噪声的干扰非常敏感B、子树可能在决策树中重复多次C、冗余属性不会对决策树的准确率造成不利的影响D、寻找最佳决策树是NP完全问题正确答案:BCD4、计算智能的主要研究领域包括()。
A、数字计算B、进化计算C、模糊计算D、神经计算正确答案:BCD5、人工智能工程化聚焦()全生命流程的高效耦合。
A、算法提升B、工具体系C、模型管理D、开发流程正确答案:BCD6、word2vec包含两个经典模型,()和()。
A、Skip-gramB、Skip-cramC、CBOWD、BCOW正确答案:AC7、对于FPGA描述正确的是()A、FPGA内部是一种与或阵列结构。
B、FPGA在断电后信息不会丢失。
C、FPGA是现场可编程门阵列的简称。
D、FPGA属于高密度可编程逻辑器件。
正确答案:CD8、函数能处理比定义时更多的参数,他们是()参数。
A、不可变B、收集C、不定长D、可变正确答案:BCD9、关于python的字符串,下列说法正确的是A、在三引号字符串中可以包含换行回车等特殊字符B、字符串以\0标志字符串的结束C、既可以用单引号,也可以用双引号创建字符串D、字符应该视为长度为1的字符串正确答案:ACD10、下列()是有序的。
A、集合B、列表C、字符串D、元组正确答案:BCD11、以下哪些是常见的神经网络()?A、SQM网络B、ART网络C、RIO网络D、RBF网络E、SOM网络正确答案:BDE12、常见的聚类技术有()A、KonhonennetworkB、两步聚类C、K平均值聚类D、分层聚类正确答案:ABCD13、DSSM模型总的来说可以分成三层结构,分别是()A、表示层B、输出层C、匹配层D、输入层正确答案:ACD14、机器学习的要素有哪些?A、泛化能力B、样本空间划分C、一致性假设正确答案:ABC15、关于Python的全局变量和局部变量,以下选项中描述正确的是A、使用global保留字声明简单数据类型变量后,该变量作为全局变量使用B、全局变量指在函数之外定义的变量,一般没有缩进,在程序执行全过程有效C、简单数据类型变量无论是否与全局变量重名,仅在函数内部创建和使用,函数退出后变量被释放D、局部变量指在函数内部使用的变量,当函数退出时,变量依然存在,下次函数调用可以继续使用正确答案:ABC16、以下属于机器学习的是()A、监督式学习B、强化学习C、非监督式学习D、半监督式学习正确答案:ABCD17、“噪声”是指测量变量中的随机错误或偏差,噪声数据的主要表现形式有哪些?A、错误数据B、缺失数据C、异常数据D、虚假数据正确答案:ACD18、知识图谱的垂直领域应用包括( )。