数据挖掘实训报告
数据挖掘_实习报告

数据挖掘_实习报告数据挖掘实习报告一、实习目的进入大学以来,我一直在学习数据挖掘的相关理论知识,包括统计学、机器学习、数据库管理等。
为了将理论应用于实践,提升自己的专业技能,我选择了在XX公司进行数据挖掘实习。
二、实习内容在实习期间,我主要参与了以下几个项目:1. 用户画像构建:通过对用户历史数据的分析,提取用户的特征和兴趣点,构建用户画像。
这涉及到数据清洗、特征工程、标签制定等环节。
2. 推荐系统开发:基于用户画像,开发推荐算法,为用户提供个性化的商品或服务推荐。
这需要对推荐算法有深入的理解,并熟悉相关工具和平台。
3. 广告投放策略优化:通过数据分析和机器学习算法,优化广告投放策略,提高广告的点击率和转化率。
这涉及到数据处理、模型训练、AB测试等环节。
三、实习过程在实习过程中,我遇到了很多挑战和问题。
其中最大的挑战是如何将理论知识与实际应用相结合,我对数据挖掘的知识有了深入的理解,但在实际应用中,却发现自己对某些概念的理解还不够深入。
为了解决这个问题,我主动向同事请教,并阅读了大量相关文档和资料。
我还积极参加团队讨论和分享会,与其他同事交流经验和看法,不断加深对数据挖掘的理解和应用。
除了技术层面的挑战外,我还面临了时间管理和工作压力的挑战。
由于项目进度紧张和任务繁重,我需要在有限的时间内完成大量的工作和学习任务。
为了应对这些挑战,我制定了详细的工作计划和时间表,并学会合理安排时间和优先级。
我也积极调整自己的心态和情绪,保持积极乐观的态度,以应对工作中的压力和挑战。
四、实习收获通过这次实习,我不仅提升了自己的专业技能和实践能力,还学会了如何将理论知识与实际应用相结合,解决实际问题。
我还培养了自己的团队协作能力和沟通能力,学会了如何与他人合作完成任务。
在未来的学习和工作中,我将更加注重理论与实践的结合,不断提升自己的专业素养和实践能力。
五、总结与展望这次实习是一次非常宝贵的学习和成长经历,通过这次实习,我不仅掌握了数据挖掘的基本理论和技能,还提升了自己的实践能力和团队协作能力。
数据挖掘专业实习报告

一、实习背景随着大数据时代的到来,数据挖掘技术在各行各业的应用日益广泛。
为了更好地将理论知识与实践相结合,提升自己的专业技能,我于今年暑假期间在XX科技有限公司进行了为期一个月的数据挖掘实习。
在此期间,我参与了公司实际项目的开发,对数据挖掘的各个环节有了更深入的了解。
二、实习单位及项目简介XX科技有限公司是一家专注于大数据处理和分析的高新技术企业,致力于为客户提供一站式数据解决方案。
本次实习项目为公司内部的一个客户项目,旨在通过数据挖掘技术分析客户销售数据,为其提供精准营销策略。
三、实习内容及收获1. 数据获取与预处理实习初期,我负责收集和整理客户销售数据。
由于数据量较大,我学习了使用Python语言编写脚本,从不同数据源(如数据库、Excel文件等)获取数据,并进行初步的数据清洗和预处理。
在此过程中,我掌握了以下技能:熟练使用Python进行数据操作,如读取、写入、排序、筛选等;掌握了常用的数据清洗方法,如去除重复值、处理缺失值、数据标准化等;熟悉了常用的数据存储格式,如CSV、JSON等。
2. 特征工程在数据预处理的基础上,我参与了特征工程的工作。
通过对原始数据进行降维、特征提取和特征选择等操作,提高模型的准确性和泛化能力。
具体内容包括:使用统计方法(如方差、相关系数等)识别和选择重要特征;使用机器学习算法(如主成分分析、LDA等)进行特征降维;结合业务知识,对特征进行适当的转换和组合。
3. 模型选择与优化在特征工程完成后,我参与了模型的选择和优化工作。
根据业务需求,我尝试了多种机器学习算法,如逻辑回归、决策树、随机森林、支持向量机等,并对模型参数进行调优。
通过对比不同模型的性能,最终选择了最适合该项目的模型。
4. 模型评估与部署在模型训练完成后,我使用交叉验证等方法对模型进行评估,确保其具有良好的泛化能力。
随后,我将模型部署到公司内部的服务器上,为客户提供实时预测服务。
四、实习总结与反思通过本次实习,我收获颇丰:1. 专业知识与实践能力的提升:在实习过程中,我不仅巩固了数据挖掘的相关理论知识,还学会了如何将理论知识应用于实际项目中,提高了自己的实践能力。
数据挖掘实验报告结论(3篇)

第1篇一、实验概述本次数据挖掘实验以Apriori算法为核心,通过对GutenBerg和DBLP两个数据集进行关联规则挖掘,旨在探讨数据挖掘技术在知识发现中的应用。
实验过程中,我们遵循数据挖掘的一般流程,包括数据预处理、关联规则挖掘、结果分析和可视化等步骤。
二、实验结果分析1. 数据预处理在实验开始之前,我们对GutenBerg和DBLP数据集进行了预处理,包括数据清洗、数据集成和数据变换等。
通过对数据集的分析,我们发现了以下问题:(1)数据缺失:部分数据集存在缺失值,需要通过插补或删除缺失数据的方法进行处理。
(2)数据不一致:数据集中存在不同格式的数据,需要进行统一处理。
(3)数据噪声:数据集中存在一些异常值,需要通过滤波或聚类等方法进行处理。
2. 关联规则挖掘在数据预处理完成后,我们使用Apriori算法对数据集进行关联规则挖掘。
实验中,我们设置了不同的最小支持度和最小置信度阈值,以挖掘出不同粒度的关联规则。
以下是实验结果分析:(1)GutenBerg数据集在GutenBerg数据集中,我们以句子为篮子粒度,挖掘了林肯演讲集的关联规则。
通过分析挖掘结果,我们发现:- 单词“the”和“of”在句子中频繁出现,表明这两个词在林肯演讲中具有较高的出现频率。
- “and”和“to”等连接词也具有较高的出现频率,说明林肯演讲中句子结构较为复杂。
- 部分单词组合具有较高的置信度,如“war”和“soldier”,表明在林肯演讲中提到“war”时,很可能同时提到“soldier”。
(2)DBLP数据集在DBLP数据集中,我们以作者为单位,挖掘了作者之间的合作关系。
实验结果表明:- 部分作者之间存在较强的合作关系,如同一研究领域内的作者。
- 部分作者在多个研究领域均有合作关系,表明他们在不同领域具有一定的学术影响力。
3. 结果分析和可视化为了更好地展示实验结果,我们对挖掘出的关联规则进行了可视化处理。
通过可视化,我们可以直观地看出以下信息:(1)频繁项集的分布情况:通过柱状图展示频繁项集的分布情况,便于分析不同项集的出现频率。
实训基地数据挖掘报告书

一、摘要随着大数据时代的到来,数据挖掘技术已成为众多领域研究和应用的重要手段。
本报告以某实训基地为例,通过对实训基地各类数据的挖掘分析,旨在揭示实训基地运行中的潜在规律,为实训基地的优化管理和决策提供数据支持。
二、实训基地概述某实训基地是一个集教学、科研、培训、技术服务于一体的大型综合性实训基地。
基地拥有完善的硬件设施和丰富的实训资源,为各类专业人才提供实践平台。
实训基地的数据主要包括学员信息、课程信息、设备信息、师资力量、实训项目等。
三、数据挖掘方法与技术本报告采用以下数据挖掘方法与技术:1. 数据预处理:对原始数据进行清洗、整合、转换等操作,确保数据质量。
2. 数据可视化:运用图表、图形等可视化手段,直观展示数据特征。
3. 聚类分析:将相似数据归为一类,揭示数据分布规律。
4. 关联规则挖掘:找出数据之间的关联关系,发现潜在规律。
5. 预测分析:基于历史数据,预测未来趋势。
四、数据挖掘结果与分析1. 学员信息分析通过对学员信息的挖掘分析,我们发现以下规律:(1)学员年龄分布:以20-30岁为主,占比约60%。
(2)学员专业分布:以计算机科学与技术、电子信息工程等专业为主。
(3)学员性别比例:男女比例约为1:1。
2. 课程信息分析通过对课程信息的挖掘分析,我们发现以下规律:(1)课程受欢迎程度:计算机基础、数据结构、数据库原理等课程受欢迎程度较高。
(2)课程难度分布:中级课程占比约60%,高级课程占比约30%。
(3)课程时长分布:课程时长以2-4小时为主。
3. 设备信息分析通过对设备信息的挖掘分析,我们发现以下规律:(1)设备利用率:部分设备利用率较高,如计算机、服务器等。
(2)设备类型分布:计算机类设备占比约70%,实验室设备占比约20%。
(3)设备故障率:设备故障主要集中在计算机、网络设备等。
4. 师资力量分析通过对师资力量的挖掘分析,我们发现以下规律:(1)教师学历:硕士及以上学历教师占比约60%。
数据挖掘实验报告

数据挖掘实验报告数据挖掘是一门涉及发现、提取和分析大量数据的技术和过程,它可以揭示出隐藏在数据背后的模式、关系和趋势,对决策和预测具有重要的价值。
本文将介绍我在数据挖掘实验中的一些主要收获和心得体会。
实验一:数据预处理在数据挖掘的整个过程中,最重要的一环就是数据预处理。
数据预处理包括数据清洗、数据集成、数据转换和数据规约等步骤,目的是为了提高数据的质量和可用性。
首先,我对所使用的数据集进行了初步的观察和探索。
发现数据集中存在着一些缺失值和异常值。
为此,我使用了一些常见的缺失值处理方法,如均值替代、中值替代和删除等。
对于异常值,我采用了离群值检测和修正等方法,使得数据在后续的分析过程中更加真实可信。
其次,我进行了数据集成的工作。
数据集合并是为了整合多个来源的数据,从而得到更全面和综合的信息。
在这个过程中,我需要考虑数据的一致性和冗余情况。
通过采用数据压缩和去重等技术,我成功地完成了数据集成的工作。
接着,我进行了数据转换的处理。
数据转换是为了将原始的数据转换成适合数据挖掘算法处理的形式。
在这个实验中,我采用了数据标准化和归一化等方法,使得不同属性之间具备了可比性和可计算性,从而便于后续的分析过程。
最后,我进行了数据规约的操作。
数据规约的目的在于减少数据的维数和复杂度,以提高数据挖掘的效果。
在这个阶段,我采用了主成分分析和属性筛选等方法,通过压缩数据集的维度和减少冗余属性,成功地简化了数据结构,提高了挖掘效率。
实验二:关联规则挖掘关联规则挖掘是数据挖掘中常用的一种方法,它用于发现数据集中项集之间的关联关系。
在这个实验中,我使用了Apriori算法来进行关联规则的挖掘。
首先,我对数据进行了预处理,包括数据清洗和转换。
然后,我选择了适当的最小支持度和最小置信度阈值,通过对数据集的扫描和频繁项集生成,找出了数据集中的频繁项集。
接着,我使用了关联规则挖掘算法,从频繁项集中挖掘出了具有一定置信度的关联规则。
在实验过程中,我发现挖掘出的关联规则具有一定的实用性和可行性。
数据挖掘实习报告

数据挖掘实习报告一段充实而忙碌的实习生活结束了,相信大家这段时间来的收获肯定不少吧,这时候最关键的一步就是写实习报告了。
你想好怎么写实习报告了吗?下面是店铺帮大家整理的数据挖掘实习报告,希望对大家有所帮助。
数据挖掘实习报告1一、实习目的认识实习是本科教学计划中非常重要的实践性教学环节,其目的是使学生了解和掌握电力生产知识、印证、巩固和丰富已学过的计算机专业课程内容,培养学生理论联系实际,提高其在生产实践中调查研究、观察问题、分析问题以及解决问题的能力和方法,为后续专业课程的学习打下基础。
通过认识实习,还应使学生了解现电力生产方式,培养热爱软件工程专业思想。
二、实习内容为了达到上述实习目的,实习主要内容应包括:1.参观浦东软件园2.上海市高新技术产业展3.四场高水平的技术讲座三、实习过程1.参观浦东软件园进入主体大楼后,上海浦东软件园和它的图标赫然放置在最显眼的门口处,我们跟随着老师的步伐,一路向内层走去。
在路上我们注意到了墙上贴出来的优秀学员的照片,以及关于软件园的人才和研制软件对于国家信息技术的贡献,可以称之为一条荣誉回廊。
迈过这条回廊,我们走到了一个广阔的教室,里面整整齐齐摆放了数十台计算机,看其规模,我猜想这应该是一个大型的计算机学习教室,供里面的学员进行专业方面的开发和探索。
之后我们便各自找好座位,等待浦东软件园的老师给我们做一下关于软件园的介绍并阐述对我们未来工作的需求。
我们坐好后,一场对未来的探索之旅马上就开始了,浦软的老师非常厚道的给我们观看了两场激动人心的宣传视频,详细的介绍了浦软的来由,发展和辉煌以及对整个软件业的展望。
首先,上海浦东软件园做为第一批国家软件产业基地和第一批国家软件出口基地是与北京中关村,大连和西安这四个软件园是齐名的,并且是全国第一家软件园区,这三个一,奠定了浦东软件园在全国软件开发中无论是人才量还是创作量都处于不可动摇的位置。
之后她给我们介绍了浦东软件园是由满庭芳的郭守敬园和浣溪沙的祖冲之园联合组成的。
数据挖掘毕业实习报告

一、实习背景与目的随着大数据时代的到来,数据挖掘技术在各行各业中的应用日益广泛。
为了提高自己的实际操作能力,拓宽知识面,我选择了数据挖掘作为毕业实习的方向。
本次实习旨在通过实际操作,掌握数据挖掘的基本流程,了解数据挖掘在实际项目中的应用,并提升自己的数据分析与处理能力。
二、实习单位与时间实习单位为XX科技有限公司,实习时间为2023年7月至2023年9月。
三、实习内容1. 数据收集与预处理在实习初期,我参与了数据收集工作。
通过查阅资料、与相关人员沟通,了解到数据来源、数据类型以及数据量等信息。
在数据收集过程中,我学会了如何利用网络爬虫、API接口等技术获取数据,并掌握了对数据清洗、去重、处理缺失值等预处理方法。
2. 数据分析在数据预处理完成后,我开始对数据进行初步分析。
通过使用Python编程语言,结合Pandas、NumPy等库,我对数据进行了描述性统计、相关性分析、聚类分析等操作。
通过对数据的深入挖掘,我发现了数据中的一些规律和特征。
3. 模型建立与优化在了解数据特征的基础上,我选择了合适的模型进行建立。
以分类问题为例,我尝试了逻辑回归、决策树、随机森林等算法,并通过交叉验证、参数调优等方法,提高了模型的预测准确率。
4. 项目实战在实习期间,我参与了公司的一个实际项目——用户行为分析。
通过对用户行为数据的挖掘,我们成功预测了用户的购买意向,为营销策略的制定提供了有力支持。
5. 实习总结与反思在实习过程中,我深刻体会到以下几方面的重要性:(1)数据预处理:数据质量直接影响着挖掘结果,因此在进行数据挖掘之前,对数据进行预处理至关重要。
(2)算法选择:针对不同的数据类型和业务场景,选择合适的算法至关重要。
(3)模型优化:通过交叉验证、参数调优等方法,可以提高模型的预测准确率。
(4)团队协作:在项目实施过程中,与团队成员保持良好的沟通,共同解决问题,是项目成功的关键。
四、实习成果1. 掌握了数据挖掘的基本流程,包括数据收集、预处理、分析、模型建立与优化等。
数据挖掘实例实验报告(3篇)

第1篇一、实验背景随着大数据时代的到来,数据挖掘技术逐渐成为各个行业的重要工具。
数据挖掘是指从大量数据中提取有价值的信息和知识的过程。
本实验旨在通过数据挖掘技术,对某个具体领域的数据进行挖掘,分析数据中的规律和趋势,为相关决策提供支持。
二、实验目标1. 熟悉数据挖掘的基本流程,包括数据预处理、特征选择、模型选择、模型训练和模型评估等步骤。
2. 掌握常用的数据挖掘算法,如决策树、支持向量机、聚类、关联规则等。
3. 应用数据挖掘技术解决实际问题,提高数据分析和处理能力。
4. 实验结束后,提交一份完整的实验报告,包括实验过程、结果分析及总结。
三、实验环境1. 操作系统:Windows 102. 编程语言:Python3. 数据挖掘库:pandas、numpy、scikit-learn、matplotlib四、实验数据本实验选取了某电商平台用户购买行为数据作为实验数据。
数据包括用户ID、商品ID、购买时间、价格、商品类别、用户年龄、性别、职业等。
五、实验步骤1. 数据预处理(1)数据清洗:剔除缺失值、异常值等无效数据。
(2)数据转换:将分类变量转换为数值变量,如年龄、性别等。
(3)数据归一化:将不同特征的范围统一到相同的尺度,便于模型训练。
2. 特征选择(1)相关性分析:计算特征之间的相关系数,剔除冗余特征。
(2)信息增益:根据特征的信息增益选择特征。
3. 模型选择(1)决策树:采用CART决策树算法。
(2)支持向量机:采用线性核函数。
(3)聚类:采用K-Means算法。
(4)关联规则:采用Apriori算法。
4. 模型训练使用训练集对各个模型进行训练。
5. 模型评估使用测试集对各个模型进行评估,比较不同模型的性能。
六、实验结果与分析1. 数据预处理经过数据清洗,剔除缺失值和异常值后,剩余数据量为10000条。
2. 特征选择通过相关性分析和信息增益,选取以下特征:用户ID、商品ID、购买时间、价格、商品类别、用户年龄、性别、职业。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
项目1:基于sklearn的数据分类挖掘
一、项目任务
①熟悉sklearn数据挖掘的基本功能。
②进行用朴素贝叶斯、KNN、决策树C4.5、SVM算法进行数据分类分析。
二、项目环境及条件
➢sklearn-0.18.0
➢python-
➢numpy-
➢scipy-
➢matplotlib-
三、实验数据
Iris数据集
Iris数据集是常用的分类实验数据集,由Fisher, 1936收集整理。
Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。
数据集包含150个数据集,分为3类,每类50个数据,每个数据包含4个属性。
可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。
Digits数据集
美国著名数据集NIST的子集,模式识别常用实验数据集,图像属于灰度图像。
分辨率为8x8
四、项目内容及过程
1.读取数据集
从sklearn中读取iris和digits数据集并测试打印
打印的数据集存在numpy.ndarray中,ndarray会自动省略较长矩阵的中间部分。
Iris数据集的样本数据为其花瓣的各项属性
Digits数据集的样本数据为手写数字图像的像素值
2.划分数据集
引入sklearn的model_selection使用train_test_split划分digits数据集,训练集和测试集比例为8:2
3.使用KNN和SVM对digits测试集分类
引用sklearn的svm.SVC和neighbors.KNeighborsClassifier模块调用算法,使用classification_report查看预测结果的准确率和召回率
SVM的预测结果:对部分数字的预测误差较大,基本情况不如KNN
考虑SVM分类器的特性,在分类前对特征值进行标准化后再分类:
4.使用贝叶斯和决策树对iris数据集分类
五、实验结果分析
为什么用svm和knn处理digits数据集,用tree和bayes处理iris数据集,这是一个经验问题。
我们都知道digits数据集的每一个特征就是像素点的像素值,他们的维度都是在0~255以内;像素点之间的维度完全一致,互相没有优先级。
这种情况下使用线性分类器如KNN、SVM、Logistic会有更好的效果。
而iris数据集虽然长度和宽度维度差不多相同,但是两者之间有优先级的区分,按照人脑分类的思维方式可能是先按照长度判断再按照宽度等思维方式,很接近决策树的算法原理,贝叶斯同样。
所以概率性分类器有更好的效果。
实际情况也是使用SVM预测iris的结果和Bayes预测digits的结果不甚理想(虽然也有很高的准度了)。
当然,通过调整分类器的参数,能使各个分类器的预测结果都达到满意结果,综合表现还是KNN更抢眼,能在各种数据集面前都有出色表现,但KNN在训练样本数量达到一定程度后,有超高的计算复杂度。
所以面对实际情况,选用什么分类器,如何调节参数都是值得深思的问题。
项目2:基于sklearn的数据聚类挖掘一、实验任务
①熟悉sklearn数据挖掘平台的基本功能。
②用K-Means进行数据聚类分析。
二、实验环境及条件
➢sklearn-0.18.0
➢python-
➢matplotlib-
➢numpy-
➢scipy-
三、实验数据
随机产生的100个坐标点,范围为[0,100]
四、实验内容及过程
1.随机产生坐标值
产生的随机值在0-100,因为sklearn的k-means模块要求输入的坐标形式为
[[x0,y0],…,[x…,y…],…,[xn,yn]],而实际产生的是[x0,…,xn]和[y0,…,yn],所以还需要对坐标进行一次转换
产生的随机坐标值:
2.创建做图函数
使用k-means对坐标点分为3类,对0类标为红色,1类标为绿色,2类标为蓝色。
并将三类坐标的中心点以‘*’表示在图中
3.使用k-means聚类并预测新增点的类别
对新点的预测:
五、实验结果分析
这次试验,使用sklearn的k-means对100个坐标点聚类。
K-means因为其本身算法的原因,点数越多聚类速度越慢。
所以在20个点和100个点的聚类时间上有很大差距。
聚类问题不同于分类问题,没有明确的预测和分类结果,聚类时对数据的边界可能会各不相同,聚类问题在用户画像/个性化推荐等应用上有较好地发挥。
实验3:在Python程序中引用sklearn
一、实验任务
①用Python开发一个综合部分挖掘算法的演示程序,核心算法来自sklearn类库。
②演示程序界面友好。
二、实验环境及条件
➢sklearn-0.18.0
➢python-
➢matplotlib-
➢numpy-
➢scipy-
➢PyQt4
三、实验数据
Iris数据集
Iris数据集是常用的分类实验数据集,由Fisher, 1936收集整理。
Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。
数据集包含150个数据集,分为3类,每类50个数据,每个数据包含4个属性。
可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。
Digits数据集
美国著名数据集NIST的子集,模式识别常用实验数据集,图像属于灰度图像。
分辨率为8x8
四、实验内容及过程
使用PyQt4创建windows窗体,并提供可选择的分类方式:➢SVM——支持向量机算法
➢KNN——K邻近算法
➢Bayes——朴素贝叶斯算法
➢Tree——C4.5决策树算法
➢Logistic——Logistic回归算法
可选择的归一化方式:
➢Standard-标准归一化
➢MaxAndMin-最大最小归一化
可选择的验证比例
➢可选范围——(0,1)
可调节的分类器参数
➢根据具体分类器设置参数
部分代码
➢确认按钮响应事件
➢分类算法执行
def load_datasets_and_classify\
(self,data_name,classify_name,normalization_name,parameter_string,validation_string): from sklearn import datasets
from sklearn.model_selection import train_test_split
rate=0.2
if validation_string !='':
try:
rate=float(validation_string)
except:
self.alert_info(u"输入的数值必须是0~1的浮点数")
return
if data_name == 'iris':
origin_data=datasets.load_iris()
elif data_name == 'digits':
origin_data=datasets.load_digits()
else:
self.alert_info(u"未知数据集")
return
data=origin_data.data
target=origin_data.target
if normalization_name=='standard':
from sklearn import preprocessing
scaler = preprocessing.StandardScaler().fit(x_train)
scaler.transform(x_train)
scaler.transform(x_test)
elif normalization_name=='max_min':
from sklearn import preprocessing
min_max_scaler = preprocessing.MinMaxScaler()
x_train = min_max_scaler.fit_transform(x_train)
x_test = min_max_scaler.fit_transform(x_test)
elif normalization_name=='none':
pass
else:
self.alert_info(u"未知归一化方式")
return
➢程序演示结果
五、实验结果分析
使用PyQt4创建windows窗体,然后结合实验1和2的部分代码生成代码演示程序。
说句实话,不太清楚这个试验到底要干嘛,为了给演示程序的界面添加控件就花了很多时间,算是学习到如何使用python创建windows应用程序了。