TXC-TRAIN-GT-ITR-120-01-20080424-简报技巧_附件_麦肯锡图表汇总
【原创】R语言文本挖掘tf-idf,主题建模,情感分析,n-gram建模研究分析案例报告(附代码数据)

务(附代码数据),咨询QQ:3025393450有问题到百度搜索“大数据部落”就可以了欢迎登陆官网:/datablogR语言挖掘公告板数据文本挖掘研究分析## Registered S3 methods overwritten by 'ggplot2':## method from## [.quosures rlang## c.quosures rlang## print.quosures rlang我们对1993年发送到20个Usenet公告板的20,000条消息进行从头到尾的分析。
此数据集中的Usenet公告板包括新闻组用于政治,宗教,汽车,体育和密码学等主题,并提供由许多用户编写的丰富文本。
该数据集可在/~jason/20Newsgroups/(该20news-bydate.tar.gz文件)上公开获取,并已成为文本分析和机器学习练习的热门。
1预处理我们首先阅读20news-bydate文件夹中的所有消息,这些消息组织在子文件夹中,每个消息都有一个文件。
我们可以看到在这样的文件用的组合read_lines(),map()和unnest()。
请注意,此步骤可能需要几分钟才能读取所有文档。
library(dplyr)library(tidyr)library(purrr)务(附代码数据),咨询QQ:3025393450有问题到百度搜索“大数据部落”就可以了欢迎登陆官网:/databloglibrary(readr)training_folder <- "data/20news-bydate/20news-bydate-train/"# Define a function to read all files from a folder into a data frameread_folder <-function(infolder) {tibble(file =dir(infolder, s =TRUE)) %>%mutate(text =map(file, read_lines)) %>%transmute(id =basename(file), text) %>%unnest(text)}# Use unnest() and map() to apply read_folder to each subfolderraw_text <-tibble(folder =dir(training_folder, s =TRUE)) %>%unnest(map(folder, read_folder)) %>%transmute(newsgroup =basename(folder), id, text)raw_text## # A tibble: 511,655 x 3## newsgroup id text## <chr> <chr> <chr>## 1 alt.atheism 49960 From: mathew <mathew@>## 2 alt.atheism 49960 Subject: Alt.Atheism FAQ: Atheist Resources## 3 alt.atheism 49960 Summary: Books, addresses, music -- anything related to atheism## 4 alt.atheism 49960 Keywords: FAQ, atheism, books, music, fiction, addresses, contacts## 5 alt.atheism 49960 Expires: Thu, 29 Apr 1993 11:57:19 GMT## 6 alt.atheism 49960 Distribution: world## 7 alt.atheism 49960 Organization: Mantis Consultants, Cambridge. UK.## 8 alt.atheism 49960 Supersedes: <19930301143317@>## 9 alt.atheism 49960 Lines: 290## 10 alt.atheism 49960 ""## # … with 511,645 more rows请注意该newsgroup列描述了每条消息来自哪20个新闻组,以及id列,用于标识该新闻组中的唯一消息。
Python机器学习库LightGBM入门学习使用LightGBM进行机器学习的基本技巧

Python机器学习库LightGBM入门学习使用LightGBM进行机器学习的基本技巧LightGBM是由微软开源的一款机器学习库,它是目前最快的梯度提升决策树(Gradient Boosting Decision Tree,简称GBDT)框架之一。
它具有高效、易用和灵活等特点,被广泛应用于各种机器学习任务中。
本文将介绍如何使用LightGBM进行入门学习,包括数据准备、模型训练和性能优化等基本技巧。
一、数据准备在使用LightGBM进行机器学习之前,首先需要准备好训练数据。
数据准备包括数据清洗、特征工程和数据划分等步骤。
1. 数据清洗在进行数据清洗时,需要处理缺失值和异常值。
可以使用LightGBM提供的函数来处理缺失值,如fillna()函数可以用来填充缺失值;通过设置参数outliers可以过滤掉异常值。
2. 特征工程特征工程是指根据已有数据构造新的特征以提高模型的性能。
LightGBM可以处理多种类型的特征,包括数值型、类别型和组合型特征。
可以使用One-Hot编码将类别型特征转换为数值特征;通过离散化将连续型特征转换为类别特征;利用特征交叉构造新的特征等。
3. 数据划分将准备好的数据分为训练集和测试集。
一般情况下,将数据按照70%的比例划分为训练集,30%的比例划分为测试集。
可以使用train_test_split()函数来完成数据划分。
二、模型训练准备好数据后,就可以使用LightGBM进行模型训练了。
以下是使用LightGBM进行模型训练的基本步骤:1. 构建训练集和测试集将准备好的数据分别作为训练集和测试集输入到LightGBM中。
2. 设置模型参数设置模型的超参数,包括学习率、决策树的最大深度、叶子节点的最小样本数等。
这些参数会直接影响模型的性能。
3. 模型训练调用LightGBM提供的train()函数进行模型训练。
在训练过程中,可以设置早停策略,即当模型在验证集上的性能不再提升时,停止训练。
P r e d i c t i o n 算 法 使 用

提升方法AdaBoost算法完整python代码提升方法AdaBoost算法完整python代码提升方法简述俗话说,“三个臭皮匠顶个诸葛亮”,对于一个复杂的问题,一个专家的判断往往没有多个专家的综合判断来得好。
通常情况下,学习一个弱学习算法比学习一个强学习算法容易得多,而提升方法研究的就是如何将多个弱学习器转化为强学习器的算法。
强学习算法:如果一个多项式的学习算法可以学习它,而且正确率很高,那就是强可学习的。
弱学习算法:如果一个多项式的学习算法可以学习它,正确率仅仅比随机猜测略好,那就是弱可学习的。
AdaBoost算法简述=未正确分类的样本数目所有样本数目epsilon=frac{未正确分类的样本数目}{所有样本数目}α=12ln(1?)alpha=frac{1}{2}ln(frac{1-epsilon}{epsilon})如果某个样本被正确分类,权重更改为:Dt+1i=Dti?αSum(D)D^{t+1}_i=frac{D^t_iepsilon^{-alpha}}{Sum(D)}如果某个样本被分类错误,权重更改为:Dt+1i=Dti?αSum(D)D^{t+1}_i=frac{D^t_iepsilon^{alpha}}{Sum(D)}直到训练错误率为0或者达到指定的训练次数为止。
单层决策树弱分类器单层决策树(decision stump)也叫决策树桩,是一种简单的决策树,仅基于单个特征做决策。
将最小错误率minError设为+∞对数据集中的每一个特征(第一层循环):对每个步长(第二层循环):对每个不等号(第三层循环):建立一棵单层决策树并利用加权数据集对它进行测试如果错误率低于minError,则将当前单层决策树设为最佳单层决策树返回最佳单层决策树代码实现弱分类器核心部分from numpy import *#通过比较阈值进行分类#threshVal是阈值 threshIneq决定了不等号是大于还是小于defstumpClassify(dataMatrix,dimen,threshVal,threshIneq): retArray = ones((shape(dataMatrix)[0],1)) #先全部设为1 if threshIneq == 'lt': #然后根据阈值和不等号将满足要求的都设为-1retArray[dataMatrix[:,dimen] = threshVal] = -1.0retArray[dataMatrix[:,dimen] threshVal] = -1.0return retArray#在加权数据集里面寻找最低错误率的单层决策树#D是指数据集权重用于计算加权错误率def buildStump(dataArr,classLabels,D):dataMatrix = mat(dataArr); labelMat = mat(classLabels).T m,n = shape(dataMatrix) #m为行数 n为列数numSteps = 10.0; bestStump = {}; bestClasEst = mat(zeros((m,1)))minError = inf #最小误差率初值设为无穷大for i in range(n): #第一层循环对数据集中的每一个特征 n 为特征总数rangeMin = dataMatrix[:,i].min(); rangeMax = dataMatrix[:,i].max()stepSize = (rangeMax-rangeMin)-numStepsfor j in range(-1,int(numSteps)+1): #第二层循环对每个步长for inequal in ['lt','gt']: #第三层循环对每个不等号threshVal = rangeMin + float(j) * stepSize#计算阈值predictedVals =stumpClassify(dataMatrix,i,threshVal,inequal)#根据阈值和不等号进行预测errArr = mat(ones((m,1)))#先假设所有的结果都是错的(标记为1)errArr[predictedVals == labelMat] = 0#然后把预测结果正确的标记为0weightedError = D.T*errArr#计算加权错误率#print 'split: dim %d, thresh %.2f, thresh inequal: %s, # the weightederror is %.3f' % (i,threshVal,inequal,weightedError)if weightedError minError: #将加权错误率最小的结果保存下来minError = weightedErrorbestClasEst = predictedVals.copy()bestStump['dim'] = ibestStump['thresh'] = threshValbestStump['ineq'] = inequalreturn bestStump, minError, bestClasEst准备了一个简单的数据集来测试算法#加载数据集def loadSimpleData():dataMat = matrix([[1.,2.1],[2.,1.1],[1.3,1.],[1.,1.],[2.,1.]])classLabels = [1.0,1.0,-1.0,-1.0,1.0]return dataMat,classLabels#绘制数据集def pltData(dataMat,classLabels):for index,item in enumerate(dataMat): #enumrate的参数为一个可以遍历的东西,返回值为索引和该项if classLabels[index] 0:plt.plot(item[0,0],item[0,1],'or') #'or' 表示画红点plt.plot(item[0,0],item[0,1],'ob') #'ob' 表示画蓝点plt.show()导入数据集并绘制dataMat, classLabels=loadSimpleData()pltData(dataMat, classLabels)测试算法D = mat(ones((5,1))-5)buildStump(dataMat, classLabels, D)完整AdaBoost算法实现基于上面写的树桩弱分类器,实现完整的AdaBoost算法。
opencv adaboost人脸检测训练程序阅读笔记(LBP特征)

1、训练程序整体流程(1)读输入参数并打印相关信息(2)进入训练程序最外层入口classifier.train1)读正负样本,将正负样本放入imgLiast中,先读正样本,后读负样本2)load( dirName )判断之前是否有已训练好的xml文件,若有,不在重新训练该stage的xml文件,没有返回false,初始化参数3)计算requiredLeafFARate = pow(maxFalseAlarm,numStages)/max_depth,该参数是stage停止条件(利用训练样本集来计算tempLeafFARate,若tempLeafFARate小于这一参数,则退出stage训练循环);4)Stage训练循环5)更新训练样本集,计算tempLeafFARate(负样本被预测为正样本的个数除以读取负样本的次数,第一次没有训练之前,这个比值为1,因为没训练之前,所有负样本都被预测成了正样本,当第一层训练好以后,负样本采集时会先用第一层的分类器预测一次,若能分类,则不选用,选用负样本的数目是固定的,但选用这么多负样本总共要选的次数会随着层数的增多而加大,因为层数越大,分类器的分类能力也要求越大,说需要的样本就是前面分类器所不恩呢该识别的,故在采集时也比较困难。
)6)判断stage是否退出训练,若tempLeafFARate<requiredLeafFARate则退出stage训练,否则继续;7)强训练器训练入口tempStage->train()a.建立训练数据data = new CvCascadeBoostTrainData(主要是一些参数的设置,还有特征值的计算)b.初始化样本权重update_weights( 0 );c.弱分类器训练循环i)tree->train—》do_trainai) 根节点的初始root = data->subsample_data( _subsample_idx );(主要是对根节点的一些参数进行初始化,parent 0,count 1,split 0,value 0,class_idx 0,maxlr 0,left = right = 0,等等)bi) CV_CALL( try_split_node(root)),根据根节点计算整颗数的各节点的参数配置aii) calc_node_value( node );计算节点的回归值,类似于分类投票值sum(w*class_lable),正样本的class_lable取,负样本的class_lable取-1;计算节点的风险值node_risk,noderisk is the sum of squared errors: sum_i((Y_i -<node_value>)^2)bii) 判断节点是否可以分裂(判断依据:样本值和设计的节点最大深度);再利用node_risk与regression_accuracy,如果这个节点的所有训练样本的节点估计值的绝对差小于这个参数,节点不再进行分裂cii) 找出最佳分裂best_split = find_best_split(node);aiii) 定义DTreeBestSplitFinder finder( this, node );biii) parallel_reduce(cv::BlockedRange(0, data->var_count), finder);此时调用DTreeBestSplitFinder类的操作符DTreeBestSplitFinder::operator()(constBlockedRange& range)aiv) 遍历所有特征vi = vi1; vi< vi2; vi++biv) res = tree->find_split_cat_reg()得到特征为split->var_idx = vi的最佳分裂的质量split->quality(split->quality越大越好)av) 将特征为vi所有样本的特征值返回到cat_labelsbv) 计算每个特征值取值不权值和和响应和,例如特征值为,则将所有特征值列表中特征值为的样本权值相加,LBP的特征值范围是0~255,故有256个categorycv) 计算每个category的平均响应值,即将每个category的响应和除以每个category的样本权值和dv) icvSortDblPtr( sum_ptr, mi, 0 );把256个值进行升序排序,注意sum_ptr里存的是sum[i]的地址,这里排序的依据是特征值还是按照每个特征值的平均响应来排序???个人感觉是按特征值的平均响应来排序fv) 将每个特征值的平均响应值乘以该特征值的总权值得到每个特征值的总响应gv) 遍历subset_i = 0; subset_i< mi-1; subset_i++avi) 计算索引是subset_i在排序前的idxbvi) 获取索引idx对应的样本总权重cvi) 获取索引idx对应的样本总响应dvi) 以subset_i为分裂点,计算分裂质量(sumL*sumL)/ weightL +(sumR*sumR)/ weightRfvi) 若最佳分裂质量小于这个质量,则更新最佳分裂质量hv) 经过训练得到最佳分裂点和最佳分裂质量,将遍历得到的值更新到split结构体各参数。
r语言lstm代码

r语言lstm代码R语言LSTM代码实现文本生成LSTM(Long Short-Term Memory)是一种常用的循环神经网络(Recurrent Neural Network,RNN)架构,主要用于处理序列数据。
它在自然语言处理领域中被广泛应用,尤其是在文本生成任务中。
本文将介绍如何使用R语言实现LSTM模型,并利用该模型生成文本。
1. 数据预处理为了实现文本生成,首先需要准备一些用于训练的文本数据。
可以选择一篇较长的文章或者一本书籍作为训练数据。
然后,将文本内容进行分词,将每个词作为一个训练样本。
可以使用R语言中的`text`包或`tm`包来进行文本处理和分词。
2. 构建LSTM模型在R语言中,可以使用`keras`包来构建LSTM模型。
首先,需要安装`keras`包,并加载所需的库:```Rinstall.packages("keras")library(keras)```然后,可以使用以下代码构建LSTM模型:```Rmodel <- keras_model_sequential()model %>%layer_lstm(units = 128, input_shape = list(1, vocab_size)) %>%layer_dense(units = vocab_size) %>%layer_activation("softmax")```在这个例子中,LSTM模型包含一个LSTM层(具有128个隐藏单元)和一个全连接层(用于输出预测结果),并使用softmax函数作为激活函数。
3. 编译和训练模型在训练模型之前,需要对模型进行编译,指定损失函数和优化器。
在这里,可以选择交叉熵作为损失函数,并使用Adam优化器。
```Rmodel %>% compile(loss = "categorical_crossentropy",optimizer = optimizer_adam(),metrics = c("accuracy"))```然后,可以使用以下代码训练模型:```Rmodel %>% fit(x = X_train,y = y_train,batch_size = 128,epochs = 10,validation_data = list(X_test, y_test))```在这个例子中,`X_train`和`y_train`是训练数据和标签,`X_test`和`y_test`是验证数据和标签。
利用随机森林构建分类模型,并用十折交叉验证。r语言教程

利用随机森林构建分类模型,并用十折交叉验证。
r语言教程在R语言中,我们可以使用`caret`包中的`train`函数进行模型的训练,并使用`caret`包的`createDataPartition`函数进行十折交叉验证。
以下是使用随机森林构建分类模型的示例代码:首先,确保你已经安装了必要的包。
如果没有,你可以使用以下命令进行安装:```r("caret")("randomForest")```然后,加载这些包:```rlibrary(caret)library(randomForest)接下来,我们需要加载数据。
假设我们有一个名为`data`的数据框,其中包含我们的特征和目标变量:```rdata <- ("your_") 请将"your_"替换为你的数据文件路径```然后,我们将使用`createDataPartition`函数进行十折交叉验证的数据分割:```r(123) 为了结果的可重复性control <- rbind(trainControl(method = "cv", number = 10), 10折交叉验证trainControl(method = "oob") 用于随机森林的外部验证)```接着,我们将使用`train`函数训练我们的模型:(123) 为了结果的可重复性rf_model <- train(target ~ ., data = data, trControl = control, method = "rf") 使用随机森林方法训练模型```最后,我们可以输出模型的详细信息:```rprint(rf_model)```以上代码演示了如何使用随机森林和十折交叉验证在R语言中构建分类模型。
请注意,你可能需要根据自己的数据和需求对代码进行一些调整。
【目标检测】用FasterR-CNN训练自己的数据集超详细全过程

【⽬标检测】⽤FasterR-CNN训练⾃⼰的数据集超详细全过程⽬录:⼀、环境准备⼆、训练步骤三、测试过程四、计算mAP寒假在家下载了Faster R-CNN的源码进⾏学习,于是使⽤⾃⼰的数据集对这个算法进⾏实验,下⾯介绍训练的全过程。
⼀、环境准备我这⾥的环境是win10系统,pycharm + python3.7⼆、训练过程1、下载Faster R-CNN源码2、安装扩展包下载的源码中有⼀个 requirements.txt⽂件,列出了需要安装的扩展包名字。
可以在cmd中直接运⾏以下代码:pip install -r requirements.txt或者使⽤pip命令⼀个⼀个安装,所需要的扩展包有:cython、opencv-python、easydict、Pillow、matplotlib、scipy。
如果使⽤conda管理,按conda的下载⽅式也可以。
3、下载并添加预训练模型源码中预训练模型使⽤的是VGG16,VGG16模型可点开下⽅链接直接下载:下载的模型名字应该是vgg_16.ckpt,重命名为vgg16.ckpt 后,把模型保存在data\imagenet_weights\⽂件夹下。
也可以使⽤其他的模型替代VGG16,其他模型在下⽅链接中下载:4、修改训练参数打开源码的lib\config⽂件夹下的config.py⽂件,修改其中⼀些重要参数,如:(1)network参数该参数定义了预训练模型⽹络,源码中默认使⽤了vgg16模型,我们使⽤vgg16就不需修改,如果在上⼀步中使⽤其他模型就要修改。
(2)learning_rate这个参数是学习率,如果设定太⼤就可能产⽣振荡,如果设定太⼩就会使收敛速度很慢。
所以我们可以先默认为源码的0.001进⾏实验,后期再取0.01或0.0001等多次实验,找到运⾏后的相对最优值。
(3)batch_size该参数表⽰梯度下降时数据批量⼤⼩,⼀般可以取16、32、64、128、256等。
【原创】R语言使用特征工程泰坦尼克号数据分析应用案例数据分析报告论文(含代码数据)

咨询QQ:3025393450有问题百度搜索“”就可以了欢迎登陆官网:/datablogR语言使用特征工程泰坦尼克号数据分析应用案例数据分析报告来源:大数据部落| 有问题百度一下“”就可以了特征工程对于模型的执行非常重要,即使是具有强大功能的简单模型也可以胜过复杂的算法。
实际上,特征工程被认为是决定预测模型成功或失败的最重要因素。
特征工程真正归结为机器学习中的人为因素。
通过人类的直觉和创造力,您对数据的了解程度可以带来不同。
那么什么是特征工程?对于不同的问题,它可能意味着许多事情,但在泰坦尼克号的竞争中,它可能意味着砍伐,并结合我们在Kaggle的优秀人员给予的不同属性来从中榨取更多的价值。
通常,机器学习算法可以更容易地从工程学习算法中消化和制定规则,而不是从其导出的变量。
获得更多机器学习魔力的最初嫌疑人是我们上次从未发送到决策树的三个文本字段。
票号,舱位和名称都是每位乘客独有的; 也许可以提取这些文本字符串的一部分以构建新的预测属性。
让我们从名称字段开始。
如果我们看一下第一位乘客的名字,我们会看到以下内容:> train$Name[1][1] Braund, Mr. Owen Harris891 Levels: Abbing, Mr. Anthony Abbott, Mr. Rossmore Edward ... Zimmerman, Mr. Leo以前我们只通过子集化访问乘客组,现在我们通过使用行号1作为索引来访问个人。
好吧,船上没有其他人有这个名字,这几乎可以肯定,但他们还有什么共享?好吧,我确信船上有很多先生。
也许人物头衔可能会给我们更多的洞察力。
咨询QQ:3025393450有问题百度搜索“”就可以了欢迎登陆官网:/datablog如果我们滚动数据集,我们会看到更多的标题,包括Miss,Mrs,Master,甚至是Countess!标题“大师”现在有点过时,但在这些日子里,它被保留给未婚男孩。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
LINEAR F
Unit of measure
Text
Unit of measure Text Text Text Text Text
Text
* 资料来源:
34
GBUTtem
SPIRAL1 3D
Unit of measure
* 资料来源:
35
GBUTtem
SPIRAL2 3D
Unit of measure
Brakes
Spiral
* 资料来源:
Tube in tube
* 资料来源:
39
GBUTtem
WIRE CUBES
Unit of measure
Text
Text
* 资料来源:
40
GBUTtem
ARROWS
Unit of measure
Text
Text
Text Text Text Text
Text
* 资料来源:
41
GBUTtem
LEVEL 1
Unit of measure
Text
Text
Text
Text
* 资料来源:
12
GBUTtem
FORCES AT WORK
Unit of measure
New entrant
Suppliers
Industry competitors
Buyers
Substitute s
* 资料来源:
13
GBUTtem
JOINT
Unit of measure
* 资料来源:
52
GBUTtem
FLOW 4 TITLE
Unit of measure
Header
Text Text
Header
Text
Header
Text
Header
Text
* 资料来源:
53
GBUTtem
FLOW 5
Unit of measure Header Text Header Text Header Text Header Text Header Text
CYCLE 7
Unit of measure
Text
Text
Text
Text
Text Text
Text
* 资料来源:
67
GBUTtem
CYCLE 8
Unit of measure
Text TeLeabharlann tTextText
Text Text Text
Text
* 资料来源:
68
GBUTtem
INCOMING
Text Text Text Text Text
Text Text Text Text
Text
* 资料来源:
14
GBUTtem
LEVEL SEPARATE 4
Unit of measure
Text
Text
Text
Text
* 资料来源:
15
GBUTtem
LINEAR A 3D
Unit of measure
GBUTtem
FLOW 2
Unit of measure Header Text Header Text
* 资料来源:
48
GBUTtem
FLOW 2 TITLE
Unit of measure
Header
Text Text
Header
Text
* 资料来源:
49
GBUTtem
FLOW 3
Unit of measure Header Text Header Text Header Text
Text
Text
* 资料来源:
61
GBUTtem
CYCLE 2
Unit of measure
Text
Text
* 资料来源:
62
GBUTtem
CYCLE 3
Unit of measure Text
Text Text
* 资料来源:
63
GBUTtem
CYCLE 4
Unit of measure
Text Text
* 资料来源:
71
GBUTtem
UPON 2
Unit of measure Text
Text
* 资料来源:
72
GBUTtem
CONTINUOUS
Unit of measure
Text
Text Text Text
Text Text Text Text
* 资料来源:
73
GBUTtem
CUTOUT
Unit of measure
Text
Text Text
* 资料来源:
4
GBUTtem
2X2 TOWER
Unit of measure
* 资料来源:
5
GBUTtem
5Ps MARKETING
Unit of measure
Product offering
Product
Package
Place
Price
Positioning promotion
* 资料来源:
50
GBUTtem
FLOW 3 TITLE
Unit of measure
Header
Text Text
Header
Text
Header
Text
* 资料来源:
51
GBUTtem
FLOW 4
Unit of measure Header Text Header Text Header Text Header Text
* 资料来源:
6
GBUTtem
7S
Unit of measure
Style
Strategy Shared values
Skills
Staff
Systems
Structure
* 资料来源:
7
GBUTtem
ARROW 3D
Unit of measure
* 资料来源:
8
GBUTtem
CUBES1 3D
36
GBUTtem
SPOTLIGHT
Unit of measure
Text
Text
Text
Text
* 资料来源:
37
GBUTtem
STAIRCASE
Unit of measure
Text Text Text Text Text Text
* 资料来源:
38
GBUTtem
Stars 3D
Unit of measure
* 资料来源:
56
GBUTtem
FLOW 6 TITLE
Unit of measure Header Text Text Header Text Header Text Header Text Header Text Header Text
* 资料来源:
57
GBUTtem
BLADES
Unit of measure
–
Text
Text Text
High Low
Text
Text
Text
* 资料来源:
1
GBUTtem
EXHIBIT TITLE
* 资料来源:
2
GBUTtem
Unit of measure
* 资料来源:
3
GBUTtem
2X2 CUBED
Unit of measure
Text
Text
Text Text Text
Unit of measure
Text Text
Text
* 资料来源:
19
GBUTtem
LINEAR E 3D
Unit of measure
Text
Text
Text
Text
* 资料来源:
20
GBUTtem
LINEAR G 3D
Unit of measure
Text
Text
Text
* 资料来源:
21
GBUTtem
LINEAR I 3D
Unit of measure
Text
Text
* 资料来源:
22
GBUTtem
LINEAR J 3D
Unit of measure
Text Text Text
Text
* 资料来源:
23
GBUTtem
LINEAR N 3D
Unit of measure
Text
Text
Text
Text
* 资料来源:
24
GBUTtem
LINEAR P 3D
Unit of measure
Text Text Text
* 资料来源:
25
GBUTtem
LINEAR Q 3D
Unit of measure
Text
Text
* 资料来源:
26
GBUTtem
LINEAR Q 3D
Unit of measure
Text
Text
Text
Text
* 资料来源:
74
GBUTtem
LINEAR A
Unit of measure
Text
Text
Text
* 资料来源:
75