DataService-操作手册

DataService-操作手册
DataService-操作手册

DataServices培训总结-操作手册

目录

一、DS简介 (2)

二、DS数据加载方式 (2)

三、DS进行数据抽取模型开发的基本过程 (3)

四、DS创建数据源系统和目标系统的数据存储 (3)

1、Oracle数据库作为数据源系统 (3)

2、ECC作为数据源系统 (4)

3、HANA数据库作为目标系统 (5)

五、全量加载过程 (5)

1、创建Project和Job (5)

2、导入源表的元数据到资源库 (6)

3、创建Data Flow (6)

4、设置源表和目标表 (7)

5、手工执行Job (7)

六、基于表比较的增量加载 (8)

1、在Job下定义工作流 (8)

2、在工作流中定义数据流 (8)

3、加入Table_Comparison控件 (9)

4、设置Table_Comparison控件 (9)

七、基于时间戳的增量加载 (10)

1、在Job下定义工作流 (10)

2、定义Script控件 (10)

3、定义处理新增数据的数据流和处理更新数据的数据流 (11)

八、DS中常用控件介绍 (13)

1、Key_Generation (13)

2、Case (13)

3、Merge (14)

4、Validation (15)

5、设置过滤器和断点 (15)

九、定义Job定期执行 (16)

1、登录Data Services Management Console (16)

2、定义Batch Job Schedules (17)

十、其他注意事项 (18)

一、DS简介

SAP BusinessObjects Data Services是通过SAP HANA认证的ETL工具。采用数据批量处理的方式,定期执行后台作业,将数据从多个业务系统中抽取出来,并进行必要的处理(转换,合并,过滤,清洗),然后再加载到HANA数据库中。

DS的组件之间的关系:

◆Management Consol:

管理控制台是网页版DS管理工具,可以进行一些系统配置和定义Job执行

◆Designer:

Designer是一个具有易于使用的图形用户界面的开发工具。它允许开发人员定义包括数据映射,转换和控制逻辑的数据管理应用程序,创建包含工作流(作业执行定义)和数据流(数据转换定义)的应用程序

◆Repository:

应用程序设计器使用的本地资源库用来存储Data Services对象(如项目,作业,工作流,和数据流)的定义和源和目标的元数据

◆Job server:

作业服务器启动数据移动的从多个不同种类的源集成数据的引擎,执行复杂的数据转换,并管理从ERP系统和其他源的抽取和事务

二、DS数据加载方式

◆全量加载

◆增量上载

a)基于表比较

作业在执行时读取数据源和目标中的全部数据,在服务器的内存中进行比较,计算数据差异

b)时间戳增量

需要在数据源中添加时间戳字段,一般为创建时间和最后修改时间,在抽取作业中定义对两个时间戳字段进行对比,符合条件的创建时间条目进行插入,符合条件的修改时间条目进行更新

c)利用数据库CDC(changed data capture)

首先需要开启数据库的CDC服务,为数据库实例启用CDC功能,为源表启用CDC功能。在这种模式下,DS的增量更新不再直接访问源表,而是在与源表相关的变更记录表中读取增量

三、DS进行数据抽取模型开发的基本过程

◆为数据源创建数据存储

◆导入源表的元数据到资源库

◆为SAP HANA目标系统创建数据存储

◆新建DS项目和批量作业

◆新建DS数据流:定义源表和目标表,定义变量、编辑Query和Map_CDC_Operation

◆执行批量作业

四、DS创建数据源系统和目标系统的数据存储

1、Oracle数据库作为数据源系统

登录Data Services Designer,在本地对象库的数据存储页签中单击鼠标右键,选择新建菜单创建数据存储“EAM_TEST”,在弹出的对话框中输入EAM数据库的连接信息

2、ECC作为数据源系统

同样在创建DataStore时,输入ECC的连接信息

3、HANA数据库作为目标系统

在创建DataStore时,输入HANA数据库的连接信息

五、全量加载过程

1、创建Project和Job

在本地对象库的project页签中单击鼠标右键,选择新建菜单,创建项目“ERP_DS”。双击该项目,在“Project Area”,可以在该项目下创建Job

2、导入源表的元数据到资源库

在本地对象库的数据存储页签中,选择源系统的数据存储,单击鼠标邮件,选择“Import By Name”,输入需要导入到资源库的表名称。导入成功后,在数据存储的table目录下可以看到导入的表

3、创建Data Flow

单击“General”Job,在右边空白区域单击鼠标邮件,选择“Add New”-“Data Flow”

4、设置源表和目标表

单击创建的Data Flow,将需要导入到HANA数据库中的源表拖入到Data Flow区域中,将Data Flow区域右侧的工具条中的模版表拖入Data Flow区域创建模版表

输入模版表名称、HANA目标系统的数据存储、HANA数据库存放DS抽取数据表的用户名。连接源表和目标表

双击模版表,设置“Options”中的“Use NVARCHAR for VARCHAR”

5、手工执行Job

选择Job,单击鼠标右键,选择“Execute”

执行成功之后,在HANA数据库中的ERPDSUSER下可以看到“T161T”,可以查看数据表的内容。执行过程信息和结果可以在监控器中查看。

六、基于表比较的增量加载

1、在Job下定义工作流

2、在工作流中定义数据流

在数据流中定义源表和模版表,执行Job,执行成功之后,在目标系统数据存储的Template Table目录下可以看到创建的模版表

3、加入Table_Comparison控件

选择模版表,单击鼠标邮件,选择“Import Table”。模版表会更新为Tables目录下的数据表。通过将转换-数据集成中的“Table_Comparison”控件拖入到数据流中的方式添加“Table_Comparison”控件

将源表连接“Table_Comparison”控件,“Table_Comparison”控件连接目标表。

4、设置Table_Comparison控件

双击“Table_Comparison”控件,设置相关参数:比较的目标表、表的主键,需要比较的字段。当需要比较的字段为空时,会比较所有字段。建议按照需要填写需要比较的字段,可以加快处理速度。保存后执行Job。

七、基于时间戳的增量加载

1、在Job下定义工作流

在工作流中定义Script控件,读取数据抽取后最新的创建时间和更改时间,定义一个处理新增数据的数据流和一个处理更新数据的数据流

2、定义Script控件

在Script控件中需要使用变量存放读取的最新的创建时间和最新的更改时间。

选择Job,在工具栏选择“Variables”按钮,创建全局变量

双击“Script”控件,编写SQL语句,从HANA数据库表中读取最新的创建时间和更改时间3、定义处理新增数据的数据流和处理更新数据的数据流

双击“EBAN_New”数据流,加载源表,Query,Map_CDC_Operation控件和目标表

双击Query,在输出字段中增加“Sequence”和“Operation”两个字段。“Sequence”字段使用函数gen_row_num()进行赋值,“Operation”赋值为‘I’

在Quey中设置Where条件

双击Map_CDC_Operation控件,设置CDC Columns

同样的方式定义“EBAN_Upd”数据流,在Query的where条件中定义为

在Query的数据结果中增加“Sequence”和“Operation”两个字段。“Sequence”字段使用函数gen_row_num()进行赋值,“Operation”赋值为‘U’

保存后,执行Job。可以通过修改源系统数据测试基于时间戳的增量加载。

八、DS中常用控件介绍

1、Key_Generation

在源表基础上为目标表重新生成主键

在Query中增加“ID”字段,赋值为0。

在Key_Generation控件中设置目标表、主键字段、主键值增加量

2、Case

将源表根据规则进行拆分

双击Case控件,设置拆分条件

当SOURCE = 1时,输出SPFLI_1,当SOURCE =2时,输出SPFLI_2

3、Merge

将具有同样数据结构的源表进行合并

在Query中增加输出字段Source,赋值为1。在Query1中增加输出字段Source,赋值为2。在Merge中将两个表的内容合并输出。

4、Validation

提取数据源表中的正确数据,将错误数据单独存放在其他表中

双击Validation控件,设置“Validation Rule”

5、设置过滤器和断点

过滤器和断点结合使用,用于设置Debug的条件

选择源表到目标表的连接线,单击鼠标右键,选择Set Filter/Breakpoint,设置Debug条件(当满足某种条件时进入断点,或者在满足过滤条件的同时执行多少条数据后时进入断点)

选择Job,单击鼠标右键,选择Start debug

工具栏上的按钮可以控制执行下一条数据、继续执行、终止Debug

Debug过程中进入断点后,可以一次查看数据加载结果

九、定义Job定期执行

1、登录Data Services Management Console

单击工具栏的“Data Services Management Console”按钮

进入Data Services Management Console的登录界面

单击进入Administrator界面

2、定义Batch Job Schedules

在Batch Job Configuration页签选择Add Schedules

进入批量执行Job的设置界面

可以设置每周的某一天执行(一周执行一次)或则每月的某一天执行(一个月执行一次),也可以设置为每天都执行。都选“Recurring”则会定期循环执行,否则只执行一次。

可以设置一天执行一次,也可以一天执行多次,设置开始执行时间。

上图中如果设置为一天多次执行,开始时间为上午1点,持续时间为600分钟,间隔时间为360分钟,则Job会在一天的上午1点和上午6点各执行一次。如果设置时间间隔为240分钟,则Job会在一天的上午1点、上午5点和上午9点各执行一次。(总持续时间不超过10小时)。

十、其他注意事项

1、客户端安装包需要注意和服务器DS版本一致

2、在第一次登录CMS信息时,无法成功。ping sapdstest也失败,需要在host文件中添加

对应的地址和域名

3、连接Oracle数据库作为数据源时,需要在客户端上安装Oracle客户端,设置tnsname.ora

文件,设置环境变量ORACLE_HOME之后重启服务器;连接HANA数据库时,需要安装HANA客户端

4、在连接ECC作为数据源时,需要开启系统跨客户端编辑权限

5、在HANA中新建ERPDSUSER作为存放DS抽取表的Schema,将ERPDSUSER给SLTADM赋

权限,包括查询和创建的权限

6、全量抽取时,目标表不能使用导入表,需要使用模版表,模版表每次会删除重建,导入

表会出现主键重复的错误提示

7、基于时间戳的增量加载,源表中需要有创建时间和更改时间两个字段,分别处理新增和

修改的数据

8、如果只是设置过滤器而没有设置断点,在进行Debug时,Job会执行成功,过滤器有效。

如果不进行Debug,直接执行,设置的过滤器不起作用

服务器系统维护操作手册-(14121)

青岛金欧利营销有限公司操作手册 文件名称:服务器系统维护操作手册 编号: G-WI/630-06-020 版本号: 1/0 编制人:刘鹏 审核人:季忠凯 批准人: 生效日期:

4.2 修改页:如下所示 修改记录

流程图 无

1. 目的 通过规范服务器系统维护操作,降低服务器系统维护过程中可能带来的业务风险。 2. 适用范围 本文件适用于青岛金欧利营销有限公司信息部。 3. 术语 3.1 服务器系统:公司各服务器及与服务器相连的外设和存储设备。 3.2 主服务器系统:指小型机服务器及与其相连的外设和存储设备。 3.3 次服务器系统:指除小型机外其它的服务器及与其相连的外设和存储设备。 4.职责 4.1信息部负责服务器系统的日常维护和管理。 5.管理内容: 5.1主服务器系统维护手册 5.1.1CRM服务器维护手册 5.1.1.1文件系统检查 # df -k Filesystem 1024-blocks Free %Used Iused %Iused Mounted on /dev/hd4 10485760 5143096 51%9495 1% / /dev/hd2 10485760 8014948 24%49885 3% /usr /dev/hd9var 10485760 9975400 5%9787 1% /var /dev/hd3 10485760 8773232 17%973 1% /tmp /dev/hd1 10485760 10478148 1%22 1% /home /proc - - - - - /proc /dev/hd10opt 5242880 4929636 6%10244 1% /opt /dev/fslv01 1569718272 1450676488 8%69989 1% /bi /dev/fslv00 941621248 858313640 9%57596 1% /crm 检查内容:红色字体Used部分,如果有超过85%,说明文件系统需要扩容或者检查为什么超出。 5.1.1.2查看系统故障记录收集 # errpt IDENTIFIER TIMESTAMP T C RESOURCE_NAME DESCRIPTION B6267342 0709235512 P H hdisk10 DISK OPERATION ERROR B6267342 0708235512 P H hdisk10 DISK OPERATION ERROR B6267342 0707235512 P H hdisk10 DISK OPERATION ERROR B6267342 0706235512 P H hdisk10 DISK OPERATION ERROR B6267342 0705235512 P H hdisk10 DISK OPERATION ERROR 检查内容:如果有错误内容将会显示出来,例如B6267342就是一个错误(此错误可以不考虑,其一直存在)。

Data Management Service Guide

第1章:与数据库管理工作 服务 数据库管理服务(DMS),使执行者和管理员控制 创建,维护和使用的系统所使用的数据库。在DMS工具允许实施者 和管理员: 控制数据库模式。 管理索引的物理空间。 创建并在数据库中管理的分区。 数据被接收并存储在允许的信息的数据库,以有效地访问和 有效地由以下部分组成: 积压数据库 规则引擎 调查中心 在DMS提供对数据库的控制有效的数据库管理系统,在持续 基础。此外,它使实施者/系统用户,以减低对数据库的依赖 管理员(DBA)的日常执行,并与数据库管理日常任务。 一般功能 主要特点包括: 定义多个数据库模式和维护- 包括表,索引和表分区 定义。 分区创建和正在进行的流程管理。 调度未来分区创建的。 在DMS可作为企业管理服务和支持的任何数据库模式。在DMS 支持Oracle和MSSQL Server中。它可用于DDL语句创建,然后,如果需要的话,可以是复制和在其它应用中使用。 在DMS过程包括: 1.创建数据库连接的DMS。 2.配置模式存储(DBA活动)。 3.定义模式。 4.(可选)执行模式执行脚本。 5.创建和管理分区。 请参阅使用DMS的详细过程。 存储配置 在数据库中,数据被逻辑地存储在表空间的形式,物理上的数据文件的形式。 配置表是一个必要的前提条件设置数据库存储和使用的DMS。 它一般由DBA执行。 表空间是数据库中的逻辑存储单元。它是合乎逻辑的,因为一个表是不可见 数据库所在的计算机的文件系统。 表空间可用于订购数据,并存储特定的数据在不同的领域。不同的表空间可以 对于不同的数据集,如设置: 分区表 分区指数 非分区表 非分区索引

Teradata系统日常维护手册

下面列表内容为日常维护检查系统的具体情况: 数据仓库系统日常维护标准文档 序号项目详细操作结果1了解系统运行状况向系统管理员了解系统有无异常等 2查看全系统状态SWS console,查看全系统状况 3查看全系统日志打开SWS fault Viewer查看报错信息 4查看阵列状况Symplicity 5查看AWS文件系统删除过期的大文件和临时文件 6记录检查信息Script PM_date.out 7查看空间节点情况Psh dfspace or df–k 8查看节点日志1,less/var/log 2,errpt–f/var/adm/streams/*|pg 9查看系统运行时间检查系统运行时间(who–b或uptime)10检查bynet连接检查bynet连接(bam–s) 11检查数据库状态psh pdestate–a查看数据库状态vprocmanager→status not vprocmanager–s 12查看dump 1,检查pdedump区上的dump csp–mode list 2,检查数据库内的dump csp–mode list–source table 保存必要的dump,删除无用的dump 13检查数据库空间使用情况Exec disksum 14检查数据库物理空间使用检查数据库物理空间使用情况(script /tmp/showspace09****.txt→cnsterm6→ferret →showspace) 15检查数据库的倾斜度sel databasename,tablename, sum(currentperm)/1024/1024/1024,1- avg(currentperm)/max(currentperm)from dbc.tablesize group by1,2having1- avg(currentperm)/max(currentperm)>0.5and sum(currentperm)/1024/1024/1024>5 16检查nv server NA

DataService操作手册

DataService操作 手册

DataServices培训总结-操作手册 目录 一、DS简介 (3) 二、DS数据加载方式 (4) 三、DS进行数据抽取模型开发的基本过程 (5) 四、DS创建数据源系统和目标系统的数据存储 (5) 1、Oracl e数据库作为数据源系统 (5) 2、ECC作为数据源系统 (6) 3、HANA数据库作为目标系统 (7) 五、全量加载过程 (8) 1、创建Project和Job (8) 2、导入源表的元数据到资源库 (8) 3、创建Data Flow (9) 4、设置源表和目标表 (9) 5、手工执行Job (10) 六、基于表比较的增量加载 (11) 1、在Job下定义工作流 (11) 2、在工作流中定义数据流 (11) 3、加入Table_Comparison控件 (12) 4、设置Table_Comparison控件 (13) 七、基于时间戳的增量加载 (13) 1、在Job下定义工作流 (13) 2、定义Script控件 (14) 3、定义处理新增数据的数据流和处理更新数据的数据流 (15) 八、DS中常用控件介绍 (16) 1、Key_Generation (16) 2、Case (17) 3、Merge (18) 4、Validation (19) 5、设置过滤器和断点 (19) 九、定义Job定期执行 (21) 1、登录Data Services Management Console (21) 2、定义Batch Job Schedules (22) 十、其他注意事项 (23)

一、DS简介 SAP BusinessObjects Data Services是经过SAP HANA认证的ETL工具。采用数据批量处理的方式,定期执行后台作业,将数据从多个业务系统中抽取出来,并进行必要的处理(转换,合并,过滤,清洗),然后再加载到HANA数据库中。 DS的组件之间的关系: ◆Management Consol: 管理控制台是网页版DS管理工具,能够进行一些系统配置和定义Job执行 ◆Designer: Designer是一个具有易于使用的图形用户界面的开发工具。它允许开发人员定义包括数据映射,转换和控制逻辑的数据管理应用程序,创立包含工作流(作业执行定义)和数据流(数据转换定义)的应用程序

VERITAS实用操作手册(经验版)

VERITAS9.0实用操作手册(经验版) Kernel (https://www.360docs.net/doc/8313466853.html,) 目录 ●安装指南 一、服务器端的安装 二、服务器端的配置 二、客户端的安装 三、安装过程中的常见问题 ●应用指南 一、WIN2000系统的备份/恢复 1、提交备份作业 1、恢复到同一台计算机上 2、异机的恢复(恢复到到不同的计算机上) ●SQL数据库服务器的备份与恢复 1、仅仅数据库损坏,手工恢复系统库以及用户数据库 2、灾难恢复SQL数据库 3、重定向恢复数据库

安装指南 说明:本操作指南中使用的VRITAS的版本号为9.1.4691,是目前最新版的VERITAS EXEC版本。本操作手册仅仅是一个快速入门手册,更详细的操作请参考《Veritas Exec用户参考手册》 对于VRITAS9.0的安装有两种方式:升级安装和全新安装。升级安装是指企业中原先在使用VRITAS8.6产品,那么你得到新的9.0产品时一般是VERITAS 公司的升级光盘,这个升级光盘是不能够全新安装的,只能从V8.6版本上升级到9.0。在光盘的协议中会提供一组升级用的序列号。这样就麻烦一些,要先安装V8.6然后再升级到9.0。关键就是序列号的问题,因为只有升级序列号,如果有全新的序列号,那么就可以全新安装的。因为在从V8.6升级到V9.0的时候,VERITAS会生成一组新的安装序列号。因此只要把安装后的SN记录下来,就可以把升级安装变成全新的完全安装了。全新安装问题会少很多,但是客户机必须要把原来的V8.6组件全部卸载掉,然后再安装V9.0组件。 安装前客户端和服务器端有几个前提要注意一下: 1.MDAC的版本也有要求,要2.7以上,WINDOWS 2000 SERVER中的是2.6 看MDAC的版本号在注册表的:\HKEY_LOCAL_MACHINE\SOFTWARE\ Microsoft\DataAccess中可以看到。 2.介质服务器端需要的安装SQL2000客户端(注意是客户端,不是服务器端),主要是为了备份SQL2000 SERVER需要。并且要安装SQL 2000 SP3:

DataService-操作手册

DataServices培训总结-操作手册 目录 一、DS简介 (2) 二、DS数据加载方式 (2) 三、DS进行数据抽取模型开发的基本过程 (3) 四、DS创建数据源系统和目标系统的数据存储 (3) 1、Oracle数据库作为数据源系统 (3) 2、ECC作为数据源系统 (4) 3、HANA数据库作为目标系统 (5) 五、全量加载过程 (5) 1、创建Project和Job (5) 2、导入源表的元数据到资源库 (6) 3、创建Data Flow (6) 4、设置源表和目标表 (7) 5、手工执行Job (7) 六、基于表比较的增量加载 (8) 1、在Job下定义工作流 (8) 2、在工作流中定义数据流 (8) 3、加入Table_Comparison控件 (9) 4、设置Table_Comparison控件 (9) 七、基于时间戳的增量加载 (10) 1、在Job下定义工作流 (10) 2、定义Script控件 (10) 3、定义处理新增数据的数据流和处理更新数据的数据流 (11) 八、DS中常用控件介绍 (13) 1、Key_Generation (13) 2、Case (13) 3、Merge (14) 4、Validation (15) 5、设置过滤器和断点 (15) 九、定义Job定期执行 (16) 1、登录Data Services Management Console (16) 2、定义Batch Job Schedules (17) 十、其他注意事项 (18)

一、DS简介 SAP BusinessObjects Data Services是通过SAP HANA认证的ETL工具。采用数据批量处理的方式,定期执行后台作业,将数据从多个业务系统中抽取出来,并进行必要的处理(转换,合并,过滤,清洗),然后再加载到HANA数据库中。 DS的组件之间的关系: ◆Management Consol: 管理控制台是网页版DS管理工具,可以进行一些系统配置和定义Job执行 ◆Designer: Designer是一个具有易于使用的图形用户界面的开发工具。它允许开发人员定义包括数据映射,转换和控制逻辑的数据管理应用程序,创建包含工作流(作业执行定义)和数据流(数据转换定义)的应用程序 ◆Repository: 应用程序设计器使用的本地资源库用来存储Data Services对象(如项目,作业,工作流,和数据流)的定义和源和目标的元数据 ◆Job server: 作业服务器启动数据移动的从多个不同种类的源集成数据的引擎,执行复杂的数据转换,并管理从ERP系统和其他源的抽取和事务 二、DS数据加载方式 ◆全量加载 ◆增量上载 a)基于表比较 作业在执行时读取数据源和目标中的全部数据,在服务器的内存中进行比较,计算数据差异

HMC配置及操作手册

第3章 HMC配置及操作 3.1 HMC网口定义 如果没有扩展PCI的网卡,则左侧的port为eth0,右侧的port为eth1 由于HMC有2port的扩展网卡,所以扩展卡上右口为eth0,左口为eth1,主板的集成网口左口为eth2,右口为eth3 详细说明: Ethrenet port (Dual GB Ethernet):网口 Power supply:电源模块 Video:显示器接口 Serial:串口 USB:USB端口 Keyboard:键盘接口 Mouse:鼠标接口

3.2 HMC如何识别主机 将HMC的网口配置成DHCP后, Customize Network Setting -> 选择网口 -> 选择DHCP服务 连接HMC的网口到主机的HMC1或HMC2口,接通主机电源,一段时间后,即可发现主机

新加入的主机显示为:Pending Authentication - Password Updates Required 通过输入用户名(hscroot)和密码(abc123)后,会提示输入各个用户新的口令(建议如下) Administrator:admin General:general HMC access:admin 等待conneted后,通过点击右键选择power on managed system,启动主机3.3HMC基本操作 3.3.1 HMC的启动 接上电源后直接按HMC的power按钮,则启动HMC并进入linux启动界面,出现登陆界 面后输入默认用户名(hscroot)和密码(abc123)后,进入HMC

3.3.2 HMC的停止 点击HMC窗口上的X即可选择是重启(reboot)、关闭(shutdown)还是注销(log out)当前HMC

联适驾考服务软件操作手册20140604

联适驾考服务软件操作手册 上海联适导航技术有限公司 2015年6月

目录 1 前言 (3) 2 适用范围 (3) 3 功能介绍和操作说明 (3) 3.1 主菜单组成 (3) 3.2 操作说明 (4) 3.2.1 地图导入 (4) 3.2.2 通讯配置 (4) 3.2.3 车模型 (5) 3.2.4 网络差分 (5) 3.2.5 轨迹回放 (5) 3.2.6 测量点 (5) 3.2.7 系统设置 (6) 3.2.8 许可证 (7) 4 报文解析 (7) 4.1 SNDH协议 (8) 4.1.1 导航数据 (8) 4.1.2 判断结果数据 (9) 4.2 XWNZ协议 (11) 4.2.1 导航数据 (11) 4.2.2 判断结果数据 (12) 4.3 分类判断协议 (14) 4.3.1 导航数据 (14) 4.3.2 判断结果数据 (16)

1前言 联适导航驾考服务软件是联适导航公司专门针对驾校考试的需求而开发的一套软件,其作用是根据采集好的考试场地地图数据和车辆的实时数据,实时判断车辆在考场中的精确位置,并输出考试车辆的坐标信息、速度、所在区域等详细信息,使第三方软件能够据此自动评判出考试是否合格。 联适导航驾考服务软件具备地图可视化显示功能并提供一个实现数据分析功能的服务,可以观测到车模型与场地图的实时位置,同时给第三方软件提供底层数据。 本手册讲解联适导航驾考服务软件的适用范围和一般使用过程,包括功能介绍以及其操作说明等内容。 2适用范围 本软件可以与联适导航接收机配套使用,也可以兼容其他厂家接收机的数据,组成联适导航驾考辅助评判系统;可适用于驾校考试科目二、科目三考试的常规考试科目。 适用驾校考试车型包括: 表 1 适用驾校考试车型 3功能介绍和操作说明 3.1主菜单组成 【AllyNavDriverExam.exe】客户端程序是有界面显示的,有八个主菜单按钮,分别是【地图导入】、【通讯配置】、【车模型】、【网络差分】、【轨迹回放】、【测量点】、【系统设置】、【许可证】。

dataservice操作手册

D a t a S e r v i c e s培训总结-操作手册 目录 一、DS简介 (2) 二、DS数据加载方式 (3) 三、DS进行数据抽取模型开发的基本过程 (4) 四、DS创建数据源系统和目标系统的数据存储 (4) 1、Oracle数据库作为数据源系统 (4) 2、ECC作为数据源系统 (5) 3、HANA数据库作为目标系统 (5) 五、全量加载过程 (5) 1、创建Project和Job (5) 2、导入源表的元数据到资源库 (5) 3、创建Data Flow (5) 4、设置源表和目标表 (6) 5、手工执行Job (6) 六、基于表比较的增量加载 (6) 1、在Job下定义工作流 (6) 2、在工作流中定义数据流 (6) 3、加入Table_Comparison控件 (7) 4、设置Table_Comparison控件 (7) 七、基于时间戳的增量加载 (7)

1、在Job下定义工作流 (7) 2、定义Script控件 (7) 3、定义处理新增数据的数据流和处理更新数据的数据流8 八、DS中常用控件介绍 (9) 1、Key_Generation (9) 2、Case (9) 3、Merge (9) 4、Validation (9) 5、设置过滤器和断点 (9) 九、定义Job定期执行 (10) 1、登录Data Services Management Console (10) 2、定义Batch Job Schedules (10) 十、其他注意事项 (11) 一、DS简介 SAP BusinessObjects Data Services是通过SAP HANA认证的ETL 工具。采用数据批量处理的方式,定期执行后台作业,将数据从多个业务系统中抽取出来,并进行必要的处理(转换,合并,过滤,清洗),然后再加载到HANA数据库中。 DS的组件之间的关系: Management Consol: 管理控制台是网页版DS管理工具,可以进行一些系统配置和定

专业数据恢复工具Data Extractor说明书

Data Extractor说明书联系QQ:346497688 1.1软件介绍: Data Extractor是一个针对IDE硬盘的专业级数据恢复工具 本软件不仅对数据出错的无故障硬盘有效 还对以下故障类型的硬盘有专效: *硬盘表面或磁头受损 *硬盘LBA参数与物理参数转换表出错 故障盘要求能完成初始化并能读出硬盘的型号,跳线必须跳在主盘的位置对于故障硬盘的恢复数据,本软件有两种基本方式: 1.将原盘数据整盘拷贝到另一个好盘上,然后在好盘上用恢复软件进行分析恢复 2.用本软件的逻辑分析功能直接从故障盘恢复所要的数据。 这两种方式各有所长: 整盘拷贝能恢复磁盘表面或磁头故障的硬盘 当转换表出错时,用第二种方法更方便取出数据。 1.2硬件要求: 本软件要求的电脑配置:P133以上CPU, 24M以上内存,一条ISA槽,WINDOWS98操作系统,主板要求能支持目前的大容量硬盘 1.3配件列表 PC3000PRO卡 电源模块 Data Extactor安装盘 信号线 电源线 软件说明书 授权书 3开始 3.1软件安装,将光盘放入光驱,点击SETUP.EXE 或DATA EXTRACTOR.EXE进行安装,按默认提示进行,最后填入授权号码,注意大小写。 3.2 启动软件,点击桌面的DATA EXTRACTOR图标就可打开软件,注意不能有驻留内存的跟踪型软件。 4软件工作说明 4.1一般说明 软件的工作信息都在窗口中出现,下方是硬盘的各种故障显示灯,可用键盘或鼠标操作。 4.2名词说明: TASK 新任务软件工作中的各种设置 PROSESS 操作 SCANING 扫描从故障盘中读数据 IMAGE 故障盘数据的映像文件 EXPORT 将映像文件逐扇区拷贝到好盘中 LBA 以逻辑方式表示数据地址 SCANING MAP 以图形方式表示扫描结果 EXPLORER 表示硬盘的逻辑结构的示意图

先电大数据平台操作手册-XianDian-BigData-v2.1

南京第五十五所技术开发有限公司 版本:先电 Cloud-BigData-v2.1 发布日期:2017年02月21日 南京第五十五所技术开发有限公司 先电大数据平台 用户手册

版本修订说明

目录 1概述 (5) 1.1大数据简介 (5) 1.2先电大数据平台简介 (5) 2基本环境配置 (6) 2.1配置主机名 (7) 2.2修改hosts文件 (7) 2.3修改yum源 (7) 2.4配置ntp (8) 2.5配置SSH (9) 2.6禁用Transparent Huge Pages (9) 2.7安装配置JDK (10) 3配置ambari-server (11) 3.1安装MariaDB数据库 (11) 3.2安装配置ambari-server (12) 4配置ambari-agent (14) 5部署管理Hadoop集群 (14) 5.1部署Hadoop集群 (14) 5.2HDFS运维管理 (21) 5.3MapReduce (31) 6部署Hive数据仓库 (32) 6.1部署Hive (32) 6.1Hive用户指南 (34) 7部署Hbase分布式列数据库 (49) 7.1部署HBase (49) 7.2测试验证 (51) 7.3HBase用户指南 (51)

8部署Mahout数据挖据工具 (59) 8.1部署Mahout (59) 8.2测试验证 .................................................................................. 错误!未定义书签。9部署Pig数据分析平台 .. (63) 9.1部署Pig (63) 9.2Pig简介 (64) 9.3运行案例 (66)

DATA SERVICES-功能说明

Data Services 入门指南 第一章 Data Services产品套件概述 第一节 Data Services 和 Business Objects 产品套件Business Objects产品套件通过专业的终端用户工具在一个单独的,可信的商务智能平台上提供了非常深刻的研究和探讨。整个平台由Data Services支持。在Data Services的顶层,Business Objects设计了最可靠的,扩展的和可管理的BI平台,该平台支持业界集成度最好的报表,查询和分析,绩效管理仪表盘,记分板和应用程序。真正的数据集成组合了批量抽取,转换及加载(ETL)技术和跨越多个扩展的企业应用之间的实时双向的数据流。通过创建一个关系数据仓库并智能地组合使用对来自企业ERP系统和其他数据源的数据的直接实时访问和批量数据访问方法,BusinessObjects开发了一个功能强大的,高性能数据集成的产品,它允许充分平衡你的ERP和企业应用的基础设施以满足多种业务使用。 Business Objects提供了一个批量和实时数据集成系统来驱动目前新一代的分析和供应链管理应用。使用Business Objects高可扩展性的数据集成解决方案,企业可以维护与客户,供应商,员工和合作方的一个实时的在线的对话,给他们提供交易和业务分析需要的关键信息。 第二节 Data Services产品优点 使用Data Services来开发批量和实时使用的企业数据集成。通过Data Services:

可以创建一个单独的用于批量和实时数据移动的基础架构从而获得一个更快的更低成本的实现。 企业可以在独立于任何单独的系统的前提下将数据作为企业资产来管理。集成多个系统的数据并将这些数据重新用于许多其他目的。 可以选择使用预打包的数据解决方案已获得快速的部署和快的投资回报。这些解决从业务操作系统抽取历史的和日常的数据并在一个 开放的关系数据库中缓存这些数据。 Data Services定制和管理数据访问并综合业界领先的,专利的技术来给业务分析,供应链管理,客户关系管理和Web应用提供数据 平台统一 Data Services提供了几点平台统一: 获取端到端的数据家谱和影响分析 创建语义层(Universe)和在ETL设计环境中管理变化 Business Objects 将整个ETL过程和商务智能平台进行深度集成,这样做可以获得下列好处: 简单的元数据管理 简化的统一的系统管理 生命周期管理 可以信赖的信息

Spring-data-redis使用手册

Spring-data-redis使用手册

文档信息(Document Info) 标题(Title) Spring-data-redis使用手册 文档编号(No) 2012-02-14 作者(Author) 黄承开 最后发布时间(Last Update) 2012-08-10 概述(Summarize) 掌握spring-data-redis的使用方法,一些最佳实践

修订信息(Revise Info) 修订日期(Date)修订人(Reviser) 修订内容(Revises) 2012-05-21 梁国锋 2.2 redis下载地址(Linux版、Windows版) 3.4.6常用api的方法 5.1mercury项目实战 2012-06-25 黄承开新增maven依赖配置方法,整理了章节2012-06-26 黄承开新增章节 2012-08-10 张瑜新增Tinybee实战配置,增加KEY序列化配置

附件信息(Attachment Info)

目录 文档信息(Document Info) (2) 修订信息(Revise Info) (3) 附件信息(Attachment Info) (4) 1.概述 (6) 1.1.目的 (6) 1.2.范围 (6) 2.准备 (6) 2.1.环境配置 (6) 2.2.下载地址 (7) 3.Spring-data-redis (7) 3.1.背景 (7) 3.1.1.高级API (7) 3.1.2.低级API (7) 3.2.Maven配置 (7) 3.3.JedisConnectionFactory (8) 3.4.RedisTemplate和StringRedisTemplate (8) 3.5.API概览 (8) 3.5.1.Java集合和Redis集合 (8) 3.5.2.Operations (9) 3.5.3.ValueOperations和BoundValueOperations (9) 3.5.4.ListOperations和BoundListOperations (9) 3.5.5.SetOperations和BoundSetOperations (10) 3.5.6.ZSetOperations和BoundZSetOperations (11) 3.5.7.HashOperations和BoundHashOperations (11) 3.5.8.其他 (12) 3.6.Callback (12) 3.7.Topic和Messaging/PubSub (12) 3.8.Cache (12) 4.NoSQL数据库设计 (12) 4.1.一般经验 (12) 4.1.1.不持久化业务实体 (12) 4.1.2.Key的设计 (12) 4.2.官方例子中的设计 (13) 4.3.NoSQL 数据建模技术 (13) 5.最佳实践 (13) 5.1.项目案例1(Mercury项目) (13) 5.1.1.配置 (13) 5.1.2.总结 (14) 5.2.项目案例2(Tinybee项目) (14) 5.2.1.配置(更新) (14)

Datastage 配置操作步骤

1部署软件环境 DB服务器:22.4.8.7 DB客户端:22.4.8.10,22.4.8.11,22.4.8.12,22.4.8.13 DataStage主服务器:22.4.8.11 DataStage备份服务器:22.4.8.13 DataStage节点:22.5.8.10,22.5.8.12 2创建用户 为每台机器创建dstage组和dsadm用户 运行smit命令,启动管理界面 在安装机器上创建dstage组 设置ADMINISTRATIVE USER 选项为true 设置GID设为300 创建用户dsadm 设置主属为dstage, 设置ADMINISTRATIVE USER 选项为true; 设置UID设为300; 设置Primary GROUP,Group SET,ADMINISTRATIVE GROUPS:均为dstage; 设置Soft FILE size [-1] (无限制) 设置Hard FILE size [-1] (无限制) 3修改系统参数 调整每台机器的最大进程数 查看用户进程最大数目: lsattr -El sys0|grep maxuproc 如: 修改用户进程最大数目: 注意:要调整每个Datastage节点的最大进程数 用root用户登陆,键入即可。 chdev -l sys0 -a maxuproc=4096 4 DataStage安装 4.1上传DataStage介质到服务器上 将介质拷贝到终端上,然后ftp到22.4.8.11和22.4.8.13上,将介质放在/Ascential.media 目录下,并赋上所有权限:chmod -R 777 /Ascential.media 4.2安装DataStage 4.2.1进入/Ascential.media,运行sh ./install.sh –admin dsadm,中间安装过程请参考

Teradata系统日常维护手册

数据仓库系统日常维护标准文档下面列表内容为日常维护检查系统的具体情况:

Tpareset – x comments(检查WAL和session情况) 重启前只要wal基本都归零了不必要清session,只有wal有问题才需要做步骤2. 1,psh pdestate –看是不是所有节点都正常的。 ?????? # cnsterm 6 open the database supervisor screen Input Supervisor Command: ??????? abort session *.* logoff Is the data base quiescent (Verify all sessions gone.) # /tpasw/bin/vprocmanager –s DBS State: Logons are enabled – The system is quiescent PDE State: TPA on), perform a dbs coldwait restart from vprocmanager. Otherwise continue with “Bring database down”: # /tpasw/bin/vprocmanager Enter a command, HELP or QUIT: restart coldwait to clear session table Wait for the database to come up again. Is the base quiescent (Verify all sessions are gone.) # /tpasw/bin/vprocmanager –s DBS State: Logons are enabled – The system is quiescent PDE State:TPA ??????? 检查wal的大小:(bteq登录, systemfe|service) select currentperm ,vproc from where databasename = ‘DBC’ and tablename = ‘transientjournal’ order by 1 desc;

系统管理工具操作手册

电子病历 系统管理工具 操作说明 曼荼罗软件有限公司 M a n d a l a T S o f t w a r e C o r p o r a t i o n

目录 版本说明.......................................................................................................................................... - 1 -1.客户端的安装及运行1 -?- 2.创建配置项目..................................................................................................................... -3-3.添加一台本地主机?-5- 4.?添加一个文件系统................................................................................................................... -6 -5.添加三个配置文件7 -?- 6.添加远程机器........................................................................................................................... - 10 -7.?在本地编辑服务器上的文件?- 13 - 8.可视化编辑DATASERVICE.CFG ................................................................................... - 16 -9.?同步性测试........................................................................................................................... -17 -11.添加电子病历数据库节点并查询用户的数量................................................................ - 19 -12.添加用户表并进行用户的配置 .................................................................................... - 22-13.?用户表编辑器?- 23- 14.?用户配置复制................................................................................................................... - 24-15.?直接修改个人配置................................................................................................................ - 26-16.?导入HIS表中用户............................................................................................................. - 27-17.添加首页表并配置 ........................................................................................................ - 32-18.首页表编辑器 ................................................................................................................... - 34-19.添加查询条件 ................................................................................................................... - 35 -20.编辑用户首页 ............................................................................................................... - 37-21.?添加跟踪表并管理................................................................................................................ - 38-22.添加年度表并进行管理?-39- 23.?添加打印格式表并进行管理........................................................................................... -42 - 24.添加元素模板表并进行管理?-43 - 25.添加OCCASION表并进行管理.............................................................................. -47-26.?关于外部配置编辑器的接口说明4 -?9- 27.关于登录方式的说明?-49 - 28.其他 ...................................................................................................................................... - 49 -

dataapi开发文档_0320

DataApi开发文档 2013.2.20

目录 1. DataApi概述 (3) 1.1 DataApi提供的Web Service (3) 1.1.1 profile (3) 1.1.2 report (3) 2. 开通DataApi (3) 2.1 获得token (3) 2.2 配额 (3) 3. 使用入门 (4) 3.1 访问DataApi服务 (4) 3.2 登录 (4) 3.2.1 preLogin (4) 3.2.2 doLogin (7) 3.3 调用DataApi (10) 3.3.1 消息头 (10) 3.3.2 消息体 (11) 3.3.3 服务器响应结构说明 (11) 4. API参考 (12) 4.1 profile服务 (12) 4.1.1 getsites方法 (12) 4.2 report服务 (14) 4.2.1 query方法 (14) 4.2.2 getstatus (17) 5. 错误代码 (18) 5.1 System Error (18) 5.2 Genera Error (20) 5.3 profile Service Error (21) 5.4 report Service Error (21) 6.附录 (22) 6.1登录服务的RSA加密公钥 (22) 6.2登录服务响应消息头return code参考 (22)

1. DataApi概述 1.1 DataApi提供的Web Service 1.1.1 profile 通过profile服务,您可以查询用户名下管理的站点、子目录信息。使用查询到的站点、子目录的siteid,可以通过report服务,下载相应站点下的报告数据。 1.1.2 report 通过report服务,您可以获取站点的详细报告数据(目前仅开通受访页面报告)。由于产生报告需要一定的时间,我们采用异步的方式对报告进行处理。您首先需要通过query()方法获得一个报告生成结果的result_id,然后可以调用getstatus()方法查询报告生成状态,若报告生成状态为已生成,则同时会在结果中返回下载报告生成结果文件的Url地址。根据该地址即可下载您所查询的报告数据。 请注意,result_id的有效时间为1小时,如果超时则需重新查询。由于调用getstatus()和query()方法都会扣减一定的配额,报告的最长生成的时间为10分钟,请在调用query()方法后合适的时间后调用getstatus()方法查询报告生成状态(注意:建议不要在调用完query()方法后立即频繁地调用getstatus()方法,造成不必要的配额扣减。) 2. 开通DataApi 2.1 获得token 通过邮件开通,获取token。 2.2 配额 为了合理分配资源,我们为访问DataApi的用户限定了使用配额。当您的配额使用完后,在下一次分配配额之前,您将无法使用DataApi服务,因此请注意配额的使用情况,合理安

相关文档
最新文档