STAND ALONE BIN

合集下载

jira使用说明

jira使用说明

JIRA 白皮书一、简介JIRA是一个优秀的问题(or Bugs、Task、Improvement、New Feature )跟踪及管理软件。

采用J2EE 技术。

它正被广泛的开源软件组织,以及全球著名的软件公司使用。

目前,已有来自55个国家5800多家用户在使用JIRA。

JIRA产品非常完善且功能强大,多语言支持、界面十分友好,和其他系统如CVS、Subversion(SVN)Perforce、邮件服务整合得相当好,文档齐全,安装配置简单,可用性以及可扩展性方面都十分出色,拥有完整的用户权限管理。

如果购买商业版许可,还可以得到JIRA的源码(在许可协议下可以定制自己的JIRA系统)。

二、JIRA后台管理的主要功能介绍项目的管理:添加项目,查看、编辑、删除项目;项目类别管理:将项目分类别组织管理;用户与组的管理;项目角色管理:可以根据需要添加项目角色,将人员/组和项目角色关联;全局设置1)附件管理:控制是否允许上传附件文件,设置附件存储目录;2)CVS模块管理:与CVS的集成配置;3)数字面板设置;4)国际化设置:字符集、索引语言、安装语言及默认界面语言配置;5)全局权限设置;6)Issue链接设置;7)邮件服务器设置:与mail服务器的集成配置;8)界面设置:设置界面logo、颜色以及日期格式;9)子任务设置;10)时间跟踪设置;11)工作流设置;方案设置1)Issue安全方案:用来控制对Issue的查看权限;2)通知方案:当事件发生时产生通知邮件;3)权限方案:配置用于项目的权限组合;4)工作流方案:定义用于特定Issue类型和项目的工作流;Issue字段1)添加自定制字段;2)字段及字段方案设置;3)导航栏设置:设置Issue导航栏中显示的字段;4)屏幕及屏幕方案设置:配置与Issue操作对应的屏幕;5)Issue屏幕类型方案设置:为不同的Issue类型配置相应的屏幕方案,可以和一个或多个项目关联;Issue设置1)Issue类型设置:管理Issue类型;2)优先级和解决设置;3)Issue状态设置;导入和导出1)备份数据:以XML格式备份JIRA系统数据;2)恢复数据:从XML备份数据中恢复JIRA系统;3)外部系统导入:支持从Bugzilla、Mantis、FogBugz、CSV系统中导入数据;选项设置1)发送email:向JIRA系统用户发送电子邮件;2)公告栏设置:维护公告信息显示内容;JIRA系统1)索引:配置系统索引目录位置以及重建索引;2)LDAP集成:配置JIRA基于LDAP的用户授权;3)监听器管理:用于添加监听器,以响应特定事件;4)许可详细信息;5)Logging & Profiling:用于改变log信息记录级别,调试JIRA问题;6)插件管理:管理系统的插件;7)邮件队列管理:管理JIRA内部事件队列;8)服务管理:配置JIRA系统的自动备份目录和备份时间间隔;9)系统信息:显示当前JIRA系统的信息;10)支持请求:通过当前JIRA系统发送支持请求邮件;三、JIRA的版本介绍JIRA产品一共有三种版本,分别为:标准版,专业版,企业版。

nacos启动报错

nacos启动报错

nacos启动报错在linux中启动nacos报错:后查询资料,发现nacos默认是以集群⽅式启动的,所以需要把启动⽂件中的 cluster修改为standalone;1 #!/bin/sh23 # Copyright 1999-2018 Alibaba Group Holding Ltd.4 # Licensed under the Apache License, Version 2.0 (the "License");5 # you may not use this file except in compliance with the License.6 # You may obtain a copy of the License at78 # /licenses/LICENSE-2.09 #10 # Unless required by applicable law or agreed to in writing, software11 # distributed under the License is distributed on an "AS IS" BASIS,12 # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.13 # See the License for the specific language governing permissions and14 # limitations under the License.1516 cygwin=false17 darwin=false18 os400=false19case"`uname`"in20 CYGWIN*) cygwin=true;;21 Darwin*) darwin=true;;22 OS400*) os400=true;;23 esac24 error_exit ()25 {26 echo "ERROR: $1 !!"27 exit 128 }29 [ ! -e "$JAVA_HOME/bin/java" ] && JAVA_HOME=$HOME/jdk/java30 [ ! -e "$JAVA_HOME/bin/java" ] && JAVA_HOME=/usr/java31 [ ! -e "$JAVA_HOME/bin/java" ] && JAVA_HOME=/opt/taobao/java32 [ ! -e "$JAVA_HOME/bin/java" ] && unset JAVA_HOME3334if [ -z "$JAVA_HOME" ]; then35if $darwin; then3637if [ -x '/usr/libexec/java_home' ] ; then38 export JAVA_HOME=`/usr/libexec/java_home`3940 elif [ -d "/System/Library/Frameworks/JavaVM.framework/Versions/CurrentJDK/Home" ]; then41 export JAVA_HOME="/System/Library/Frameworks/JavaVM.framework/Versions/CurrentJDK/Home"42 fi43else44 JAVA_PATH=`dirname $(readlink -f $(which javac))`45if [ "x$JAVA_PATH" != "x" ]; then46 export JAVA_HOME=`dirname $JAVA_PATH 2>/dev/null`47 fi48 fi49if [ -z "$JAVA_HOME" ]; then50 error_exit "Please set the JAVA_HOME variable in your environment, We need java(x64)! jdk8 or later is better!"51 fi52 fi5354 #注,此处设置了默认值是以及群模式启动,所以我就把此处改成了standalone,集群为cluster55 export SERVER="nacos-server"56 export MODE="standalone"57 export FUNCTION_MODE="all"58while getopts ":m:f:s:" opt59do60case $opt in61 m)62 MODE=$OPTARG;;63 f)64 FUNCTION_MODE=$OPTARG;;65 s)66 SERVER=$OPTARG;;67 ?)68 echo "Unknown parameter"69 exit 1;;70 esac71 done7273 export JAVA_HOME74 export JAVA="$JAVA_HOME/bin/java"75 export BASE_DIR=`cd $(dirname $0)/..; pwd`76 export DEFAULT_SEARCH_LOCATIONS="classpath:/,classpath:/config/,file:./,file:./config/"77 export CUSTOM_SEARCH_LOCATIONS=${DEFAULT_SEARCH_LOCATIONS},file:${BASE_DIR}/conf/7879 #===========================================================================================80 # JVM Configuration81 #===========================================================================================82if [[ "${MODE}" == "standalone" ]]; then83 JAVA_OPT="${JAVA_OPT} -Xms512m -Xmx512m -Xmn256m"84 JAVA_OPT="${JAVA_OPT} -Dnacos.standalone=true"85else86 JAVA_OPT="${JAVA_OPT} -server -Xms2g -Xmx2g -Xmn1g -XX:MetaspaceSize=128m -XX:MaxMetaspaceSize=320m"87 JAVA_OPT="${JAVA_OPT} -XX:-OmitStackTraceInFastThrow -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=${BASE_DIR}/logs/java_heapdump.hprof"88 JAVA_OPT="${JAVA_OPT} -XX:-UseLargePages"8990 fi9192if [[ "${FUNCTION_MODE}" == "config" ]]; then93 JAVA_OPT="${JAVA_OPT} -Dnacos.functionMode=config"94 elif [[ "${FUNCTION_MODE}" == "naming" ]]; then95 JAVA_OPT="${JAVA_OPT} -Dnacos.functionMode=naming"96 fi979899 JAVA_MAJOR_VERSION=$($JAVA -version 2>&1 | sed -E -n 's/.* version "([0-9]*).*$/\1/p')100if [[ "$JAVA_MAJOR_VERSION" -ge "9" ]] ; then101 JAVA_OPT="${JAVA_OPT} -cp .:${BASE_DIR}/plugins/cmdb/*.jar:${BASE_DIR}/plugins/mysql/*.jar"102 JAVA_OPT="${JAVA_OPT} -Xlog:gc*:file=${BASE_DIR}/logs/nacos_gc.log:time,tags:filecount=10,filesize=102400"103else104 JAVA_OPT="${JAVA_OPT} -Djava.ext.dirs=${JAVA_HOME}/jre/lib/ext:${JAVA_HOME}/lib/ext:${BASE_DIR}/plugins/cmdb:${BASE_DIR}/plugins/mysql"105 JAVA_OPT="${JAVA_OPT} -Xloggc:${BASE_DIR}/logs/nacos_gc.log -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCDateStamps -XX:+PrintGCTimeStamps -XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=10 -XX:GCLogFileSize 106 fi107108 JAVA_OPT="${JAVA_OPT} -Dnacos.home=${BASE_DIR}"109 JAVA_OPT="${JAVA_OPT} -Dloader.path=${BASE_DIR}/plugins/health -jar ${BASE_DIR}/target/${SERVER}.jar"110 JAVA_OPT="${JAVA_OPT} ${JAVA_OPT_EXT}"111 JAVA_OPT="${JAVA_OPT} --spring.config.location=${CUSTOM_SEARCH_LOCATIONS}"112 JAVA_OPT="${JAVA_OPT} --logging.config=${BASE_DIR}/conf/nacos-logback.xml"113 JAVA_OPT="${JAVA_OPT} --server.max-http-header-size=524288"114115if [ ! -d "${BASE_DIR}/logs" ]; then116 mkdir ${BASE_DIR}/logs117 fi118119 echo "$JAVA ${JAVA_OPT}"120121if [[ "${MODE}" == "standalone" ]]; then122 echo "nacos is starting with standalone"123else124 echo "nacos is starting with cluster"125 fi126127 # check the start.out log output file128if [ ! -f "${BASE_DIR}/logs/start.out" ]; then129 touch "${BASE_DIR}/logs/start.out"130 fi131 # start132 echo "$JAVA ${JAVA_OPT}" > ${BASE_DIR}/logs/start.out2>&1 &133 nohup $JAVA ${JAVA_OPT} nacos.nacos >> ${BASE_DIR}/logs/start.out2>&1 &134 echo "nacos is starting,you can check the ${BASE_DIR}/logs/start.out"启动命令为:bash startup.sh -m standalone官⽅提供的启动命令为sh startup.sh -m standalone⾄于启动命令的bash和sh的区别,待了解。

银河麒麟服务器操作系统V4 Spark软件适配手册说明书

银河麒麟服务器操作系统V4 Spark软件适配手册说明书

银河麒麟服务器操作系统V4 spark软件适配手册天津麒麟信息技术有限公司2019年6月目录目录 (I)1概述 (2)1.1系统概述 (2)1.2环境概述 (2)1.3SPARK软件简介 (2)1.4SPARK的优点 (3)1.5SPARK架构 (3)1.6SPARK运行流程及特点 (4)1.6.1SPARK运行流程 (4)1.6.2SPARK运行特点 (5)2SPARK软件适配 (6)1)下载并解压SPARK (6)2)安装SCALA (6)3运行测试 (6)3.1使用自带的PYTHON SHELL进行测试 (6)3.2使用自带的SPARK SHELL进行测试 (7)3.3执行PAGEVIEW测试 (7)1概述1.1系统概述银河麒麟服务器操作系统主要面向军队综合电子信息系统、金融系统以及电力系统等国家关键行业的服务器应用领域,突出高安全性、高可用性、高效数据处理、虚拟化等关键技术优势,针对关键业务构建的丰富高效、安全可靠的功能特性,兼容适配长城、联想、浪潮、华为、曙光等国内主流厂商的服务器整机产品,以及达梦、金仓、神通、南大通用等主要国产数据库和中创、金蝶、东方通等国产中间件,满足虚拟化、云计算和大数据时代,服务器业务对操作系统在性能、安全性及可扩展性等方面的需求,是一款具有高安全、高可用、高可靠、高性能的自主可控服务器操作系统。

1.2环境概述服务器型号长城信安擎天DF720服务器CPU类型飞腾2000+处理器操作系统版本Kylin-4.0.2-server-sp2-2000-19050910.Z1内核版本 4.4.131spark版本 2.4.31.3spark软件简介Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎。

Spark 是UC Berkeley AMP lab(加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

S32G RDB2 Linux板级开发包 Uboot 定制说明书

S32G RDB2 Linux板级开发包 Uboot 定制说明书

CAS training Rev.4, 9/2021 S32G RDB2 Linux板级开发包Uboot 定制by John Li (nxa08200)本文说明S32G RDB2板Linux板级开发包BSP30 的Uboot细节,以帮助客户了解S32G 的Uboot是如何运行的,以及如何修改到客户的新板上。

阅读本文之前请先阅读文档Automotive SW – S32G2 reference Software\Linux\《S32G_LinuxBSP30.0.0_User_Manual.pdf》,预先熟悉一下S32G的编译环境,本文部分内容与之重复。

《S32G_LinuxBSP30.0.0_Release_Notes.pdf》,为release notes。

本文推荐必读有第1,2章,第三章的第3.6节,为平台相关必须了解的信息。

第三章其余部分为Linux背景知识介绍,可以选择阅读。

注意本文是使用默认的no-security uboot 直接启动的方式为说明的,security ATF boot 的方式另文说明,注意使用ATF后部分需要定制的部分在ATF中,uboot会简单很多。

请注意本文为培训和辅助文档,本文不是目录1S32G Linux文档说明 (2)2创建S32G RDB2 Linux板级开发包编译环境 (2)2.1创建yocto编译环境: (2)2.2独立编译 (8)3FSL Uboot 定制 (11)3.1FDT支持 (12)3.2DM(driver model)支持 (17)3.3Uboot目录结构 (29)3.4Uboot编译 (31)3.5Uboot初始化流程 (32)3.6Uboot 定制 (38)3.7Uboot debug信息 (84)S32G Uboot21S32G Linux 文档说明根据文档搭建Yocto 编译环境和standalone 编译环境。

参考Release Noes 的What’s New 一章了解最新的BSP 相对于前一版本的更新。

KafkaConnector使用说明

KafkaConnector使用说明

KafkaConnector使⽤说明基本概念Broker:集群中的⼀个实例。

Workers:运⾏Connector和Task的进程。

1. Task:数据写⼊Kafka和从Kafka中读出的具体实现。

2. Connector:通过管理Task来协调数据流的⾼级抽象。

1. Source:负责导⼊数据到Kafka。

2. Sink:负责从Kafka导出数据。

⽀持分布式部署。

3. Converter:Connector和其他存储系统直接发送或者接受数据之间转换数据。

4. Transform:针对值(键值对中的Value)的轻量级数据调整的⼯具。

部署环境介绍Zookeeper10.110.5.83:2181Elasticsearch10.110.5.84:9200Kafka10.110.5.81Kafka Connect Sink Elasticsearch⼀、 Elasticsearch准备1. 调⽤接⼝创建索引:2. Kafka的主题,Oracle的表名是区分⼤⼩写的,推荐使⽤⼤写⼆、Kafka准备1. 下载confluent-5.2.1-2.12.tar,上传服务器(/home/⽬录下)后解压,进⼊其⽬录cd /home/confluent-5.2.12. Zookeeper(2181)1. 如果环境中已经有Zookeeper,直接连接环境中的Zookeeper,⽆需启动⾃带的Zookeeper;如果没有,才使⽤⾃带的Zookeeper:./bin/zookeeper-server-start -daemon etc/kafka/zookeeper.properties2. 注意:先使⽤前台运⾏⽅式启动程序,待程序正常启动、不报错后可以再改⽤守护进程(-daemon)的⽅式启动3. 启动Broker(9092)1. 修改配置⽂件1. 打开配置⽂件vi ./etc/kafka/server.properties2. 确认Zookeeperzookeeper.connect=10.110.5.83:21813. 补充配置项=10.110.5.81listeners=PLAINTEXT://10.110.5.81:9092advertised.listeners=PLAINTEXT://10.110.5.81:90924. 退出保存2. 启动./bin/kafka-server-start -daemon etc/kafka/server.properties4. 启动Schema Registry(8081)./bin/schema-registry-start -daemon etc/schema-registry/schema-registry.properties5. 创建Kafka测试主题“trace”(这⼀步是多余的,因为启动Producer、Consumer后,Kafka会⾃动创建主题)./bin/kafka-topics \--topic trace \--create \--bootstrap-server 10.110.5.81:9092 \--replication-factor 1 \--partitions 1三、发送数据1. 单例模式启动Connector1. 修改两个配置⽂件1. connect-standalone.properties1. 打开该⽂件vi etc/kafka/connect-standalone.properties2. 修改以下两项配置为falsekey.converter.schemas.enable=falsevalue.converter.schemas.enable=false3. 修改地址(默认为本机)bootstrap.servers=10.110.5.81:90924. 保存后关闭2. elasticsearch-sink.properties1. 复制连接⽂件cp etc/kafka-connect-elasticsearch/quickstart-elasticsearch.properties etc/kafka-connect-jdbc/elasticsearch-sink.properties2. 打开该⽂件vi etc/kafka-connect-elasticsearch/elasticsearch-sink.properties3. 修改配置topics=traceconnection.url=http://10.110.5.84:9200#与hbase保持统⼀,故采⽤“info”:=info#新增模式忽略,防⽌抛出异常(可能多余)schema.ignore=true4. 保存后关闭3. 以单例模式启动Connector./bin/connect-standalone -daemon etc/kafka/connect-standalone.properties etc/kafka-connect-elasticsearch/elasticsearch-sink.properties \--property print.key=true \--property schema.registry.url=http://10.110.5.81:80812. 新开XShell标签,启动Consumer,以监听消息是否发送(⼼理安慰,作⽤不⼤)./bin/kafka-console-consumer \--topic trace \--bootstrap-server 10.110.5.81:9092 \--from-beginning \--property print.key=true3. 新开XShell标签,启动Producer,⽣产数据1. 指定Schema./bin/kafka-avro-console-producer \--topic trace \--broker-list 10.110.5.81:9092 \--property parse.key=true \--property key.separator=: \--property schema.registry.url=http://10.110.5.81:8081 \--property key.schema='{"name":"key","type":"string"}' \--property value.schema='{"type":"record","name":"myrecord","fields":[{"name":"id","type":"string"},{"name":"xw","type":"string"},{"name":"ddbh","type":"string"},{"name":"fssj","type":"string"},{"name":"location","type":"string"},{"name"2. 以JSON格式输⼊测试数据"R210124************_20201208144517":{"id":"210124************","xw":"TL","ddbh":"D1024","fssj":"20201208144517","location":"39.915119,116.403963","jd":"116.403963","wd":"39.915119","zdh":"01","sfd":"JNK","mdd":"WFK 4. 验证结果1. 在打开了Consumer的窗⼝中我们可以看到刚才⽣产的数据2. 向ElasticSearch查询,在浏览器中输⼊以下链接,可以看到数据已经插⼊了http://10.110.5.81:9200/trace/_search?pretty四、其他1. 可使⽤jps查看相关后台进程2. 可使⽤以下命令来监听端⼝,查看相关程序是否运⾏netstat -natplnetstat -tupln|grep 90923. 删除ES的索引curl -XDELETE http://localhost:9200/trace4. Confluent Control Center(9021)CLI5. Kafka Connector REST API(8083)6. Kafka Rest Proxy(8082)./bin/kafka-rest-start -daemon etc/kafka-rest/kafka-rest.properties7. 查看所有主题./bin/kafka-topics \--list \--zookeeper 10.110.5.83:21818. 删除某⼀主题,见:1. 标记要删除的主题./bin/kafka-topics \--topic trace \--delete \--zookeeper 10.110.5.83:21812. 修改配置⽂件,使删除功能可⽤vi etc/kafka/server.propertiesdelete.topic.enable=true3. 在上⾯打开的配置⽂件中找到数据⽬录“log.dirs=/tmp/kafka-logs”,然后进⼊cd /tmp/kafka-logsrm -rf trace4. 停⽌Kafka1. 推荐./bin/kafka-server-stop2. 强制jpskill -9 *****5. 重启Kafka./bin/kafka-server-start etc/kafka/server.properties6. 确认是否已删除./bin/kafka-topics \--list \--zookeeper 10.110.5.83:21817. 可能需要重启Zookeeper8. 之后删除不需要重启和⼿动删除⽂件,只需调⽤步骤8.1。

LoadRunner Professional 软件安装指南说明书

LoadRunner Professional 软件安装指南说明书

安装指南转到联机帮助中心https:///lr/LoadRunner Professional软件版本:2023文档发布日期: 2023四月向我们发送反馈请告知我们如何改善安装指南的用户体验。

将电子邮件发送至:**********************法律声明©版权所有1994-2023Micro Focus或其附属公司之一。

担保Micro Focus及其附属公司和许可方(“Micro Focus”)的产品和服务的唯一担保已在此类产品和服务随附的明示担保声明中提出。

此处的任何内容均不构成额外担保。

Micro Focus不会为此处出现的技术或编辑错误或遗漏承担任何责任。

此处所含信息如有更改,恕不另行通知。

受限权限声明包含机密信息。

除非另有特别说明,否则必须具备有效许可证方可拥有、使用或复制。

按照FAR12.211和12.212,并根据供应商的标准商业许可的规定,商业计算机软件、计算机软件文档与商品技术数据授权给美国政府使用。

免责声明此处可访问的某些版本的软件和/或文档(以下称为“资料”)可能包含Hewlett-Packard Company(现为HP Inc.)和Hewlett Packard Enterprise Company的品牌。

从2017年9月1日起,该材料现在由Micro Focus(一家具有独立所有权和经营权的公司)提供。

对HP和Hewlett Packard Enterprise/HPE标志的任何引用都是历史性的,HP和Hewlett Packard Enterprise/HPE标志是其各自所有者的财产。

目录欢迎使用LoadRunner Professional5 LoadRunner帮助中心5 LoadRunner Professional组件5系统要求和先决条件7系统要求7在Windows上安装必备软件7由安装程序自动检测和安装7手动安装Windows更新8安装注意事项和限制8在Windows上安装LoadRunner Professional11安装工作流11升级LoadRunner Professional14在Windows上安装LoadRunner Professional14安装向导信息14运行安装15静默安装LoadRunner Professional18安装命令行选项21通过包装文件安装完整的LoadRunner Professional程序包21通过PFTW文件安装独立应用程序或其他组件23在Windows上部署Docker化Load Generator24先决条件25使用预定义映像运行通过Docker设置的Load Generator25使用自定义映像运行Docker化Load Generator26 Dockerfile的自定义内容示例27运行Load Generator容器后28提示和准则29配置用户登录设置29安装LoadRunner语言包30在Linux上安装Load Generator31安装工作流31通过安装向导在Linux上安装Load Generator33开始之前34运行安装向导34 Linux上的Load Generator静默安装35在Linux上部署Docker化Load Generator36先决条件36使用预定义映像运行通过Docker设置的Load Generator37使用自定义映像运行Docker化Load Generator38运行Load Generator容器后40提示和准则40配置Linux环境41设置环境变量41验证Linux安装42运行verify_generator43检查Controller连接44改善Load Generator性能45增加文件描述符46增加进程条目数47增加交换空间47从Linux计算机上卸载Load Generator48卸载Load Generator12.55或更低版本48卸载Load Generator12.56或更高版本49 Load Generator Linux安装疑难解答49安装LoadRunner Data Hub56安装工作流56使用安装向导安装Data Hub57开始之前57运行安装向导57静默Data Hub安装58运行静默安装58静默安装选项60验证Data Hub安装60安装Data Hub Web Connector61安装工作流61使用安装向导安装Web Connector62开始之前62运行安装向导62静默Web Connector安装63运行静默安装63静默安装选项65验证Web Connector安装65欢迎使用LoadRunner Professional欢迎阅读《LoadRunner Professional安装指南》。

[原创]Dapr入门教程之二:Dapr的安装

[原创]Dapr入门教程之二:Dapr的安装

[原创]Dapr入门教程之二:Dapr的安装安装Dapr的CLI在安装Dapr runtime之前需要先安装Dapr的CLI。

有两个原因,第一,如果你以后不是用Helm来安装Dapr的话,需要用Dapr CLI 来执行dapr init。

第二,即使你不用Dapr CLI,而是用Helm来安装,以后查看Dapr系统状态的时候还是要用到Dapr CLI,比如查看Runtime的状态(dapr status -k),查看Components状态(dapr components -k),查看Configurations状态(dapr configurations -k),甚至启动Dashboard的时候还是要执行(dapr dashboard -k)。

你可以在很多OS上安装Dapr CLI,比如Windows,Linux,Mac OS,我用的是Windows10系统,可以选择在Windows上直接装,也可以在WSL(Windows Subsystem for Linux)上装,这里选择在WSL上安装(没有WSL的话在windows商店里选一个免费的Linux装上。

我选的是Ubuntu)。

参考官方文档How-To: Install Dapr CLI,在Ubuntu里执行:$ wget -q /dapr/cli/master/install/install.sh -O - | /bin/bashYour system is linux_amd64Installing Dapr CLI...Getting the latest Dapr CLI...Installing v0.11.0 Dapr CLI...Downloading https:///dapr/cli/releases/downloa d/v0.11.0/dapr_linux_amd64.tar.gz ...[sudo] password for ubuntu:dapr installed into /usr/local/bin successfully.CLI version: 0.11.0Runtime version: n/aTo get started with Dapr, please visit /getting-started/安装完成。

JBoss7使用入门(一)

JBoss7使用入门(一)

JBoss7使用入门(一)两种模式对应的配置文件Standalone 管理方式配置∙standalone.xml (default)Java Enterprise Edition 6全功能配置包括OSGi∙standalone-ha.xmlJava Enterprise Edition 6 全功能配置加高性能配置∙standalone-osgi-only.xml仅OSGi standalone服务,不含JEE6 功能∙standalone-xts.xmlStandalone JEE6全功能配置加对transactional web services支持Domain管理方式配置∙domain.xml (default)Java Enterprise Edition 6全功能配置包括OSGi∙domain-osgi-only.xml仅OSGi standalone服务,不含JEE6 功能特别注意的是domain和standalone模式决定了各自的管理方式。

设置OS环境变量JAVA_HOMEJBOSS_HOME启动JBoss Application Server 7以"standalone" 方式启动, 命令行切换到目录$JBOSS_HOME/bin. Windows: standalone.batUnix: ./standalone.sh以domain管理方式启动命令为Windows: domain.batUnix: ./domain.sh启动带有特殊配置的JBoss Application Server 7如果你需要启动时带有特殊配置,可以使用下面命令加载配置,如需加载standalone-ha.xml 时,可使用:Windows: standalone.bat --server-config=standalone-ha.xmlUnix:./standalone.sh --server-config=standalone-ha.xml另外你可以通过添加修改或删除某子系统来定制你自己的配置。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Stand Alone 模式
外部的控制信号连接到传动。

主机通过光纤串行通讯链来控制从机。

注意: 对于起重机应用要求在主/从机上都使用脉冲编码器和RTAC-01 (或NTAC-02)。

参见ACC80099/204
ABB变频器(起重)编程
首先设定启动数据参数:(99参数组)
99.1设定英语
99.2 设定应用宏主/从机都设定M/F CTRL
99.3 设定No
99.4 设定DTC
99.5 设定电机额定电压
99.6 设定电机额定电流
99.7 设定电机额定频率(50Hz)
99.8 设定电机额定转速
99.9 设定电机额定功率
99.10 多种现场场合选用“REDUCED”(简化辨识运行),是因为电机不能与被驱动设备分离。

如果需要,就采用“STANDARD”(标准辨识运行)。

按“运行”键进行辨识运行。

选用“Stand alone”操作模式
参数组64:
64.01 设定STAND ALONE SEL True
64.10(设定“CONTROL TYPE”)设定“STEP RADIO”
设定多功能输入端子:
10.01设定为“INTERNAL ACK”
10.05 设定为“DI1”
64.13 设定为10%(5Hz)
10.08 设定为“DI5”
64.14 设定为40%(20Hz)
10.09 设定为“DI6”
64.15 设定为70%(35Hz)
10.10 设定为“DI IL”
64.16 设定为100%(50Hz)
10.16 设定为“DI2”
10.02;`0.03; 10.04;10.06; 10.07; 10.11; 10.12; 10.13; 10.14;10.15; 10.17; 10.18设定为“NOT SEL”
设定多功能输出端子:
参数组14:
14.01 设定为“BRAKE LIFT”(默认)
14.03 设定为“FAULT-N”(默认)
设定极限值:
参数组20:
20.01:运行范围的最小速度。

设定为负值电机额定转速
20.02:运行范围的最大速度。

设定为正值电机额定转速
说明:参数20.01、20.02涉及主/从控制,最后设定应于主/从控制设定为准. 20.03:最大输出电流。

设定为电机额定电流
20.04:最大正输出转矩设定为正值200%(默认)
20.05:最大负输出转矩设定为负值200%(默认)
20.06:直流过压控制器设定为“OFF”
20.07:直流欠压控制器设定为“ON”
20.11:最大的电动输出功率设定为125%
20.12:最大的再生输出功率设定为60-80%
设转矩控制定启动/停车参数:
21.02预励磁时间电机的额定功率值(kW)乘以7=ms
设定转矩控制参数
参数组24:
24.01:给定从0到额定转矩的时间设定为0.5s
24.02: 给定从额定转矩到0的时间设定为2s
设定制动斩波器参数:
参数组27:
27.01:制动斩波器控制设定为:“ON”
27.02:制动电阻过载保护功能设定为:“FAULT”
27.03:制动电阻电阻值设定制动电阻实际电阻值
27.04:制动电阻时间常数工使用默认值
27.05:最大连续制动功率设定制动电阻实际功率值
27.06:制动斩波器控制模式设定为“AS GENERATOR”
设定故障功能参数:
参数组30:
30.07:电机电流最大极限设定为“110%”
30.10:电机缺相情况时的动作设定为“FAULT”
30.11:接地故障情况时的动作设定为“FAULT”
设定脉冲编码器参数:
参数组50:
98.01:脉冲编码器模块选择设定为RTAC-SLOT1
50.01:编码器每转的脉冲数设定编码器每转实际的脉冲数50.02:编码器脉冲的计算方法设定为“A_-_ B_-_”
50.03:设定为“WARNING”
50.04:使用默认值
50.05:是否使用速度反馈设定为“True”
设定本地运行参数:
参数组60:
60.01`:LOC OPER INH 设定为“False”
设定速度监视参数:
参数组61:电机超速值设定为“120%”
设定逻辑处理器参数:
参数组65:
65.01:电机停止后电机磁场仍保持为“ON”设定为“True”65.02: 电机停止后电机磁场保持“ON”的时间设定为“3s”
设定机械制动控制参数:
参数组67:
67.01: 制动施加时间设定为“0.6s”
67.06: 相对零速值设定为“2%”
67.07: 零速时间设定为100Ms
67.09: 启动转矩选择器设定为“AUTO TQ MEM”
67.10: 启动转矩给定设定为“100%”
设定给定处理器参数:
参数组69:
69.01: 最大速度设定电机铭牌上的电机转速
69.02:正向加速时间设定为“3S”
69.03:反向加速时间设定为“2S”
69.04:: 正向减速时间设定为“2S”
69.05: 反向减速时间设定为“2S”
设定主/从控制参数:
99.02:Application Macro (主机)(主/从设定)主机设定为“M/F CTRL”
99.02:Application Macro (从机)(主/从设定)从机设定为“M/F CTRL”
99.04: 电机控制模式选择(主机)(主/从设定)主机设定为“DTC”
99.04: 电机控制模式选择(从机)(主/从设定)从机设定为“DTC”
20.01:运行范围的最小速度
20.02:运行范围的最大速度(主机)(主/从设定)按主机电机的铭牌转速设定
:20.01:运行范围的最小速度
20.02:运行范围的最大速度(从机)(主/从设定)按主机电机的铭牌转速高5%设定
64.01:Stand Alone选择(主机)(主/从设定)主机设定为“False”
64.01:Stand Alone选择(从机)(主/从设定)从机设定为“False”
67.03Brake Int Ackn (主/从设定)从机设定为“True”(无法照此设定)
67.03说明:在ACC800程序中有这样一句话:“在ACC sw 7.0 的软件版本中“BRAKE INT ACKN”已删去。

代之以参数10.1 BRAKE ACKN SEL = INTERNAL ACKN。

”为此,已在前参数10.01 BRAKE ACKN SEL 已设定为“INTERNAL ACKN”
69.01:最大速度(主机)(主/从设定)按主机电机的铭牌转速设定
69.01:最大速度(从机)(主/从设定)按主机电机的铭牌转速高5%设定
因是用Field Bus总线联接主/从控制,应对通讯参数进行社置.
98.02设定为“FIELDBUS”
参数组72:
72.01: 主/从模式选择(主/从设定)主机设定为“MASTER”
72.01: 主/从模选择(主/从设定)从机设定为“FOLLOWER”
72.02:转矩选择器设置(主/从设定)从机设定为“TORQUE”
说明:在调试过程中先将从机参数72.02:(转矩选择器设置) 设定为“Speed”速度控制模式, 观察主机和从机运行是否正确(通过电机和控制盘的显示) 传动能收到发送给主机的启动/停止信号。

主机能跟随速度给定值。

从机能跟随主机的速度给定值。

正常后将从机控制模式改回到转矩控制模式(参数72.2 = Torque)。

72.03负载分配主机设定为“100%”
从机设定为“100%”
设定可选模块参数:
参数组98:
98.01:脉冲编码器模块选择设定为“RTAC-SLOT1”98.02:通讯模块选择设定为“FIELDBUS”98.04:通道0 节点地址设定为“1”。

相关文档
最新文档