lammps解读命令系列

lammps解读命令系列
lammps解读命令系列

解读命令系列【1】【fix nve/limit command】

这个命令是设置初始状态常用命令,经典命令格式【fix 1 all nve/limit 0.1】,我们一般直接用即可【LJ单位下】,注意此命令只能模拟开始使用,真正需要记录模拟信息时不能用。

命令语法

[b]Syntax:[/b]

fix ID group-ID nve/limit xmax [list][*]ID, group-ID are documented in

[color=#0000ff]fix[/color] command[*]nve = style name of this fix

command[*]xmax = maximum distance an atom can move in one timestep

(distance units)[/list]

[b]Description:[/b]

Perform constant NVE updates of position and velocity for atoms in the

group each timestep. A limit is imposed on the maximum distance an

atom can move in one timestep. [color=red]This is useful when starting

a simulation with a configuration containing highly overlapped atoms.[/

color] Normally this would generate huge forces which would blow atoms

out of the simulation box, causing LAMMPS to stop with an error. 【这段话

告诉我们这个命令是干什么的】

Using this fix can overcome that problem. Forces on atoms must still

be computable (which typically means 2 atoms must have a separation

distance > 0.0). But large velocities generated by large forces are

reset to a value that corresponds to a displacement of length [i]xmax[/

i] in a single timestep.【通过你设定的距离计算速度,并用来标度】

[i]Xmax[/i] is specified in distance units; see the [color=#0000ff]

units[/color] command for details. [color=red]The value of [i]xmax[/i]

should be consistent with the neighbor skin distance and the frequency

of neighbor list re-building, so that pairwise interactions are not

missed on successive timesteps as atoms move.[/color] See the

[color=#800080]neighbor[/color] and [color=#800080]neigh_modify[/

color] commands for details.

【如何设定最大限定的距离呢,这句话告诉我们,设置距离要和你的neighbor list的设置有可比性,不能比bin大太多了,个人认为小没有关系,LJ单位下我们设bin一般是0.3】

Note that if a velocity reset occurs the integrator will not conserve

energy. On steps where no velocity resets occur, this integrator is

exactly like the [color=#0000ff]fix nve[/color] command. Since forces

are unaltered, pressures computed by thermodynamic output will still

be very large for overlapped configurations. 【这句告诉我们不要担心出现的异常现象,也警告我们真正模拟时最好不要用】

系统是通过设定的xlimit和时间步长先计算速度的做大限制【限制速度】,然后计算体系原子的

速度,如果这个速度大于【限制速度】,那么就对速度进行标度,最后再计算移动位移。主要代

码如下

===========================================

[color=blue]vlimitsq = (xlimit/dtv) * (xlimit/

dtv); 【计算速度限制】[/color]

----------------------------

vsq = v[i][0]*v[i][0] + v[i][1]*v[i][1] + v[i][2]*v[i][2];【实际速度】

----------------------------

if (vsq > vlimitsq) { 【比较,满足条件就标度】

ncount++;

[color=blue]scale = sqrt(vlimitsq/vsq);[/color]

v[i][0] *= scale;

v[i][1] *= scale;

v[i][2] *= scale;

}

----------------------------

x[i][0] += dtv * v[i][0]; 【计算位移】

x[i][1] += dtv * v[i][1];

x[i][2] += dtv * v[i][2];

===========================================

解读命令系列【2】【velocity command 】【提醒:命令使用时一定一定要注意他们的默认设置,否则错了你都找不到北】

velocity command 是一个常用的命令,除非你再read.data中已经把系统原子的速度都设定好

了【用其他软件产生的原子,这个也太强了吧】。

--------------------------------------------------------------------------------------------------------------------Syntax: 【语法】

velocity group-ID style args keyword value ...

* group-ID = 【你想设定谁的速度啊,我来控制,呵呵】

* style = create or set or scale or ramp or zero 【设定方法任你选】

* create args = temp seed 【随机产生指定温度的速度】

* temp = temperature value (temperature units)

* seed = random # seed (positive integer) set args = vx vy vz 【我就想把这个group的速

度给搞成这个值,其他的我不喜欢】

* vx,vy,vz = velocity value or NULL (velocity units)

* scale arg = temp 【标度】

* temp = temperature value (temperature units)

* ramp args = vdim vlo vhi dim clo chi 【俺想产生速度梯度】 vdim = vx orvy or

vz vlo,vhi = lower and upper velocity value (velocity

units) dim = x or y or z clo,chi = lower and upper coordinate

bound (distance units)

* zero arg = linear or angular 【等候谈谈吧】

* linear = zero the linear momentum angular = zero the angular

momentum

* zero or more keyword/value pairs may be appended

* keyword = dist or sum or mom or rot or temp or loop or units 【小妾太多了】

* dist value = uniform or gaussian sum value = no or yes mom

value = no or yes rot value = no or yes temp value = temperature

ID loop value = all or local or geom units value = box or lattice

*

-----------------------------------------------------------------------------------

velocity 续

例子:...

描述:这个命令可以用来以某种style设定或改变指定的那个group的速度的。对于某一类型,他有对应的arguments 和可选的keyword/value参数,并不是所有的选项都被某一类型使用。

每个选项有如下的默认参数:

create 类型:为group中的原子用随机的方法产生一个满足指定温度的速度系综【均匀,高斯分布】

set 类型:这个类型用于给group中的所有原子赋予一个特定值的速度,如果某一项【component】设为NULL,那么这项速度就不改变了,即不受set的影响。

scale类型:顾名思意吧,就是先计算当前的此group原子的温度,然后再标度速度到指定的温度。

ramp 类型:这个类型和compte temp/ramp命令类似。从vlo->vhi的均匀速度梯度用于vx,vy,vz 维度.意思是三个方向都可以加使用,这个可是三维图像啊,vx 方向的速度,在y方向也可以有梯度的,看你怎么加了【velocity flow ramp latticevx 0.0 5.0 y 5 25 temp mytemp】

zero style 把(线)动量和角动量置为0

此命令所给定的温度都是对应的温度单位【系统自己计算的,无需你管】,速度和坐标单位依赖于你给定的了,命令中用keyword units来设定是box 或lattice,

注意,2D系统没有z方向的速度,所有,2D系统都是XY系统,不要搞成XZ/YZ系统了,呵

keyword = dist or sum or mom or rot or temp or loop or units dist value = uniform or

gaussian sum value = no or yes mom value =no or yes rot value = no or yes temp value = temperature ID loopvalue = all or local or geom units value = box or lattice 这些很少用到,,一般除了units外其他默认就可以了记住这些默认,出错时想想默认和自己的系统相适应么

The option defaults are dist = uniform, sum = no, mom = yes, rot = no,

temp = full style on group-ID, loop = all, and units = lattice.

keyword只是这个命令语法的一部分,是个虚的参量,意思就是说,语法中实际没有keyword

这个词,这个词只是代指一类设置,你可以发现很多语法描述中都有这个keyword,主要功能呢就是辅助前面的诸多参数丰富该命令的设置

有些命令中给定的数值,单位系统除了你在units中指定的(对应),还有就是lattice

举个region命令的例子吧,如果你写region block 0.0 3.0 ……,那么这个命令,如果后面有units box(这个units只是一个keyword,而不是你的units命令)。那么这个region在x方向的维

度就是从0.0 到 3.0 埃(如果你的单位系统是units metal 或real的),但是如果region命令后面的units lattice的话(默认就是这个),那么该region在x方向的维度就是从0.0 到

3.0*lattice_constant ,这个lattice_constant 是你在lattice命令定义的大小

所以,看出,这个keyword控制的参数对于结果有很大的影响,有时候经常会忽视这一点,一定要记住,该keyword的默认值是units

lattice

说的很绕口,可能不是太清楚,欢迎继续讨论

解读命令系列【3】【 fix ave/spatial command】

fix ave/spatial command 是做非平衡问题常用的命令,他可以把模拟盒子切成N片,在每一片中提取信息,这对空间不均匀系统来说,是一个很有帮助的命令。一下个人翻译或注释,可能有不妥的地方,大家一起讨论fix ave/spatial command 命令的语法格式如下:

Syntax:

fix ID group-ID ave/spatial Nevery Nrepeat Nfreq dim origin delta

value1 value2 ... keyword args ...

* ID, group-ID are documented in fix command 【指定fix ID,和贡献提取信息的那个group】* ave/spatial = style name of this fix command 【声明使用这个命令】

* 【一下三项用于设定如何输出信息,怎样取点,取多少点,多少步输出】

* Nevery = calculate property every this many timesteps 【对某次输出信息起贡献的时间步有哪些呢,这个由Nevery,Nrepeat设定,一个例子可以理解如何设置这三个N...】* Nrepeat = # of times to repeat the Nevery calculation before averaging 【例子:Nevery=2, Nrepeat=6, and Nfreq=100,意思是没100步输出一次信息,这次信息有6个抽样组成,如何抽的样呢,每2个间隔抽一次,抽样实际上是分别取的90,92,94,96,98,100这6个时间步的信息】

* Nfreq = timestep frequency at which the average value is computed 【每隔多少时间步输出一次所要信息】

* dim = x or y or z 【一下三项用于划分空间,我们只有设好dim,delta就可以了】【dim 设定延那个方向分割空间】

* origin = lower or center or upper or coordinate value (distance

units) 【定义你的相对坐标原点,空间对称的一般选center就可以了】

* delta = thickness of spatial layers in dim (distance units) 【层厚度】

【如果你的z方向60,dim=z,delta=3,那么系统会给你分60/3=20个层分别计算信息】* 【一下用于设定你所想提取的信息,很容易明白】

* one or more values can be listed

* value = x, y, z, vx, vy, vz, fx, fy, fz, density/mass, density/

number, c_ID, c_ID[N], f_ID, f_ID[N], v_name x,y,z,vx,vy,vz,fx,fy,fz

= atom attribute (velocity, force component) density/number, density/

mass = number or mass density c_ID = per-atom scalar value calculated

by a compute with ID c_ID[N] = Nth component of per-atom vector

calculated by a compute with ID f_ID = per-atom scalar value

calculated by a fix with ID f_ID[N] = Nth component of per-atom

vector calculated by a fix with ID v_name = per-atom value calculated

by an atom-style variable with name

【一下设定单位,文件名等】

* zero or more keyword/arg pairs may be appended

* keyword = norm or units or file or ave

* units arg = box or lattice or reduced

* 【box 常用的,它和你设置的单位相同,比如LJ,real,lattice在脚本中有Lattice命令时可选,reduced一般用于非正交模拟盒子,把空间归一化】* norm arg = all or sample 【每次统计输出数据时的平均方法,这个可能是几次抽样数值相差很大时考虑选择的,防止大小数效应】* file arg = filename filename = file to write results to【输出文件名,推荐使用】* ave args = one or running or window M 【输出时间步间数据的平均方法,视自己的情况选择】

* one = output new average value every Nfreq steps

* running = output cumulative average of all previous Nfreq steps

* window M = output average of M most recent Nfreq steps

经典例子:fix vprofile system ave/spatial 50 200 10000 z 0.0 2.0 vx

units box ave running file vel.profile

其实关键是要确定那些信息需要输出,位置,速度,力,密度,计算的设定的单个或全局量等等,对于如何输出,怎样的格式输出,找个例子一看就明白。此命令功能很有限,但自己可以写compute代码,加入这个命令,这样可以增加灵活性,呵呵,一起研究吧

解读命令系列【4】【fix langevin command 】

首先谈谈Langevin thermostat,使用此命令前建议学习一下这方面的理论知识

Langevin thermostat的使用是因为研究体系的研究对象的时间尺度远长远溶液分子运动的时间尺度,这时候溶液分子对研究对象的影响可以认为是随机碰撞,从而研究对象认为是在做布朗运动在Langevin thermostat中,体系粒子会受到随机力和粘滞力的作用,随机力和粘滞力之间通过涨落耗散定理进行约束,从而保证模拟体系是NVT统计系综热浴的运动方程就是Langevin equation

mass*(d^2)r/dt^2 = F_c - mass *(friction coefficient)*dr/dt +F_r

fluctuation dissipation theorem:

=6*delt_ij*delt(t-t')*K_b*T*mass *(friction coefficient)

Langevin thermostat的优点是时间步长比较长【步长可取0.01个时间单位】,研究长链的bead spring模型的问题是首先选择

但是此热浴破坏momentum transfer,所以不能用来考察diffusion coefficients,虽然文献上也有用此热浴计算的。

在我们粗粒化模拟中,我们通常选择mass,LJ势的epsion sigma为质量,能量,长度单位,所以时间单位【也就是下文中的damp因子】可以用公式sqrt(mass*sigma^2/epsion)计算。Friction coefficient一般选择为时间单位的倒数

下面谈谈fix langevin command命令

Syntax:

fix ID group-ID langevin Tstart Tstop damp seed keyword values ...

ID, group-ID are documented in fix command

langevin = style name of this fix command

Tstart,Tstop = desired temperature at start/end of run (temperature

units)【也就是所谓的模拟退火方法】

damp = damping parameter (time units) 【用于设置摩擦系数friction coefficient】

seed = random 【随机数种子,必须是正整数】

zero or more keyword/value pairs may be appended

keyword = scale

scale values = type ratio【对于体系有不同质量或大小的原子,要分别设置才符合物理要求】type = atom type (1-N)

ratio = factor by which to scale the damping coefficient

-----------------------------------------------------------------------------

【此区域是07.10版的与上不同的地方,建议把此版的fix命令放在userstyle中继续使用】keyword = axes or scale or region

axes values = xflag yflag zflag 【可以在某一个方向上加热浴,对于1,2维模拟可以节省时间】

xflag,yflag,zflag = 0/1 to exclude/include a dimension in the

thermostat

region values = region-ID

region-ID = ID of region to apply thermostat to 【特定的区部原子加热浴】

---------------------------------------------------------------------------

记住,fix langevin command必须和fix nve结合使用,而不能于其他的控温命令比如fix nvt,fix temp/

rescale 结合,切忌。

解读命令系列【5】【fix setforce命令使用禁忌】

fix setforce是把所有计算所得的力【注意是计算力以后】置为0,来实现其功能的

fix nve nve/noforce 含有nve的更新位置和速度的命令可以和fix setforce一起使用【如果用fix langevin要放在fix setforce 前,因为langevin也更新力,更新完后setforce 置为0,否则,那个粘滞力和随机力要捣鬼的】,另外,setforce 的group不能再进行速度的标度【即不能使用temp/rescale or berendsen命令】

【下面是fix nve更新速度的代码】

=========================

v[0] += dtfm * f[0];

v[1] += dtfm * f[1];

v[2] += dtfm * f[2];

=========================

fix npt /nvt包含的group不能用fix setforce来保持速度不变,因为虽然setforce可以把力置为0,但是这两个命令速

度的更新还有个标度因子,速度仍然在变化。

【下面是fix nvt/npt更新速度的代码】

==========================

v[0] = v[0]*factor + dtfm*f[0];

v[1] = v[1]*factor + dtfm*f[1];

v[2] = v[2]*factor + dtfm*f[2];

==========================

所有,如果你同时使用nvt/npt 和setforce来控制一个group的话,结果就错了。

如何能保证我们想要的那个group速度不变呢?如果是用微正则系统的话,fix nve fix setforce 这个group就可以了.如果用fix nvt/npt那就不能用fix setforce来出来这个group,而只能用fix nve/noforce和fix nvt/npt的组合【nve/noforce 这个group,nvt/npt其他的group】

下面详细说明:【偶调试过的,哈哈,有说服力】

1.不需要nvt/npt的系统

fix nve 【包括nve/limit nve/sphere 】与控温控压命令的组合

【press/berendsen temp/berendsen temp/rescale 】可以和fix setforce同时fix 一个group fix 1 all nve

fix 2 mobile temp/berendsen 300.0 300.0 100.0 【不能使用fix 2 all temp/

berendsen 300.0 300.0 100.0 】

fix 3 wall setforce 0.0 0.0 0.0

2.必须有nvt/npt/nph的系统

fix nvt/npt/nph【包括npt/asphere npt/sphere nvt/asphere nvt/sphere 】于上面的

控温控压命令组合【大多不能或不需要组合,除了nph外】,就不能于fix setforce再fix同一个

group了,要用nve或nve/

noforce辅助

fix 1 wall nve/noforce

fix 2 mobile nvt

fix 1 wall nve

fix 2 mobile nvt 【不能用fix 2 all nvt】

fix 3 wall setforce

两外所有组都需要至少用fix nve/nvt/npt中的一个,或多个这种更新位置的命令进行fix 一下不然,肯定出错【不信你试试能得到想要的结果不】

遇到这些命令组合时,提醒用一个小的简单程序大家先测试一下【fix print】看看程序是否按自己的想象执行,然后再进行计算

监视并记录Apache网站服务器的运行

监视并记录Apache网站服务器的运行 LogFormat 指令承诺你告诉Apache你想要记录要求的哪些方面。而你仍需附加的指令来告诉Apache在哪里记录那些信息,这在下一章中将会介绍。下面的例子显示了两种最受欢迎的格式的配置:一般日志格式和整合日志格式。当Apache收到一个要求,他将会用相应的要求属性来替代以%为前缀的每一个域。假如您正在使用一般日志格式,您的日志文件里 尽管有附件提供日志格式的详尽索引,下表描述了一些最为重要的域: # %h: 客户端(例如,扫瞄器)向服务器发出连接要求时自己的当时的IP地址或域名(需开启HostNameLookups)。 # %u: 使用方式认证用户时,记录下的用户的编号。 # %t: 服务器同意到连接要求的时刻。 # %r: 客户端发出的原始连接要求中的文本信息,包含所使用的方法。 # %>s: 服务器应答扫瞄器后的返回状态代码,200表示要求成功。. # %b: 服务器应答扫瞄器发出的单个要求的回传对象的内容大小(字节为单位),不统计数据包头部字节。 整合日志格式在一般日志格式的基础上扩展出了两个附加的域。定义为: # %{Referer}i: 连接要求数据包包头,包含指向当前页面的文档关联信息。 # %{User-agent}i: 用户代理连接要求数据包包头,包含客户扫瞄器的信息。 创建一个自定义日志文件 您可能会想创建Apache自带以外的新的日志文件。下面的例子将运用CustomLog来创建一个新的日志文件,并储存由一个之前定义好的日志格式,即前一章提到的common,所定义的信息。您还能够用格式本身的定义来替换昵称。一个附加的,更为简单的指令是Transferlog,它只同意最后一个LogFormat指令提供的定义。

(完整版)CAD最常用命令大全(实用版)

cad命令大全 L, *LINE 直线 ML, *MLINE 多线(创建多条平行线) PL, *PLINE 多段线 PE, *PEDIT 编辑多段线 SPL, *SPLINE 样条曲线 SPE, *SPLINEDIT 编辑样条曲线 XL, *XLINE 构造线(创建无限长的线) A, *ARC 圆弧 C, *CIRCLE 圆 DO, *DONUT 圆环 EL, *ELLIPSE 椭圆 PO, *POINT 点 DCE, *DIMCENTER 中心标记 POL, *POLYGON 正多边形 REC, *RECTANG 矩形 REG, *REGION 面域 H, *BHATCH 图案填充 BH, *BHATCH 图案填充 -H, *HATCH HE, *HATCHEDIT 图案填充...(修改一个图案或渐变填充)SO, *SOLID 二维填充(创建实体填充的三角形和四边形)*revcloud 修订云线 *ellipse 椭圆弧 DI, *DIST 距离 ME, *MEASURE 定距等分 DIV, *DIVIDE 定数等分

DT, *TEXT 单行文字 T, *MTEXT 多行文字 -T, *-MTEXT 多行文字(命令行输入) MT, *MTEXT 多行文字 ED, *DDEDIT 编辑文字、标注文字、属性定义和特征控制框ST, *STYLE 文字样式 B, *BLOCK 创建块... -B, *-BLOCK 创建块...(命令行输入) I, *INSERT 插入块 -I, *-INSERT 插入块(命令行输入) W, *WBLOCK “写块”对话框(将对象或块写入新图形文件)-W, *-WBLOCK 写块(命令行输入) -------------------------------------------------------------------------------- AR, *ARRAY 阵列 -AR, *-ARRAY 阵列(命令行输入) BR, *BREAK 打断 CHA, *CHAMFER 倒角 CO, *COPY 复制对象 CP, *COPY 复制对象 E, *ERASE 删除 EX, *EXTEND 延伸 F, *FILLET 圆角 M, *MOVE 移动 MI, *MIRROR 镜像 LEN, *LENGTHEN 拉长(修改对象的长度和圆弧的包含角)

hadoop基本命令_建表-删除-导数据

HADOOP表操作 1、hadoop简单说明 hadoop 数据库中的数据是以文件方式存存储。一个数据表即是一个数据文件。hadoop目前仅在LINUX 的环境下面运行。使用hadoop数据库的语法即hive语法。(可百度hive语法学习) 通过s_crt连接到主机。 使用SCRT连接到主机,输入hive命令,进行hadoop数据库操作。 2、使用hive 进行HADOOP数据库操作

3、hadoop数据库几个基本命令 show datebases; 查看数据库内容; 注意:hadoop用的hive语法用“;”结束,代表一个命令输入完成。 usezb_dim; show tables;

4、在hadoop数据库上面建表; a1: 了解hadoop的数据类型 int 整型; bigint 整型,与int 的区别是长度在于int; int,bigint 相当于oralce的number型,但是不带小数点。 doubble 相当于oracle的numbe型,可带小数点; string 相当于oralce的varchar2(),但是不用带长度; a2: 建表,由于hadoop的数据是以文件有形式存放,所以需要指定分隔符。 create table zb_dim.dim_bi_test_yu3(id bigint,test1 string,test2 string)

row format delimited fields terminated by '\t' stored as textfile; --这里指定'\t'为分隔符 a2.1 查看建表结构: describe A2.2 往表里面插入数据。 由于hadoop的数据是以文件存在,所以插入数据要先生成一个数据文件,然后使用SFTP将数据文件导入表中。

CASS常用命令大全

1.CASS屏幕菜单不见了? 答: 如果关掉了,打开CAD设置,显示屏幕菜单就可以了,如果最小化了,拉下来就行了 2.我在cass5.1中画的图怎么保存不了,会出对话框说: 写入/关闭文件时出错? 答: 选取有用的图纸内容,用cass5.1的窗口存盘或多边形存盘功能将图纸另存为另一文件。 3.CASS5.0中在图幅整饰中,为什么不能完全删除图框外实体? 答南方CASS在图纸分幅中,确实存在一些问题,特别是采用批量分幅,还存在分幅后缺这少那的问题。其中: 1、一部份是操作者的问题,在分幅时要求图纸全屏显示,关闭对象捕捉等; 2、一部份是软件平台AUTOCAD本身存在,如图幅边有不可分割的字体、块等; 3、还有是CASS软件存在的缺陷,特别是在CASS5.1以前的版本。实际上这个问题南方公司早就注意到了,在推出的最新版6.1中问题就较少。 建议楼主使用南方CASS新版。 4.如何从cass的界面切换到autocad的界面? 答: 在CASSxx,按下例选项操作既可: 文件-AUTOCAD系统配置-配置-UNNAMED PROFILE-置为当前-确定。

5.在cass软件上怎么才能显示点号呀 答: 数据文件上的点号有的话,通过展点就可以了 6.断面图文字不能修改,表格也没法修改,整个断面及表格、文字就像一个块,且不能打断。是什么原因? 答: 把编辑里的编组选择关闭即可 7.在CASS6.0中成图时为什么高程点位与数据不能分开,当数据压盖地物时不好只移位数据而点位不变?在CASS6.0的“编辑”中“图层控制”子菜单中为什么象“实体层→当前层”等好多菜单命令都是无效命令? 答: 在cass6.1中将“文件-cass6.1参数配置-地物绘制-展点注记”设为分置即可分开。 8.CASS6.0使用问题请问来自何方: CASS6.0制图时,高程注记和高程点(如: . 350)是否为一个块?不能对其进行编辑,如我想移动"350",而又不移动".",利用软件怎样操作才能做到? 答: 在绘图处理里有“打散高程注记”,用它将高程注记和点位打散就可以移动和编辑了。 9.为什么CASS5.1在改变当前比例尺时,问是否改变符号大小,选2不改变时,那些坎线,坟墓等地物还是会变大或变小呢?有时会很难看答:

PostgreSQL+Linux 从入门到精通培训文档 2命令

本章大纲 1. 如何访问命令行 2. 使用命令行下的工具 非编辑模式 进入编辑模式 3. 正则表达式、管道和I/O 重定向 4. 管理用户账户 5. 文件访问控制 6. 管理进程 1,如何访问命令行 1.1 本地命令行的访问 在图形界面中,访问命令行的方法:打开Terminal,Console。或者:Ctrl+Alt+F1 ~ F6 1.2 使用SSH 访问命令行 同上 2,使用命令行下的工具 2.1 使用硬链接

硬链接,指在同一个文件系统中,对inode的引用,只要文件上存在至少1个硬链接,就可以找到对应的inode。 [digoal@digoal01 ~]$ echo "abc" > ./a [digoal@digoal01 ~]$ stat a File: `a' Size: 4 Blocks: 8 IO Block: 4096 regular file Device: 803h/2051d Inode: 656374 Links: 1 -- 硬链接数量 Access: (0664/-rw-rw-r--) Uid: ( 500/ digoal) Gid: ( 500/ digoal) Access: 2017-04-11 13:18:14.292848716 +0800 Modify: 2017-04-11 13:18:14.292848716 +0800 Change: 2017-04-11 13:18:14.292848716 +0800 创建硬链接 [digoal@digoal01 ~]$ ln -L ./a ./b [digoal@digoal01 ~]$ stat a File: `a' Size: 4 Blocks: 8 IO Block: 4096 regular file Device: 803h/2051d Inode: 656374 Links: 2 Access: (0664/-rw-rw-r--) Uid: ( 500/ digoal) Gid: ( 500/ digoal) Access: 2017-04-11 13:18:14.292848716 +0800 Modify: 2017-04-11 13:18:14.292848716 +0800 Change: 2017-04-11 13:18:34.631855044 +0800 [digoal@digoal01 ~]$ stat b File: `b' Size: 4 Blocks: 8 IO Block: 4096 regular file Device: 803h/2051d Inode: 656374 Links: 2 Access: (0664/-rw-rw-r--) Uid: ( 500/ digoal) Gid: ( 500/ digoal) Access: 2017-04-11 13:18:14.292848716 +0800 Modify: 2017-04-11 13:18:14.292848716 +0800 Change: 2017-04-11 13:18:34.631855044 +0800 删除一个硬链接,还能通过其他硬链接找到对应的inode。 [digoal@digoal01 ~]$ rm a rm: remove regular file `a'? y [digoal@digoal01 ~]$ cat b abc 2.2 归档和解压 常用的归档命令tar 归档-c (常用压缩库-j bz2, -z gzip) [digoal@digoal01 ~]$ tar -jcvf test.tar.bz2 b

(完整word版)汇编语言常用指令大全,推荐文档

MOV指令为双操作数指令,两个操作数中必须有一个是寄存器. MOV DST , SRC // Byte / Word 执行操作: dst = src 1.目的数可以是通用寄存器, 存储单元和段寄存器(但不允许用CS段寄存器). 2.立即数不能直接送段寄存器 3.不允许在两个存储单元直接传送数据 4.不允许在两个段寄存器间直接传送信息 PUSH入栈指令及POP出栈指令: 堆栈操作是以“后进先出”的方式进行数据操作. PUSH SRC //Word 入栈的操作数除不允许用立即数外,可以为通用寄存器,段寄存器(全部)和存储器. 入栈时高位字节先入栈,低位字节后入栈. POP DST //Word 出栈操作数除不允许用立即数和CS段寄存器外, 可以为通用寄存器,段寄存器和存储器. 执行POP SS指令后,堆栈区在存储区的位置要改变. 执行POP SP 指令后,栈顶的位置要改变. XCHG(eXCHanG)交换指令: 将两操作数值交换. XCHG OPR1, OPR2 //Byte/Word 执行操作: Tmp=OPR1 OPR1=OPR2 OPR2=Tmp 1.必须有一个操作数是在寄存器中 2.不能与段寄存器交换数据 3.存储器与存储器之间不能交换数据. XLAT(TRANSLATE)换码指令: 把一种代码转换为另一种代码. XLAT (OPR 可选) //Byte 执行操作: AL=(BX+AL) 指令执行时只使用预先已存入BX中的表格首地址,执行后,AL中内容则是所要转换的代码. LEA(Load Effective Address) 有效地址传送寄存器指令 LEA REG , SRC //指令把源操作数SRC的有效地址送到指定的寄存器中. 执行操作: REG = EAsrc 注: SRC只能是各种寻址方式的存储器操作数,REG只能是16位寄存器 MOV BX , OFFSET OPER_ONE 等价于LEA BX , OPER_ONE MOV SP , [BX] //将BX间接寻址的相继的二个存储单元的内容送入SP中 LEA SP , [BX] //将BX的内容作为存储器有效地址送入SP中 LDS(Load DS with pointer)指针送寄存器和DS指令 LDS REG , SRC //常指定SI寄存器。 执行操作: REG=(SRC), DS=(SRC+2) //将SRC指出的前二个存储单元的内容送入指令中指定的寄存器中,后二个存储单元送入DS段寄存器中。

Hadoop 集群基本操作命令-王建雄-2016-08-22

Hadoop 集群基本操作命令 列出所有Hadoop Shell支持的命令 $ bin/hadoop fs -help (注:一般手动安装hadoop大数据平台,只需要创建一个用户即可,所有的操作命令就可以在这个用户下执行;现在是使用ambari安装的dadoop大数据平台,安装过程中会自动创建hadoop生态系统组件的用户,那么就可以到相应的用户下操作了,当然也可以在root用户下执行。下面的图就是执行的结果,只是hadoop shell 支持的所有命令,详细命令解说在下面,因为太多,我没有粘贴。) 显示关于某个命令的详细信息 $ bin/hadoop fs -help command-name (注:可能有些命令,不知道什么意思,那么可以通过上面的命令查看该命令的详细使用信息。例子: 这里我用的是hdfs用户。) 注:上面的两个命令就可以帮助查找所有的haodoop命令和该命令的详细使用资料。

创建一个名为 /daxiong 的目录 $ bin/hadoop dfs -mkdir /daxiong 查看名为 /daxiong/myfile.txt 的文件内容$ bin/hadoop dfs -cat /hadoop dfs -cat /user/haha/part-m-00000 上图看到的是我上传上去的一张表,我只截了一部分图。 注:hadoop fs <..> 命令等同于hadoop dfs <..> 命令(hdfs fs/dfs)显示Datanode列表 $ bin/hadoop dfsadmin -report

$ bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如: -report:报告HDFS的基本统计信息。 注:有些信息也可以在NameNode Web服务首页看到 运行HDFS文件系统检查工具(fsck tools) 用法:hadoop fsck [GENERIC_OPTIONS] [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]] 命令选项描述 检查的起始目录。 -move 移动受损文件到/lost+found -delete 删除受损文件。 -openforwrite 打印出写打开的文件。 -files 打印出正被检查的文件。 -blocks 打印出块信息报告。 -locations 打印出每个块的位置信息。 -racks 打印出data-node的网络拓扑结构。 打印版本信息 用法:hadoop version 运行集群平衡工具。管理员可以简单的按Ctrl-C来停止平衡过程(balancer)

PostgreSql 基础知识

PostgreSql 常见数据类型 1.CREATE TYPE命令增加新的数据类型 2.数据类型

3.数值类型 3. 整数类型 smallint, integer, bigint 类型存储各种范围的全部是数字的数,也就是没有小数部分的数字。试图存储超出范围以外的数值将导致一个错误。 常用的类型是 integer ,因为它提供了在范围、存储空间、性能之间的最佳平衡。一般只有在磁盘空间紧张的时候才使用 smallint 。而只有在 integer 的范围不够的时候才使用 bigint ,因为前者绝对快得多。 bigint 类型可能不是在所有平台上都运转正确,因为它依赖编译器对八字节整数的支持。在那些没有八字节整数支持的机器上,bigint 的作用和 integer 一样(但是仍然占据八字节存储)。不过,我们目前还没听说过有这样的平台。 SQL 只声明了整数类型 integer(或 int) 和 smallint 。类型 bigint 和类型别名 int2, int4, int8 都是扩展,并且也在许多其它 SQL 数据库系统中使用。 4.任意精度数值 numeric 类型可以存储最多 1000 位精度的数字并且准确地进行计算。特别建议将它用于货币金额和其它要求精确计算的场合。不过,numeric 类型上的算术运算比整数类型要慢很多。 术语:一个 numeric 类型的标度(scale)是小数部分的位数,精度(precision)是全部数据位的数目,也就是小数点两边的位数总和。因此数字 23.5141 的精度为 6 而标度为 4 。你可以认为整数的标度为零。 numeric 字段的最大精度和最大标度都是可以配置的。要声明一个字段的类型为 numeric ,你可以用下面的语法: NUMERIC(precision, scale) 精度必须为正数,标度可以为零或者正数。另外, NUMERIC(precision) 选择了标度为 0 。不带任何精度与标度的声明 NUMERIC 则创建一个可以存储一个直到实现精度上限的任意精度和标度的数值,一个这样类型的字段将不会把输

CAD常用命令大全

CAD常用命令大全 CAD 一、绘图工具栏中的绘图命令(英文名)及命令快捷键 1、直线(line) L 2、参照线又叫结构线(xline)XL: 1)平行。 2)垂直。 3)角度:反方向的角输入负值。 4)二等分(角的平分线):顶、角、角。 5)偏移:前题是必须先有一个参照线存在。 3、多线(mline)ML: 1、对正: 1)上:在光标下绘制多线。。 2)无(中):将光标作为原点绘制多线。 3)下:在光标上绘制多线。 4)比例:多线之间的全局宽度。 5)样式:系统外的样式。(需外挂) 4、多段线(pline)PL: 1)圆弧:将弧线段添加到多段线中。 2)闭合:在当前位置到多段线起点之间绘制一条直线段以闭合多线段。 3)半宽:指定宽多段线线段的中心到其一边的宽度。 4)取消:U。删除最近一次添加到多段线上的直线段 5)长度:以前一段线段相同的角度并按指定长度(也可用鼠标指定角度方向、长度)

绘制直线段。如果前一线段为圆弧,AutoCAD将绘制一条直线段与弧线段相切。 6)宽度:指定下一条直线段的宽度。 5、多边形(polygon)POL:(有3到1024条等长边的封闭多线段) 6、矩形(rectang)REC: 1)倒角: 2)圆角: 3)宽度:指定矩形线的宽度。 7、圆弧(arc)A:默认下有三种画法(共11种画法)常用的画法是:起点、端点、方向。 圆(circle)C:默认下有三种画法。 8、样条曲线(spline)SPL 9、椭圆(ellipse)EL: 1)中心点:通过指定的中心点来创建椭圆。 2)轴端点:通过指定两个端点来创建椭圆。 3)椭圆弧:先确定了椭圆,再根据此椭圆样式来编辑弧的大小。 10、插入块(insert)I: 1)输入块的名称。 2)选择路径: A:插入点 B:缩放比例 C:旋转 注:上面三项的可选择“在屏幕上指定”。在没有选择的情况下,插入时会按原来定

Hadoop命令大全

Hadoop命令大全 Hadoop配置: Hadoop配置文件core-site.xml应增加如下配置,否则可能重启后发生Hadoop 命名节点文件丢失问题: hadoop.tmp.dir /home/limingguang/hadoopdata 环境变量设置: 为了便于使用各种命令,可以在.bashrc文件中添加如下内容: export JAVA_HOME=/home/limingguang/jdk1.7.0_07 export HADOOP_HOME=/home/limingguang/hadoop-1.0.3 export HIVE_HOME=/home/limingguang/hive-0.9.0 export MAHOUT_HOME=/home/limingguang/mahout-distribution-0.7 export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$MAHOUT_HOME/bin: $PATH export HADOOP_HOME_WARN_SUPPRESS=1 具体目录请更改为安装目录,HADOOP_HOME_WARN_SUPPRESS变量为抑制HADOOP_HOME变量重复时的告警。 常用命令:

1、列出所有Hadoop Shell支持的命令 $ bin/hadoop fs -help 2、显示关于某个命令的详细信息 $ bin/hadoop fs -help command-name 3、用户可使用以下命令在指定路径下查看历史日志汇总 $ bin/hadoop job -history output-dir 这条命令会显示作业的细节信息,失败和终止的任务细节。 4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看 $ bin/hadoop job -history all output-dir 5、格式化一个新的分布式文件系统: $ bin/hadoop namenode -format 6、在分配的NameNode上,运行下面的命令启动HDFS: $ bin/start-dfs.sh bin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。 7、在分配的JobTracker上,运行下面的命令启动Map/Reduce: $ bin/start-mapred.sh bin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的slave上启动TaskTracker守护进程。 8、在分配的NameNode上,执行下面的命令停止HDFS: $ bin/stop-dfs.sh bin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。 9、在分配的JobTracker上,运行下面的命令停止Map/Reduce: $ bin/stop-mapred.sh bin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。 10、启动所有 $ bin/start-all.sh 11、关闭所有 $ bin/stop-all.sh DFSShell 10、创建一个名为 /foodir 的目录 $ bin/hadoop dfs -mkdir /foodir 11、创建一个名为 /foodir 的目录 $ bin/hadoop dfs -mkdir /foodir 12、查看名为 /foodir/myfile.txt 的文件内容 $ bin/hadoop dfs -cat /foodir/myfile.txt

odbc安装文档

Linux/Unix下ODBC的安装 方法一: 先下载最新的unixODBC源码包(https://www.360docs.net/doc/fb6862678.html,/unixODBC-2.2.1.tar.gz)放到/usr/local下,然后运行下述命令: 安装成功后,unixODBC所需的头文件都被安装到了/usr/inlucde下,编译好的库文件安装到了/usr/lib下,与unixODBC相关的可执行文件安装到了/usr/bin下,配置文件放到了/etc下。 方法二: 下载rpm包进行安装,我们这里以Red Hat 7.3为例: unixODBC-2.2.0-5 RPM for i386(安装包及源码包) (ftp://https://www.360docs.net/doc/fb6862678.html,/linux/redhat/7.3/en/os/i386/RedHat/RPMS/unixODBC-2 .2.0-5.i386.rpm、 ftp://https://www.360docs.net/doc/fb6862678.html,/linux/redhat/7.3/en/os/i386/SRPMS/unixODBC-2.2.0-5.src.rpm)unixODBC-devel-2.2.0-5 RPM for i386 (ftp://https://www.360docs.net/doc/fb6862678.html,/linux/redhat/7.3/en/os/i386/RedHat/RPMS/unixODBC-d evel-2.2.0-5.i386.rpm) 直接将unixODBC-2.2.0-5.i386.rpm和unixODBC-devel-2.2.0-5.i386.rpm装入系统就可以了,命令如下:

Linux/Unix下ODBC的配置 运行ODBCConfig程序(在/usr/bin下),如下图: 图一:ODBCConfig主窗口 和Windows下的ODBC设置窗口是不是很像?我想大家都能看懂吧。 第一步:安装数据库的ODBC驱动程序 Drivers这一栏中用来设置数据库的驱动程序,点击Add按钮,会出现下图:

CMD常用命令大全(最新整理)

说起cmd大家都很熟悉吧很有用哦这里我为大家接扫常见的命令 dos命令[只列出我们工作中可能要用到的] cd\ '返回到根目录 cd.. '返回到上一级目录 1、cd 显示当前目录名或改变当前目录。 2、dir 显示目录中的文件和子目录列表。 3、md 创建目录。 4、del 删除一或数个文件。 5、chkdsk 检查磁盘并显示状态报告。 6、cacls 显示或者修改文件的访问控制表(ACL) 7、copy 将一份或多份文件复制到另一个位置。 8、date 修改日期 9、format 格式化磁盘 10、type 显示文本文件的内容。 11、move 移动文件并重命名文件和目录。 12、expand 展开一个或多个压缩文件。 13、ren 重命名文件。 14、attrib 显示或更改文件属性。 15、time 显示或设置系统时间。 16、at at命令安排在特定日期和时间运行命令和程序。要使用AT 命令,计划服务必须已在运行中。 17、net [user],[time],[use] 多,自己去查 18、netstat 显示协议统计和当前tcp/ip连接 19、nbtstat 基于NBT(net bios over tcp/ip)的协议统计和当前tcp/ip连接 20、route 操作和查看网络路由表 21、ping 就不说了,大家都熟悉吧 22、nslookup 域名查找 23、edit 命令行下的文本编辑器 24、netsh强大的命令行下修改tcp/ip配置的工具 25、fdisk 相信现在用的人比较少了,不过在没有其他工具的情况,他还是有用的 更多: attrib 设置文件属性 ctty 改变控制设备 defrag 磁盘碎片整理 doskey 调用和建立DOS宏命令 debug 程序调试命令

(完整版)hadoop常见笔试题答案

Hadoop测试题 一.填空题,1分(41空),2分(42空)共125分 1.(每空1分) datanode 负责HDFS数据存储。 2.(每空1分)HDFS中的block默认保存 3 份。 3.(每空1分)ResourceManager 程序通常与NameNode 在一个节点启动。 4.(每空1分)hadoop运行的模式有:单机模式、伪分布模式、完全分布式。 5.(每空1分)Hadoop集群搭建中常用的4个配置文件为:core-site.xml 、hdfs-site.xml 、mapred-site.xml 、yarn-site.xml 。 6.(每空2分)HDFS将要存储的大文件进行分割,分割后存放在既定的存储块 中,并通过预先设定的优化处理,模式对存储的数据进行预处理,从而解决了大文件储存与计算的需求。 7.(每空2分)一个HDFS集群包括两大部分,即namenode 与datanode 。一般来说,一 个集群中会有一个namenode 和多个datanode 共同工作。 8.(每空2分) namenode 是集群的主服务器,主要是用于对HDFS中所有的文件及内容 数据进行维护,并不断读取记录集群中datanode 主机情况与工作状态,并通过读取与写入镜像日志文件的方式进行存储。 9.(每空2分) datanode 在HDFS集群中担任任务具体执行角色,是集群的工作节点。文 件被分成若干个相同大小的数据块,分别存储在若干个datanode 上,datanode 会定期向集群内namenode 发送自己的运行状态与存储内容,并根据namnode 发送的指令进行工作。 10.(每空2分) namenode 负责接受客户端发送过来的信息,然后将文件存储位置信息发 送给client ,由client 直接与datanode 进行联系,从而进行部分文件的运算与操作。 11.(每空1分) block 是HDFS的基本存储单元,默认大小是128M 。 12.(每空1分)HDFS还可以对已经存储的Block进行多副本备份,将每个Block至少复制到 3 个相互独立的硬件上,这样可以快速恢复损坏的数据。 13.(每空2分)当客户端的读取操作发生错误的时候,客户端会向namenode 报告错误,并 请求namenode 排除错误的datanode 后,重新根据距离排序,从而获得一个新的的读取路径。如果所有的datanode 都报告读取失败,那么整个任务就读取失败。14.(每空2分)对于写出操作过程中出现的问题,FSDataOutputStream 并不会立即关闭。 客户端向Namenode报告错误信息,并直接向提供备份的datanode 中写入数据。备份datanode 被升级为首选datanode ,并在其余2个datanode 中备份复制数据。 NameNode对错误的DataNode进行标记以便后续对其进行处理。 15.(每空1分)格式化HDFS系统的命令为:hdfs namenode –format 。 16.(每空1分)启动hdfs的shell脚本为:start-dfs.sh 。 17.(每空1分)启动yarn的shell脚本为:start-yarn.sh 。 18.(每空1分)停止hdfs的shell脚本为:stop-dfs.sh 。 19.(每空1分)hadoop创建多级目录(如:/a/b/c)的命令为:hadoop fs –mkdir –p /a/b/c 。 20.(每空1分)hadoop显示根目录命令为:hadoop fs –lsr 。 21.(每空1分)hadoop包含的四大模块分别是:Hadoop common 、HDFS 、

psql常用命令大全

psql常用命令大全 \d [ table ] 列出数据库中的表,或(如果声明了)表table 的列/字段.如果表名是用统配符(“*”)声明的,列出所有表和表的列/字段信息. \da 列出所有可用聚集. \dd object 列出pg_description 里对声明的对象的描述,对象可以是一个表,表中的列/字段,类型,操作符或聚集. 小技巧:并非所有对象在pg_description 里有描述.此后期命令在快速获取Postgres 内部特性时很有用. \df 列出函数. \di 只列出索引. \do 只列出操作符. \ds 只列出序列. \dS 列出系统表和索引. \dt 只列出非系统表. \dT 列出类型. \e [ filename ] 编辑当前查询缓冲或文件filename 的内容. \E [ filename ] 编辑当前查询缓冲或文件filename 的内容并且在编辑结束后执行之. \f [ separator ] 设置域分隔符.缺省是单个空白. \g [ { filename | |command } ] 将当前查询输入缓冲送给后端并且(可选的)将输出放到filename 或通过管道将输出送给一个分离的Unix shell 用以执行command. \h [ command ] 给出声明的SQL 命令的语法帮助.如果command 不是一个定义的SQL 命令(或在psql 里没有文档),或没有声明command ,这时psql将列出可获得帮助的所有命令的列表.如果命令command 是一个通配符(“*”),则给出所有SQL 命令的语法帮助. \H 切换HTML3 输出.等效于-H 命令行选项. \i filename 从文件filename 中读取查询到输入缓冲.

ADB 常用命令合集

ADB 常用命令合集 ADB (Android Debug Bridge) 说明:下面一些命令需要有root权限才能执行成功 快速启动dos窗口执行adb: 1. adb.exe所在路径添加到系统环境变量Path中 2. 配置快捷键启动dos 进入C:\WINDOWS\system32目录下,找到cmd.exe. 右击菜单 "发送到" -> 桌面快捷方式。 在桌面上右击"快捷方式到 cmd.exe" -> "属性" -> "快捷方式"页 -> 光标高亮"快捷键" -> 按下自定义快捷键 (如:Ctrl + Alt + Z) 任何情况下,按下Ctrl + Alt + Z启动dos窗口就可以执行adb命令了 -----------查看设备连接状态系列----------- adb get-serialno 获取设备的ID和序列号serialNumber adb devices 查询当前计算机上连接那些设备(包括模拟器和手机),输出格式: [serialNumber] [state] adb get-state 查看模拟器/设施的当前状态. 说明: 序列号[serialNumber]——由adb创建的一个字符串,这个字符串通过自己的控制端口- 唯一地识别一个模拟器/设备实例。一个序列号的例子: emulator-5554 -----------发送命令到设备系列----------- adb [-d|-e|-s ] -d 发送命令给usb连接的设备 -e 发送命令到模拟器设备 -s 发送命令到指定设备 如启动手机设备shell: adb -d shell adb forward 发布端口,可以设置任意的端口号,

Hadoop最全面试题整理(附目录)

Hadoop面试题目及答案(附目录) 选择题 1.下面哪个程序负责HDFS 数据存储。 a)NameNode b)Jobtracker c)Datanode d)secondaryNameNode e)tasktracker 答案C datanode 2. HDfS 中的block 默认保存几份? a)3 份b)2 份c)1 份d)不确定 答案A 默认3 份 3.下列哪个程序通常与NameNode 在一个节点启动? a)SecondaryNameNode b)DataNode c)TaskTracker d)Jobtracker 答案D 分析:hadoop 的集群是基于master/slave 模式,namenode 和jobtracker 属于master,datanode 和tasktracker 属于slave,master 只有一个,而slave 有多个SecondaryNameNode 内存需求和NameNode 在一个数量级上,所以通常secondaryNameNode(运行在单独的物理机器上)和NameNode 运行在不同的机器上。 JobTracker 和TaskTracker JobTracker 对应于NameNode,TaskTracker 对应于DataNode,DataNode 和NameNode 是针对数据存放来而言的,JobTracker 和TaskTracker 是对于MapReduce 执行而言的。mapreduce 中几个主要概念,mapreduce 整体上可以分为这么几条执行线索:jobclient,JobTracker 与TaskTracker。 1、JobClient 会在用户端通过JobClient 类将应用已经配置参数打包成jar 文件存储到hdfs,并把路径提交到Jobtracker,然后由JobTracker 创建每一个Task(即MapTask 和ReduceTask)并将它们分发到各个TaskTracker 服务中去执行。 2、JobTracker 是一个master 服务,软件启动之后JobTracker 接收Job,负责调度Job 的每一个子任务task 运行于TaskTracker 上,并监控它们,如果发现有失败的task 就重新运行它。一般情况应该把JobTracker 部署在单独的机器上。 3、TaskTracker 是运行在多个节点上的slaver 服务。TaskTracker 主动与JobTracker 通信,接收作业,并负责直接执行每一个任务。TaskTracker 都需要运行在HDFS 的DataNode 上。 4. Hadoop 作者 a)Martin Fowler b)Kent Beck c)Doug cutting 答案C Doug cutting 5. HDFS 默认Block Size a)32MB b)64MB c)128MB 答案:B 6. 下列哪项通常是集群的最主要瓶颈 a)CPU b)网络c)磁盘IO d)内存 答案:C 磁盘 首先集群的目的是为了节省成本,用廉价的pc 机,取代小型机及大型机。小型机和大型机

GP 常用数据库命令

Greenplum 日常简明维护手册 1.数据库启动:gpstart 常用参数:-a : 直接启动,不提示终端用户输入确认 -m:只启动master 实例,主要在故障处理时使用 访问单个数据实例: PGOPTIONS='-c gp_session_role=utility' psql template1 -p 5432 启动某个segment instance :pg_ctl stop/start -D /datadir/ 取端口号: select * from gp_segment_configuration 启动以后会在/tmp/ 下生成一个.lock 隐藏文件,记录主进程号。

2.数据库停止:gpstop: 常用可选参数:-a:直接停止,不提示终端用户输入确认 -m:只停止master 实例,与gpstart –m 对应使用 -f:停止数据库,中断所有数据库连接,回滚正在运 行的事务 -u:不停止数据库,只加载pg_hba.conf 和postgresql.conf中 运行时参数,当改动参数配置时候使用。 连接数,重启 3.查看实例配置和状态 select * from gp_segment_configuration order by content ; select * from pg_filespace_entry ; 主要字段说明: Content:该字段相等的两个实例,是一对P(primary instance)和M(mirror Instance) Isprimary:实例是否作为primary instance 运行 Valid:实例是否有效,如处于false 状态,则说明该实例已经down 掉。 Port:实例运行的端口 Datadir:实例对应的数据目录 4.gpstate :显示Greenplum数据库运行状态,详细配置等信息 常用可选参数:-c:primary instance 和mirror instance 的对应关系 -m:只列出mirror 实例的状态和配置信息 -f:显示standby master 的详细信息 该命令默认列出数据库运行状态汇总信息,常用于日常巡检。 5.查看用户会话和提交的查询等信息 select * from pg_stat_activity该表能查看到当前数据库连接的IP 地址,用户

hadoop基本操作指令

Hadoop基本操作指令 假设Hadoop的安装目录HADOOP_HOME为/home/admin/hadoop,默认认为Hadoop环境已经由运维人员配置好直接可以使用 启动与关闭 启动Hadoop 1. 进入HADOOP_HOME目录。 2. 执行sh bin/start-all.sh 关闭Hadoop 1. 进入HADOOP_HOME目录。 2. 执行sh bin/stop-all.sh 文件操作 Hadoop使用的是HDFS,能够实现的功能和我们使用的磁盘系统类似。并且支持通配符,如*。 查看文件列表 查看hdfs中/user/admin/aaron目录下的文件。 1. 进入HADOOP_HOME目录。 2. 执行sh bin/hadoop fs -ls /user/admin/aaron 这样,我们就找到了hdfs中/user/admin/aaron目录下的文件了。 我们也可以列出hdfs中/user/admin/aaron目录下的所有文件(包括子目录下的文件)。 1. 进入HADOOP_HOME目录。 2. 执行sh bin/hadoop fs -lsr /user/admin/aaron 创建文件目录 查看hdfs中/user/admin/aaron目录下再新建一个叫做newDir的新目录。 1. 进入HADOOP_HOME目录。 2. 执行sh bin/hadoop fs -mkdir /user/admin/aaron/newDir 删除文件 删除hdfs中/user/admin/aaron目录下一个名叫needDelete的文件 1. 进入HADOOP_HOME目录。 2. 执行sh bin/hadoop fs -rm /user/admin/aaron/needDelete 删除hdfs中/user/admin/aaron目录以及该目录下的所有文件

相关文档
最新文档