ASSLOGAnalysisTool关联日志分析工具v1[1].00g版本使用指导书

ASSLOGAnalysisTool关联日志分析工具v1[1].00g版本使用指导书
ASSLOGAnalysisTool关联日志分析工具v1[1].00g版本使用指导书

ASSLOG Analysis Tool

1.00g版本指导书

共19页

(包括封面)

拟制 ASSLOG Analysis Tool维护支持团队

审核 ASSLOG Analysis Tool维护支持团队

修订记录

版本 日期 作者 修改记录

V0.6 2010/05/18 王瑞 新建

V0.7 2010/05/19 王丽 批量用户案例补充

V0.8 2010/05/19 李姝颖 单个用户案例补充

V1.0 2010/5/20 王瑞 批量小区和单个用户案例补充

胡陶然重塑文档结构和内容,增加排查邻V1.00g 2010/9/30

区漏配、扰码复用和小区半径不够

问题方法

付亮增加自动分析功能使用指导

V1.00g 2010/9/30

ASSLOG ANALYSIS TOOL (1)

1.00G版本指导书 (1)

修订记录 (2)

1、软件界面介绍 (4)

2、软件主要功能介绍 (4)

2.1标题栏 (4)

2.2功能栏 (4)

2.2.1 Option (4)

2.2.2 OpenFiles(s) (5)

2.2.3 Filter1 (5)

2.2.4 Filter2 (7)

2.2.5 Save (8)

2.2.6 ImeiList (10)

2.2.7 NasDecode (10)

2.3关联日志分析区 (12)

2.3.1功能1:对关联日志中异常原因进行统计 (12)

2.3.2功能2:分析每个异常流程的原因 (15)

2.3.3功能3:保存异常发生点附近的信令,并在信令解析区解析 (15)

2.4信令解析区 (16)

2.4.1功能1:解析log信息 (16)

2.4.2功能2:解析信令信息 (16)

2.5版本信息栏 (17)

3自动分析 (17)

3.1自动分析部署工具 (17)

3.2自动分析结果说明 (18)

1、软件界面介绍

软件主界面分为标题栏、功能栏、关联日志分析区、信令解析区和软件版本信息栏。

2、软件主要功能介绍

2.1标题栏

最小化、关闭、移动软件界面。

2.2功能栏

2.2.1 Option

点击Option按钮出现以下界面,Merge asslogs of same call选项是把同一次业务流程的关联日志(有时同一次业务流程存在多个关联日志文件中,如切换时,源小区和目标小区都有同样的消息)合并成一个整体的关联日志;Parse Sequence选项是将某个异常原因优先,针对一条关联日志可能存在多个异常原因的情况,通过这个功能把这条关联日志归类到最优先的那个原因。选择需要关注的异常原因,通过Move Up和Move Down排列这些异常原因的优先级,从上到下优先级递减。

2.2.2 OpenFiles(s)

点击OpenFile(s)按钮出现以下界面,该功能可以打开关联日志文件,支持多选。

2.2.3 Filter1

点击Filter1按钮出现以下界面,该功能可以按条件过滤所需异常,过滤结果在关联日志分析区显示。

介绍几种常用过滤条件:

Call Procedure

按目标业务流程过滤,过滤出目标业务流程的失败信令,目标业务主要有:RRC连接建立请求、RAB指派、业务掉话、小区更新、软切换、硬切换、系统间切换等;

Call Procedure Trig

按目标业务失败流程触发点过滤,过滤出包含目标业务失败流程触发点的失败信令,触发点主要有:各种业务类型RRC 连接、各种原因值的小区更新、各种事件触发的软切换、硬切换、各种原因值的RB 重配;

Fail point(reason2)

按关联日志中记录的二级失败原因过滤,过滤出包含目标二级失败原因的失败信令;Fail reason(reason 3)

按关联日志中记录的三级失败原因过滤,过滤出包含目标三级失败原因的失败信令;Feature.FailEle.CurProc

按关联日志记录的失败过程过滤,过滤出包含有目标失败过程的失败信令,如:安全模式SecurityModeCtrl,RAB建立、修改、释放过程的失败RabSetup、 RabModify、RabRelease

等;

Msg Type

按消息类型过滤,过滤出包含有目标消息类型的失败信令,如:RRC 连接建立请求、无线链路建立、上行直传、下行直传等;

PDP Act

过滤包含PDP 激活过程的信令;

Page Response

过滤包含寻呼响应的信令;

RRC Estab Cause

按RRC 连接建立的各种原因值过滤;

Rrc States

按RRC 状态过滤,包括DCH和各种状态迁移;

CN DOMAIN

按CS域业务、PS域业务、并发业务或关联日志中未能识别到的业务进行过滤;SRNC Relocation Type

按与业务UE无关、相关(分异频和同频)的重定位进行过滤;

Freq Switch

过滤包含系统间切换的信令。

2.2.4 Filter2

点击Filter2按钮出现以下界面,该功能也可以按条件过滤所需异常,但适合于批量操作,如根据第三方测试用户的IMSI号过滤当天测试中出现的异常,过滤结果在关联日志分析区显示。

CELL 文件格式:RNCID,CELLID 按小区过滤模板:

C:\Documents and Settings\hutaoran

IMSI 文件格式:IMSI, 按UE IMSI过滤模板:

C:\Documents and Settings\hutaoran

2.2.5 Save

点击Save按钮出现以下界面,该功能可以保存不同需求的信息。保存前,需要点击FlieName按钮,输入保存文件目录和文件格式名。Save File Type框中,如MsgEle(csv),MsgEle表示保存文件的内容,csv表示保存文件的格式。

介绍保存方法:

MsgEle(csv):主要保存关联日志中相关的信元参数,如RRC连接建立时UE上报的cpich_Ec_N0等等,便于后续分析。目前保存的信元参数都是在实际工作中提的需求。可以选择关注的信令进行保存。

AsslogAndBin(log):保存关联日志文件,保存后得到两个文件,一个后缀是.log,另一个后缀是.bin,该功能适合从容量较大的关联日志文件中提取特定关联日志文件,便于邮件发送或保存;

LogParseResult(csv):保存关联日志分析结果,包含接口类型、故障点、故障原因、解析分类、小区ID;

CellSum(csv):以小区为单位统计异常个数,适合分析Top小区;

LogAndMsgDesc(txt):保存信令流程,但不保存信令内容;

LogMergeSum(txt):关联日志合并情况的描述。RawLogNum表示合并前log个数,MergeLogNum表示合并后的log个数。该功能主要用于查看RRC连接建立的关联日志中,UE 平均发了几次RRC连接建立。如RRC连接建立的原始关联日志有30条,合并后只有10条,则

平均发了3次RRC连接建立。

TopUeDesc(csv):以UE为单位统计异常个数,适合分析Top UE;TopCellDropAfterSHO(txt):统计切换后掉话的Top小区;

CfgOfAdjaCellMissing(csv):统计邻区漏配列表,适合排查邻区漏配问题;ScramDisturbed(csv):统计扰码复用列表,适合排查扰码复用问题;

2.2.6 ImeiList

点击ImeiList按钮出现以下界面,该功能通过IMEI号查询用户终端类型。该工具目前只能查出部分常见终端,如果有些IMEI号没有对应的终端类型,可以上https://www.360docs.net/doc/7f16065561.html,查询。

2.2.7 NasDecode

点击NasDecode按钮出现以下界面,该功能可以解析非接入层信息。解析非接入信息时,先在MsgType选择业务类型,然后在Direction选择消息传送方向,接着在HEX Buffer 中输入非接入层数据,最后,点击Decode按钮,在Decode Result中显示解析结果。

如,CS业务上行初始直传消息中NAS信息解析:

2.3关联日志分析区

2.3.1功能1:对关联日志中异常原因进行统计,Display可以选择统计方式,有5种选择:By File、By Group、By Top UE、By Top Cell、By RupNo。这几种选择方式可以交叉使用,如先选择By Top Cell,然后选出某个Top小区进行By Group或By Top UE统计。

By File:关联日志分析工具支持同时打开多个文件,该功能对每个关联日志文件作独立统计,

如下图;

By Group:按异常流程原因统计;

By Top UE:按UE的异常个数倒序统计;

By Top Cell:按小区的异常个数倒序统计;

By RupNo:按RNC Rup模块的异常个数倒序统计;

2.3.2功能2:分析每个异常流程的原因,针对By Group统计方式,异常原因分为空口原因和非空口原因,然后细分为6大类,分别是弱覆盖、没有主导频、导频污染、快衰落、没有定义的空口原因和非空口原因。其中各大类原因中又分为各个子类,划分子类的根据是不同无线场景。子类中又分为子子类,子子类的划分根据是信令流程。

2.3.3功能3:保存异常发生点附近的信令,并在信令解析区解析

2.4信令解析区

2.4.1功能1:解析log信息,log信息中包含这次异常流程的原因、RAB指派类型(业务类型)、激活集小区、小区EcIo等信息。

2.4.2功能2:解析信令信息,包括NBAP、RRC、RNC内部消息;

2.5版本信息栏

软件版本信息及支持团队电话。

3自动分析

3.1自动分析部署工具

为了方便在关联日志服务器上自动运行分析关联日志。提供了命令行分析工具MoveLog.exe。主要有5个参数:

-r1 分析相对于当天的日期之前的某一天的关联日志。1为分析昨天

(之前1天)的关联日志。

-ms3 删除相对于当天的日期之前若干天之前的源关联日志,假定今天

为3月15号,参数3为删除3月12日及之前的源关联日志文件。

这个功能可以帮助减少服务器空间占用。

-md15 删除相对于当天的日期之前若干天之前的解析和压缩的结果文

件。这个功能可以帮助减少服务器空间占用。

-iF:\ASSLOG\RNC??? 输入关联日志文件目录。

-oF:\ AutoParse 输出分析文件及关联日志文件所在的目录。

其中除-ms参数是可选外,其余的为必选参数。此外,-ms和-md指定的提前天数值都应该大于-r指定的提前天数,否则程序会由于参数合法性检查不通过而退出。

以某外场实际项目为例:服务器上的关联日志文件分RNC存放如下,这些文件一般是保留最近几天天的关联日志。

F:\ASSLOG\RNC101\*.log *.bin

F:\ASSLOG\RNC102\*.log *.bin

F:\ASSLOG\RNC103\*.log *.bin

在3月10日运行 MoveLog –r1 –ms3 –md15 -i F:\ASSLOG\RNC??? -oF:\AutoParse 后,

生成目录 ASSLOG2010-03-09 ,分三次调用TLogVCmd ,每次解析一个RNC 3月9日的关联日志文件。生成如下分析文件:

F:\ AutoParse \ASSLOG2010-03-09\RNC101CellSum_CsDrop.csv

F:\ AutoParse \ASSLOG2010-03-09\RNC101CellSum_PsDrop.csv

......

F:\ AutoParse \ASSLOG2010-03-09\RNC102CellSum_CsDrop.csv

F:\ AutoParse \ASSLOG2010-03-09\RNC102CellSum_PsDrop.csv

......

F:\ AutoParse \ASSLOG2010-03-09\RNC103CellSum_CsDrop.csv

F:\ AutoParse \ASSLOG2010-03-09\RNC103CellSum_PsDrop.csv

……

调用RAR,生成如下压缩文件,分别对应关联日志文件和分析文件。(要求将RAR执行文件与MoveLog.exe在同一目录下,才可以调用RAR成功)

F:\ AutoParse \ASSLOG2010-03-09\ASSLOG2010-03-09_rnc101.rar

F:\ AutoParse \ASSLOG2010-03-09\ASSLOG2010-03-09_rnc102.rar

F:\ AutoParse \ASSLOG2010-03-09\ASSLOG2010-03-09_rnc103.rar

F:\ AutoParse \ASSLOG2010-03-09\Sum_2010-03-09.rar

删除目录 ASSLOG2010-02-23 及之前的关联日志日期目录。

可以通过Windows的计划任务,让以上分析过程在每天凌晨指定时刻运行一次。

假定一个RNC一天有1G的关联日志文件,解析过程大约耗时5分钟,压缩大约耗时15分钟,如果一次处理三个RNC的数据,总耗时在1个小时以内。

3.2自动分析结果说明

自动日志分析工具自动运行后,会针对不同的RNC生成如下文件:

其中CellSum_******是指按照小区汇总的不同流程中的失败。

异常流程包括:

CsDrop CS掉话

HhoFail 硬切换掉话

HoFrUtran 系统间切换(从Urtan切出)失败

PsDrop PS掉话

RabAssiFail(PdpAct) RAB指派(PDP激活失败)失败

RabAssiFail RAB指派失败

RrcFail(service) RRC过程(业务相关)失败

RrcFail RRC过程失败

ShoFail 软切换失败

每个汇总的EXCEL,里面对应的是每一次异常流程的原因,具体原因请参考章节2.3.2。UeSum是指按照Ue汇总全部的失败,汇总的EXCEL里面的失败原因同小区汇总。

感谢

非常感谢夏志远、钟文昕前辈在本文编辑过程中给予的指导和帮助,非常感谢ASSLOG Analysis Tool维护支持团队前期的积累和分享。希望本文档在您使用ASSLOG Analysis Tool 关联日志工具时,能给您带来方便,因为这个工具在外场分析问题时确实很实用、很方便,获得了前方售后、网优同事的认可,希望大家一起推广这个工具,让我们更高效地战斗!如果本文有纰漏,请您及时联系我们修改,在此谢谢大家的支持!

大数据分析的六大工具介绍

大数据分析的六大工具介绍 2016年12月 一、概述 来自传感器、购买交易记录、网络日志等的大量数据,通常是万亿或EB的大小,如此庞大的数据,寻找一个合适处理工具非常必要,今天我们为大家分学在大数据处理分析过程中六大最好用的工具。 我们的数据来自各个方面,在面对庞大而复杂的大数据,选择一个合适的处理工具显得很有必要,工欲善其事,必须利其器,一个好的工具不仅可以使我们的工作事半功倍,也可以让我们在竞争日益激烈的云计算时代,挖掘大数据价值,及时调整战略方向。 大数据是一个含义广泛的术语,是指数据集,如此庞大而复杂的,他们需要专门设il?的硬件和软件工具进行处理。该数据集通常是万亿或EB的大小。这些数据集收集自各种各样的来源:传感器、气候信息、公开的信息、如杂志、报纸、文章。大数据产生的其他例子包括购买交易记录、网络日志、病历、事监控、视频和图像档案、及大型电子商务。大数据分析是在研究大量的数据的过程中寻找模式, 相关性和其他有用的信息,可以帮助企业更好地适应变化,并做出更明智的决策。 二.第一种工具:Hadoop Hadoop是一个能够对大量数据进行分布式处理的软件框架。但是Hadoop是 以一种可黑、高效、可伸缩的方式进行处理的。Hadoop是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。Hadoop还是可伸缩的,能够处理PB级数据。此外,Hadoop依赖于社区服务器,因此它的成本比较低,任何人都可以使用。

Hadoop是一个能够让用户轻松架构和使用的分布式计算平台。用户可以轻松地 在Hadoop上开发和运行处理海量数据的应用程序。它主要有以下儿个优点: ,高可黑性。Hadoop按位存储和处理数据的能力值得人们信赖。,高扩展性。Hadoop是 在可用的计?算机集簇间分配数据并完成讣算任务 的,这些集簇可以方便地扩展到数以千计的节点中。 ,高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动 态平衡,因此处理速度非常快。 ,高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败 的任务重新分配。 ,Hadoop带有用Java语言编写的框架,因此运行在Linux生产平台上是非 常理想的。Hadoop上的应用程序也可以使用其他语言编写,比如C++。 第二种工具:HPCC HPCC, High Performance Computing and Communications(高性能计?算与通信)的缩写° 1993年,山美国科学、工程、技术联邦协调理事会向国会提交了“重大挑战项 U:高性能计算与通信”的报告,也就是被称为HPCC计划的报告,即美国总统科学战略项U ,其U的是通过加强研究与开发解决一批重要的科学与技术挑战 问题。HPCC是美国实施信息高速公路而上实施的计?划,该计划的实施将耗资百亿 美元,其主要U标要达到:开发可扩展的计算系统及相关软件,以支持太位级网络 传输性能,开发千兆比特网络技术,扩展研究和教育机构及网络连接能力。

ArcGIS空间分析工具

ArcGIS空间分析工具(SpatialAnalystTools) 1空间分析之常用工具 空间分析扩展模块中提供了很多方便栅格处理的工具。其中提取(Extraction)、综合(Generalization)等工具集中提供的功能是在分析处理数据中经常会用到的。 1.1提取(Extraction) 顾名思义,这组工具就是方便我们将栅格数据按照某种条件来筛选提取。 工具集中提供了如下工具: ExtractbyAttributes:按属性提取,按照SQL表达式筛选像元值。 ExtractbyCircle:按圆形提取,定义圆心和半径,按圆形提取栅格。 ExtractbyMask:按掩膜提取,按指定的栅格数据或矢量数据的形状提取像元。 ExtractbyPoints:按点提取,按给定坐标值列表进行提取。 ExtractbyPolygon ExtractbyRectangle ExtractValuestoPoints:按照点要素的位置提取对应的(一个/多个)栅格数据的像元值,其中,提取的Value 可以使用像元中心值或者选择进行双线性插值提取。 Sample:采样,根据给定的栅格或者矢量数据的位置提取像元值,采样方法可选:最邻近分配法(Nearest)、双线性插值法(Bilinear)、三次卷积插值法(Cubic)。 以上工具用来提取栅格中的有效值、兴趣区域点等很有用。 1.2综合 这组工具主要用来清理栅格数据,可以大致分为三个方面的功能:更改数据的分辨率、对区域进行概化、对 区域边缘进行平滑。 这些工具的输入都要求为整型栅格。 1.更改数据分辨率 Aggregate:聚合,生成降低分辨率的栅格。其中,CellFactor需要是一个大于1的整数,表示生成栅格的像 元大小是原来的几倍。 生成新栅格的像元值可选:新的大像元所覆盖的输入像元的总和值、最小值、最大值、平均值、中间值。

数据分析软件和工具

以下是我在近三年做各类计量和统计分析过程中感受最深的东西,或能对大家有所帮助。当然,它不是ABC的教程,也不是细致的数据分析方法介绍,它只是“总结”和“体会”。由于我所学所做均甚杂,我也不是学统计、数学出身的,故本文没有主线,只有碎片,且文中内容仅为个人观点,许多论断没有数学证明,望统计、计量大牛轻拍。 于我个人而言,所用的数据分析软件包括EXCEL、SPSS、STATA、EVIEWS。在分析前期可以使用EXCEL进行数据清洗、数据结构调整、复杂的新变量计算(包括逻辑计算);在后期呈现美观的图表时,它的制图制表功能更是无可取代的利器;但需要说明的是,EXCEL毕竟只是办公软件,它的作用大多局限在对数据本身进行的操作,而非复杂的统计和计量分析,而且,当样本量达到“万”以上级别时,EXCEL的运行速度有时会让人抓狂。 SPSS是擅长于处理截面数据的傻瓜统计软件。首先,它是专业的统计软件,对“万”甚至“十万”样本量级别的数据集都能应付自如;其次,它是统计软件而非专业的计量软件,因此它的强项在于数据清洗、描述统计、假设检验(T、F、卡方、方差齐性、正态性、信效度等检验)、多元统计分析(因子、聚类、判别、偏相关等)和一些常用的计量分析(初、中级计量教科书里提到的计量分析基本都能实现),对于复杂的、前沿的计量分析无能为力;第三,SPSS主要用于分析截面数据,在时序和面板数据处理方面功能了了;最后,SPSS兼容菜单化和编程化操作,是名副其实的傻瓜软件。 STATA与EVIEWS都是我偏好的计量软件。前者完全编程化操作,后者兼容菜单化和编程化操作;虽然两款软件都能做简单的描述统计,但是较之 SPSS差了许多;STATA与EVIEWS都是计量软件,高级的计量分析能够在这两个软件里得到实现;STATA的扩展性较好,我们可以上网找自己需要的命令文件(.ado文件),不断扩展其应用,但EVIEWS 就只能等着软件升级了;另外,对于时序数据的处理,EVIEWS较强。 综上,各款软件有自己的强项和弱项,用什么软件取决于数据本身的属性及分析方法。EXCEL适用于处理小样本数据,SPSS、 STATA、EVIEWS可以处理较大的样本;EXCEL、SPSS适合做数据清洗、新变量计算等分析前准备性工作,而STATA、EVIEWS在这方面较差;制图制表用EXCEL;对截面数据进行统计分析用SPSS,简单的计量分析SPSS、STATA、EVIEWS可以实现,高级的计量分析用 STATA、EVIEWS,时序分析用EVIEWS。 关于因果性 做统计或计量,我认为最难也最头疼的就是进行因果性判断。假如你有A、B两个变量的数据,你怎么知道哪个变量是因(自变量),哪个变量是果(因变量)? 早期,人们通过观察原因和结果之间的表面联系进行因果推论,比如恒常会合、时间顺序。但是,人们渐渐认识到多次的共同出现和共同缺失可能是因果关系,也可能是由共同的原因或其他因素造成的。从归纳法的角度来说,如果在有A的情形下出现B,没有A的情形下就没有B,那么A很可能是B的原因,但也可能是其他未能预料到的因素在起作用,所以,在进行因果判断时应对大量的事例进行比较,以便提高判断的可靠性。 有两种解决因果问题的方案:统计的解决方案和科学的解决方案。统计的解决方案主要指运用统计和计量回归的方法对微观数据进行分析,比较受干预样本与未接受干预样本在效果指标(因变量)上的差异。需要强调的是,利用截面数据进行统计分析,不论是进行均值比较、频数分析,还是方差分析、相关分析,其结果只是干预与影响效果之间因果关系成立的必要条件而非充分条件。类似的,利用截面数据进行计量回归,所能得到的最多也只是变量间的数量关系;计量模型中哪个变量为因变量哪个变量为自变量,完全出于分析者根据其他考虑进行的预设,与计量分析结果没有关系。总之,回归并不意味着因果关系的成立,因果关系的判定或推断必须依据经过实践检验的相关理论。虽然利用截面数据进行因果判断显得勉强,但如果研究者掌握了时间序列数据,因果判断仍有可为,其

详解Windows Server 2008安全日志

建立安全日志记录 为了让大家了解如何追踪计算机安全日志功能的具体方面,首先需要了解如何启动安全日志。大多数Windows计算机(除了某些域控制器版本系统)默认情况下不会向安全日志(Security Log)启动日志记录信息。这样的设置有利也有弊,弊的方面在于,除非用户强迫计算机开始日志记录安全事件,否则根本无法进行任何追踪。好的方面在于,不会发生日志信息爆满的问题以及提示日志已满的错误信息,这也是Windows Server 2003域控制器在没有任何预警下的行为。 安全日志事件跟踪可以使用组策略来建立和配置,当然你可以配置本地组策略对象,但是这样的话,你将需要对每台计算机进行单独配置。另外,你可以使用Active Directory内的组策略为多台计算机设置日志记录配置。要建立安全日志追踪,首先打开连接到域的计算机上的Group Policy Management Console (GPMC,组策略管理控制台),并以管理员权限登录。在GPMC中,你可以看到所有的组织单位(OU)(如果你事先创建了的话)以及GPO(如果你创建了两个以上),在本文中,我们将假设你有一个OU,这个OU中包含所有需要追踪相同安全日志信息的计算机,我们将使用台式计算机OU和AuditLog GPO。 编辑AuditLog GPO然后展开至以下节点: Computer Configuration\Policies\Windows Settings\Security Settings\Local Policies\Audit Policy 类别控制范围的简要介绍 以下是关于每种类别控制范围的简要介绍: 审计帐户登录事件–每次用户登录或者从另一台计算机注销的时候都会对该事件进行审计,计算机执行该审计是为了验证帐户,关于这一点的最好例子就是,当用户登录到他们的Windows XP Professional计算机上,总是由域控制器来进行身份验证。由于域控制器对用户进行了验证,这样就会在域控制器上生成事件。除了Windows Server 2003域控制器(配置为审计这些事件的成功与否)启动了设置外,没有操作系统启动该设置。最常见以及最佳的做法就是让所有的域控制器和服务器对这些事件进行审计。我还发现,在很多环境中,客户端也会配置为审计这些事件。 审计账户管理–这个将对所有与管理计算机(配置了审计)的用户数据库中的帐户的用户有关的事件进行审计,这些事件的示例如下: ·创建一个用户帐户 ·添加用户到一个组 ·重命名用户帐户 ·为用户帐户更改密码 对于域控制器而言,该管理政策将会对域帐户更改进行审计。对于服务器或者客户端而言,它将会审计本地安全帐户管理器(Security Accounts Manager)以及相关的帐户。除了Windows Server 2003域控制器(配置为审计这些事件的成功与否)启动了设置外,没有操作系统启动该设置。最常见以及最佳的做法就是让所有的域控制器和服务器对这些事件进行审计。对于用户帐户的审计,安全日志以及审计设置是不能捕捉的。 审计目录服务访问–这个将对与访问AD对象(已经被配置为通过系统访问控制列表SACL 追踪用户访问情况)的用户有关的事件进行审计,AD对象的SACL指明了以下三件事: ·将会被追踪的帐户(通常是用户或者组)

常用市场分析工具

成熟—— 一个增长率高而并不存在强大的主导公司市场,显然是可以摘取的成熟果实 困难—— 增长率低而集中程度低的市场可能易于进入,但要获利却会显得困难收获—— 增长率高但已存在强大行业领导公司的市场将难以渗透,因为已经有公司在那里收获了 毁坏—— 增长率低且存在强大主导公司的市场是四种市场中吸引力最小的一个——它已经被现有竞争者毁坏了 SWOT分析的主要目的在于对企业的综合情况进行客观公正的评价,以识别各种优势、劣势、机会和威胁因素,有利于开拓思路,正确地制定企业战略。

SWOT分析是把企业内外环境所形成的机会(Opportunities),风险(Threats),优势(Strengths),劣势(Weaknesses)四个方面的情况,结合起来进行分析,以寻找制定适应合本企业实际情况的经营战略和策略的方法。下表列出的是在SWOT分析中一般所需要考虑的因素。 SWOT分析还可以作为选择和制订战略的一种方法,因为它提供了四种战略,即SO战赂、WO战略、ST战略和WT战略,如下图所示。

SO战略就是依靠内部伏势去抓住外部机会的战略。如一个资 源雄厚(内在优势)的企业发现某一国际市场未曾饱和(外 在机会),那么它就应该采取SO战略去开拓这一国际市 场。 WO战略是利用外部机会来改进内部弱点的战略。如一个面对 计算机服务需求增长的企业(外在机会),却十分缺乏技术 专家(内在劣势),那么就应该采用WO战略培养把聘技术专 家,或购入一个高技术的计算机公司。 ST战略就是利用企业的优势,去避免或减轻外部威胁的打 击。如一个企业的销售渠道(内在优势)很多,但是由于各 种限制又不允许它经营其他商品(外在威胁),那么就应该 采取ST战略,走集中型、多样化的道路。 WT战略就是直接服内部弱点和避免外部威胁的战略。如一个 商品质量差(内在劣势),供应渠道不可靠(外在威胁)的 企业应该采取WT战略,强化企业管理,提高产品质量,稳定 供应渠道,或走联合,合并之路以谋生存和发展。 SWOT方法的基本点,就是企业战略的制定必须使其内部能 力(强处和弱点)与外部环境(机遇和威胁)相适应,以获 取经营的成功。  企业经营力分析 由企业素质确定的企业经营成果的大小,实际上也就是企业 经营力的大小。这就是说,企业素质的强弱,是通过企业的

使用perconna慢查询日志分析工具

使用perconna慢查询日志分析工具 第一部分:安装percona-toolkit 一、环境 linux(不支持windows) 二、快速安装 (我使用的,用成功了) wget https://https://www.360docs.net/doc/7f16065561.html,/downloads/percona-toolkit/2.2.16/RPM/percona-toolkit-2.2.16-1.noarch.rpm && yum localinstall -y percona-toolkit-2.2.16-1.noarch.rpm 三、源码安装 (网上还有这种装法,本人linux白痴一个,没敢用这么复杂方法,不知道此方法可行不,有兴趣的可以试下): wget https://https://www.360docs.net/doc/7f16065561.html,/downloads/percona-toolkit/2.2.14/tarball/perc ona-toolkit-2.2.14.tar.gz tar -zxvf percona-toolkit-2.2.14.tar.gz cd percona-toolkit-2.2.14 #cat Makefile.PL #cat README perl Makefile.PL make make test make install /usr/local/bin/pt-query-digest /opt/tuniu/mysql/data/slow-query.log 第二部分:语法及重要选项 一、语法 pt-query-digest [OPTIONS] [FILES] [DSN] 二、重要选项

--create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。 --create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。 --filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析 --limit限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。--host mysql服务器地址 --user mysql用户名 --password mysql用户密码 --history将分析结果保存到表中,分析结果比较详细,下次再使用--history 时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。 --review将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。 --output分析结果输出类型,值可以是report(标准分析报告)、 slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。--since从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。 --until截止时间,配合—since可以分析一段时间内的慢查询。 第三部分:用法示例 你用第一次pt-query-digest命令的时候,系统会提示你安装它,然后根据它的提示一步一步走下去就好了; 安装完成之后就可以用这个的命令了; 一、直接分析慢查询文件: pt-query-digest slow.log > slow_report.log 二、分析最近12小时内的查询: pt-query-digest --since=12h slow.log > slow_report2.log 三、分析指定时间范围内的查询: pt-query-digest slow.log --since ‘2014-04-17 09:30:00‘ --until ‘2014-04-17 10:00:00‘> > slow_report3.log 四、分析指含有select语句的慢查询 pt-query-digest--filter ‘$event->{fingerprint} =~ m/^select/i‘ slow.log> slow_report4.log

ArcGIS空间分析操作

实习六空间分析 实习目的 ●学习ArcMap简单的空间分析功能—缓冲区分析和叠加分析。 ●利用ArcToolbox中的Model(建模)工具,学习在已有的空间 分析功能基础上,组合、定制新的空间分析功能。 实习内容 ●利用缓冲区分析和叠加分析的手段,计算某道路两侧各500米范 围内在各区的面积各为多少? ●学习使用ArcToolbox中的Model Builder功能进行复杂的数据 处理 实习步骤 综合内容

数据: a.道路图层road.shp b.杭州行政区图层hz.shp 内容一:利用缓冲区分析和叠加分析的手段,计算某道路两侧各500米范围内在各区的面积各为多少? 1.打开road图层,将地图单位设置为meter 在左侧窗口中,右键点击【】->【Properties…】,弹出对话框【Data Frame Properties】,选择【General】属性页,在该页中设置Map Unite。

2.为road建立缓冲区 a.在ArcMap中将Buffer Wizard工具加到工具栏中。方法如下:【Tools】->【Customize…】->【Commands】找到【Tools】下的【Buffer Wizard】,将它拖放到工具栏上。

b.单击工具栏上的,将弹出Buffer Wizard对话框。 c.在Buffer Wizard对话框中的第一步中选择road线图层。然后单击“下一步。 d.设定缓冲距离为500,同时设定缓冲距离的单位是Meters,单击“下一步”。

e.在出现的对话框中,输出文件名取默认的Buffer_of_road.shp即可。 f.点击【完成】,ArcMap会将缓冲区图层建立并在ArcMap中显示出来。 3.对buffer_of_road和hz做叠加分析 具体操作如下: a.ArcToolbox中选择【Analysis Tools】->【Overlay】->【Intersect】,弹出 Intersect对话框。

推荐十款实用的Web分析工具

推荐十款实用的Web分析工具 1)Google Analytics(分析) Google Analysis是大多数人的入门分析工具,它并不是一个bad工具,且能够提供相关信息,最关键的是它还免费。在使用Google Analysis工具时,建议您和Google Webmaster Tools一起使用。 Google Analytics有很多很棒的功能,但是现在大多数人还不能有效的使用,KISSmetrics博客中曾提到,利用Google Analytics诞生了两大很具发展潜力的职位,一个是了解Google Analytics的内容,大约50种资源,另外一种是使用这一免费工具的9种技术。 2)Clicky Clicky是我本身很喜欢并且一直在使用的一款工具,自发布以来,Clicky Analytics一直在分析报告中发光发热,可以说是Google Analytics用户迁移的首要选择。 与Google Analytics的延迟不同,Clicky的信息是实时的,如果你想要从其他网站获得一些信息,那么Clicky会是一个不错的选择。如果你想要一个提供实时数据访问的整体分析软件包,那么我一定会建议Clicky。

3)Mint Mint Analytics是我个人很喜欢的一个新的分析工具,它的付费价格较高,Mint每个网站会收取30美元的预付费用,但之后不会再次收取费用。如果你长期坚持使用Mint,那么可能一年之后,它的性价比要比每月收取低费用的工具高出很多。 除了性价比高之外,Mint产品自身也很优秀,首先它的布局十分清新,图表简洁、易于理解,其性能也在很大程度上与其他分析工具旗鼓相当。 4)Church Analytics Church Analytics由Standard Theme Framework 的创始人之一创建,该分析工具是我所见过的分析工具中界面最好看的。 Church Analytics的仪表盘导航十分简单易用,容易上手,另外即使是新的分析系统在其中也会十分简单,这对于勇于尝试的开发者来说也是一个好消息。Church Analytics 虽然是这一领域的新兵,提供真实数据而不是虚假数据,但丝毫不妨碍其建立一个牢固的系统。 5)KISSmetrics KISSmetrics是我最喜欢的分析系统之一,同时也是我最喜欢的公司博客之一,它的创建人之一是QuickSprout的创始人。 KISSmetrics可以很好的来了解访问者,它所有的工具基本都是为商业网站而设计的,所以我认为相比于博客,它更适用于在线商务业务。

Windows日志文件全解读

一、什么是日志文件 日志文件是Windows系统中一个比较特殊的文件,它记录着Windows系统中所发生的一切,如各种系统服务的启动、运行、关闭等信息。Windows日志包括应用程序、安全、系统等几个部分,它的存放路径是“%systemroot%system32config”,应用程序日志、安全日志和系统日志对应的文件名为AppEvent.evt、SecEvent.evt和SysEvent.evt。这些文件受到“Event Log(事件记录)”服务的保护不能被删除,但可以被清空。 二、如何查看日志文件 在Windows系统中查看日志文件很简单。点击“开始→设置→控制面板→管理工具→事件查看器”,在事件查看器窗口左栏中列出本机包含的日志类型,如应用程序、安全、系统等。查看某个日志记录也很简单,在左栏中选中某个类型的日志,如应用程序,接着在右栏中列出该类型日志的所有记录,双击其中某个记录,弹出“事件属性”对话框,显示出该记录的详细信息,这样我们就能准确的掌握系统中到底发生了什么事情,是否影响Windows的正常运行,一旦出现问题,即时查找排除。 三、Windows日志文件的保护 日志文件对我们如此重要,因此不能忽视对它的保护,防止发生某些“不法之徒”将日志文件清洗一空的情况。 1. 修改日志文件存放目录 Windows日志文件默认路径是“%systemroot%system32config”,我们可以通过修改注册表来改变它的存储目录,来增强对日志的保护。 点击“开始→运行”,在对话框中输入“Regedit”,回车后弹出注册表编辑器,依次展开“HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Services/Eventlog”后,下面的Application、Security、System几个子项分别对应应用程序日志、安全日志、系统日志。 笔者以应用程序日志为例,将其转移到“d:\cce”目录下。选中Application子项

windows系统日志与入侵检测详解-电脑教程

windows系统日志与入侵检测详解 -电脑教程.txt我很想知道,多少人分开了,还是深爱着?、自己哭自己笑自己看着自己闹 . 你用隐身来躲避我丶我用隐身来成全你!待到一日权在手 , 杀尽天下负我 狗 .windows 系统日志与入侵检测详解 - 电脑教程 系统日志源自航海日志:当人们出海远行地时候,总是要做好航海日志,以便为以后地工作做出依据?日志文件作为微软 Windows系列操作系统中地一个比较特殊地文件,在安全方面 具有无可替代地价值 . 日志每天为我们忠实地记录着系统所发生一切,利用系统日志文件,可以使系统管理员快速对潜在地系统入侵作出记录和预测,但遗憾地是目前绝大多数地人都忽略了它地存在?反而是因为黑客们光临才会使我们想起这个重要地系统日志文件? 7.1日志文件地特殊性 要了解日志文件,首先就要从它地特殊性讲起,说它特殊是因为这个文件由系统管理,并加以保护,一般情况下普通用户不能随意更改?我们不能用针对普通 TXT文件地编辑方法来编辑它 例如 WPS系列、Word系列、写字板、Edit等等,都奈何它不得.我们甚至不能对它进行“重命名”或“删除”、“移动”操作 , 否则系统就会很不客气告诉你:访问被拒绝? 当然 , 在纯DOS地状态下,可以对它进行一些常规操作(例如 Win98状态下 >,但是你很快就会发现,你地 修改根本就无济于事 , 当重新启动 Windows 98 时 , 系统将会自动检查这个特殊地文本文件 , 若不存在就会自动产生一个;若存在地话,将向该文本追加日志记录? b5E2RGbCAP 7.1.1黑客为什么会对日志文件感兴趣 黑客们在获得服务器地系统管理员权限之后就可以随意破坏系统上地文件了,包括日志文件?但是这一切都将被系统日志所记录下来,所以黑客们想要隐藏自己地入侵踪迹,就必须对日志进行修改 . 最简单地方法就是删除系统日志文件,但这样做一般都是初级黑客所为,真正地高级黑客们总是用修改日志地方法来防止系统管理员追踪到自己,网络上有很多专门进行此类 功能地程序,例如Zap、Wipe等.p1EanqFDPw 7.1.2Windows 系列日志系统简介 1.Windows 98 地日志文件 因目前绝大多数地用户还是使用地操作系统是 Windows 98,所以本节先从 Windows 98 地日志文件讲起 .Windows 98 下地普通用户无需使用系统日志,除非有特殊用途,例如,利用 Windows 98建立个人 Web服务器时,就会需要启用系统日志来作为服务器安全方面地参考,当已利用 Windows 98 建立个人 Web 服务器地用户,可以进行下列操作来启用日志功能 . DXDiTa9E3d (1>在“控制面板”中双击“个人Web服务器”图标;(必须已经在配置好相关地网络协议,并添加“个人 Web服务器”地情况下>.RTCrpUDGiT (2> 在“管理”选项卡中单击“管理”按钮; (3>在“In ternet 服务管理员”页中单击“ WW管理”;

IIS日志分析方法及工具

日志的重要性已经越来越受到程序员的重视,IIS的日志更是不言而喻。 www.eshuba.co m E书吧 IIS日志建议使用W3C扩充日志文件格式,这也是IIS 5.0已上默认的格式,可以指定每天记录客户IP地址、用户名、服务器端口、方法、URI资源、UR I查询、协议状态、用户代理,每天要审查日志。如图1所示。 IIS 的WWW日志文件默认位置为%systemroo t%\system32\logfiles\w3svc1\,(例如:我的则是在C:\W IND OW S\system32\LogFiles\W3SVC1\),默认每天一个日志。 建议不要使用默认的目录,更换一个记录日志的路径,同时设置日志访问权限,只允许管理员和SYSTEM为完全控制的权限。如图2所示。

如果发现IIS日志再也不记录了,解决办法: 看看你有没有启用日志记录:你的网站--> 属性-->“网站”-->“启用日志”是否勾选。 日志文件的名称格式是:ex+年份的末两位数字+月份+日期。 ( 如2002年8月10日的WWW日志文件是ex020810.log) IIS的日志文件都是文本文件,可以使用任何编辑器或相关软件打开,例如记事本程序,AWStats工具。 开头四行都是日志的说明信息 #So ftware生成软件 #Ve rsion 版本 #Da te 日志发生日期

#Fields 字段,显示记录信息的格式,可由IIS自定义。 日志的主体是一条一条的请求信息,请求信息的格式是由#Fields定义的,每个字段都有空格隔开。 字段解释 data 日期 time 时间 cs-me thod 请求方法 cs-uri-stem 请求文件 cs-uri-q uery请求参数 cs-use rname客户端用户名 c-ip 客户端IP cs-versio n 客户端协议版本 cs(User-Age nt) 客户端浏览器 cs(Refe rer) 引用页 下面列举说明日志文件的部分内容(每个日志文件都有如下的头4行): #So ftware: Microso ft Interne t Info rma tio n Services 6.0 #Ve rsion: 1.0 #Da te: 2007-09-21 02:38:17

ArcGIS空间分析工具

ArcGIS空间分析工具(Spatial Analyst Tools)1空间分析之常用工具 空间分析扩展模块中提供了很多方便栅格处理的工具。其中提取(Extraction)、综合(Generalization)等工具集中提供的功能是在分析处理数据中经常会用到的。 1.1提取(Extraction) 顾名思义,这组工具就是方便我们将栅格数据按照某种条件来筛选提取。 工具集中提供了如下工具: Extract by Attributes:按属性提取,按照SQL表达式筛选像元值。 Extract by Circle:按圆形提取,定义圆心和半径,按圆形提取栅格。 Extract by Mask:按掩膜提取,按指定的栅格数据或矢量数据的形状提取像元。 Extract by Points:按点提取,按给定坐标值列表进行提取。 Extract by Polygon Extract by Rectangle Extract Values to Points:按照点要素的位置提取对应的(一个/多个)栅格数据的像元值,其中,提取的Value可以使用像元中心值或者选择进行双线性插值提取。 Sample:采样,根据给定的栅格或者矢量数据的位置提取像元值,采样方法可选:最邻近分配法(Nearest)、双线性插值法(Bilinear)、三次卷积插值法(Cubic)。 以上工具用来提取栅格中的有效值、兴趣区域\点等很有用。

1.2综合 这组工具主要用来清理栅格数据,可以大致分为三个方面的功能:更改数据的分辨率、对区域进行概化、对区域边缘进行平滑。 这些工具的输入都要求为整型栅格。 1.更改数据分辨率 Aggregate:聚合,生成降低分辨率的栅格。其中,Cell Factor需要是一个大于1的整数,表示生成栅格的像元大小是原来的几倍。 生成新栅格的像元值可选:新的大像元所覆盖的输入像元的总和值、最小值、最大值、平均值、中间值。 2.对区域进行概化 Expand:扩展,按指定的像元数目扩展指定的栅格区域。 Shrink:收缩,按指定的像元数目收缩所选区域,方法是用邻域中出现最频繁的像元值替换该区域的值。 Nibble:用最邻近点的值来替换掩膜范围内的栅格像元的值。 Thin:细化,通过减少表示要素宽度的像元数来对栅格化的线状对象进行细化。 Region Group:区域合并,记录输出中每个像元所属的连接区域的标识。每个区域都将被分配给唯一编号。 3.对区域边缘进行平滑 Boundary Clean:边界清理,通过扩展和收缩来平滑区域间的边界。该工具会去更改X 或Y方向上所有少于三个像元的位置。 Majority Filter:众数滤波,根据相邻像元数据值的众数替换栅格中的像元。可以认为是“少数服从多数”,太突兀的像元被周围的大部队干掉了。其中“大部队”的参数可设置,相邻像元可以4邻域或者8邻域,众数可选,需要大部分(3 /4、5/8)还是过半数即可。

22个免费的数据可视化和分析工具推荐

2012-03-31 10:01 2012-03-31 10:01 , URL https://www.360docs.net/doc/7f16065561.html,/news/17548/22_free_tools_for_data_visualization_and_a… 54 , | 22 22 2011 04 28 ( ) 22 Data cleaning “New York City" "New York, NY" DataWrangler SUVG web DataWrangler cooool Google Refine Google Refine CSV Google Refine

Statistical analysis R R R GNU Octave MATLAB Visualization applications and services Google Fusion Tables Google Fusion Tables email Fusion Tables 100MB CSV XLS Google Docs Google Fusion Tables csv Google Fusion Tables Oracle IBM, Microsoft Google

Impure Impure Bestiario Tableau Public

Many Eyes

VIDI Zoho Reports 10 Choosel

11 Exhibit 12 Google Chart Tools 13 JavaScript InfoVis Toolkit

日志分析系统调研分析-ELK-EFK

日志分析系统 目录 一. 背景介绍 (2) 二.日志系统比较 (2) 1.怎样收集系统日志并进行分析 (2) A.实时模式: (2) B.准实时模式 (2) 2.常见的开源日志系统的比较 (3) A. FaceBook的Scribe (3) B. Apache的Chukwa (3) C. LinkedIn的Kafka (4) E. 总结 (8) 三.较为成熟的日志监控分析工具 (8) 1.ELK (9) A.ELK 简介 (9) B.ELK使用场景 (10) C.ELK的优势 (10) D.ELK的缺点: (11) 2.EFK (11) 3. Logstash 于FluentD(Fluentd)对比 (11)

一. 背景介绍 许多公司的平台每天会产生大量的日志(一般为流式数据,如,搜索引擎的pv,查询等),处理这些日志需要特定的日志系统,一般而言,这些系统需要具有以下特征: (1)构建应用系统和分析系统的桥梁,并将它们之间的关联解耦; (2)支持近实时的在线分析系统和类似于Hadoop之类的离线分析系统; (3)具有高可扩展性。即:当数据量增加时,可以通过增加节点进行水平扩展。二.日志系统比较 1.怎样收集系统日志并进行分析 A.实时模式: 1 在打印日志的服务器上部署agent 2 agent使用低耗方式将日志增量上传到计算集群 3 计算集群解析日志并计算出结果,尽量分布式、负载均衡,有必要的话(比如需要关联汇聚)则采用多层架构 4 计算结果写入最适合的存储(比如按时间周期分析的结果比较适合写入Time Series模式的存储) 5 搭建一套针对存储结构的查询系统、报表系统 补充:常用的计算技术是storm B.准实时模式 1 在打印日志的服务器上部署agent 2 agent使用低耗方式将日志增量上传到缓冲集群 3 缓冲集群将原始日志文件写入hdfs类型的存储 4 用hadoop任务驱动的解析日志和计算 5 计算结果写入hbase 6 用hadoop系列衍生的建模和查询工具来产出报表 补充:可以用hive来帮助简化

系统安全防范之Windows日志与入侵检测

系统安全防范之Windows日志与入侵检测 一、日志文件的特殊性 要了解日志文件,首先就要从它的特殊性讲起,说它特殊是因为这个文件由系统管理,并加以保护,一般情况下普通用户不能随意更改。我们不能用针对普通TXT文件的编辑方法来编辑它。例如WPS系列、Word系列、写字板、Edit等等,都奈何它不得。我们甚至不能对它进行“重命名”或“删除”、“移动”操作,否则系统就会很不客气告诉你:访问被拒绝。当然,在纯DOS的状态下,可以对它进行一些常规操作(例如Win98状态下),但是你很快就会发现,你的修改根本就无济于事,当重新启动Windows 98时,系统将会自动检查这个特殊的文本文件,若不存在就会自动产生一个;若存在的话,将向该文本追加日志记录。 二、黑客为什么会对日志文件感兴趣 黑客们在获得服务器的系统管理员权限之后就可以随意破坏系统上的文件了,包括日志文件。但是这一切都将被系统日志所记录下来,所以黑客们想要隐藏自己的入侵踪迹,就必须对日志进行修改。最简单的方法就是删除系统日志文件,但这样做一般都是初级黑客所为,真正的高级黑客们总是用修改日志的方法来防止系统管理员追踪到自己,网络上有很多专门进行此类功能的程序,例如Zap、Wipe等。 三、Windows系列日志系统简介 1.Windows 98的日志文件 因目前绝大多数的用户还是使用的操作系统是Windows 98,所以本节先从Windows 98的日志文件讲起。Windows 98下的普通用户无需使用系统日志,除非有特殊用途,例如,利用Windows 98建立个人Web服务器时,就会需要启用系统日志来作为服务器安全方面的参考,当已利用Windows 98建立个人Web服务器的用户,可以进行下列操作来启用日志功能。(1)在“控制面板”中双击“个人Web服务器”图标;(必须已经在配置好相关的网络协议,并添加“个人Web服务器”的情况下)。 (2)在“管理”选项卡中单击“管理”按钮; (3)在“Internet服务管理员”页中单击“WWW管理”; (4)在“WWW管理”页中单击“日志”选项卡; (5)选中“启用日志”复选框,并根据需要进行更改。将日志文件命名为“Inetserver_event.log”。如果“日志”选项卡中没有指定日志文件的目录,则文件将被保存在Windows文件夹中。 普通用户可以在Windows 98的系统文件夹中找到日志文件schedlog.txt。我们可以通过以下几种方法找到它。在“开始”/“查找”中查找到它,或是启动“任务计划程序”,在“高级”菜单中单击“查看日志”来查看到它。Windows 98的普通用户的日志文件很简单,只是记录了一些预先设定的任务运行过程,相对于作为服务器的NT操作系统,真正的黑客们很少对Windows 98发生兴趣。所以Windows 98下的日志不为人们所重视。 2.Windows NT下的日志系统 Windows NT是目前受到攻击较多的操作系统,在Windows NT中,日志文件几乎对系统中的每一项事务都要做一定程度上的审计。Windows NT的日志文件一般分为三类: 系统日志:跟踪各种各样的系统事件,记录由Windows NT 的系统组件产生的事件。例如,在启动过程加载驱动程序错误或其它系统组件的失败记录在系统日志中。 应用程序日志:记录由应用程序或系统程序产生的事件,比如应用程序产生的装载dll(动态链接库)失败的信息将出现在日志中。 安全日志:记录登录上网、下网、改变访问权限以及系统启动和关闭等事件以及与创建、打开或删除文件等资源使用相关联的事件。利用系统的“事件管理器”可以指定在安全日志中记录需要记录的事件,安全日志的默认状态是关闭的。

常用在线网站分析工具

1.Website Grader Website Grader 是一款功能强大的SEO分析工具,它可以对提交的网站进行全面分析。其中包括页面结构、域名信息、标题摘要信息、Google索引数量和bot 最后爬行日期、RSS是否正确、Google/Yahoo/Alexa/MSN上的反向链接数、Technorati排名、https://www.360docs.net/doc/7f16065561.html,的收藏数、Alexa的排名情况和Google PageRank 值等。Website Grader 最实用的地方是它会为网站管理者提供一个非常详尽的网站分析报告,并且对报告中的问题事件给出合理的修改建议,以便于网站管理者做出更好的优化… 2.Summit Summit会对提交的网站进行相对于搜索引擎的友好度分析,并依据Meta标签的使用、网页的标题、图片和Alt属性、网站响应时间和链接进行评分。Summit的链接检测功能绝对众多分析工具最强悍的一个,建议尝试! 3.Webwait Webwait 光听名字就知道是个关于有网站载入速度测试的网站。网站相当简单,只需2步既能完成操作:输入网址,点击“Time It”按钮,稍加等待后网站载入的速度就出现了。一般这样的网站是用来查看自己网站或比较他人网站速度的,尤其对购买了国外空间的朋友格外实用。其他替代: ?① Webslug比较两个网站的载入速度 ?② Web Page Speed Test比较多个网站的载入速度(最多10个) 4.Google Trends Google 旗下的网站分析工具,也就是“谷歌趋势”英文版!因为英文版中包含了一个中文版中没有的功能——分析网站的平均流量。利用Google Trends的“Websites”分析功能,很轻松的就能得知这个网站全年的平均流量的走势了。但因为一般小站流量数据量还不够大,目前Google Trends还分析不出结果。 5.Myipneighbors Myipneighbors是用来检测同一IP下全部域名的工具,也可以用来估算同一IP 下挂载的所有网站。 6.Browsershots

相关文档
最新文档