行人检测参考

行人检测参考
行人检测参考

行人检测参考

1.制作样本

2.对每一张图片调用

https://www.360docs.net/doc/c16970871.html,pute(img, descriptors,Size(8,8), Size(0,0));

可以生成hog descriptors,把它保存到文件中

for(int j=0;j<3780;j++)

fprintf(f,"%f,",descriptors[j]);

3.利用SVM进行训练和分类,可得到权重系数,即getDefaultPeopleDetector()函数中调用的

检测算子detector[]

OpenCV2.0提供了行人检测的例子,用的是法国人Navneet Dalal最早在CVPR2005会议上提出的方法。

最近正在学习它,下面是自己的学习体会,希望共同探讨提高。

1、VC 2008 Express下安装OpenCV2.0--可以直接使用2.1,不用使用CMake进行编译了,避免编译出错

这是一切工作的基础,感谢版主提供的参考:https://www.360docs.net/doc/c16970871.html,/index.php /VC_2008_Express?????‰è£…OpenCV2.0

2、体会该程序

在DOS界面,进入如下路径:C:/OpenCV2.0/samples/c peopledetect.exe file name.jpg

其中filename.jpg为待检测的文件名

3、编译程序

创建一个控制台程序,从C:/OpenCV2.0/samples/c下将peopledetect.cpp加入到工程中;按步骤1的方法进行设置。编译成功,但是在DEBUG模式下生成的EXE文件运行出错,很奇怪

改成RELEASE模式后再次编译,生成的EXE文件可以运行。

4程序代码简要说明

1) getDefaultPeopleDetector() 获得3780维检测算子(105 blocks with 4 histograms each and 9 bins per histogram there are 3,780 values)--(为什么是105blocks?)2).cv::HOGDescriptor hog; 创建类的对象一系列变量初始化

winSize(64,128), blockSize(16,16), blockStride(8,8),

cellSize(8,8), nbins(9), derivAperture(1), winSigma(-1),

histogramNormType(L2Hys), L2HysThreshold(0.2), gammaCorrection(true)

3). 调用函数:detectMultiScale(img, found, 0, cv::Size(8,8), cv::Size(24,16), 1.05, 2);

参数分别为待检图像、返回结果列表、门槛值hitThreshold、窗口步长winStride、图像padding margin、比例系数、门槛值groupThreshold;通过修改参数发现,就所用的某图片,参数0改为0.01就检测不到,改为0.001可以;1.05改为1.1就不行,1.06可以;2改为1可以,0.8以下不行,(24,16)改成(0,0)也可以,(32,32)也行

该函数内容如下

(1) 得到层数levels

某图片(530,402)为例,lg(402/128)/lg1.05=23.4 则得到层数为24

(2) 循环levels次,每次执行内容如下

HOGThreadData&tdata = threadData[getThreadNum()];

Mat smallerImg(sz, img.type(), tdata.smallerImgBuf.data);

调用以下核心函数

detect(smallerImg, tdata.locations, hitThreshold, winStride, padding);

其参数分别为,该比例下图像、返回结果列表、门槛值、步长、margin

该函数内容如下:

(a)得到补齐图像尺寸paddedImgSize

(b)创建类的对象HOGCache cache(this, img, padding, padding, nwindows == 0, cacheStride); 在创建过程中,首先初始化HOGCache::init,包括:计算梯度descriptor->computeGradient、得到块的个数105、每块参数个数36

(c)获得窗口个数nwindows,以第一层为例,其窗口数为(530+32*2-64)/8+1、(402+32*2-128)/8+1 =67*43=2881,其中(32,32)为winStride参数,也可用(24,16)

(d)在每个窗口执行循环,内容如下

在105个块中执行循环,每个块内容为:通过getblock函数计算HOG特征并归一化,36个数分别与算子中对应数进行相应运算;判断105个块的总和s >= hitThreshold 则认为检测到目标

4)主体部分感觉就是以上这些,但很多细节还需要进一步弄清。

5、原文献写的算法流程

文献NavneetDalalThesis.pdf 78页图5.5描述了The complete object detection algorithm.

前2步为初始化,上面基本提到了。后面2步如下

For each scale Si = [Ss, SsSr, . . . , Sn]

(a) Rescale the input image using bilinear interpolation

(b) Extract features (Fig. 4.12) and densely scan the scaled image with stride Ns for object/non-object detections

(c) Push all detections with t(wi) > c to a list

Non-maximum suppression

(a) Represent each detection in 3-D position and scale space yi

(b) Using (5.9), compute the uncertainty matrices Hi for each point

(c) Compute the mean shift vector (5.7) iteratively for each point in the list until it converges to a mode

(d) The list of all of the modes gives the final fused detections

(e) For each mode compute the bounding box from the final centre point and scale

以下内容节选自文献NavneetDalalThesis.pdf,把重要的部分挑出来了。其中保留了原文章节号,便于查找。

4. Histogram of Oriented Gradients Based Encoding of Images

Default Detector.

As a yardstick for the purpose of comparison, throughout this section we co mpare results to our

default detector which has the following properties: input image in RGB colou

r space (without

any gamma correction); image gradient computed by applying [?1, 0, 1] filter along x- and yaxis

with no smoothing; linear gradient voting into 9 orientation bins in 0_–180_; 16×16 pixel

blocks containing 2×2 cells of 8×8 pixel; Gaussian block windowing with _ = 8 pixel; L2-Hys

(Lowe-style clipped L2 norm) block normalisation; blocks spaced with a stride of 8 pixels (hence

4-fold coverage of each cell); 64×128 detection window; and linear SVM class ifier. We often

quote the performance at 10?4 false positives per window (FPPW) –the maxi mum false positive

rate that we consider to be useful for a real detector given that 103–104 win dows are tested for

each image.

4.3.2 Gradient Computation

The simple [?1, 0, 1] masks give the best performance.

4.3.3 Spatial / Orientation Binning

Each pixel contributes a weighted vote for orientation based on the orientatio n of the gradient element centred on it.

The votes are accumulated into orientation bins over local spatial regions that

we call cells.

To reduce aliasing, votes are interpolated trilinearly between the neighbouring bin centres in both orientation and position.

Details of the trilinear interpolation voting procedure are presented in Appen dix D.

The vote is a function of the gradient magnitude at the pixel, either the mag nitude itself, its square, its

square root, or a clipped form of the magnitude representing soft presence/a bsence of an edge at the pixel. In practice, using the magnitude itself gives t he best results.

4.3.4 Block Normalisation Schemes and Descriptor Overlap

good normalisation is critical and including overlap significantly improves the performance.

Figure 4.4(d) shows that L2-Hys, L2-norm and L1-sqrt all perform equally well for the person detector.

such as cars and motorbikes, L1-sqrt gives the best results.

4.3.5 Descriptor Blocks

R-HOG.

For human detection, 3×3 cell blocks of 6×6 pixel cells perform best with 10. 4% miss-rate

at 10?4 FPPW. Our standard 2×2 cell blocks of 8×8 cells are a close second. We find 2×2 and 3×3 cell blocks work best.

4.3.6 Detector Window and Context

Our 64×128 detection window includes about 16 pixels of margin around the person on all four

sides.

4.3.7 Classifier

By default we use a soft (C=0.01) linear SVM trained with SVMLight [Joachim s 1999].We modified

SVMLight to reduce memory usage for problems with large dense descriptor vectors.

---------------------------------

5. Multi-Scale Object Localisation

the detector scans the image with a detection window at all positions and sc ales, running the classifier in each window and fusing multiple overlapping de tections to yield the final object detections.

We represent detections using kernel density estimation (KDE) in 3-D position and scale space. KDE is a data-driven process where continuous densities are evaluated by applying a smoothing kernel to observed data points. The ban dwidth of the smoothing kernel defines the local neighbourhood. The detecti on scores are incorporated by weighting the observed detection points by th eir score values while computing the density estimate. Thus KDE naturally inc orporates the first two criteria. The overlap criterion follows from the fact tha t detections at very different scales or positions are far off in 3-D position an

d scal

e space, and are thus not smoothed together. The modes (maxima) o

f t he density estimate correspond to the positions and scales of final detections. Let xi = [xi, yi] and s0i denote the detection position and scale, respectively, for the i-th detection.

the detections are represented in 3-D space as y = [x, y, s], where s = log (s’).

the variable bandwidth mean shift vector is defined as (5.7)

For each of the n point the mean shift based iterative procedure is guarantee d to converge to a mode2.

Detection Uncertainty Matrix Hi.

One key input to the above mode detection algorithm is the amount of unce rtainty Hi to be associated with each point. We assume isosymmetriccovarianc es, i.e. the Hi’s are diagonal matrices.

Let diag [H] represent the 3 diagonal elements of H. We use scale dependent covariance

matrices such that diag

[Hi] = [(exp(si)_x)2, (exp(si)_y)2, (_s)2] (5.9)

where _x, _y and _s are user supplied smoothing values.

The term t(wi) provides the weight for each detection. For linear SVMs we us ually use threshold = 0.

the smoothing parameters _x, _y,and _s used in the non-maximum suppressio n stage. These parameters can have a significant impact on performance so p roper evaluation is necessary. For all of the results here, unless otherwise not ed, a scale ratio of 1.05, a stride of 8 pixels, and _x = 8, _y = 16, _s = log(1.

3) are used as default values.

A scale ratio of 1.01 gives the best performance, but significantly slows the o verall process.

Scale smoothing of log(1.3)–log(1.6) gives good performance for most object classes.

We group these mode candidates using a proximity measure. The final locati on is the ode corresponding to the highest density.

----------------------------------------------------

附录 A. INRIA Static Person Data Set

The (centred and normalised) positive windows are supplied by the user, and the initial set of negatives is created once and for all by randomly sampling negative images.A preliminary classifier is thus trained using these. Second, th e preliminary detector is used to exhaustively scan the negative training imag es for hard examples (false positives). The classifier is then re-trained using th is augmented training set (user supplied positives, initial negatives and hard e xamples) to produce the final detector.

INRIA Static Person Data Set

As images of people are highly variable, to learn an effective classifier, the p

ositive training examples need to be properly normalized and centered to mi nimize the variance among them. For this we manually annotated all upright people in the original images.

The image regions belonging to the annotations were cropped and rescaled t o 64×128 pixel image windows. On average the subjects height is 96 pixels i n these normalised windows to allow for an approximately16 pixel margin on each side. In practise we leave a further 16 pixel margin around each side o f the image window to ensure that flow and gradients can be computed with out boundary effects. The margins were added by appropriately expanding th e annotations on each side before cropping the image regions.

//<------------------------以上摘自datal的博士毕业论文

关于INRIA Person Dataset的更多介绍,见以下链接

http://pascal.inrialpes.fr/data/human/

Original Images

Folders 'Train' and 'Test' correspond, respectively, to original training a nd test images. Both folders have three sub folders: (a) 'pos' (positive training or test images), (b) 'neg' (negative training or test images), and (c) 'annotati ons' (annotation files for positive images in Pascal Challenge format). Normalized Images

Folders 'train_64x128_H96' and 'test_64x128_H96' correspond to normaliz ed dataset as used in above referenced paper. Both folders have two sub fol ders: (a) 'pos' (normalized positive training or test images centered on the pe

rson with their left-right reflections), (b) 'neg' (containing original negative trai ning or test images). Note images in folder 'train/pos' are of 96x160 pixels (a margin of 16 pixels around each side), and images in folder 'test/pos' are of 70x134 pixels (a margin of 3 pixels around each side). This has been done t o avoid boundary conditions (thus to avoid any particular bias in the classifie r). In both folders, use the centered 64x128 pixels window for original detecti on task.

Negative windows

To generate negative training windows from normalized images, a fixed set of 12180 windows (10 windows per negative image) are sampled randoml y from 1218 negative training photos providing the initial negative training se t. For each detector and parameter combination, a preliminary detector is trai ned and all negative training images are searched exhaustively (over a scale-s pace pyramid) for false positives (`hard examples'). All examples with score gr eater than zero are considered hard examples. The method is then re-trained using this augmented set (initial 12180 + hard examples) to produce the fin al detector. The set of hard examples is subsampled if necessary, so that the descriptors of the final training set fit into 1.7 GB of RAM for SVM training. //------------------------------------------------------______________>

原作者对OpenCV2.0 peopledetect 进行了2次更新

https://https://www.360docs.net/doc/c16970871.html,/trac/opencv/changeset/2314/trunk

最近一次改为如下:

---------------------

#include "cvaux.h"

#include "highgui.h"

#include

#include

#include

using namespace cv;

using namespace std;

int main(intargc, char** argv)

{

Mat img;

FILE* f = 0;

char _filename[1024];

if( argc == 1 )

{

printf("Usage: peopledetect ( | .txt)/n"); return 0;

}

img = imread(argv[1]);

if( img.data )

{

strcpy(_filename, argv[1]);

}

else

{

f = fopen(argv[1], "rt");

if(!f)

{

fprintf( stderr, "ERROR: the specified file could not be loaded/n"); return -1;

}

}

HOGDescriptor hog;

hog.setSVMDetector(HOGDescriptor::getDefaultPeopleDetector()); for(;;)

{

char* filename = _filename;

if(f)

{

if(!fgets(filename, (int)sizeof(_filename)-2, f))

break;

//while(*filename &&isspace(*filename))

// ++filename;

if(filename[0] == '#')

continue;

int l = strlen(filename);

while(l > 0 &&isspace(filename[l-1]))

--l;

filename[l] = '/0';

img = imread(filename);

}

printf("%s:/n", filename);

if(!img.data)

continue;

fflush(stdout);

vector found, found_filtered;

double t = (double)getTickCount();

// run the detector with default parameters. to get a higher hit-rate

// (and more false alarms, respectively), decrease the hitThreshold and

// groupThreshold (set groupThreshold to 0 to turn off the grouping complet ely).

int can = img.channels();

hog.detectMultiScale(img, found, 0, Size(8,8), Size(32,32), 1.05, 2);

t = (double)getTickCount() - t;

printf("tdetection time = %gms/n", t*1000./cv::getTickFrequency());

size_ti, j;

for( i = 0; i

{

Rect r = found[i];

for( j = 0; j

if( j != i&& (r & found[j]) == r)

break;

if( j == found.size() )

found_filtered.push_back(r);

}

for( i = 0; i

{

Rect r = found_filtered[i];

// the HOG detector returns slightly larger rectangles than the real objects. // so we slightly shrink the rectangles to get a nicer output.

r.x += cvRound(r.width*0.1);

r.width = cvRound(r.width*0.1);

r.y += cvRound(r.height*0.07);

r.height = cvRound(r.height*0.1);

rectangle(img, r.tl(), r.br(), cv::Scalar(0,255,0), 3);

}

imshow("people detector", img);

int c = waitKey(0) & 255;

if( c == 'q' || c == 'Q' || !f)

break;

}

if(f)

fclose(f);

return 0;

}

更新后可以批量检测图片!

将需要批量检测的图片,构造一个TXT文本,文件名为filename.txt, 其内容如下

1.jpg

2.jpg

......

然后在DOS界面输入peopledetect filename.txt ,即可自动检测每个图片。

//////////////////////////////////////////////////////////////////------------------------------Navneet Dalal的OLT工作流程描述

NavneetDalal在以下网站提供了INRIA Object Detection and Localization Toolkit http://pascal.inrialpes.fr/soft/olt/

Wilson SuryajayaLeoputra提供了它的windows版本

https://www.360docs.net/doc/c16970871.html,.au/~12482661/hog.html

需要Copy all the dll's (boost_1.34.1*.dll, blitz_0.9.dll, opencv*.dll) into "

T_PROJECT_DIR>/debug/"

NavneetDalal提供了linux下的可执行程序,借别人的linux系统,运行一下,先把总体流程了解了。

下面结合OLTbinaries/readme和OLTbinaries/HOG/record两个文件把其流程描述一下。

1.下载INRIA person detection database 解压到OLTbinaries/;把其中的'train_64x1 28_H96' 重命名为'train' ;'test_64x128_H96' 重命名为'test'.

2.在linux下运行'runall.sh' script.

等待结果出来后,打开matlab 运行plotdet.m 可绘制DET曲线;

------这是一步到位法--------------------------------------------------

-------此外,它还提供了分步执行法-------------------------------------

1、由pos.lst列表提供的图片,计算正样本R-HOG特征,pos.lst列表格式如下

train/pos/crop_000010a.png

train/pos/crop_000010b.png

train/pos/crop_000011a.png

------以下表示-linux下执行语句(下同)------

./bin//dump_rhog -W 64,128 -C 8,8 -N 2,2 -B 9 -G 8,8 -S 0 --wtscale 2 --max value 0.2 -- epsilon 1 --fullcirc 0 -v 3 --procrgb_sqrt --norm l2hys -s 1 train/ pos.lst HOG/train_pos.RHOG

2.计算负样本R-HOG特征

./bin//dump_rhog -W 64,128 -C 8,8 -N 2,2 -B 9 -G 8,8 -S 0 --wtscale 2 --max value 0.2 -- epsilon 1 --fullcirc 0 -v 3 --procrgb_sqrt --norm l2hys -s 10 train /neg.lst HOG/train_neg.RHOG

3.训练

./bin//dump4svmlearn -p HOG/train_pos.RHOG -n HOG/train_neg.RHOG HOG/t rain_BiSVMLight.blt -v

4.创建model file: HOG/model_4BiSVMLight.alt

./bin//svm_learn -j 3 -B 1 -z c -v 1 -t 0 HOG/train_BiSVMLight.blt HOG/model _4BiSVMLight.alt

5.创建文件夹

mkdir -p HOG/hard

6.分类

./bin//classify_rhog train/neg.lst HOG/hard/list.txt HOG/model_4BiSVMLight.alt -d HOG/hard/hard_neg.txt -c HOG/hard/hist.txt -m 0 -t 0 --no_nonmax 1 --avsi ze 0 --margin 0 --scaleratio 1.2 -l N -W 64,128 -C 8,8 -N 2,2 -B 9 -G 8,8 -S 0 --wtscale 2 --maxvalue 0.2 --

epsilon 1 --fullcirc 0 -v 3 --procrgb_sqrt --norm l2hys

--------

false +/- 分类结果会写入HOG/hard/hard_neg.txt

7. 将hard加入到neg,再次计算RHOG特征

./bin//dump_rhog -W 64,128 -C 8,8 -N 2,2 -B 9 -G 8,8 -S 0 --wtscale 2 --max value 0.2 -- epsilon 1 --fullcirc 0 -v 3 --procrgb_sqrt --norm l2hys -s 0 HOG/ hard/hard_neg.txt OG/train_hard_neg.RHOG --poscases 2416 --negcases 12180 --dumphard 1 --hardscore 0 -- memorylimit 1700

8.再次训练

./bin//dump4svmlearn -p HOG/train_pos.RHOG -n HOG/train_neg.RHOG -n HO G/train_hard_neg.RHOG HOG/train_BiSVMLight.blt -v 4

9.得到最终的模型

./bin//svm_learn -j 3 -B 1 -z c -v 1 -t 0 HOG/train_BiSVMLight.blt HOG/model _4BiSVMLight.alt

Opencv中用到的3780 个值,应该就在这个模型里面model_4BiSVMLight.alt,不过它的格式未知,无法直接读取,但是可以研究svm_learn程序是如何生成它的;此外,该模型由程序classify_rhog调用,研究它如何调用,估计是一个解析此格式的思路

10.创建文件夹

mkdir -p HOG/WindowTest_Negative

11.负样本检测结果

./bin//classify_rhog -W 64,128 -C 8,8 -N 2,2 -B 9 -G 8,8 -S 0 --wtscale 2 --m axvalue 0.2 --epsilon 1 --fullcirc 0 -v 3 --procrgb_sqrt --norm l2hys -p 1 --no _nonmax 1 --nopyramid 0 - -scaleratio 1.2 -t 0 -m 0 --avsize 0 --margin 0 te st/neg.lst HOG/WindowTest_Negative/list.txt HOG/model_4BiSVMLight.alt -c HO G/WindowTest_Negative/histogram.txt

12.创建文件夹

mkdir -p HOG/WindowTest_Positive

13.正样本检测结果

./bin//classify_rhog -W 64,128 -C 8,8 -N 2,2 -B 9 -G 8,8 -S 0 --wtscale 2 --m axvalue 0.2 -- epsilon 1 --fullcirc 0 -v 3 --procrgb_sqrt --norm l2hys -p 1 --no_nonmax 1 --nopyramid 1 -t 0 -m 0 --avsize 0 --margin 0 test/pos.lst HOG

/WindowTest_Positive/list.txt HOG/model_4BiSVMLight.alt -c HOG/WindowTes t_Positive/histogram.txt

//////////////////////////////////////////////////////////////////////////////////////////// //////////////////////////////////////////////////////////////////////////////////////////// ////

如何制作训练样本

分析了原作者的数据集,结合网上一些资料,下面描述如何制作训练样本

1、如何从原始图片生成样本

对比INRIAPerson/INRIAPerson/Train/pos(原始图片),INRIAPerson/train_64x128_ H96/pos(生成样本)可以发现,作者从原始图片裁剪出一些站立的人,要求该人不被遮挡,然后对剪裁的图片left-right reflect。以第一张图片为例crop001001,它剪裁了2个不被遮挡的人,再加上原照片,共3张,再加左右镜像,总共6张。

2、裁剪

可利用基于opencv1.0的程序imageclipper,进行裁剪并保存,它会自动生成文件名并保存在同一路径下新生成的imageclipper文件夹下。

3.改变图片大小

可以利用Acdsee软件,Tools/open in editor,进去后到Resize选项; tools/rotate 还可实现left-right reflect

自己编了一个程序,批量改变图片大小,代码见下一楼

4. 制作pos.lst列表

行人检测与跟踪国内外研究现状

行人检测与跟踪国内外研究现状 1.2行人检测与跟踪国内外研究现状 视觉跟踪和目标检测是计算机视觉领域内较早开始的研究方向。经过几十年的积累,这两个方向已经取得了显著的发展。然而,很多方法只是在相对较好地程度上解决了一些关键问题。并且仍旧有不少一般性的关键问题未得到有效的解决。国内外很多研究机构都在致力于研究和发展这两个方向。近些年这两个方向持续发展,涌现了很多比较优秀的方法。国外的很多大学和研究机构(如卡内基梅隆大学、南加州大学和法国国家计算机科学与控制研究所等)都有计算机视觉小组,长期地研究视频跟踪和目标检测。国内的很多大学和研究所等(如清华大学、上海交大和自动化所等)也有相关的研究小组,并取得了一些优秀的研究成果。 1.2.1行人检测技术国内外研究现状 中科院计算机科学重点实验室孙庆杰等人利用基于侧影的人体模型及其对应的概率模型,提出了一种基于矩形拟合的人体检测算法。中科院自动化所谭铁牛等对人运动进行视觉分析,其核心是利用计算机视觉技术从图像序列中检测、跟踪、识别人并对其行为进行理解与描述,它主要应用在视觉监控领域和基于步态的身份鉴定。步态识别就是根据人们走路的姿势进行身份鉴定,依据人体行走运动很大程度上依赖于轮廓随着时间的形状变化的直观想法,提出一种基于时空轮廓分析的步态识别算法;基于行走运动的关节角度变化包含着丰富的个体识别信息的思想,提出一种基于模型的步态识别算法。实验结果表明该算法不仅获得了令人鼓舞的识别性能,而且拥有相对较低的计算代价。但是该方法只能检测出运动的行人。 西安交通大学郑南宁等研究了利用支持向量机识别行人的方法,通过稀疏Gabor滤波器提取行人样本图像中行人的特征,然后利用支持向量机来训练所提取的样本特征,并用训练得到的分类器通过遍历图像的方式将图像中可能属于行人的窗口提取出来。尽管用Gabor滤波器提取特征效果相对较好,但耗时很长,不适合于实时图像的处理。 上海交通大学田广等提出了一种coarse-to-fine的行人检测方法,将一个人建模成人体自然部位的组装,人体的所有部位包括头肩、躯干和腿、采用绝对值类Haar特征集和Edgelet特征集,在这些特征集上,采用softcascade训练各个部位的检测器和全身检测器。首先采用全身检测器在整个图像中产生候选行人区域,然后用基于贝叶斯决策的组合算法进一步确定候选区域中的行人。实验结果表明该算法有很好的检测性能能在杂乱的自然场景中有效的检测行人。但该方法的识别率是78.3%,识别率不高,且该模型比较难构建,模型求解也比较复杂。 目前,在国外许多文献中提出了基于机器视觉的行人检测方法,意大利帕尔玛大学的AlbertoBroggi教授在ARGO项目中采用一种基于外形的行人检测算法。算法首先根据行人相对于垂直轴有很强的垂直边缘对称性、尺寸和外貌比例等在

四年级数学上册目标检测参考答案

四年级数学上册目标检测参考答案 第一单元 练习一 百发百中 一、填空 (1)万千万九(2)万十万百万千万(3)计数单位10 (4)7个千4个十万(5)4 (6)九亿 5 5个亿(7)100000 99999 1 (8)3057090 二、94000500 九千四百零五万 940050 九百四十万零五百 9400500 九百四十万五千 9405000 九千四百万零五百 94050000 九十四万零五十 竞技搏击10万100万1000万 练习二 百发百中 一、(1)300000 (2)20000000 (3)1514290000 (4)69400 二、60090000 50336700 800204 10000080 三、(1)2305000 (2)70082400 (3)9000900 (4)50005000 四、(1)2001050027 (2)805002000 (3)1008006090 竞技搏击 (1)606600 (答案不唯一) (2)873210 102378 873201 873021 870321 870231(后4空答案不唯一) 练习三 百发百中 一、5400872 1000020 34800723 4803070 2090030 90094003 4802000 5900000 二、(1)A(2)B 三、(1)×(2)√(3)× (4) √

1、980000 2、(1)7654000 (2)4000567唯一(3)7065040 (4)7060504 (答案不唯一) 练习四 百发百中 一、< < < < > < = > > > 二、(1)1000000 > 999999 >9989999 > 909999 (2)4028922 < 4208922 <4280922 < 42089222 三、(1)太平洋北冰洋 (2)0-6 9 0-9 0 竞技搏击 64980 <70950 <70999 <78700 < 80342 < 88080 <840000 80342 64980 70950 70999 78700 练习五 百发百中 一(1)A(2)B (3)B (4)A 二、(1)4000万(2)1690万(3)705万(4)960万 三、(1)133800 13万(将目标上的“近似数”应改为“近似数万”,避免学生做的时候出现不知道写“130000”还是写“13万”的现象。 (2)19978 2万 (3)4791000 479万 竞技搏击 (1)64999 55000 (2)47900 97400 79400 (答案不唯一)不能 练习六

课时跟踪检测(十六) 人口迁移 地域文化与人口

课时跟踪检测(十六) 人口迁移 地域文化与人口 一、选择题 (2013·崇雅模拟)下表为“美国1965~1983年不同地区的净移民人口数量表(单位:千人)”。读表回答1~2题。 1.与此时期美国人口迁移特点不符的是( ) A .70年代东北部地区迁出人口多于迁入人口 B .70年代以后,南部地区一直是人口迁入地区 C .80年代以后,东北部地区由人口迁出地区变为人口迁入地区 D .80年代以后,迁往“阳光地带”的人口数量明显减少 2.导致此时期美国地区间人口迁移的主要原因是( ) A .环境质量的变化 B .地区间气候差异 C .经济收入的变化 D .经济结构的调整 (2013·济南调研)下图为“某地人口迁移与年龄关系示意图”。读图回答3~4题。 3.从图中判断,影响该地区人口迁移的主要因素最有可能是( ) A .人口老龄化 B .婚姻家庭 C .政治因素 D .经济因素 4.图中甲、乙、丙、丁不同年龄段的人口迁移有明显相关性的是( ) A .甲、乙 B .甲、丙 C .乙、丙 D .乙、丁 重男轻女指数是指希望生育男孩的母亲人数与希望生育女孩的母亲人数的比例,下表是

联合国人口机构2006年公布的部分国家的“重男轻女指数表”。读表回答5~6题。 A .韩国、泰国、菲律宾 B .菲律宾、泰国、尼泊尔 C .巴基斯坦、尼泊尔、韩国 D .哥伦比亚、肯尼亚、委内瑞拉 6.地域文化对人口的影响是通过影响人们的生育意愿而表现出来的。下列叙述正确的是( ) A .“男孩偏好”的传统与“稻米文化”密切相关 B .中国的儒家文化有“男性偏好”的传统思想,但重视子女的质量和注重自我发展 C .发达国家受基督教的影响,没有性别偏好 D .“重男轻女指数”反映发展中国家普遍渴望生育男孩 下图是“根据联合国于2000年发布的预测报告绘制的2001~2050年部分国家迁入人口趋势图”。读图完成7~8题。 7.关于人口迁移流向的叙述,正确的是( ) A .由人口多的国家迁往人口少的国家 B .由发展中国家迁往发达国家 C .全球迁出人口少于迁入人口 D .由东半球国家迁往西半球国家 8.下列关于人口迁移影响的叙述,正确的是( ) A .减轻了迁入地的就业压力 B .加重了迁出地的环境压力 C .为迁入地提供劳动力,促进经济发展

材料进场验收、平行检测跟踪监测监理实施细则

越秀南浦村地块项目 监理实施细则 (材料进场验收、平行检测、跟踪检测)批准: 审核: 编制: 创南工程管理有限公司 二零一四年三月十九日

目录 1、工程概况 (2) 2、验收及检测依据 (2) 3、材料进场验收程序及取样试验 (2) 4、平行检测 (4) 5、跟踪检测 (11) 6、试验委托与报告的领取 (11) 7、附表 (11)

1.工程概况 禅城区南浦村地块项目基坑支护、工程桩及土工程由四块地块组成,总建筑面积约为297261 m2。其中:地块一建筑面积5149.53 m2,由1层地下室及1栋5层商业楼组成;地块二建筑面积79921.47 m2,由2层地下室、3层商业裙楼、1栋25层办公楼及1栋27层公寓塔楼组成;地块三建筑面积195627.10 m2,由2层地下室、2层商业楼及11栋24~32层住宅楼组成;地块四建筑面积16902.33 m2,由1层地下室、2层商业裙楼及1栋19层公寓塔楼组成。 2.验收及检测的依据 1)和行业部门有关的法律、法规、规章等; 2)批准的设计文件,包括设计图纸与说明、设计变更,本工程设计采用的技术规和标准; 3)建设单位与承包商签定的工程承发包合同、招投标文件及商务标; 4)监理合同; 5)监理规; 6)现行的质量检测技术标准。 3.材料进场验收程序及取样试验 所有进场材料必须是经施工单位检验合格、监理工程师验收合格的材料,禁未经验收的材料用于工程施工。 3.1水泥、粉煤灰、矿渣粉、聚硫密封胶、外加剂等罐或容器储存的材料的进场验收程序 水泥、粉煤灰、矿渣粉、聚硫密封胶、外加剂等罐或容器储存的材料,在材料进场时施工单位质检人员首先检查合格证、材质化验单,并检查外观质量有无结块变质现象,验收合格后通知监理工程师。监理工程师对随车合格证、材质化验单进行核验,并核对与材料是否相符,来源厂家是否经过批准;对随车相关资料和外观质量验收合格后,施工单位试验室人员及时对材料取样试验,施工单位试验室检测合格后,及时将材料合格证、材质化验单、检验报告等一并报监理工程师核查并备案。

视频中的行人检测(新)

山东建筑大学 课程设计说明书 题目:视频监控中行人的检测课程:数字图像处理课程设计院(部):信息与电气工程学院 专业:电子信息工程 班级:电信111 学生姓名: 学号: 指导教师: 完成日期:

目录 摘要 ............................................................................................................................................. II 一、绪论 (1) 1.1 研究背景与意义 (1) 1.2 智能视频监控概述 (2) 1.2.1 智能视频监控的发展 (2) 1.2.2 智能视频监控的研究内容 (3) 1.3 行人检测与跟踪 (3) 1.3.1 行人检测 (3) 1.3.2 行人跟踪 (4) 二、设计原理 (5) 2.1 图像处理基础 (5) 2.1.1 颜色空间 (5) 2.1.2 图像预处理 (7) 2.1.3 形态学方法 (7) 2.2 运动目标检测方法 (8) 2.2.1 背景差分法 (8) 2.2.2光流法 (9) 2.2.3边缘检测方法 (10) 2.4 本章小结 (10) 三、设计内容 (11) 3.1背景减法运动目标检测 (11) 3.2阈值的选取 (11) 3.3形态学滤波 (12) 3.4设计方案流程图 (14) 四、实验结果分析及总结 (16) 4.1试验结果 (16) 4.2实验结果分析 (16) 五、参考文献 (17) 致谢 (18) 附录 (19)

摘要 智能视频监控是计算机视觉领域新兴的研究方向,它通过对摄像机拍摄的视频图像序列进行自动分析来对被监控场景中的事物变化进行定位、跟踪和识别,并以此对相关目标的行为进行分析和判别,在实现了日常管理工作的同时又能对目标的异常行为做出及时反应。行人目标检测与跟踪算法是智能视频监控系统中的核心问题,研究相关算法对于提高智能视频监控系统的性能具有重要的意义。本文在熟悉和掌握了有关数字图像处理原理和技术的基础上,分析对比了常用的目标检测和跟踪方法,针对不同条件下的行人目标检测和跟踪进行了研究。本文完成的主要研究工作是对监控视频中行人目标的检测,为以后的行人跟踪和行人行为的分析打下基础。 本设计以Matlab为平台,利用背景减法,和形态学滤波的方法检测视频中的行人。实验结果表明,本模块能够检测一般静态背景条件下的行人目标,满足了实际应用的初步要求。 关键词:视频监控、行人检测、背景减法、形态学滤波

八年级下目标检测答案

第十四章生物多样性 第一节生物的命名和分类 一.填空题 1.1753,林奈,二名法。2.两,属名,种名,拉丁,属名。3.形态,结构,生理特性。4.界、门、纲、目、科、属、种,种。5.原核生物界、原生生物界、菌物界、植物界、动物界 二.选择题 1.C,2.D,3.A 第二节病毒 一.填空题 1.动物病毒,植物病毒,真菌病毒,细菌病毒(噬菌体)。2.其他生物活细胞中,增殖。3.球状,杆状,丝状。4.俄国,烟草花叶病,细菌。5.细菌,病毒 二.选择题 1.B,2.B,3.B,4.D,5.A,6.C 三.识图作答 1.①蛋白质外壳②核酸。 2.细胞,蛋白质,核酸。 四.简答题 参考答案:①接种人痘、牛痘预防天花。②16世纪荷兰种植者利用嫁接法使郁金香感染病毒,开出美丽杂色花朵。③1885年,巴斯德研究出狂犬疫苗。 第三节原核生物界 一.填空题 1.是否有细胞结构。2.无成形细胞核。3.球状,杆状,螺旋状。4.鞭毛、荚膜等附属结构5.细菌,蓝菌。6.成形的,原核生物。7.荷兰,列文·虎克 二.选择题 1.B,2.D,3.C,4.D,5.B 三.简答题 1.参考答案:绝大多数细菌对人类有益,如食品工业中制造醋、味精等调味品;烹调和取暖用的天然气是数百万年前生活在湖底和沼泽淤泥中的细菌产生的;酸奶、泡菜以及很多腌制食品的制作也离不开细菌;豆科植物根瘤里的根瘤菌有固氮作用;分解动植物残骸,维持地球上的物质循环。少数种类有害,如一些致病菌使人生病;大肠杆菌等细菌造成食品污染。 2.参考答案:开窗通风、熏蒸白醋、喷洒消毒液。 第四节原生生物界 一.填空题 1.藻类,原生动物,原核生物。2.有真正(成形)的细胞核,真核生物。3.色素,绿藻,褐藻,红藻。4.叶绿体,鞭毛,原生。5.圆柱,螺旋盘绕,带,液泡,细丝。6.过多,藻类,赤潮 二.选择题 1.D,2.D,3.D,4.A,5.B 第五节菌物界 一.填空题 1.黏菌,真菌,真菌,6万。2.真正(成形)的细胞核。3.菌丝,菌丝。4.物质循环,生态平衡。5.叶绿体,腐生,寄生。6.酵母菌,有机物(淀粉),二氧化碳 二.选择题 1.D,2.B,3.C,4.C,5.D 三.简答题 参考答案:霉菌中含有毒素,容易造成食物中毒。 第六节植物界 一.填空题

课时跟踪检测(五十六) 物质的检验

课时跟踪检测(五十六)物质的检验 1.下列实验可实现鉴别目的的是() A.用KOH溶液鉴别SO3(g)和SO2 B.用湿润KI-淀粉试纸鉴别Br2(g)和NO2 C.用CO2鉴别NaAlO2溶液和CH3COONa溶液 D.用BaCl2溶液鉴别AgNO3溶液和K2SO4溶液 解析:选C SO2、SO3(g)均能与KOH溶液反应,都没有明显现象,A项错误。Br2(g)、NO2都是红棕色气体且有强氧化性,都能氧化KI而生成I2,使淀粉显蓝色,B项错误。 偏铝酸的酸性弱于碳酸,CO2通入NaAlO2溶液中生成Al(OH)3沉淀,醋酸酸性强于碳酸,CO2通入CH3COONa溶液无现象,C项正确。BaCl2溶液和AgNO3溶液反应生成AgCl 沉淀,BaCl2溶液和K2SO4溶液反应生成BaSO4沉淀,现象相同不能鉴别,D项错误。2.下列有关叙述正确的是() A.将木炭和浓硫酸在加热条件下反应生成的气体通入澄清石灰水中,有白色沉淀生成,该气体一定是CO2 B.能使品红溶液褪色的气体一定是SO2 C.某红棕色气体溶于水形成溶液,该气体一定是NO2 D.某物质燃烧后的产物既能使白色硫酸铜粉末变蓝,又能使澄清石灰水变浑浊,该物质可能是碳氢化合物 解析:选D木炭和浓硫酸在加热条件下反应可生成CO2和SO2,而SO2和CO2均可以使澄清石灰水变浑浊,A项错误;能使品红溶液褪色的气体可能是SO2,还可能为具有漂白性的其他气体,如Cl2等,B项错误;NO2、溴蒸气均为红棕色气体且溶于水均能形成溶液,C项错误;D项中的现象只能说明该物质一定含有碳、氢元素,则该物质既可能为碳氢化合物,也可能为含有碳、氢、氧元素的化合物,正确。 3.(2020·奉新模拟)已知:SO2-3+I2+H2O===SO2-4+2I-+2H+。某溶液中可能含有Na+、NH+4、K+、I-、SO2-3、SO2-4,且所有离子物质的量浓度相等。向该无色溶液中滴加少量溴水,溶液仍呈无色。下列关于该溶液的判断正确的是() A.肯定不含I-B.肯定含有SO2-4 C.肯定含有SO2-3D.肯定含有NH+4 解析:选C溶液中加入少量溴水,溶液仍呈无色,原溶液中一定有SO2-3;由方程式可知SO2-3的还原性比I-强,可能是SO2-3过量,溴水全部和SO2-3反应,说明溶液中可能

行人检测专利技术综述

行人检测专利技术综述 摘要近年来,伴随着计算机视觉、模式识别和人工智能等相关技术的发展,以及智能汽车、智能监控和安全领域的迫切需求,行人检测技术受到了越来越多的关注,已成为当前研究人员关注的一个重要的研究方向。本文从行人检测的全球专利申请量、全球主要申请人分布、在中国提交申请量、中国主要申请人分布等角度进行了分析和研究,梳理了行人检测技术的研究现状及发展趋势。 关键词行人检测;行人检测应用 1 全球专利申请分析 1.1 全球专利申请量分析 自2000年起,行人检测技术在全球的申请趋势按照申请量可分为三个阶段:技术启蒙期、稳健增长期、快速增長与技术产品化期,下面将具体给出三个阶段的数据分析。 技术启蒙期(2000-2004年):2000年至2004年行人检测技术刚刚启蒙,申请量较少,这期间年均增长大约维持在20件左右。由于此期间计算机视觉技术发展也刚刚起步,行人检测技术还处于理论研究阶段,其涉猎的应用领域还很少。这期间主要的申请人还局限于汽车领域的领头企业,例如尼桑、瑞典奥拓立夫、本田等公司。此阶段行人检测技术,还较为落后其检测还主要是基于对物体的检测结合物体行进速度对行人进行检测,检测准确率低。 稳健增长期(2005-2012年):2005年至2012年,信息技术迅猛发展,计算机视觉也得到了飞速发展。此阶段由于与行人检测相关的技术智能汽车、智能监控和安全领域也得到了相关企业重视。行人检测技术申请量增长率有抬头趋势,在此期间年申请量50-80件左右,其主要涉猎的领域也较一阶段也涉及更多的应用领域,例如,一些新兴的企业单位也申请了相关专利申请。且此阶段,行人检测技术采用的技术也有所改进,行人检测的准确率有了一定的提升[1]。 快速增长与技术产品化(2013-2016年):在此期间,计算机视觉、图形图像等相关技术显著提升。2013-2016年,全球专利年申请量迅猛增至年申请量200件,尤其是在近三年其增占率更是实现了翻倍增长。其主要原因为:视频监控、自动驾驶技术、互动娱乐与人机交互、家庭监控等新兴领域的发展,促进了行人检测技术的发展,技术产品化成为可能。行人检测技术也逐渐走向成熟,其主要相关技术行人识别、背景去噪、算法效率等方面均得到了显著提高。 1.2 全球专利申请国家分布分析 本文通过对DWPI数据库的国别字段进行申请量统计,并通过Microsoft Excel进行了申请百分比统计。截止2016全球行人检测技术排名前三位的申请国

水利工程平行检测计划

平行检测计划 一、项目概况 故城县 2015 年地下水超采综合治理坊庄乡地表水灌溉项目,工程分 为6 个标段,工期 130 天。主要任务是开展以新建桥闸涵、河道、坑塘清淤及田间灌溉工程为主的综合性治理的水利工程。 二、依据内容 平行检验是施工阶段建设工程监理对工程实体进行质量控制的重要手 段。 监理规范中明确规定平行检验的做法:即项目监理机构利用一定的检查或检测手段,在承包单位自检的基础上,按照一定的比例独立进行检查或检测活动。”( GB50319-2000)。 《水利水电建设工程验收规程》 SL223-2007 中明确了建筑工程施工质量控制及验收必须由监理机构检查认可并得结论。 因此,监理机构必须正确运用平行检验这一手段做好工程质量的过程控 制工作。 一、国家有关法律、法规目录 1、《中华人民共和国招标投标法》 2、《中华人民共和国产品质量法》 3、《中华人民共和国建筑法》

4、《建设工程质量管理条例》 5、《水利工程建设项目施工监理规范》 6、《水电水利工程施工监理规范》 7、《水利工程建设监理单位管理办法》 8、《水利工程建设监理工程师管理办法》 9、《水利工程质量管理规定》 10、《水利工程质量监督管理规定》 11、《水利基本建设项目(工程)档案资料管理规定》 12、《水利工程建设项目施工分包管理规定》 13、《建设工程监理与相关服务收费管理规定》 14、《水利工程监理合同示范文本》 15、《水利水电工程施工合同和招标文件示范文本》 16、《水利工程质量事故处理暂时规定》 二、技术标准、规程、规范目录 1、《水利水电建设工程验收规程》 2、《水利水电工程施工质量检验与评定规程》 3、《水利水电工程施工组织设计规范》 4、《水利水电基本建设工程单元工程质量等级评定标准》 5、《防洪标准》 6、《水利水电工程施工测量规范》 7、《土工合成材料测试规程》 8、《水利水电建设工程验收规程sl223-2008 》

北京朝阳七年级下册《语文目标检测》每课四世同堂答案

七下目标检测参考答案 第一单元 1.从百草园到三味书屋 7.鼓励创新。注意景物与房舍的顺序。 2.爸爸的花落了 6.注意人物的辈分。 3.丑小鸭 6.二儿子钱仲石跟日本人同归于尽;觉醒的战士(不惧死亡,孤身抗战);到处巴结日本人为冠晓荷谋一个官位;痛心山河失守,渴望亲赴国难,尽自己一份微薄之力;对一大家子人的责任,一大家子人的温饱等待着他。 4.诗两首 5.祁老太爷闭上眼,想起今天街上的情景,想起那卖兔儿爷的瘦子的话,想起刚刚夹着蓝布包站在门槛那儿的钱夫人...是了...她说孟石也快不行了...他原先想,只要日本人还让一个本本分分的老人过七十五岁生日,便恨不起来,可如今...今年已经是这样,明年呢?明年怕是连兔儿爷的影子都见不着了...北京城...这是要完了啊.... 5.伤仲永 9.钱夫人痛失爱子,表面看上去是因为钱默吟被抓,仲石身死,孟石孱弱的身体经受不住打击而去世,而根本原因则是“覆巢之下无完卵”,国亡了,百姓就无人庇护,陷入了任人鱼肉的境地。祁瑞宣心中深深明白这一点,作为一个也深受亡国之苦的人来说,他想要安慰钱夫人却力不从心,因此就像屠宰场中的两头牛,都面临着死亡,谁也帮不了谁的无助感充满了心头。 第二单元 6.黄河颂 7、(1)C (2)有里有面就是形容某些人办起事来,严谨工整,八面玲珑;说起话来,滴水不漏,顾忌四方与人交往,中规中矩,礼尚往来。不会为了叫别人有面子,自己就丢面子。更不会为了自己的面子,叫别人丢面子。

7.最后一课 8、提示:无论战争正义与否,对人的伤害都是惨重的,包括身体上的伤害、精神上的伤害。 8.艰难的国运与雄健的国民 6.B 9 土地的誓言 7.B 8略 10 木兰诗 8.C 9.略 第三单元 11 邓稼先 7.这段文字生动形象地写出了大赤包的肥胖、虚荣、颐指气使的做派和嚣张跋扈的刁悍。老舍对大赤包的肖像描写可谓神妙,用摸了黄油来比喻发福后连脸上的雀斑,用刚灌好的腊肠来比喻手指肉被戒指包起来后的样子,形神兼备地写出了大赤包发福、肥胖、满脸横肉的样子。用神态和动作的细节描写突出她的虚荣、做作、嚣张的做派和刁悍的性格,如“细细的搽粉抹口红”“放炮似的咳嗽”“象空袭警报器似的哈欠”,性格和形象跃然纸上,令人拍案叫绝。 12 闻一多先生的说和做 4.忠(国家责任、尽忠国家)孝(家庭责任、保全家庭)等 丁约翰冠晓荷大赤包蓝东阳胖菊子等(任选四个即可,熟悉原文) 徘徊、犹豫、矛盾、沉默、缺乏动力等 13 音乐巨人贝多芬 7. 要求:①体现刚升任处长后的得意与骄矜,目空一切。②写出他对面前人与物的不屑一顾。③第一人称写作 14 福楼拜家的星期天 7.(1)金三爷虽然由于自己亲家钱默吟受日本人迫害毒打而恨过日本人,但是因为日本人挑起的战争使得北平的房不够用的了,一方面日本人蜂拥到北平来“采蜜”,另一方面日本军队在北平四围的屠杀教乡民们到北平城里来避难,金三爷的地产中介生意兴旺起来,金三爷的地位也显得重要起来。金三爷心里只有自己的生意,顾不得想别的,他不但忘了什么国家大事,而且甚至于忘了他自己。他仿佛忽然落在了生意网里,左顾右盼全是生意。目光短浅、只看眼前自己个人小利的金三爷也就很快原谅了日本人。

2017_2018学年高中化学课时跟踪检测(十六)从自然界获取铁和铜苏教版必修1

课时跟踪检测(十六) 从自然界获取铁和铜 1.下列说法中,不正确的是( ) A .金属的冶炼,就是利用氧化还原反应原理,在一定条件下将金属从其化合物中还原出来 B .冶炼金属时,必须加入一种物质作为还原剂 C .金属由化合态变为游离态,都是被还原 D .金属单质被发现和应用得越早,其活动性一般越弱 解析:选B 由金属冶炼的方法可知,金属冶炼时,除用高温还原法外,还可用电解法、热分解法,后两种方法不用加入还原剂,B 不正确。 2.下列化学反应在金属冶炼工业中还没有得到应用的是( ) A .2NaCl(熔融)=====电解 2Na +Cl 2↑ B .Al 2O 3+3 C =====2 125 ℃ 2Al +3CO↑ C .Fe 2O 3+3CO=====高温 2Fe +3CO 2 D .2Ag 2O=====△ 4Ag +O 2↑ 解析:选B 目前金属铝的制备方法是电解氧化铝,其他选项中所涉及的内容均符合理论和生产实际。 3.铝能用于冶炼金属铁、钒、铬、锰等,其原因是铝具有( ) A .两性 B .导电性好 C .熔点低 D .还原性强,且反应放出大量热 解析:选D 铝能用于冶炼金属铁、钒、铬、锰等,其原因一是铝比铁、钒、铬、锰等活泼,铝能把其置换出来;二是反应放出大量的热使反应得以进行,D 正确。 4.下列反应原理不符合工业冶炼金属实际情况的是( ) A .MgCl 2(熔融)=====电解 Mg +Cl 2↑ B .TiCl 4+4Na =====700~800℃ Ti +4NaCl C .Al 2O 3+3H 2=====△ 2Al +3H 2O

D .Fe 3O 4+4CO=====高温 3Fe +4CO 2 解析:选C 工业上用电解Al 2O 3的方法制取单质Al 。 5.从石器、青铜器到铁器时代,金属的冶炼体现了人类文明的发展水平。下图表示了三种金属被人类开发利用的大致年限,之所以有先后,主要取决于( ) A .金属的导电性强弱 B .金属在地壳中的含量多少 C .金属的化合价高低 D .金属的活动性强弱 解析:选D 人类对材料的使用经历了一个由易到难,由简单到复杂的过程,所以金属活动性较差、容易冶炼的金属最先被人发现和利用。 6.用H 2、C 、CO 分别与等质量的氧化铁在高温下反应,使氧化铁中的铁全部还原出来,消耗H 2、C 、CO 的质量比为( ) A .1∶1∶1 B .1∶3∶14 C .1∶6∶14 D .2∶1∶2 解析:选B 由3H 2~Fe 2O 3,32 C ~Fe 2O 3,3CO ~Fe 2O 3可知,相同的质量的氧化铁需要的还原剂的质量比为: (3×2)∶? ?? ??32×12∶(3×28)=1∶3∶14。 7.工业上,常用Mg 还原法制取金属Ti ,反应原理如下:2Mg +TiCl 4=====高温 2MgCl 2+Ti 。 下列说法正确的是( ) ①该反应属于置换反应;②该反应属于氧化还原反应; ③该反应表明Mg 比Ti 活泼;④Ti 被誉为“21世纪的金属”,在航天工业上有广泛用途。 A .只有①② B .只有③④ C .只有①②③ D .全部 解析:选D 由单质Mg 从化合物TiCl 4中置换出金属Ti ,化合价发生变化,故①②正确;在反应中Mg 作还原剂,Ti 是还原产物,故Mg 的还原性比Ti 强,③正确;④Ti 为性能优良的金属,广泛应用于航天工业,④正确。 8.用足量的CO 还原32.0 g 某种氧化物,将生成的气体通入足量澄清石灰水中,得到

平行检测

平行检测 1.引言 平行检测是监理质量控制的重要方法之一,在有关法规、规章和规范中均明确地规定了下来。但是,由于对平行检测的目的与效力的认识不同,不同项目所具备的平行检测的条件不同,以及对平行检测所需费用的负担方式不同,致使在平行检测实施中存在诸多问题,影响平行检测的顺利实施和效果,有时甚至带来负面影响。例如,不同项目对平行检测实施的优劣层次差别较大,长此以往,会失去其严肃性,对工程实体质量和质量管理都将会造成不利影响;再如,由于不少项目在实施平行检测时存在“条件”不可为而“勉强”为之的情形,平行检测工作不规范,加大了相关监理单位和监理人员的责任风险。本文针对平行检测实施中存在的问题,从分析平行检测的目的与效力出发,探讨提出平行检测实施的改进建议。 2.平行检测实施中存在的问题 2.1 平行检测业务的委托问题 《水利工程建设项目施工监理规范》(下文简称《监理规范》)6.2.11第3款规定:“平行检测工作应由具有国家规定的资质条件的检测机构承担”。根据相关规定对水利工程质量检测单位资质等级标准的要求,监理单位几乎没有能力自己设立符合资质有求的试验室,只能通过委托方式进行平行检测(除个别大型工程由项目法人自建实验室外)。但是,由于项目规模和复杂程度的不同,以及受项目所在地域的限制,在平行检测实施中常遇到的问题有:有些项目所在地具备承担检测任务的检测单位很少,监理单位无法委托独立的检测单位进行平行检测;有些项目所在地甚至没有符合要求的检测单位可供委托;有些项目所在地的检测单位业务繁忙,再加上所监理的项目规模小,相应的平行检测业务量太小而没有符合规定资质条件的检测单位愿意承担。在此情况下,有些监理单位采取长距离外送检测,不仅由于检测时间长有时影响施工进度,而且,长距离送样很难保证检测质量;有些监理单位则将平行检测业务委托给承担承包人自检业务的同一检测单位,失去或大大减小了平行检测的作用。 2.2平行检测的经费问题 目前,在平行检测实施中存在着对平行检测的要求不断增加但所需经费始终无法保证的突出问题。一方面,尽管《监理规范》中对平行检测只规定了混凝土试样不少于承包人自检数量的3%,土方试样不少于承包人自检数量的5%。但是,由于水利工程规模庞大,结构复杂,以及用于工程的原材料、中间产品、金属结构和机电设备等,数量巨大、种类繁多,需要进行的平行检测数量相当可观。而且,有些发包人从加强监理质量控制的初衷出发,大幅度地提高了平行检测的数量要求;但另一方面,虽然《监理规范》中规定平行检测费用应由发包人承担,但是,在现实情况下,有相当一部分发包人利用监理招标时所处的主导地位优势,通过不同的方式,将平行检测费的负担与风险转移给监理单位,经常造成监理单位的成本大幅度增加,无法维持正常经费支出,或很大程度上未能按照合同要求严格实施真正意 义上的平行检测。 2.3平行检测的指标范围、类别等的界定和相应比例的确定问题 “工程质量检测”的含义十分广泛,从方法上讲,包括:测量、检查、试验或度量;从被检测实体对象来说,包括:原材料、中间产品、金属结构、机电设备、工序、工程实体(包括对单元工程、分部工程、单位工程和工程等)等;从检测手段上讲,既包括无损检测,也包括破坏性检测;从检测方式和条件上讲,既包括专业试验室的检测,也包括工程现场的原形检测;从检测所需专业资质角度,既包括具有专业资质的检测单位所进行的检测,也应包括不具备检测资质的单位的专业人员进行的现场常规检测;从检测所需技术手段与条件角度,既包括常规检测,也包括专门性特殊检测。在目前平行检测实践中,由于没有从平行检测角度对工程质量检测给出明确的指标范围与类别的界定,使得平行检测的方式、指标范围和比例等的确定缺乏明确、科学的依据(如哪些检测项目应委托有资质的专业检测单位进

机器视觉的辅助驾驶系统的视频中行人检测跟踪

机器视觉的辅助驾驶系统的视频中行人 实时检测识别研究文献综述 1机器视觉发展 国外机器视觉发展的起点难以准确考证,其大致的发展历程是:20世纪50年代提出机器视觉概念,20世纪70年代真正开始发展,20世纪80年代进入发展正轨,20世纪90年代发展趋于成熟,20世纪90年代后高速发展。在机器视觉发展的历程中,有3个明显的标志点,一是机器视觉最先的应用来自“机器人”的研制,也就是说,机器视觉首先是在机器人的研究中发展起来的;二是20世纪70年代CCD图像传感器的出现,CCD摄像机替代硅靶摄像是机器视觉发展历程中的一个重要转折点;三是20世纪80年代CPU、DSP等图像处理硬件技术的飞速进步,为机器视觉飞速发展提供了基础条件。 国内机器视觉发展的大致历程:真正开始起步是20世纪80年代,20世纪90年代进入发展期,加速发展则是近几年的事情。中国正在成为世界机器视觉发展最活跃的地区之一,其中最主要的原因是中国已经成为全球的加工中心,许许多多先进生产线己经或正在迁移至中国,伴随这些先进生产线的迁移,许多具有国际先进水平的机器视觉系统也进入中国。对这些机器视觉系统的维护和提升而产生的市场需求也将国际机器视觉企业吸引而至,国内的机器视觉企业在与国际机器视觉企业的学习与竞争中不断成长。 未来机器视觉的发展将呈现下列趋势: (1)技术方面的趋势是数字化、实时化、智能化 图像采集与传输的数字化是机器视觉在技术方面发展的必然趋势。更多的数字摄像机,更宽的图像数据传输带宽,更高的图像处理速度,以及更先进的图像处理算法将会推出,将会得到更广泛的应用。这样的技术发展趋势将使机器视觉系统向着实时性更好和智能程度更高的方向不断发展。 (2)产品方面:智能摄像机将会占据市场主要地位 智能摄像机具有体积小、价格低、使用安装方便、用户二次开发周期短的优点,非常适合生产线安装使用,越来越受到用户的青睐,智能摄像机所采用的许多部件与技术都来自IT行业,其价格会不断降低,逐渐会为最终用户所接受。因此,

2018-2019人教版高中化学必修二课时跟踪检测(十六) 乙 醇

课时跟踪检测(十六)乙醇 1.下列有关乙醇的说法正确的是() A.用酒精作燃料可降低碳的排放 B.通常状况下,不能与金属钠反应 C.在加热和有铜存在下,可与氧气反应生成乙醛 D.在水溶液中能够电离产生H+,呈现弱酸性 解析:选C A项,乙醇中含有碳元素,燃烧会产生CO2,错误;B项,乙醇中含有羟基,能与金属钠反应放出氢气,错误;C项,在加热和有铜或银存在下,可与氧气反应生成乙醛,正确;D项,乙醇属于非电解质,在水溶液中不能电离产生H+,错误。 2.下列有关乙醇的表述正确的是() A.乙醇分子中含有甲基,甲基的电子式为 B.乙醇的结构简式为C2H6O C.乙醇分子中羟基的电子式为[·×O·×H]- D.乙醇分子的填充模型为 解析:选D甲基的电子式中碳原子的周围有7个电子,A项错误;乙醇的结构简式为CH3CH2OH,B项错误;羟基呈电中性,C项错误。 3.下列物质中,分别加入金属钠,不能产生氢气的是() A.苯B.蒸馏水 C.无水酒精D.75%的酒精 解析:选A乙醇、H2O都能与Na发生置换反应生成H2,75%的酒精是水和乙醇组成的混合物,也能与Na反应生成H2;苯不能与Na反应生成H2。 4.下列物质不能氧化乙醇的是() A.氧气B.酸性高锰酸钾溶液 C.酸性重铬酸钾溶液D.稀硫酸 解析:选D乙醇可被氧气氧化成二氧化碳和水或乙醛;也可被强氧化剂酸性高锰酸钾

溶液或酸性重铬酸钾溶液氧化成乙酸,但不能被稀硫酸氧化。 5.下列乙醇的化学性质中不是由羟基所决定的是() A.跟活泼金属Na等发生反应 B.在足量O2中完全燃烧生成CO2和水 C.当Cu或Ag存在时跟O2发生反应生成乙醛和H2O D.乙醇被酸性高锰酸钾氧化为乙酸 解析:选B乙醇和金属Na反应是钠置换羟基上的氢;乙醇的催化氧化是羟基上的氧 氢键以及与羟基相连的碳原子上的碳氢键断裂,形成;而燃烧时乙醇分子中的化学键全部断裂,不是由羟基所决定的。 6.乙醇分子中的化学键如图所示,下列关于乙醇在各种反应中断裂化学键的说法不正确的是() A.与金属钠反应时①断裂 B.在加热和铜做催化剂的条件下与O2反应时断裂①和③ C.在加热和铜做催化剂的条件下与O2反应时断裂①和⑤ D.在空气中完全燃烧时断裂①②③④⑤ 解析:选C乙醇与钠反应生成乙醇钠,羟基中的O—H键断裂,A正确;乙醇催化氧化生成乙醛时,断裂①和与羟基直接相连的碳氢键即③,B正确,C错误;乙醇完全燃烧时,化学键①②③④⑤全部断裂,D正确。 7.酒驾是引发交通事故的重要原因,醉驾要入刑。交警对驾驶员进行呼气酒精检测的原理是橙色的酸性K2Cr2O7水溶液遇乙醇迅速生成蓝绿色Cr3+。下列对乙醇的描述与此测定原理有关的是() ①乙醇沸点低②乙醇密度比水小③乙醇有还原性④乙醇是烃的含氧衍生物 A.②④B.②③ C.①③D.①④ 解析:选C酒精用于对驾驶员酒驾的检测,是因为酒精沸点较低,易挥发,且具有还原性,酒精蒸气可使橙色的酸性K2Cr2O7溶液变为蓝绿色。 8.分子式为C4H10O且可与金属钠反应放出氢气的有机化合物有(不考虑立体异

计算机视觉各种方法

第33卷第1期自动化学报Vol.33,No.1 2007年1月ACTA AUTOMATICA SINICA January,2007 车辆辅助驾驶系统中基于计算机视觉的 行人检测研究综述 贾慧星1章毓晋1 摘要基于计算机视觉的行人检测由于其在车辆辅助驾驶系统中的重要应用价值成为当前计算机视觉和智能车辆领域最为活跃的研究课题之一.其核心是利用安装在运动车辆上的摄像机检测行人,从而估计出潜在的危险以便采取策略保护行人.本文在对这一问题存在的困难进行分析的基础上,对相关文献进行综述.基于视觉的行人检测系统一般包括两个模块:感兴趣区分割和目标识别,本文介绍了这两个模块所采用的一些典型方法,分析了每种方法的原理和优缺点.最后对性能评估和未来的研究方向等一系列关键问题给予了介绍. 关键词行人检测,车辆辅助驾驶系统,感兴趣区分割,目标识别 中图分类号TP391.41 A Survey of Computer Vision Based Pedestrian Detection for Driver Assistance Systems JIA Hui-Xing ZHANG Yu-Jin Abstract Computer vision based pedestrian detection has become one of the hottest topics in the domain of computer vision and intelligent vehicle because of its potential applications in driver assistance systems.It aims at detecting pedestrians appearing ahead of the vehicle using a vehicle-mounted camera,so as to assess the danger and take actions to protect pedestrians in case of danger.In this paper,we give detailed analysis of the di?culties lying in the problem and review most of the literature.A typical pedestrian detection system includes two modules:regions of interest(ROIs) segmentation and object recognition.This paper introduces the principle of typical methods of the two modules and analyzes their respective pros and cons.Finally,we give detailed analysis of performance evaluation and propose some research directions. Key words Pedestrian detection,driver assistance system,ROIs segmentation,object recognition 1引言 车辆辅助驾驶系统中基于计算机视觉的行人检测是指利用安装在运动车辆上的摄像机获取车辆前面的视频信息,然后从视频序列中检测出行人的位置.由于它在行人安全方面的巨大应用前景,成为智能车辆、计算机视觉和模式识别领域的前沿研究课题.欧盟从2000年到2005年连续资助了PROTECTOR[1]和SAVE-U[2]项目,开发了两个以计算机视觉为核心的行人检测系统;意大利Parma[3]大学开发的ARGO智能车也包括一个行人检测模块;以色列的MobilEye[4]公司开发了芯 收稿日期2006-3-14收修改稿日期2006-6-17 Received March14,2006;in revised form June17,2006 国家自然科学基金(60573148),教育部高等学校博士学科点专项科研基金(20060003102)资助 Supported by National Natural Science Foundation of P.R.China(60573148),Specialized Research Fund for the Doc-toral Program of Higher Education(20060003102) 1.清华大学电子工程系北京100084 1.Department of Electronic Engineering,Tsinghua University, Beijing100084 DOI:10.1360/aas-007-0084片级的行人检测系统;日本本田汽车公司[5]开发了基于红外摄像机的行人检测系统;国外的大学如CMU[6]、MIT[7,8]和国内的西安交通大学[9]、清华大学[10]也在该领域做了许多研究工作. 车辆辅助驾驶系统中基于计算机视觉的行人检测属于计算机视觉中人体运动分析的研究范畴,其主要任务是在运动摄像机下快速准确地检测行人.本文主要针对这一特定领域对相关的文献进行综述,重点分析常用方法的原理和优缺点,以期对相关的科技人员起到指导作用.对监控系统和体育运动分析领域中人体检测感兴趣的读者可以参考综述文献[11~14]. 行人检测除了具有一般人体检测具有的服饰变化、姿态变化等难点外,由于其特定的应用领域还具有以下难点:摄像机是运动的,这样广泛应用于智能监控领域中检测动态目标的方法便不能直接使用;行人检测面临的是一个开放的环境,要考虑不同的路况、天气和光线变化,对算法的鲁棒性提出了很高的要求;实时性是系统必须满足的要求,这 c 2007by Acta Automatica Sinica.All rights reserved.

相关文档
最新文档