基于Deep Web数据集成的个性化信息服务研究

合集下载

面向大数据的Deep Web数据系统关键技术研究

面向大数据的Deep Web数据系统关键技术研究

面向大数据的Deep Web数据系统关键技术研究摘要:由于数据产生成本的急速下降,人类社会产生的数据不仅以指数级别增长,而且数据的结构变得日趋复杂,使得传统的数据分析技术遇到了极大的挑战。

如何对大量复杂数据进行分析和挖掘,从中提取有价值的知识用于决策,已经成为产业界和学术界的广泛关注问题,在一些国家已上升到国家战略层面。

本文介绍了大数据的基本概念、特征和面临的科学问题,总结了“deep web”课题的一些先期成果,为开发大数据管理、分析和挖掘系统提供一些参考依据。

关键词:大数据;deep web;系统;技术研究中图分类号:tj768.4文献标识码:a 文章编号:引言在全球经济的很多领域,大数据在以很多方式创造价值。

随着各个经济领域不断挖掘大数据的潜力,我们正处在一个巨大浪潮的尖峰,这个浪潮,就是大数据驱动的创新、生产效率提高、经济增长以及新的竞争形式和新的价值的产生。

1.大数据指的是所涉及的资料量规模巨大到无法透过目前主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策更积极目的的资讯。

1.1大数据的特点,业界通常用4个“v”—volume,variety,value,velocity。

或者说特点有四个层面:第一,数据体量巨大。

从tb级别,跃升到pb级别;第二,数据类型繁多。

网络日志、视频、图片、地理位置信息等等。

第三,价值密度低。

以视频为例,连续不间断监控过程中,可能有用的数据仅仅有一两秒。

第四,处理速度快。

1秒定律。

最后这一点也是和传统的数据挖掘技术有着本质的不同。

1.1.1数据体量巨大。

从tb跃升到pb至eb级别。

要知道目前的数据量有多大,我们先来看看一组公式。

1024gb=1tb;1024tb=1pb;1024pb=1eb;1024 eb=1zb;1024zb=yb。

到目前为止,人类生产的所有印刷材料的数据量是200pb,而历史上全人类说过的所有的话的数据量大约是5eb。

基于Deep Web数据查询接口的抽取与集成

基于Deep Web数据查询接口的抽取与集成

信息科学SI L I C O NL LE Y■_g基于D e ep W eb数据查询接11的抽取与集成刘超1刘妍2(1.九江学院信息技术中心江西九江332005:2.九江学院信息科学与技术学院江西九江332005)【摘要】针对D eep w eb数据集成系统架构,对其中关键的接口的抽取与集成提出思路.[关键词]D eep w eb查询接口抽取集成中图分类号:T P3文献标识码:^文章编号:1671—7597(2008)i210040-01根据数据的分布状况,W eb数据可以分为:Sur f ac e W e b和D eep W eb。

Sur f ace W e b是指可以通过超链接或者传统网页搜索引擎访问到的网页、文件等资源,它一般以静态网页构成为主;而D ee p W eb可以简单的概述为那些难以通过普通搜索引擎发现的资源的集合。

主要包括存储在W e b数据库里大量资源,需要通过动态网页技术才能访问。

D e ep W eb后台的数据库一般为结构化的关系数据库.质量都比较高,因此通过D ee pW eb的数据集成来更有效地利用D eep W eb丰富的数据是十分有意义的。

在Deep w eb数据集成系统中,主要有以下3个步骤:(1)发现D e ep-eb;(2)查询接口抽取与集成;(3)结果抽取与整合.其中查询接口抽取与集成是关键步骤,本文就此提出思路。

用户通过查询接口来获得D e ep W eb的数据信息,一个查询接I Z::l物理上通常包括一些HT M L元素,比如:Text b ox,But t o n,Check box,R ad i o等等,还包括一些有语义的文本标签,而在逻辑上,一个查询接口包括了很多的逻辑属性值,如“淘宝”查洵接口就包括了“关键”、“类别”等属性;而每个不同的逻辑属性又包括了一些特定的元数据信息,比如:属性名称、数据类型、数据范围、数据单位、默认值、查询条件等,如“拍拍网”的。

Deep Web数据集成若干关键技术研究及系统原型实现_硕士论文答辩

Deep Web数据集成若干关键技术研究及系统原型实现_硕士论文答辩

2 3 4 5 6
7
8
3
Web数据库快速发现策略研究
Web数据库发现步骤 1)发现Web数据库网站,定位。 2)从网站中发现查询接口,识别Web数据库入口。 基于搜索引擎的Web数据库定位 利用现有搜索引擎,使用一组能描述特定领域Web数据库特征的词汇当作检索 关键词进行搜索提交,从搜索的网页记录页面中提取目标网站链接,定位到相关 Web数据库所在的网站。 基于规则的Deep Web查询接口识别 通过对大量Deep Web查询接口与非Deep Web查询接口表单的观察,参考一 些文献总结出的规则,深入分析Deep Web查询接口与非Deep Web查询接口表单 固有特点和区别,结合实际情况,提出一些Deep Web查询接口的识别规则 ,并 基于规则设计识别算法。
关联(关联控件节点 与标签文本节点)
属性抽取
元素预聚类 属性集合 元素再聚类
属性表示与形成
查询接口模式生成
接口模式
4
基于DOM的Deep Web查询接口模式抽取
元素级抽取
元素 = 标签文本 + 查询控件
4
基于DOM的Deep Web查询接口模式抽取
元素级抽取算法 1)DOM节点解析的有序性 ; 2)查询控件内部属性值与标签文本的语义相似性 。
3
Web数据库快速发现策略研究
a 非Deep Web查询接口表单
b Deep Web查询接口表单
3
Web数据库快速发现策略研究
判定规则:
3
Web数据库快速发现策略研究
1
绪论
Deep Web数据集成研究相关概述 Web数据库快速发现策略研究 基于DOM的Deep Web查询接口模式抽取 基于接口文本VSM的Web数据库分类 基于正则表达式的Deep Web结果数据抽取 Deep Web数据集成原型系统实现 总结与展望

海量存取催生_云数据库_

海量存取催生_云数据库_

中国计算机报/2008年/10月/27日/第C08版专题如何有效地管理Web数据是伴随Web兴起就出现的热门研究课题,而云计算自其诞生之日起,就离不开Web以及对Web数据进行管理。

海量存取催生“云数据库”中国人民大学信息学院王仲远在云计算平台下,Web数据管理进入了一个新的阶段,这就是对Web规模海量数据进行有效管理的研究。

数据库在Web上的应用越来越成熟,基于数据库开发的各种各样的Web应用服务也越来越多。

我们经常会访问的一些网站,如电子商务网站、招聘及求职信息网站、各种内容管理系统以及SNS网站等,其背后都有数据库存在,这些数据库就称为Web数据库。

由于这种基于Web数据库开发的网络应用逐渐兴起,导致Web上的数据量急剧增长。

深层网络数据集成研究2001年7月,BrightPlanet com针对Deep Web的数量做了一次比较全面的统计,其发表的白皮书称:整个Web上大约有43000-96000个Web数据库,以及7500TB的数据(约为Surface Web 的500倍)。

而经过数年发展,根据UIUC所发表的一篇Deep Web(深层数据网络)综述估计,截至2004年,全世界范围内Deep Web的网站数量已经达到307000个,其背后的数据库数量已经达到366000-535000个。

虽然这两年没有新的权威统计报告出来,但是我们有理由相信,Web数据库的数量以及Deep Web的规模仍然是呈现上升趋势。

面对如此多的“隐藏数据”,传统搜索引擎根据链接进行网页抓取的方式却不能完全发掘,因为有许多数据必须是用户提交一个查询之后才会动态生成的。

并且,虽然一些Deep Web网站为自身流量考虑,为搜索引擎提供一些数据页面浏览的入口,造成搜索引擎也能够索引动态页面的现象(例如我们搜索一本书的时候,常常能够在搜索结果中发现购书网站的页面),但是根据UIUC的统计,目前主流搜索引擎例如Google、Yahoo只能够覆盖到其中32%的数据,而大部分数据仍然不能够通过搜索访问到。

2 (东软集团有限公 司 商用软件事业部,辽 宁 沈 阳 110179) A Deep Web Entity Identification Me

2 (东软集团有限公 司 商用软件事业部,辽 宁 沈 阳 110179) A Deep Web Entity Identification Me

ISSN 1000-9825, CODEN RUXUEW E-mail: jos@Journal of Software, Vol.19, No.2, February 2008, pp.194−208 DOI: 10.3724/SP.J.1001.2008.00194 Tel/Fax: +86-10-62562563© 2008 by Journal of Software. All rights reserved.∗一种基于语义及统计分析的Deep Web实体识别机制寇月1+, 申德荣1, 李冬2, 聂铁铮11(东北大学信息科学与工程学院,辽宁沈阳 110004)2(东软集团有限公司商用软件事业部,辽宁沈阳 110179)A Deep Web Entity Identification Mechanism Based on Semantics and Statistical AnalysisKOU Yue1+, SHEN De-Rong1, LI Dong2, NIE Tie-Zheng11(College of Information Science and Engineering, Northeastern University, Shenyang 110004, China)2(Business Software Division, Neusoft Group Ltd., Shenyang 110179, China)+ Corresponding author: Phn: +86-24-83691218, Fax: +86-24-23895654, E-mail: kouyue@, Kou Y, Shen DR, Li D, Nie TZ. A deep Web entity identification mechanism based on semantics andstatistical analysis. Journal of Software, 2008,19(2):194−208. /1000-9825/19/194.htmAbstract: According to analyzing the traditional entity identification methods, a deep Web entity identificationmechanism based on semantics and statistical analysis (SS-EIM) is presented in this paper, which includes textmatching model, semantics analysis model and group statistics model. Also a three-phase gradual refining strategyis adopted, which includes text initial matching, representation relationship abstraction and group statistics analysis.Based on the text characteristics, semantic information and constraints, the identification result is revisedcontinuously to improve the accuracy. By performing the self-adaptive knowledge maintenance strategy, the contentof representation relationship knowledge database can be more complete and effective. The experimentsdemonstrate the feasibility and effectiveness of the key techniques of SS-EIM.Key words: deep Web; data integration; entity identification; data deduplication; representation consolidation摘要: 分析了常见的实体识别方法,提出了一种基于语义及统计分析的实体识别机制(deep Web entityidentification mechanism based on semantics and statistical analysis,简称SS-EIM),能够有效解决Deep Web数据集成中数据纠错、消重及整合等问题.SS-EIM主要由文本匹配模型、语义分析模型和分组统计模型组成,采用文本粗略匹配、表象关联关系获取以及分组统计分析的三段式逐步求精策略,基于文本特征、语义信息及约束规则来不断精化识别结果;根据可获取的有限的实例信息,采用静态分析、动态协调相结合的自适应知识维护策略,构建和完善表象关联知识库,以适应Web数据的动态性并保证表象关联知识的完备性.通过实验验证了SS-EIM中所采用的关键技术的可行性和有效性.关键词: deep Web;数据集成;实体识别;数据消重;表象整合中图法分类号: TP393文献标识码: A随着信息技术的不断发展,Web上的信息量呈爆炸性增长.按照所蕴含信息深度的不同,可以将Web划分为∗Supported by the National Natural Science Foundation of China under Grant No.60673139 (国家自然科学基金)Received 2007-08-31; Accepted 2007-12-05寇月等:一种基于语义及统计分析的Deep Web实体识别机制195Surface Web和Deep Web两大类.统计数据表明:Deep Web蕴含的信息量及数据访问量等都远远高于Surface Web[1].因此,随着Web数据库的不断增长,能够自动获取蕴含在Deep Web中的数据资源并对其进行大规模集成显得尤为重要.然而,数据源内部及数据源之间的数据往往存在数据不一致及数据重复等问题,如果不对这些低质量的数据进行预处理而直接作为查询结果返回,将严重影响Deep Web的查询效率.利用实体识别技术可以对数据集成中产生的重复记录进行检测并整合,有效地消除数据源内部以及数据源之间的数据不一致性.以论文检索网站ACM和DBLP为例,若要查询John Allen发表的论文信息,两个网站上的结果数据如图1所示.从图1中可以看出,由于拼写方式或定义格式的不同,无论是数据源内部还是数据源之间都具有不同表现形式但对应于同一事物的结果数据.我们将与现实世界一一对应的事物或事件称为实体,例如姓名为John Allen的某个具体的人;将实体的不同表现形式定义为实体的表象,例如可以将这个人表示成John Allen,J. Allen等.如果直接将这些表象作为结果返回,则无疑将增加用户对其进一步分类、筛选的负担.因此,为了提高结果数据的质量,需要事先通过实体识别技术将这些表象按照实体类别聚类,并将聚类结果以知识的形式存储,以指导实际查询中的资源整合.针对此例,就是要判断:DBLP网站中的表象r2,r3与r4是否代表同一个人;ACM中r1对应于DBLP中r2,r3与r4的哪个人的信息.因此,通过实体识别技术为用户提供高质量的集成结果是Deep Web数据集成中必不可少的一个过程.: John AllenACMr4: John G. AllenDBLPFig.1 Demonstration of data inconsistency existing in a single data source or among multiple data sources 图1 存在于一个数据源内部或多数据源之间的数据不一致性示例然而,目前针对Web数据实体识别的研究与开发还处于起步阶段,大多数工作都是围绕静态环境来构建实体识别系统(如数据挖掘领域中数据清理问题的研究[2]),与这些实体识别系统相比,Deep Web实体识别的研究更具挑战性,主要体现在以下几个方面:当前大多数实体识别系统仅单一地考虑文本属性特征或上下文语义信息来衡量数据间的相似性,没有对聚类结果进行逐步求精处理,识别的准确性难以保证,因此,已有的识别策略有待改进;蕴含在Deep Web中的数据资源具有较强的动态性,如果按照传统的数据挖掘等方法将获取的所有表象关联信息保存在数据仓库中,则具有相对静态特性的数据仓库的内容不能实时地反映数据的动态变化,因此,传统的数据清理方法对于动态性强的数据资源并不适用;由于Deep Web数据量巨大,若对所有数据源进行分析识别,势必影响识别的处理效率,相反,若只分析部分信息,表象关联知识的完备性将会受到影响,因此,样本数据量的大小难以确定.综上所述,要想有效地整合Deep Web上的数据就必须解决以上问题.本文将着重解决的问题是:在表象模式已知的前提下,如何基于实例信息来分析并获取表象关联知识,如何确保这些知识具有较高的完备性与准确性,以及如何保证表象关联知识库中的内容能够适应于Deep Web环境中数据的动态性.1 相关工作目前,关于实体识别技术的研究主要集中在两方面:一方面是基于实体的属性文本特征进行实体识别(feature-based similarity,简称FBS方法),侧重于研究文本相似函数的设置(包括函数定义、选取和相关阈值的确196 Journal of Software软件学报 V ol.19, No.2, February 2008定)[3−7]、属性权重的选取[8−10]以及相关优化措施[11]等;另一方面是基于实体上下文语义信息或特定领域知识,利用数据挖掘等方法进行实体识别,侧重于研究语义关联的表示方式及计算方法[12−17].其中,基于属性特征进行实体识别的相关工作包括:Bilenko[3]通过采用机器学习方法SVM自适应地选取最佳文本相似度算法,以满足不同领域数据的特点及需求;Cohen[4]分析并比较了多种字符串匹配函数(如编辑距离、Token距离、Levenstein距离等),并从中选取最佳函数来衡量属性特征的相似性;Zhu等人[5]根据关系表的决定属性值划分记录集,并在每个记录集内应用动态优先队列聚类算法和合并逆序算法来检测数据库中的相似重复记录;Ling等人[6]将Web页面中的数据划分成记录块,基于记录块间的文本相似性来判断不同数据源上的记录是否重复,并通过迭代训练来确定相关参数的阈值.以上工作侧重于研究相似函数的定义、选取及阈值设置,除此之外,文本匹配中属性权重的选取及相关优化措施的采用也越发引起关注,例如,Wang等人[8]利用梯度递减算法为数据的描述属性赋予权值,并基于属性权重学习算法和聚类算法将相似的数据聚类;Chaudhuri[11]提出一种高效的重复记录模糊检测算法,通过采用特定索引、排序等优化措施有效地搜索出与当前元组最相似的K个关联元组.基于上下文语义信息或特定领域知识进行实体识别的相关工作包括:Chen[12]将表象间的语义关联以图形化表示,并应用图分割技术对表象集进行聚类分组,每组由对应于同一实体的表象集组成;Thor[13]建立了一个灵活的表象匹配框架MOMA,通过该框架采用不同的表象匹配算法获取表象关联集,并将其合成,从而计算表象间的关联强度;Nie等人[14]利用上下文在互联网共同出现的情况,通过计算网页的URL距离来计算不同表象的互联网关联强度.以上工作大多数是基于静态环境构建的实体识别系统,不能较好地适应Deep Web环境下数据资源的动态性并保证表象关联知识的完备性;另外,这些实体识别系统或者基于属性文本特征,或者基于上下文信息来识别数据间的相似性,缺乏对聚类结果进行逐步求精的过程,因此,单一地应用实体属性特征或上下文信息来进行实体识别将会影响识别结果的准确性.为此,本文探讨了一种基于语义及统计分析的Deep Web实体识别机制,主要贡献在于:提出了SS-EIM(deep Web entity identification mechanism based on semantics and statistical analysis)的模型,其中包括文本匹配模型、语义分析模型和分组统计模型,能够有效解决Deep Web数据集成中数据纠错、消重及整合等问题;提出了文本粗略匹配、表象关联关系获取以及分组统计分析的三段式逐步求精策略,有效地提高了实体识别的准确性;基于有限的实例信息,采用静态分析、动态协调相结合的自适应知识维护策略,构建和完善表象关联知识库,能够适应Web数据的动态性并保证表象关联知识的完备性;通过实验验证了SS-EIM 中所采用的关键技术的可行性和有效性,与其他实体识别策略相比,SS-EIM在知识准确性、知识完备性等性能上具有一定的优势.本文第2节介绍SS-EIM的模型;第3节介绍文本匹配模型;第4节提出基于上下文的语义分析模型;第5节介绍基于约束规则的分组统计模型;第6节给出三段式逐步求精算法以及性能分析;第7节讨论表象关联知识维护策略;第8节给出相关实验结果并进行分析;第9节总结全文.2 SS-EIM的模型通过预获取的有限的实例信息可以分析和推导出实例间的关联关系并构建表象关联知识库,利用表象关联知识可以有效地指导实时查询中资源选择、消重及数据整合等操作.本节首先介绍SS-EIM的模型,然后针对模型中涉及的相关概念给出定义.SS-EIM的模型如图2所示.其中,R是有限数据集D中的所有表象r i构成的集合,记为{r1,r2,…,r|R|}.将D中与现实世界一一对应的实体集记为E={e1,e2,…,e|E|},e i是由对应于同一实体的表象所组成的表象集.实体识别的任务就是给定一个表象集R,通过匹配、推理及分析等过程,将对应于同一实体的表象进行聚类,最终得到实体集E,|R|≥|E|.实际上,E是理想情况下的实体识别结果,由于Web表现形式的多样性以及数据的复杂性很难将R准确无误地转化成E.因此,可以利用SS-EIM生成的聚类集C={c1,c2,…,c|C|}来近似地表示实体集E,|C|≈|E|.SS-EIM模型首先将模式已知的表象集R作为待识别数据,基于文本匹配模型、语义分析模型和分组统计模型对这些实例寇月 等:一种基于语义及统计分析的Deep Web 实体识别机制 197信息进行静态分析,分别生成一系列文本相似集、语义相似集和满足约束集,并形成初始的表象关联知识;然后,基于知识维护模型以及用户的实际查询结果对当前表象关联知识库中的内容进行动态协调,使其不断被扩充和完善,以保证表象关联知识的完备性和有效性.Fig.2 SS-EIM model图2 SS-EIM 模型文本匹配模型通过比较属性取值的文本相似度来检测由数据格式、拼写错误等因素造成的数据不一致性.但是,文本匹配模型只是通过字面粗略地对表象进行聚类,而文本特征相似的表象很可能代表不同的实体,因此语义分析模型通过上下文语义信息来进一步提高聚类的准确性.除了分析字符串类型的属性及其语义关联以外,分组统计模型还用来对数值型属性进行统计分析以提高实体识别的准确性.为了使表象关联知识库的内容适应Web 数据的动态性,知识维护模型通过收集实际查询过程中的动态结果数据,以此作为基准来实时检测表象关联知识库的完备性和有效性,从而对表象关联知识库中的内容不断进行调整并完善.从SS-EIM 模型中可以看出,文本相似集、语义相似集以及满足约束集的生成过程是对表象聚类集逐步求精的过程,将其分别记为S txt ,S sem 和S con ,三者的关系为S txt [r i ]⊇S sem [r i ]⊇S con [r i ],现给出具体定义.定义1(文本相似集S txt [r i ]). 基于实体的属性取值、利用文本相似函数Sim 计算表象间的相似度,文本相似集由文本相似度达到文本相似阈值σtxt 的表象以及与该表象具有异名同义或层次包含关系的表象S txt_Extend [r i ]所组成,具体定义为{}_[]|([](,))[]txt i j j k k txt i j k txt txt Extend i S r r r R r r S r Sim r r S r σ=∈∧∃∈∧>∪ (1)定义2(语义相似集S sem [r i ]). 依据语义关联进一步分析每个文本相似集,语义相似集由表象间关联强度CS 大于语义相似阈值σsem 的表象所组成,具体定义为{}[]|[]([]())sem i j j txt i k k sem i j k sem S r r r S r r r S r CS r r σ=∈∧∃∈∧→> (2) 定义3(满足约束集S con [r i ]). 基于约束规则检测语义相似集的聚类准确性,满足约束集由语义相似集内满足约束规则的表象所组成,具体定义为{}[]|[][] con i j j sem i con i S r r r S r S r =∈∧满足约束规则 (3) 其中,语义关联是指存在于表象间直接或间接的上下文联系,关联强度是对语义关联强弱的量化表示.以图1为例,若r 1与r 2有相同的合作者,则认为表象r 1与r 2之间存在语义关联.约束规则是指针对某领域中表象的属性聚集值所定义的约束条件.例如,若图1中ACM 网站的r 1与DBLP 网站的r 2,r 3对应同一个人,那么该作者在两个网站中被收录的文章总数应相差不多,可以将其作为约束规则来进一步检测聚类的准确性.3 文本匹配模型在特定的领域范围内,对应于相同实体的表象往往具有相似的属性特征.因此,本文应用文本匹配模型对实例信息进行文本粗略匹配,借鉴文本编辑距离函数[18]来衡量表象间属性级相似度,并采用多属性合成函数将多个属性级相似度进行合并,进而衡量表象级的相似程度,最终将具有相似文本特征的表象聚成一类,形成一系列文本相似集.具体步骤如下:步骤 1. 借鉴已有的属性选择算法[8−10],利用近似函数依赖关系来量化实体描述属性a 1~a n 的重要度,并赋198 Journal of Software 软件学报 V ol.19, No.2, February 2008 ))予不同的权值w 1~w n ,具体定义如公式(4)所示.其中,表示a ˆai 与其他属性的组合属性;表示为了使近似函数依赖成立,需要从关系中移除的记录占整个关系的最小比例.越小,说明关系中满 ˆ(j error a a →ˆj aa →ˆ(j error a a →足该函数依赖的记录就越多,a i 的影响力就越大,因此被赋予较高的权值. 1ˆ1(ˆ||n j i j error a a w a =−→=∑) (4) 步骤 2. 针对每个表象对(r i 与r j ) 中的各个属性a k (k =1~n ),分别基于文本编辑距离函数计算表象间属性级的相似度Sim (r i .a k ,r j .a k ),具体定义如下: (.,.)(.,.)1max{|.|,|.|}i k j k i k j k i k j k ed r a r a Sim r a r a r a r a =− (5)步骤 3. 基于多属性合成函数及属性权重将多个属性级的相似度进行合并,从而计算出表象级的文本相似度Sim (r i ,r j )(如公式(6)所示).最终将满足文本相似阈值的所有聚类进行合并,生成一系列初始文本相似集.(6) 111(,)((.,.),...,(.,.),...,(.,.))(.,.)i j i j i k j k i n j n n k i k j k k Sim r r Com Sim r a r a Sim r a r a Sim r a r a w Sim r a r a ===×∑步骤 4. 针对每个初始文本相似集,基于辅助信息库,如Wordnet,将与其存在异名同义及层次包含关系的表象S txt_Extend [r i ]扩充到其中,以保证最终生成的文本相似集具有较高的完备性和准确性.由此可见,文本粗略匹配得到的是从属性特征上具有相似性的表象聚类集,然而,表象的外在表现形式不足以作为聚类的判定依据.例如,J. Smith 既可以表示John Smith,又可以表示Jane Smith,虽然基于文本匹配,这些表象可能被聚集在同一个文本相似集内,但它们分别对应不同的实体.因此,文本匹配只是基于属性特征对表象集粗略地划分,其准确性难以保证.但是,利用文本匹配模型可以使后续的操作在较小的数据空间上进行,从而降低了实体识别的执行代价.4 语义分析模型语义分析模型用来对每个文本相似集的表象进行语义关联分析,将具有语义相似性的表象进行聚类,从而在属性文本匹配的基础上提高了实体识别的准确性.首先,基于表象的上下文信息将其语义关联用表象关联图来表示;然后,针对表象关联图中表象间的多条路径进行分析,并从中选取进行关联强度运算的最佳路径;最后,计算表象间的关联强度,将关联强度大于语义相似阈值的表象聚成一类而形成语义相似集.4.1 语义关联规则针对某一领域,对应于同一实体的表象之间往往存在着直接或间接的语义关联,利用这些关联信息可以提高实体识别的准确性.因此,需要事先挖掘出该领域表象间的语义关联规则.设待聚类表象集为R ,本文首先采取人工筛选的方式从R 中确定一系列标准聚类集c ,其中每个c 由对应同一实体的表象组成;然后,将R 与该领域内其他表象集R k 分别组合形成一系列候选关联R_R k ,借鉴数据挖掘中的Apriori 算法[19,20],针对每一种候选关联R_R k ,挖掘所有标准聚类集中的频繁2项集{r i ,r j }并计算其支持度Support (r i ⇒r j ),R_R k 的支持度由这些频繁2项集的支持度聚集而成(如公式(7)所示);最后,选取支持度较高的候选关联以及它们的有限次迭加作为实体识别的语义关联规则.,.(){,}2(_)()i j k k k i k j i j k i j r r R c r r R r r r r r Support R R Support r r ∈∧∃∈∧⇒⇒∧=⇒∑是频繁项集 (7)以论文检索领域为例,若待聚类的表象集是作者表象集合,则该领域内的关联组合包括作者_合作者、 作者_会议、作者_出版日期等候选关联.若存在某合作者表象r k ,同时与标准聚类集中的两个作者表象r i ,r j 具有合作关系r i ⇒r k ⇒r j ,且该现象频繁发生,则作者_合作者关联的支持度较高,因而将该关联作为实体识别的语义关联规则.以此类推,针对该领域的特征,最终确定如下语义关联规则作为构建表象关联图的依据.• 合作者关联(作者_合作者):若两个表象的合作者集合存在交集,则认为该表象间存在合作者关联.寇月 等:一种基于语义及统计分析的Deep Web 实体识别机制199• 出处关联(作者_会议):若两个表象出自同一个会议或出版机构,则认为该表象间存在出处关联.• 混合关联:表象间经过合作者关联或出处关联的有限次迭加而建立的关联. 4.2 表象关联图基于这些预先挖掘的语义关联规则,可以检测出表象间的关联关系,将这些信息以图形化表示出来的过程就是构建表象关联图(representation relationship graph,简称RRG)的过程.RRG 由节点集合V 和边集合E 组成,V 用来表示实体的不同表象,包括文本相似集内的表象以及与之具有语义关联的所有表象,如上例中的作者和会议等;E 用来表示表象间存在的语义关联,如上例中的合作者关联、出处关联等.表象关联图类似于关系数据库中的实体联系模型,不同的是,表象关联图表示的是实例(表象)间的关联信息,因此,可以将表象关联图看成是对实体联系模型的实例化表示.针对论文检索领域某一文本相似集内的两个表象John Allen 与J. Allen 构建的表象关联图如图3所示,其中,节点分为两类,分别表示作者表象和会议表象;同样,按照表象间关联类型的不同,边也分为合作者关联与出处关联.具体来说,图3(a)表示John Allen 的合作者Helen 同样也是J. Allen 的合作者,则认为John Allen 与J. Allen 存在合作者关联;图3(b)表示John Allen 发表的某篇文章与J. Allen 的来源于同一会议VLDB,则认为John Allen 与J. Allen 存在出处关联;图3(c)表示John Allen 与J. Allen 之间既存在合作者关联又存在出处关联,则认为John Allen 与J. Allen 之间存在混合关联.(a)(b)(c)Fig.3 Demonstration of representation relationship graph图3 表象关联图示例4.3 最佳路径选取表象关联图中两个表象之间如果存在多条关联路径,如何从中选取一条最佳路径作为表象间关联强度计算的依据就成为一个有待解决的问题.通常,如果两个表象间语义关联所在的上下文环境包含的表象越少,语义关联就越有针对性,表象同属于一个实体的概率也就相对越高.为此,本文定义了路径重要度来量化表象间语义关联的独特性,并选取重要度高的路径作为最佳路径来计算关联强度.定义4(路径重要度). 若两个表象间某关联路径上的所有表象节点(不包含起始表象和终止表象)为{r 1,…, r k },与节点r i 存在语义关联的表象个数为m i ,则该关联路径的路径重要度为11.k i i m =∑如图4所示,表象John Allen 与J. Allen 之间路径A 的重要度为0.01,而路径B 的重要度为0.5.这是由于VLDB 与很多作者之间都存在出处关联,表象覆盖率较高,因此削弱了该关联针对作者John Allen 与J. Allen 的表现能力;相反,Helen 只与John Allen 和J. Allen 具有合作者关联,该关联的针对性较强,突出表现了John Allen 与J. Allen 之间语义关联的独特性.因此,在本例中,优先选择表现能力较强的路径B 作为最佳路径来计算表象John Allen 与J. Allen 之间的Fig.4 Selection of the best path 图4 最佳路径的选择200Journal of Software 软件学报 V ol.19, No.2, February 2008关联强度. 4.4 关联强度的计算关联强度是基于最佳路径对表象间语义关联的量化表示,能够在一定程度上反映出表象间潜在的语义相似性.随着关联类型的不同,其语义关联程度也有所不同,因此,需要针对不同的关联类型为其赋予不同的权值.由此可见,前文中最佳路径的选取是根据表象关联图中关联的独特性来进行的,而关联强度则是基于表象间关联的语义表达能力来进行计算的.表象r 1到r n 间关联路径的关联强度如公式(8)所示. 12111121()...1()...(...)111n n m n CS r r CS r r n w n w CS r r r n n −−→++−→++→→→==−−m − (8) 1(_)1(_)i i m k k Support R R w Support R R ==−∑ (9) 可见,表象间的关联强度相当于关联路径上每条子路径r i −1→r i 关联强度的平均值.其中,n 1~n m 表示关联路径上属于各种关联类型的关联数目;w 1~w m 表示按照语义关联程度对不同的关联类型(设有m 个)所赋予的权值(如公式(9)所示).需要注意的是,语义关联的表达能力越强,被赋予的权值就越小,关联强度也就越大.例如,在论文检索领域中,合作者关联比出处关联具有更强的语义表现能力,经计算,其权值分别为0.3和0.7,则图3(a)、 图3(b)和图3(c)中表象John Allen 与J. Allen 间关联强度分别为0.7,0.3和0.43.5 分组统计模型文本匹配与语义分析针对的都是字符串类型的属性,实际应用中实体的某些特征也经常用数值型属性加以描述,如报价、库存量等.对应于同一实体的不同表象在这些数值型属性上往往具有相似的聚集值,例如在不同数据源中,同一商品的平均价格基本一致、同一作者被检索的文章总数基本相同等.因此,可以基于这些数值型属性对语义相似集的表象进行统计分析,并按照属性聚集值的相似程度进一步对表象进行聚类.5.1 约束规则我们将存在于不同数据源中的同一聚类分组应该满足的统计规律定义为约束规则.约束规则所约束的目标是不同数据源内的聚类分组,而不同于文本匹配与语义分析以表象作为操作对象.因此,需要在聚类分组的层次上、针对不同的数据源对其进行统计分析.需要强调的是,只有当聚类分组所包含表象的个数大于1时,才有必要进行统计分析,因此,通常认为只包含1个表象的聚类分组均满足约束规则;另外,只有当数据源规模较大时,统计分析才能有效进行,因此,分组统计分析适合在表象覆盖率较大的数据源上进行.以论文检索领域为例,假设语义相似集S sem {John Allen,J. Allen,J. A. Allen,J. B. Allen,Jane Allen}在数据源DS 1和DS 2中的相关统计信息见表1,针对作者的被收录文章数、参与会议数可以为每个聚类分组(包含的表象数大于1)定义如下约束规则:• 文章数目约束:对应于同一实体的表象集{r 1,…,r n }在DS 1中被收录的文章总数应等于在DS 2中被收录的文章总数,记为DS 1.Sum (r 1.文章数,…,r n .文章数)=DS 2.Sum (r 1.文章数,…,r n .文章数).• 会议次数约束:对应于同一实体的表象集{r 1,…,r n }在DS 1中参与某会议的总次数应等于在DS 2中参与该会议的总次数,记为DS 1.Sum (r 1.会议数,…,r n .会议数)=DS 2.Sum (r 1.会议数,…,r n .会议数).Table 1 Statistical information of a semantic similar set in different data sources表1 不同数据源中某语义相似集的统计信息 Number of accepted papers Number of attended conferences S semDS 1DS 2DS 1DS 2John Allen20 35 6 4 J. Allen30 40 1 2 J. A. Allen40 15 1 2 J. B. Allen15 10 1 5 Jane Allen 120 50 3 11。

基于Deep Web数据查询接口的抽取与集成

基于Deep Web数据查询接口的抽取与集成

基于DeepWeb数据查询接口的抽取与集成作者:刘超刘妍来源:《硅谷》2008年第23期[摘要]针对Deep web数据集成系统架构,对其中关键的接口的抽取与集成提出思路。

[关键词]Deep web 查询接口抽取集成中图分类号:TP3文献标识码:A 文章编号:1671-7597(2008)1210040-01根据数据的分布状况,Web数据可以分为:Surface Web和Deep Web。

Surface Web是指可以通过超链接或者传统网页搜索引擎访问到的网页、文件等资源,它一般以静态网页构成为主;而Deep Web可以简单的概述为那些难以通过普通搜索引擎发现的资源的集合。

主要包括存储在Web数据库里大量资源,需要通过动态网页技术才能访问。

Deep Web后台的数据库一般为结构化的关系数据库,质量都比较高,因此通过DeepWeb的数据集成来更有效地利用Deep Web丰富的数据是十分有意义的。

在Deep web数据集成系统中,主要有以下3个步骤:(1)发现Deep Web;(2)查询接口抽取与集成;(3)结果抽取与整合。

其中查询接口抽取与集成是关键步骤,本文就此提出思路。

用户通过查询接口来获得Deep Web的数据信息,一个查询接口物理上通常包括一些HTML元素,比如:Textbox,Button,Checkbox,Radio等等,还包括一些有语义的文本标签,而在逻辑上,一个查询接口包括了很多的逻辑属性值,如“淘宝”查洵接口就包括了“关键”、“类别”等属性;而每个不同的逻辑属性又包括了一些特定的元数据信息,比如:属性名称、数据类型、数据范围、数据单位、默认值、查询条件等,如“拍拍网”的“价格范围”属性就包括了这些元数据信息:名称--价格,数据类型--货币,单位--元,查询条件--最大与最小范围查询等等。

我们把接口的逻辑形式称为接口模式。

从不同的接口模式中抽取出特定的逻辑属性,并根据相关性把他们集合成为一个通用的逻辑属性,这是查询接口抽取的主要目的,而通过对通用逻辑属性的集成,将得到一个统一的查询接口。

基于Web服务的电力系统信息集成平台框架研究

基于Web服务的电力系统信息集成平台框架研究摘要:随着电力系统信息化的不断发展,电力企业所用到的应用系统日益增多,出现了信息孤岛问题。

解决这些问题的方法就是搭建信息系统集成平台,本文主要对面向Web服务的电力系统信息集成平台框架进行了研究,进一步对其实施细节、安全性方面进行了探讨。

关键词:电力信息平台;数据和应用整合平台;Web Service1 引言近几年来,随着电力企业对信息化建设的逐步重视,很多企业在网络基础设施、信息系统开发应用以及信息化管理体系建设方面都投入了大量的人力物力,取得了相当瞩目的成效,比如整个电力网络系统已经初步形成,并且逐渐完善。

电力专用通信网络也颇具规模,通信范围能覆盖到全国各网、省公司。

各电网企业建成了包括MIS(管理信息系统)、EMS(能量管理系统)、DMS(配电管理系统)、SCADA(数据采集与监视控制系统)、ERP(企业资源规划)、CRM(客户关系管理)、SCM(供应链管理)、EAM(企业资产管理)等各式各样的应用系统。

这些系统隶属于用电、生产科技、信息管理等部门,具有很强的自治行和独立性,彼此处于相互分离的状态,数据有冗余,信息集成度较低,缺乏总体规划设计,信息孤岛问题日益严重。

因此必须构建一个高效的电力系统信息集成平台,通过资源整合,充分发挥现有应用系统的作用,并进一步提升企业信息化水平和应对行业变革的能力,协作发挥整合效益。

构建面向Web服务的电力系统信集成平台就是解决这种问题的有效途径之一,由于本文篇幅有限,重点对面向Web 服务的电力系统信息集成平台的框架进行重点研究。

2 电力系统信息集成平台框架的研究在谈论面向Web服务的电力系统信息集成平台之前,我们需要先对EAI 有所了解。

企业应用集成(Enterprise ApplicationIntegration)是指帮助企业整理、合并计算机应用程序的各种计划、工具和方法。

EAI 会针对企业的业务制定一个总体规划,并考虑如何把已有的应用改进,使得它适应新方案。

大数据下的个性化推荐研究与实现

^m m m m2021年第05期(总第221期)大数据下的个性化推荐研宄与实现陈曦(西安明德理工学院,陕西西安710124)摘要:近年来,社会经济快速发展的同时,互联网信息技术更新与发展的速度不断加快,逐渐渗透到了人们生活中的方方面 面,信息量呈爆炸式增长,而面对海量的信息数据,对人们而言,信息使用率也会逐渐下降。

个性化推荐是基于大数据的一 种新型技术手段,受到了社会各界的广泛关注,其能够有效提升用户体验,满足用户的实际需求。

大数据技术的应用,能够 深入挖掘用户的潜在需求以及购买倾向,并第一时间向用户推荐感兴趣的商品。

通过收集用户的信息数据,并对商品信息 建模,融入大数据算法进行筛选、优化,为用户提供个性化推荐,科学的推荐系统能够快速挖掘与分析用户的消费偏好,并 且为用户提供精准化推荐服务。

文章通过对大数据下的个性化推荐进行了深入分析,并进一步探讨了设计与实现策略。

关键词:大数据;个性化推荐;研究;实现中图分类号:TP391.3 文献标识码:B文章编号=2096-9759(2021)05-0197-03〇引言随着信息数据量逐年攀升,大数据技术的应用,能够为用 户提供个性化推荐服务,针对海量大数据这一现状,通过构建 个性化推荐引擎模型,主要包含离线数据以及在线推荐两个 模块。

离线数据计算可对用户的偏好以及商品列表进行分析 与计算,而在线推荐版块可对用户的行为进行实时分析,并优 化离线计算具体结果,为用户提供精准化结果。

两者之间的 有效结合,能够实现完整化与动态化的推荐服务。

基于算法 改进的基础之上,文章通过构建推荐引擎平台模型,并且采用 了分布式大数据框架,实现了对协同过滤算法的优化与改进,充分考虑到系统的整体性能,最后对关键性能进行实践测试, 从而最大程度上保障个性化推荐平台的整体性能需求。

1推荐引擎关键理论与技术分析1.1工作原理好的推荐弓丨擎能够为用户提供个性化推荐,将用户感兴 趣的商品快速精准的推送到面前,从而大幅度提升商品的成 交率,当前大数据推荐已经被广泛应用于各个领域当中,尤其 是电商领域,个性化推荐服务通常会将用户个人的离线数据 与在线行为进行综合分析,并产生推荐。

基于WEB的高校图书馆个性化信息服务系统——以东北农业大学图书馆个性化信息服务系统为例


随着信息技 术的进步与信息环境的优化 , 图书馆用 户及 其 知识 信息需求 结构发生 了前所未有 的巨大变化 ,] 变 [ 1 这些 化最终 导致 了图书馆信 息服 务方式 的变 革 , 现代 图 书馆 使 的知识信息 服务内容 、 模式 与运 行机制都发 生 了质 的改变 。 个性化 信息服务成 为适应 这种变化的最适宜 的服务方式 。
系 统 采 用 目前 比较 流 行 的 L MP黄 金 开 发 组 合 进 行 框 A
架 搭建 。L M A P是一个缩 写 , 是指 一组通常一起使用 来运行
动态网站或者服 务器 的开源软件 , 包括 : iu Ln x操作系统 、
A ah 络 服 务 器 、 S L数 据 库 、 H D ce网 My Q P P编 程 语 言 。 L M A P
【 摘 要】 述 了个 性化 服 务 的概 念及 图书 馆 建 设 和 发展 个 性 化 信 息服 务 系统 的 深 远 意 义 , 简 并通 过 东北 农 业 大 学 图书馆 个性 化 信 息服 务 系统 的 建 设 给 出 了个 t e5息 服 务 系统 的 实证 , 一 步说 明 了 图 书馆 个 性 化 信 息服 务 系 统 建 t _  ̄4, 4 进 设 在提 升 图 书馆 服 务 层 次 与服 务质 量 中 的重 要 作 用。 【 键词】 关 图书 馆 r 类 号 ] 207 分 G 5. 个性 化 服 务 信 息服 务 . .
:本文系黑龙江省教育厅 、 l : 黑龙江省高校图工委课题“ 高校图书馆个性化信息服务实践研究” 编号 :0 9 B 1 ) ( 20 一 一 4 成果论文 。
图书馆学刊
2 1 年第 7 02 期
积小 、 速度快 、 总体拥有成本低 , 尤其是开放源码这一 特点 , 中小 型网站一般选择 MyQ S L作 为网站数据 库。1 6 1

web服务应用研究与设计毕业设计

文章标题:探索Web服务应用研究与设计——毕业设计的关键主题1. 引言毕业设计作为大学生在专业学习中的重要环节,旨在通过实践与研究,让学生将所学知识应用于实际项目中,提升专业能力和实践经验。

本文将围绕着Web服务应用研究与设计这一关键主题展开讨论,探索其在毕业设计中的重要性与应用。

2. Web服务应用研究与设计的基本概念在进行对Web服务应用研究与设计的探索之前,首先需要了解其基本概念。

Web服务应用是指基于Web的服务应用程序,通过互联网进行交互和通信,为用户提供各种功能与服务。

而Web服务应用的研究与设计,则包括对其应用场景、技术架构、功能设计等方面的深入研究与规划。

3. Web服务应用研究与设计在毕业设计中的重要性作为当今互联网时代的重要应用形式,Web服务应用在毕业设计中扮演着重要角色。

其重要性主要体现在以下几个方面:- 作为学术研究方向,对Web服务应用的深入研究与设计可以促进学生在相关领域的专业能力提升;- 实践项目中,Web服务应用的设计能够锻炼学生的实际操作能力,提升其项目管理与协作能力;- 对于未来就业和职业规划,拥有Web服务应用研究与设计的经验将成为学生在就业市场中的竞争优势。

4. 毕业设计中的Web服务应用研究与设计实践在进行毕业设计的过程中,如何将Web服务应用研究与设计融入其中,引发了许多有趣的讨论与实践。

典型的实践方式包括但不限于:- 选择基于Web服务应用的毕业设计课题,为学生提供具体项目实践机会;- 针对相关课程,设立专门课程进行Web服务应用研究与设计的培训与指导;- 结合校外实习或企业合作,让学生参与真实的Web服务应用项目研究与设计。

5. 个人观点在我看来,Web服务应用研究与设计是一项非常具有挑战性和前沿性的课题。

它不仅需要我们对Web技术的深入理解,同时也需要我们在设计上能够充分考虑用户体验、系统性能、安全性等多方面因素。

在毕业设计中,通过对Web服务应用研究与设计的实践,我相信自己的专业能力和实践经验将得到极大的锻炼和提升。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

必须 符 合 用 户 需 求 并 且 基本 涵 盖 所 有 的 网 络 资 源 和 数 据库
[ 中图分类号]G 5 [ 22 文献标 识码 ]A [ 文章编号]1 8 8 1(00 0— 04— 3 0 —02 2 1J1 07 0 0
Ap l a o ft e e n e r to n t e Pe s n l e n o m a in S r ie pi t n o heDe p W b I tg ain i h r o a i d I f r to e vc ci z
目前 , 国 内高 校 图 书馆 的 个 性 化 信 息 服 务 主 要 是 从 图
问到的页面称之为 Sr c b u aeWe,而嵌入数 据库信 息的 网页 f
不具有静态 U L R ,因 此 普 通 搜 索 引 擎 无 法 直 接 索 引 到 这 部 分 页 面信 息 ,使 得 这 部 分 信 息 对 于 用 户 来 说 是 隐 藏 的 ,称 之 为 D e b epWe ,比 如高 校 订 购 的 数 据 库 资 源 以 及众 多 的 网 络 中可 以查 询 的 在 线 数 据 库 资 源 都 属 于 D e b的 范 畴 。 epWe
t rv e r h mo e S a r e sc uc t e e te e a t noma o e e d f m s fd t ,h s b c me teU — o i o e s ac d l Ot tt P a q iHy r r v x c if r t n t yn e r mas o aa a e o r mp h s n l ei h i h o h
21 0 0年 1 0月 第3 0卷第 1 期 O

现 代 情 报
J un l fMo e Ifr t n o r a o d m noma o i
Oc . 2 1 t, 0 0 V0 . O No 1 13 Байду номын сангаас0
信 息 技 术 与 网 络 ・
基 于 D e b数据集 成 的 个性 化信 息服 务 研究 epWe
a he e S rc nr b ay i oma o rie . c iv d L e e t e l r n r t n s vc s 1 l i r f i e
【 e od JD 印 We ;pr nle rc ;dt i eri K yw rs e b es a z s v e a t ao o id e i an g tn
书馆 自身 的角 度进行 资源组织和信 息服务 ,针对用户提 出
的 申请 ,到 有 关 的 数 据 库 里 单 个 的 进 行 检索 ,然 后 人 工 合 并 重 复 信 息 后 发 送 给 用 户 。作 为 信 息 传 播 门 户 的 图 书 馆 , 不应 该再 继续 传 统 的 被 动 式 服 务 ,应 转 变 为 “ 以用 户 为 中

个 图 书馆数 字 资源 个 性 化信 息服 务 系统 , 实现 了以 用 户为 中心 的 图 书馆 信 息服 务 。
[ 关键词]De b epWe ;个性化服务 ;数据集成
DOl1 9 9 ji n. ∞ 8一O 2 2 1 O. 2 : O 3 6 / .s s 1 81 OO1 OO
张云坤
( 苏州大 学图书馆 ,江苏 苏州 250 ) 106
( 摘 要 )互联网和信 息数字化的高度发展 为信息查询带来 了 的挑 踩,如何改善查 询模 式使用户从海 量的数据 中快速 找 新
到 真正 需要 的 信 息成 为 了 当前 业界 盔 待 解 决 的课 题 。本 文描 述 了一 种 个性 化 信 息服 务模 型 ,使 用 De b 据 集 成 技 术设 计 了 epwe 数
Z a g Yu k n hn nu
( i a ,Sohw U i rt,Szo 10 6 C ia Lb r r y oco n e i v sy uhu2 50 , hn )
【 bt c]T eh h ee pdIt t n it f tnhs ruh io ao tea aNwcaeg n o A s at h gl dvl e e dd i i o i a bogtn r tnr rvl e hl neadhw r i y o n mea ga n mm o l f m i ei l
gn adm jrs ei t o ao teadm i.T eaiedsr e ut i diom tnsrc oe b tin et n a s ei r tnrr vl o a h rc e i da s mz frao v em dl yuli o iu n h n m i e f i n tl c b c o e n i ei iz g D e bdtIt ri cnl yadip m n da ut z o ao rc s mfru t lrr r or dt s epWe a e ao t ho g l et o e i r tns v e ye 6 ̄ i a suc a u a n g tn e o n m e e c m dn m i e i s t oc s i f b ye en h
心” ,及 时 主 动 地 提供 个 性 化信 息 服 务 l 。 主动 推 送 的 信 息 2 J
在 内容上 ,D e b站点 比 Sr c b epWe u aeWe 站点更 专业 ;D e f ep
We 容 的全 部 价 值 是 Src b 1 0 2Oo l b内 uf eWe 的 0 0 倍 引。 a 0
相关文档
最新文档