网络社区划分算法

合集下载

大规模动态网络的社区发现算法

大规模动态网络的社区发现算法

大规模动态网络的社区发现算法社区发现是网络分析中一个重要的研究领域,目的是发现网络中的子群体,这些子群体可以通过相似性特征或交互行为相互联系。

然而,现实中的网络不仅数量庞大,而且是动态的,社区结构也随时间不断演化。

因此,在大规模动态网络中发现社区结构成为了一项挑战性的任务。

传统的聚类算法在大规模动态网络中会遇到一些问题,例如巨大的计算时间、存储空间和精度。

因此,近年来,一些新的算法和框架被提出来解决这些问题。

在这篇文章里,我们将重点介绍几种主流的大规模动态网络的社区发现算法。

1. 静态方法静态方法是最简单的社区发现算法之一,因为它是针对一个固定的网络进行计算。

其中有一个经典的聚类算法叫作Louvain算法。

这种算法使用一种称为“模块度”的指标来评估社区结构的质量,并且能够搜寻整个社区空间以找到最优和最稳定的社区划分,得到了广泛的应用。

然而,静态方法在处理大规模动态网络时并不是特别有效。

因为在动态网络中,每时每刻都会有新的节点和边加入,社区结构也随之不断演化。

因此,需要一种可以处理动态网络的算法。

2. 动态网络的增量方法在动态网络中,边的加入和节点的加入不可避免。

因此,增量聚类算法是一种直接处理动态网络中的方法。

其中有一种增量聚类算法叫做IGF(Incremental Growing of Finite Increment)。

这种方法首先将每个节点作为一个独立的社区,然后在每个时间步中重新分配每个节点的社区,直到达到最优的社区结构。

3. 基于社区结构演化的方法社区结构是动态网络中最为重要的部分,也是最具相似性的部分。

因此,在社区结构变化时,是有可能用过去的社区结构来预测未来的社区结构。

其中有一种基于社区结构演化的方法叫做COSMIC(Community Structure Monitoring and Identification in Changing networks)。

该方法会在整个网络结构上进行社区划分,并利用网络演化过程中的结构相似性来维护社区的一致性。

louvain算法例子

louvain算法例子

louvain算法例子Louvain算法是一种用于社区发现的图算法,它能够将一个大的复杂网络分解为多个较小的子图,每个子图代表一个社区或群组。

本文将以Louvain算法为例,介绍该算法的原理和应用。

Louvain算法是由Vincent Blondel等人于2008年提出的。

它基于图的模块度(modularity)的概念,通过不断优化模块度的方法,将网络划分为多个社区。

模块度是一种衡量网络分割质量的指标,它表示网络中节点之间的连接程度与预期连接程度之间的差异。

Louvain算法的基本步骤如下:1. 初始化:将每个节点视为一个社区,计算网络的初始模块度。

2. 迭代优化:对于每个节点,将其移动到相邻社区中,计算移动后的模块度增量。

选择增量最大的移动,将节点移动到对应的社区中。

3. 合并社区:将相邻的节点所在的社区合并为一个新的社区,计算合并后的模块度。

4. 重复迭代:重复步骤2和步骤3,直到模块度不再增加或迭代次数达到预设值。

Louvain算法的优点在于它的高效性和可扩展性。

该算法能够在大规模网络上快速找到社区结构,并且能够处理具有数百万甚至数十亿节点的网络。

它的时间复杂度为O(nlogn),其中n是节点数。

Louvain算法在社区发现、社交网络分析、生物信息学等领域都有广泛的应用。

例如,在社交网络中,可以使用Louvain算法来识别具有相似兴趣或背景的用户群体,从而为个性化推荐和社交关系分析提供基础。

在生物信息学中,Louvain算法可以用于识别蛋白质相互作用网络中的功能模块,帮助研究人员理解生物系统的结构和功能。

总结一下,Louvain算法是一种高效且可扩展的社区发现算法。

它通过优化网络的模块度指标,将复杂网络分解为多个社区,有助于揭示网络结构和功能。

该算法在社交网络分析、生物信息学等领域有广泛的应用前景。

希望本文能为读者介绍Louvain算法提供一些帮助。

复杂网络中的社区划分算法研究

复杂网络中的社区划分算法研究

复杂网络中的社区划分算法研究复杂网络是指由大量节点和连接在它们之间的边构成的网络。

这些网络由于具有高度的随机性、不确定性和异质性而显得复杂。

社区划分是指将网络中的节点划分成若干个互不相交的子集,每个子集内的节点之间连通度相对较高,而不同子集间的连通度较低。

社区划分算法在复杂网络中具有重要的应用,如社交网络分析、生物信息学、信用评价等。

本文将讨论复杂网络中的社区划分算法及其研究进展。

一、社区划分算法概述社区划分算法着重考虑节点之间的连通性,具体包括以下几类:1. 基于聚类的算法:此类算法通过节点之间的相似性判断节点是否属于同一个社区。

该算法的优点是简单易懂,但存在精度低的问题。

2. 基于图谱的算法:此类算法以图中的节点为基础,采用图中最大匹配算法将图分为两个部分。

该算法的缺点是只能分为两个社区,不适用于多社区。

3. 基于社区传播的算法:此类算法以一小部分节点为种子节点,通过节点之间的传播来分析整个网络社区。

该算法的优点是简单易懂,但在节点数量多的情况下,时间复杂度高,效果不好。

4. 基于模块度的算法:此类算法以网络中节点之间的相似性为基础,通过最小化模块度来分析社区数量与大小。

该算法可以适用于多社区的情况,但可能出现局部最优解的情况。

5. 基于谱方法的算法:此类算法采用线性代数工具谱分析来分析节点之间的连通性。

该算法具有高效率和精准度,是目前最为流行的社区划分算法之一。

二、社区划分算法研究进展社区划分算法在近年来得到了广泛研究,其中以基于谱方法为主要研究方向。

该方法的优点是能够适用于各种类型的网络结构,且能够有比较高的精准度。

1. 基于拉普拉斯矩阵的算法拉普拉斯矩阵是描述网络节点之间连通性的工具,其基本思路是将网络中节点之间的联系表示为一个代数矩阵,从而将网络的分析转换为矩阵计算问题。

此类算法通过最小化谱划分问题来实现网络的社区划分。

2. 基于模块度的算法模块度是衡量社区划分好坏的一个重要指标,它衡量了节点在与社区内的联系相对于社区外联系的比重。

网络社区划分算法_图文

网络社区划分算法_图文

网络社区划分算法目录1 简介2 构建一个点击流网络3 网络社区划分的两种主要思路:拓扑分析和流分析4 拓扑分析o 4.1 计算网络的模块化程度Q-Modularityo 4.2 计算网络的连边紧密度Edge betweennesso 4.3 计算网络拉普拉斯矩阵的特征向量Leading eigenvectoro 4.4 通过fast greedy方法搜索网络模块化程度Q-Modularity的最大值o 4.5 通过multi level方法搜索网络模块化程度Q-Modularity的最大值5 流分析o 5.1 随机游走算法Walk Trapo 5.2 标签扩散算法label propagationo 5.3 流编码算法the Map Equationo 5.4 流层级算法Role-based Similarity6 总结[]简介使用许多互联网数据,我们都可以构建出这样的网络,其节点为某一种信息资源,如图片,视频,帖子,新闻等,连边为用户在资源之间的流动。

对于这样的网络,使用社区划分算法可以揭示信息资源之间的相关性,这种相关性的发现利用了用户对信息资源的处理信息,因此比起单纯使用资源本身携带的信息来聚类(例如,使用新闻包含的关键词对新闻资源进行聚类),是一种更深刻的知识发现。

假设我们手头有一批用户在一段期间内访问某类资源的数据。

为了减少数据数理规模,我们一般只考虑最经常被访问的一批资源。

因此在数据处理中,我们考虑UV(user visit)排名前V的资源,得到节点集合|V|,然后对于一个用户i在一段时间内(例如一天)内访问的资源,选择属于|V|的子集vi。

如果我们有用户访问资源的时间,就可以按照时间上的先后顺序,从vi中产生vi-1条有向边。

如果我们没有时间的数据,可以vi两两间建立联系,形成vi(vi-1)/2条无向边。

因为后者对数据的要求比较低,下文中,暂时先考虑后者的情况。

对于一天内的n个用户做这个操作,最后将得到的总数为的连边里相同的边合并,得到|M|个不同的边,每条边上都带有权重信息。

社交网络图分析与社区划分研究

社交网络图分析与社区划分研究

社交网络图分析与社区划分研究随着互联网的迅猛发展,社交网络已经渗透到我们日常生活的方方面面。

社交网络图分析与社区划分研究成为了一个备受关注的热门话题。

通过对社交网络图的分析和社区划分,我们可以深入理解社交网络中的人际关系、信息传播以及社区结构等方面的特征。

本文将深入探讨社交网络图分析与社区划分研究的相关概念、方法和应用。

一、社交网络图分析社交网络图是由一系列节点和连接节点的边组成的。

节点代表社交网络中的个体,边代表个体之间的联系。

社交网络图分析旨在研究和理解社交网络中的节点之间的关系以及节点的属性。

通过社交网络图分析,我们可以获取一系列有关社交网络的重要信息,包括节点的度数中心性、介数中心性、接近中心性等。

1. 节点的度数中心性度数中心性是指一个节点在社交网络中与其他节点直接相连的程度。

度数中心性越高,代表一个节点在社交网络中的重要程度越大。

2. 节点的介数中心性介数中心性是指一个节点在社交网络中作为信息传播的桥梁的程度。

介数中心性越高,代表节点在社交网络中的位置越关键。

3. 节点的接近中心性接近中心性是指一个节点在社交网络中距离其他节点的平均路径长度的倒数。

接近中心性越高,代表节点在社交网络中与其他节点的联系越紧密。

社交网络图分析提供了研究社交网络中个体之间关系的方法和工具,为我们深入探索社交网络的结构和功能提供了理论基础。

二、社区划分研究社区是指一个在网络中高度连接并且内部联系紧密的节点集合。

社区划分研究旨在从社交网络图中识别和划定社区,以便更好地理解和分析社交网络中的人际关系和信息传播。

社区划分方法基于节点之间的连接强度和紧密程度,采用不同的算法和度量指标来识别社区结构。

常用的社区划分算法包括Girvan-Newman算法、Louvain算法等。

社区划分研究在社交网络分析中具有重要的意义。

通过识别社区结构,我们可以了解各个社区内部的关系和特点,进一步研究社区间的联系和影响力等。

三、应用与前景社交网络图分析与社区划分研究在实际应用中具有广泛的前景。

三种经典复杂网络社区结构划分算法研究

三种经典复杂网络社区结构划分算法研究

(ru )或“ c s r” g p ” 团(l t )构成的。 o ue 每个群内部的节点之 间的连接相对非常紧密 , 但是各个群之间的连接相对
来说却 比较稀疏 , 如图 1 所示 。 图中的网络包含三个社 团, 分别对应 图中三个 圆圈包 围的部分。 在这些社团内
部, 节点之间的联系非常紧密 , 而社 团之间的联系就稀
u eu e ee c o o sf lr fr n e f r c m
u i ee t n a o t m ee t n i c a a pi a o s n t d tc o l r h sl ci n a t l p l t n . y i gi o u ci
出现一个更大的 P 。 值 当交换完毕后 , 便找到上述交换 过程 中所记录的最大的 P值。这时对应的社团结构就 认为是该 网络实际的社 团结构。 12 基 于 L pa e图特征 值 的谱二 分法 . a lc 该算法利用网络结构的 Lp c 矩 阵中不为 0的 al e a
G N算法是一种分裂方法[ 8 1 。其基本思想是不 断的
现实生活 中、 交通运输 网、 计算机 网等。网络模型 是描述这些 复杂系统的最 有效模型 。通过对现实系 统 网络模型 的研究 ,人们 发现许多现实系统 的网络 模型是介 于完全规则 和完 全随机之间 的。由于这种
网络是 真实 复杂系统的拓扑抽象 ,因此它被称为复 杂 网络 。
每一 列 的和 均为 0 因 而 , , 向量 I( , ,, ,) L相 = 11l… 1 是
2 三种算 法的对 比分析
从上述三种算 法 的过程来 看 ,al e图特 征值 Lp c a 谱二分法 , e ga— i 算法 和 G K mi n L h n N算法计算 简洁 , 都易于程序实现。 e ga— i 算法的时间复杂度相 K mi n L h n 对于其他两种算法较小些 , 但该算法对 网络中社 区划 分 的准确度不 高 ,适用于小规模 网络社 区划 分 。而

网络社区划分算法

网络社区划分算法

网络社区划分算法目录• 1 简介• 2 构建一个点击流网络• 3 网络社区划分的两种主要思路:拓扑分析与流分析• 4 拓扑分析o4、1 计算网络的模块化程度Q-Modularityo4、2 计算网络的连边紧密度Edge betweennesso4、3 计算网络拉普拉斯矩阵的特征向量Leading eigenvectoro4、4 通过fast greedy方法搜索网络模块化程度Q-Modularity的最大值o4、5 通过multi level方法搜索网络模块化程度Q-Modularity的最大值• 5 流分析o5、1 随机游走算法Walk Trapo5、2 标签扩散算法label propagationo5、3 流编码算法the Map Equationo5、4 流层级算法Role-based Similarity• 6 总结使用许多互联网数据,我们都可以构建出这样的网络,其节点为某一种信息资源,如图片,视频,帖子,新闻等,连边为用户在资源之间的流动。

对于这样的网络,使用社区划分算法可以揭示信息资源之间的相关性,这种相关性的发现利用了用户对信息资源的处理信息,因此比起单纯使用资源本身携带的信息来聚类(例如,使用新闻包含的关键词对新闻资源进行聚类),就是一种更深刻的知识发现。

假设我们手头有一批用户在一段期间内访问某类资源的数据。

为了减少数据数理规模,我们一般只考虑最经常被访问的一批资源。

因此在数据处理中,我们考虑UV(user visit)排名前V的资源,得到节点集合|V|,然后对于一个用户i在一段时间内(例如一天)内访问的资源,选择属于|V|的子集vi。

如果我们有用户访问资源的时间,就可以按照时间上的先后顺序,从vi中产生vi-1条有向边。

如果我们没有时间的数据,可以vi两两间建立联系,形成vi(vi-1)/2条无向边。

因为后者对数据的要求比较低,下文中,暂时先考虑后者的情况。

对于一天内的n个用户做这个操作,最后将得到的总数为的连边里相同的边合并,得到|M|个不同的边,每条边上都带有权重信息。

复杂网络社区结构划分算法研究的开题报告

复杂网络社区结构划分算法研究的开题报告

复杂网络社区结构划分算法研究的开题报告一、选题背景及研究意义复杂网络的社区结构划分一直是网络科学研究领域的研究热点,对于理解网络结构和功能具有重要的意义。

社区结构划分的目的是将网络结构划分为若干个子图,使得子图内部连接紧密,子图之间连接稀疏,同时具有一定的内聚性和外离性。

社区结构是网络中一种重要的组织形式,对于社交网络、生物网络、交通网络等领域都有着广泛的应用。

当前的社区结构划分算法主要有基于模块度、基于流和基于密度的算法三类。

基于模块度的算法适用于分析大小较小的网络,但研究表明在大型复杂网络中其表现效果欠佳,基于流的算法虽然具有高效性,但无法处理带权网络,基于密度的算法能够处理各种类型的网络,但由于社区结构的多样性,算法的效果难以得到保障。

因此,如何实现高效、准确的社区结构划分算法始终是当前研究的热点问题。

本论文旨在研究新的社区结构划分算法,探索划分算法的优化方法,提高算法的可靠性、高效性、精确性和鲁棒性。

二、研究内容和目标本论文将重点探讨以下内容:1. 综述当前常用的社区结构划分算法的优缺点,列举其应用场景及不足之处;2. 提出一种新的社区划分算法,并设计相应的模型及算法流程;3. 针对新算法中的关键问题,提出相关的解决方案;4. 对新算法进行实验验证,与现有算法的性能进行比较分析。

本研究的主要目标是设计一种高效、准确的社区结构划分算法,该算法能够在大型复杂网络中实现精确的社区划分。

同时,将研究中发现的优化方法和具体实现方案分享给其他学者和研究者,以期能够为相关领域的研究提供新思路和新技术。

三、研究方法和步骤本研究的基本方法和步骤如下:1. 阅读相关文献,了解当前常用的社区结构划分算法及其优缺点;2. 设计一种新的社区划分算法,并探讨其可行性;3. 对新算法进行建模、实现,加入相应的优化技术、解决方案;4. 进行大规模数据实验,并与现有的社区结构划分算法进行对比分析;5. 最终对新算法进行总结和优化,同时撰写完整的论文。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

网络社区划分算法目录∙ 1 简介∙ 2 构建一个点击流网络∙ 3 网络社区划分的两种主要思路:拓扑分析和流分析∙ 4 拓扑分析o 4.1 计算网络的模块化程度Q-Modularityo 4.2 计算网络的连边紧密度Edge betweennesso 4.3 计算网络拉普拉斯矩阵的特征向量Leading eigenvectoro 4.4 通过fast greedy方法搜索网络模块化程度Q-Modularity的最大值o 4.5 通过multi level方法搜索网络模块化程度Q-Modularity的最大值∙ 5 流分析o 5.1 随机游走算法Walk Trapo 5.2 标签扩散算法label propagationo 5.3 流编码算法the Map Equationo 5.4 流层级算法Role-based Similarity∙ 6 总结[1]简介使用许多互联网数据,我们都可以构建出这样的网络,其节点为某一种信息资源,如图片,视频,帖子,新闻等,连边为用户在资源之间的流动。

对于这样的网络,使用社区划分算法可以揭示信息资源之间的相关性,这种相关性的发现利用了用户对信息资源的处理信息,因此比起单纯使用资源本身携带的信息来聚类(例如,使用新闻包含的关键词对新闻资源进行聚类),是一种更深刻的知识发现。

假设我们手头有一批用户在一段期间内访问某类资源的数据。

为了减少数据数理规模,我们一般只考虑最经常被访问的一批资源。

因此在数据处理中,我们考虑UV(user visit)排名前V的资源,得到节点集合|V|,然后对于一个用户i在一段时间内(例如一天)内访问的资源,选择属于|V|的子集vi。

如果我们有用户访问资源的时间,就可以按照时间上的先后顺序,从vi中产生vi-1条有向边。

如果我们没有时间的数据,可以vi两两间建立联系,形成vi(vi-1)/2条无向边。

因为后者对数据的要求比较低,下文中,暂时先考虑后者的情况。

对于一天内的n个用户做这个操作,最后将得到的总数为的连边里相同的边合并,得到|M|个不同的边,每条边上都带有权重信息。

这样,我们就得到了V个节点,M条边的一个加权无向网络,反应的是在一天之内用户在主要的信息资源间的流动情况。

在这个网络上,我们可以通过社区划分的算法对信息资源进行分类。

社区划分的算法比较多,但我个人认为大致可以分为两大类:拓扑分析和流分析。

前者一般适用于无向无权网络,思路是社区内部的连边密度要高于社区间。

后者适用于有向有权网络,思路是发现在网络的某种流动(物质、能量、信息)中形成的社区结构。

这两种分析各有特点,具体应用取决于网络数据本身描述的对象和研究者想要获得的信息。

我们可以将已知的一些算法归入这两类:上表中的分量(component)指在网络中的独立“团块”。

有向网络里,分量有强弱之分,强分量(strong component )中任意一个节点都可到达另外一个节点,弱分量(weak component)中如果忽略连边方向,则构成强分量。

无向网里分量没有强弱之分。

在网络中识别强分量的算法有Kosaraju算法,Tarjan算法及其变形Gabow算法等。

在这里不展开叙述。

接下来,我们逐一讨论拓扑分析和流分析中的各种算法的具体思路。

[4.1]计算网络的模块化程度Q-ModularityQ-Modularity是一个定义在[-0.5,1)区间内的指标,其算法是对于某一种社区结构,考虑每个社区内连边数与期待值之差。

实际连边越是高于随机期望,说明节点越有集中在某些社区内的趋势,即网络的模块化结构越明显。

Newman 在2004年提出这个概念最初是为了对他自己设计的社区划算法进行评估,但因为这个指标科学合理,而且弥补了这个方面的空白,迅速成为一般性的社区划分算法的通用标准。

Q的具体计算公式如下:其中A是网络G对应的邻接矩阵,如果从i到j存在边,则Aij=1,否则为0。

m是总连接数,2m是总度数,Aij/2m 是两节点之间连接的实际概率。

Ki和kj分别是i和j的度数。

如果我们保持一个网络的度分布但对其连边进行随机洗牌,任意一对节点在洗牌后存在连接的概率为kikj/(2m)2。

上式中中括号表达的就是节点之间的实际连边概率高于期待值的程度。

后面跟着一个二元函数,如果节点ij属于同一个社区,则为1,否则为0,这就保证了我们只考虑社区内部的连边。

刚才这个定义是以节点为分析单位。

实际上,如果以社区为分析单位看Q指标,可以进一步将其化简为eii和ai之间的差。

其中eii是在第i个社区内部的link占网络总link的比例,ai是第i个社区和所有其他社区的社区间link数。

上式已经清楚定义了Q,但在实际计算里,上式要求对社区及其内部节点进行遍历,这个计算复杂度是很大的。

Newman(2006)对上式进行了化简,得到矩阵表达如下:我们定义Sir为n * r的矩阵,n是节点数,r是社区数。

如果节点i属于社区r,则为1,否则为0。

则有于是有其中B是modularity matrix,其元素为该矩阵的行列和都是0,因为实际网络和随机洗牌后的网络度分布是不变的。

特别地,在仅仅有两个社区的情况下(r=2),可以s定义为一个n长的向量,节点属于一个社区为1,属于另一个社区为-1,Q可以写成一个更简单的形式:通过对社区的划分可能空间进行搜索,可以得到最大化Q值的社区划分。

在这个过程会涉及数值优化的部分,例如表一中的fast greedy和multilevel就是用不同方法进行快速搜索的例子。

以fast greedy为例Newman(2006),它通过不断合并社区来观察Q的增加趋势,得到了一个在最差的情况下复杂度约为O( |E|*log(|V|) ),在最好的情况下接近线性复杂度的算法。

[4.2]计算网络的连边紧密度Edge betweenness这个思路出现得比较早(Newman, 2001)。

Freeman (1975) 提出过一个叫betweenness的指标,它衡量的是网络里一个节点占据其他n-1节点间捷径的程度。

具体而言,首先对每一对节点寻找最短路径,得到一个n * (n-1)/2的最短路径集合S,然后看这个集合中有多少最短路径需要通过某个具体的节点。

Newman借鉴了这个标准,但不是用来分析节点而是分析连边。

一个连边的edge betweenness就是S集合里的最短路径包含该连边的个数。

定义了连边的betweenness后,就可以通过迭代算法来进行社区划分了。

具体做法是先计算所有连边的betweenness,然后去除最高值连边,再重新计算,再去除最高值连边,如此反复,直到网络中的所有连边都被移除。

在这个过程中网络就逐渐被切成一个个越来越小的component。

在这个过程中,我们同样可以用Q-modularity来衡量社区划分的结果。

这种算法定义比较清晰,也不涉及矩阵数学等运算,但问题是计算复杂度比较大。

[4.3]计算网络拉普拉斯矩阵的特征向量Leading eigenvector一个有n个节点的网络G可以被表达为一个n x n的邻接矩阵(adjacency matrix)A。

在这个矩阵上,如果节点i 和j之间存在连边,则Aij=1,否则为0。

当网络是无向的时候,Aij=Aji。

另外我们可以构造n x n的度矩阵(degree matrix)D。

D对角线上的元素即节点度数,例如Dii为节点i的度数,所有非对角线的元素都是0。

无向网的分析不存在度数的选择问题,有向网则要根据分析目标考虑使用出度还是入度。

将度数矩阵减去邻接矩阵即得到拉普拉斯矩阵,即L = D-A。

L的特征根存在一些有趣性质。

首先,最小的特征根总等于0。

因为如果将L乘以一个有n个元素的单位向量,相当于计算每一行的和,刚好是节点的度的自我抵消,结果等于0。

其次,特征根中0 的个数即无向网G中分量的个数。

这意味着如果除了最小特征根,没有别的特征根为0,则整个网络构成一个整体。

在这些特征根里,第二小的特征根(或者最小的非零特征根)又叫做代数连通性(algebraic connectivity),其对应的特征向量叫做Fidler vector。

当,说明网络是一个整体。

越大,说明网络彼此间的链接越紧密。

从这个定义来看,非常像前面讨论的Q-Modularity,实际上在Newman2006的文章里,确实讨论了二者在数学上的对应关系。

例如对示例网络所对应的进行分析,可以得到拉普拉斯矩阵如下:这个矩阵的特征根如下:{5.5, 4.5, 4.0, 3.4, 2.2, 1.3, 1.0, 0}。

取时,Fidler vector={0.29, 0.00, 0.29, 0.29,0.29, -0.58, -0.58, 0.00}。

因为Fidler vector的值分别对应着图里的节点,于是可以写成{a:0.29, b: 0.00, c:0.29, d:0.29, e:0.29, f:-0.58, g:-0.58, h:0.00}。

仅仅从元素的正负号就可以看出,该分析建议我们把f和g节点与其他节点分开,更细致的,对元素值大小的考察则建议把矩阵分成三个社区,{{a, c, d, e}, {b, h}, {e, f}}。

回到图中考察,我们发现这个社区分类基本是合理的。

[4.4]通过fast greedy方法搜索网络模块化程度Q-Modularity的最大值[4.5]通过multi level方法搜索网络模块化程度Q-Modularity的最大值因为以上两种方法都是基于Q-modularity的,只不过是搜索策略的不同,所以在此不展开讨论。

[5.1]随机游走算法Walk TrapP. Pons 和M. Latapy 2005年提出了一个基于随机游走的网络社区划分算法。

他们提出可以使用两点到第三点的流距离之差来衡量两点之间的相似性,从而为划分社区服务。

其具体过程如下:首先对网络G所对应的邻接矩阵A 按行归一化,得到概率转移矩阵(transition matrix)P。

使用矩阵计算表达这个归一化过程,可以写作其中A是邻接矩阵,D是度矩阵。

利用P矩阵的马可夫性质可知,它的t次方的元素Pijt就代表着随机游走的粒子经过t步从节点i到j的概率。

其次,定义两点ij间的距离如下:其中t是流的步长。

步长必须恰当选择,因为如果t太小,不足以体现网络的结构特征,如果t太大,则Pijt趋近于与j的度数d(j)成正比,随机游出发点i的拓扑信息被抹去。

作者建议的t经验值为3到5之间。

k是某一个目标节点。

所以这个公式描述的是经过t步,ij到目标节点k的平均流转移概率(因为这个概率与中间节点k的度数d(k)成正比,所以要除以d(k)来去除这个影响)。

ij到网络所有其他点之间的距离差别越小,说明ij很可能位于及其类似的位置上,彼此之间的距离也越接近。

相关文档
最新文档