用Hopfield神经网络解哈密顿回路问题
利用Hopfield神经网络求解旅行商问题研究

文章编号:1007-757X (2006)11-0001-03利用Hopfield 神经网络求解旅行商问题研究杨秀梅,a 陈洪亮,a 董得义a摘 要:本文主要研究利用连续的Hopfield 网络求解TSP 问题,从连续的Hopfield 神经网络原理出发,结合TSP 问题的要求,在给定参数要求下求得问题的最优解。
并分析了实际算法的弱点,给出分析改进算法,加快了算法的收敛速度,改善有效解并提高最优解的比例。
关键词:连续的Hopfield 网络;旅行商问题;改进算法;优化中图分类号:TP 301 文献标识码:A1 概述用神经网络解决组合优化问题是神经网络应用的一个重要方面。
所谓组合优化问题,就是在给定约束条件下,使目标函数极小(或极大)的变量组合问题。
将Hopfield 网络应用于求解组合优化问题,把目标函数转化为网络的能量函数,把问题的变量对应到网络的状态。
这样,当网络的能量函数收敛于极小值时,问题的最优解也随之求出。
由于神经网络是并行计算的,其计算量不随维数的增加而发生指数性“爆炸”,因而对于优化问题的高速计算特别有效。
本文针对将Hopfield 理论应用于实践给出了研究性方法。
2 问题的提出TSP 问题,即所谓的旅行商问题。
问题的提法:在N 个城市中各经历一次后回到出发点,使所经过的路程最短。
其不同选择方案有(N -1)!/2种,在城市数较少的情况下可以用枚举等方法,但如果城市数量较大,例如,N=33时,使用枚举法求解就要考虑的情况是1025数量级,计算量如此之大是不可想象的。
将Hopfield 网络应用于求解TSP 问题,效果是显著的。
下面就利用连续的Hopfield 网络求解T SP 问题进行探讨。
3 Hopfield 神经网络及求解TSP 问题算法1)Hopfield 神经网络主要是模拟生物神经网络的记忆机理,是一种全连接型的神经网络,对于每个神经元来说,自己输出的信号通过其他神经元又反馈到自身,所以Hopfield 神经网络是一种反馈型神经网络。
hopfield神经网络及其应用教学课件

求解人员在旅行时路径最短方案的问题。
3 最短路问题
求解网格地图上从起点到目标的最短路径问题。
Hopfield神经网络在金融风险评估中的应用
应用场景
可用于预测市场波动、分析股票的波动风险、风险 指数的评估等。
数据处理
通过分析历史数据并训练神经网络模型进行预测, 可帮助投资者更好地控制风险。
优点
能够实现自我组织、自我修复和自我学习的功能,具有很强的容错能力。
2
缺点
存在模型建立时间长、计算复杂度高等问题,在大规模网络中应用受到限制。
3
发展趋势
将向更多交叉领域发展,如神经系统科学、人工智能等,同时将致力于提高网络计算效 率和准确度。
Hopfield神经网络及其应用实例介绍
电子显微镜图像处理
Hopfield神经网络在模式恢复与记忆中的应 用
图像恢复
绘画
能够自动去除损伤、扭曲等现象, 对于图像降噪也有一定效果。
将草图转化为具有更多细节和色 彩的绘画作品。
音乐恢复
将不同曲调的曲谱恢复成原音。
Hopfield神经网络在优化问题求解中的 应用
1 逆向工程
能够自动优化物理结构的技术,可应用于电路设计、芯片布局等领域。
Hopfield神经网络在交通流预测中的应 用
应用场景
能够应用于道路交通流预测、车流控制、智能交通系统等实践应用领域。
模型构建
通过分析交通流数据并构建合理的神经网络模型,可以精确预测交通流量及拥堵情况。
优势
较传统交通流预测算法更高效且具有更高的精确度。
Hopfield神经网络的优缺点与发展趋势
1
通过神经网络对显微镜图像进行 优化处理,提高图像清晰度和对 比度。
HopField神经网络解决旅行商问题

HopField 神经网络解决旅行商问题实验名称:用Hopfield 神经网络解决旅行商(TSP)问题实验内容:旅行商问题(TravellingSalesman Problem, 简记TSP ,亦称货郎担问题):设有n 个城市和距离矩阵D=[dij],其中dij 表示城市i 到城市j 的距离,i ,j=1,2 …n ,则问题是要找出遍访每个城市恰好一次的一条回路并使其路径长度为最短。
TSP 的一个解可表述为一个循环排列,假如有5个城市ABCD E顺序为如有5个城市顺序为C→A →E→B→D→C。
那么路线总长度为:D C BD EB AE CA d d d d d d ++++=TSP 问题综合了一大类组合优化问题的典型特征,属于NP 完全问题,不能在多项式时间内进行检验。
若使用动态规划的方法时间复杂性和空间复杂性都保持为n 的指数函数。
HNN 方法是解TSP 问题的另一种有效的方法,在城市数目比较小的情况下可以在较短的时间得到满意的结果。
算法分析:所用到的基本理论与方法,具体算法。
1.根据文献(1),HNN 解TSP 问题的具体步骤为:0、置t=0,A=1.5,D=1;1、读入N 城市之间的距离),,2,1,(n y x d xy =文件;2、计算神经元之间的权重和输入偏置 权重:n j i y x Dd A A T i j xy ij xy YjXi ,2,1,,,,1,,=---=-其中δδδ输入偏置: I=2A;3、)(t U xi 的初值在0附近随机产生(x,i=1,2,……,N );4、计算))/)(tanh(1(21)(0U t U t V xi xi +=, 这里2.00=U 5、利用神经元动态方程,计算∑∑==+=∆n y nj yj yjxi xi I V Tt u 11,)(6利用一阶尤拉法计算 ,5.0)()1()1(=∆∆⨯∆++=+t t t u t U t U xi xi xi ,这里7、如果系统达到平衡状态,那么终止程序,否则返回第4步。
利用Hopfield神经网络求解旅行商问题研究

微 型 电脑 应 用
20 0 6年 第 2 2卷 第 1 期 1
利 用 Ho fed神 经 网络 求解 旅 行 商 问题 研 究 p il
杨 秀梅 , 陈 洪 亮 , 董 得 义
摘 要 : 文主 要 研 究 利 用 连 续 的 H pil 络 求 解 T P 问题 , 连 续 的 H pid神 经 网络 原 理 出发 , 本 o f d网 e S 从 o fl e 结合 T P 问题 的要 S
于 优 化 问 题 的 高 速 计 算 特 别 有 效 。 本 文 针 对 将 Ho f l 论 。 p id理 e 应 用于实践给出了研究性方法 。
在 实 践 中 , pil 经 网络 理 论 可应 用 于很 多领 域 。 Ho f d神 e 但 实 际 中 由 于将 理 论 转 化 为 实 践 存 在 一 些 技 术 难 点 需 要 解 决 ,
求解就要考虑的情况是 1 数量级 , O 计算量如此之 大是不 可想
象 的 。将 Ho f l pi d网络 应 用 于求 解 TS e P问题 , 果 是 显 著 的 。 效
下 面 就 利 用 连 续 的 Ho f l 络 求 解 T P 问题 进 行 探 讨 。 pi d网 e S
3 Ho f i pi d神经 网络 及求解 T P问题算 法 e S
导 致 实 际 中很 少 用 。下 面 以 T P 问题 进 行 连 续 的 Ho f l S pid神 e
经 网络 理 论 应 用 研 究 。 2 求 解 T P 问题 算 法 ) S
2 问题 的提 出
TS P问 题 , 即所 谓 的旅 行 商 问题 。问 题 的 提 法 : N 个 城 在
中 图 分 类 号 : P 0 T 31
《hopfield神经网络》课件

图像识别实例
总结词
通过Hopfield神经网络,可以实现高效的图像识 别。
总结词
图像识别的准确率取决于训练样本的多样性和数 量。
详细描述
在图像识别实例中,可以将图像信息转化为神经 网络的输入,通过训练和学习,网络能够将输入 的图像信息与预存的图像模式进行匹配,从而实 现图像的快速识别。
详细描述
为了提高图像识别的准确率,需要收集大量具有 代表性的训练样本,并采用多种不同的训练方法 对网络进行训练,以增加网络的泛化能力。
神经元模型
神经元模型
Hopfield神经网络的基本单元是神经元,每个神经元通过加权输 入信号进行激活或抑制。
激活函数
神经元的输出由激活函数决定,常用的激活函数有阶跃函数和 Sigmoid函数。
权重
神经元之间的连接权重用于存储记忆模式,通过训练可以调整权重 。
能量函数
1 2 3
能量函数定义
能量函数是描述Hopfield神经网络状态的一种方 式,其值越低表示网络状态越稳定。
《Hopfield神经网 络》PPT课件
目录
CONTENTS
• Hopfield神经网络概述 • Hopfield神经网络的基本原理 • Hopfield神经网络的实现 • Hopfield神经网络的优化与改进 • Hopfield神经网络的实例分析
01 Hopfield神经网络概述
定义与特点
能量函数的性质
能量函数具有非负性、对称性、连续性和可微性 等性质,这些性质对于网络的稳定性和记忆性能 至关重要。
最小能量状态
训练过程中,网络会逐渐趋近于最小能量状态, 此时对应的模式被存储在神经元连接权重中。
稳定性分析
稳定性定义
第五章霍普菲尔德(Hopfield)神经网络

反馈网络(Recurrent Network),又称自联 想记忆网络,如下图所示:
x1
x2
x3
y1
y2
y3
图 3 离散 Hopfield 网络
考虑DHNN的节点状态,用yj(t)表示第j个神经元,即节点j在时 刻t的状态,则节点的下一个时刻t+1的状态可以求出如下:
1, u j (t) 0 y j (t 1) f[u j (t)] 0, u j (t) 0 u j (t) w i, j y i (t) x j θ j
在不考虑外部输入时,则有
j 1,2,..., n
n y j (t 1) f w i, j yi (t) θ j i 1
•通常网络从某一初始状态开始经过多次更新后才可 能达到某一稳态。使用异步状态更新策略有以下优点: (1)算法实现容易,每个神经元节点有自己的状态 更新时刻.不需要同步机制; (2)以串行方式更新网络的状态可以限制网络的输 出状态,避免不同稳态以等概率出现。 一旦给出HNN的权值和神经元的阈值,网络的状态转 移序列就确定了。
5.2 离散Hopfield网络
• Hopfield最早提出的网络是神经元的输出为 0-1二值的NN,所以,也称离散的HNN (简称为 DHNN).
–下面分别讨论DHNN的
• • • • 结构 动力学稳定性(网络收敛性) 联想存储中的应用 记忆容量问题
霍普菲尔德(Hopfield)神经网络概述
Hopfield网络的提出
1982年,美国加州理工学院物理学家 J .J.Hopfield教授提出一种单层反馈神经网 络,后来人们将这种反馈网络称为Hopfield 网络。 1985年,J.J.Hopfield和D.W.Tank用模拟电 子线路实现了Hopfield网络,并用它成功地 求解了旅行商问题(TSP)的求解方法。
Hopfield网络的特点
单层反馈式网络
x1 o1 W x2 o2 … … xn
on
Hopfield网络的特点
灌输式学习方式 灌输式学习中网络权值不是通过训练逐渐 形成的,而是通过某种设计方法得到的。 权值一旦设计好就一次灌输给网络,不再 变动, 这种学习是死记硬背式的,而不是训练式 的。
Hopfield网络的特点
权值一旦设计好就一次灌输给网络不再变动考虑了输入与输出的延迟因素hopfield网络的分类离散型hopfield神经网络dhnn连续型hopfield神经网络chnnnetnetnetnet组合优化tsp问题组合优化问题就是在给定约束条件下求出使目标函数极小或极大的变量组合问题
霍普菲尔德(Βιβλιοθήκη opfield Hopfield) Hopfield 神经网络概述
旅行商问题(TSP)
旅行商问题(Traveling Saleman Problem, TSP)又译为旅行推销员问题、货郎担问题, 简称为TSP问题,是最基本的路线问题。
是指一名推销员要拜访多个地点时,如何 找到在拜访每个地 TSP问题点一次后再回 到起点的最短路径。
旅行商问题(TSP)
旅行商问题(TSP)
Hopfield网络的应用
分类、模式识别
联想记忆
各神经元的状态在运行中不断更新
HOPFIELD网络解决TSP问题
w11
w12 w13 w14
2006-4-15
蔡佳佳 吴凡
18
TSP问题建模(网络动态)
• 设定初始状态数后,经由学习过程,进行状态值的
改变,直到能量函數趋于最低时,此时状态值即为 问题所求得的解答或近似解。
• 神经元的作用函数一般取双曲正切函数,这里取
Sigmoid函数也可以。改变量与神经元输入对时间 的偏导成正比。这和BP网络中权值的修改相似。 BP网修改如下:
回到原出发点的最短路径。
2006-4-15
蔡佳佳 吴凡
5
TSP问题建模(状态表现)
• 对于N个城市的旅行推销员的一个解答可用
N2个神经元的状态变量来代表状态变量的排 列矩阵元素
• 假设有四个城市
神经元连接 以右上角
0100
(其 方式,
1 0 0 0 神经元为
例)
0001
2006-4-15
0010
蔡佳佳 吴凡
2006-4-15
蔡佳佳 吴凡
15
TSP问题建模(网络架构)
• 权值矩阵(对应11页的原始能量公式,那个公式隐
含的定义了这个矩阵):当i=j时, i为j 1,否则为0。
右边是外部激励电流
I Cn Txi,yj A xy(1ij ) Bij (1 xy)
C Ddxy ( j,i1 j,i1)
bias(i, j) cos[arctan( yi 0.5) 2 ( j 1)
xi 0.5
N
(xi 0.5)2 ( yi 0.5)2 ]
2006-4-15
蔡佳佳 吴凡
24
HOPFIELD网络算法细节
• 二 神经元值的计算和应用
由于每次神经元的值都在Sigmoid函数曲线上, 并且每次都要进行转换,该函数包括两次指 数运算,两次除法运算,三次加法运算,运 算量很大,因此采用预先计算并保存,用时 查找的方法。这方法可以大大提高速度,把 运算减少到只有一次乘法和一次加法。
了解Hopfield神经网络算法的实现原理
了解Hopfield神经网络算法的实现原理Hopfield神经网络算法是一种基于神经网络的求解最优化问题的算法。
它可以用于解决诸如图像处理、模式识别、最优化问题等应用领域。
Hopfield神经网络算法最初由J. J. Hopfield在1982年提出,其理论基础来源于生物学领域中的神经元行为研究。
Hopfield神经网络算法的实现原理主要包括四个方面:神经元模型、神经网络结构、网络训练方法以及应用场景。
1. 神经元模型在Hopfield神经网络算法中,每个神经元都是一个二值状态(取值为+1或-1)的模型。
这种模型通常称为McCulloch- Pitts模型。
其原理是在神经元内部通过大量的来自其他神经元的输入,进行累加、加权、激活等操作后产生输出。
在Hopfield神经网络中,每个神经元之间的连接按照一定的权重系数进行连接,这些权重系数通常由网络训练时产生。
2. 神经网络结构Hopfield神经网络结构通常是一个全连接的反馈神经网络。
这种结构下的每个神经元都被连接到其他所有神经元,并且这些连接是双向的。
当网络被激活时,输入信号的影响被传递给其他所有神经元,并且这些神经元的状态也会影响到其他神经元的状态。
由于Hopfield神经网络具有全连接的属性,因此在处理较大规模的问题时,网络的计算量非常大,这是其计算效率相对较低的原因之一。
3. 网络训练Hopfield神经网络的训练通常是指对神经元之间的连接权重进行调整,使得网络在接收到输入时能够达到预期的输出。
这种训练方法被称为Hebbian学习规则。
在Hopfield神经网络中,权重矩阵W的元素一般由下式计算:W(i,j) = ∑( xi *xj )其中,xi和xj分别表示神经元i和神经元j的状态,可以取值为+1或-1。
通过反复进行这种权重更新,最终可以得到一个合理的网络权重矩阵W。
4. 应用场景Hopfield神经网络算法被广泛应用于图像处理、模式识别以及最优化问题的求解。
matlab30个案例分析-连续Hopfield神经网络的优化
%% 连续Hopfield神经网络的优化—旅行商问题优化计算% function main%% 清空环境变量、定义全局变量clear allclcglobal A D%% 导入城市位置load city_location%% 计算相互城市间距离distance=dist(citys,citys');%% 初始化网络N=size(citys,1);A=200;D=100;U0=0.1;step=0.0001;delta=2*rand(N,N)-1;U=U0*log(N-1)+delta;V=(1+tansig(U/U0))/2;iter_num=10000;E=zeros(1,iter_num);%% 寻优迭代for k=1:iter_num% 动态方程计算dU=diff_u(V,distance);% 输入神经元状态更新U=U+dU*step;% 输出神经元状态更新V=(1+tansig(U/U0))/2;% 能量函数计算e=energy(V,distance);E(k)=e;end%% 判断路径有效性[rows,cols]=size(V);V1=zeros(rows,cols);[V_max,V_ind]=max(V);for j=1:colsV1(V_ind(j),j)=1;endC=sum(V1,1);R=sum(V1,2);flag=isequal(C,ones(1,N)) & isequal(R',ones(1,N));%% 结果显示% 计算初始路径长度sort_rand=randperm(N);citys_rand=citys(sort_rand,:);Length_init=dist(citys_rand(1,:),citys_rand(end,:)');for i=2:size(citys_rand,1)Length_init=Length_init+dist(citys_rand(i-1,:),citys_rand(i,:)');end% 绘制初始路径figure(1)plot([citys_rand(:,1);citys_rand(1,1)],[citys_rand(:,2);citys_rand(1,2)],'o-') for i=1:length(citys)text(citys(i,1),citys(i,2),[' ' num2str(i)])endtext(citys_rand(1,1),citys_rand(1,2),[' 起点' ])text(citys_rand(end,1),citys_rand(end,2),[' 终点' ])title(['优化前路径(长度:' num2str(Length_init) ')'])axis([0 1 0 1])grid onxlabel('城市位置横坐标')ylabel('城市位置纵坐标')% 计算最优路径长度[V1_max,V1_ind]=max(V1);citys_end=citys(V1_ind,:);Length_end=dist(citys_end(1,:),citys_end(end,:)');for i=2:size(citys_end,1)Length_end=Length_end+dist(citys_end(i-1,:),citys_end(i,:)');enddisp('最优路径矩阵');V1% 绘制最优路径figure(2)plot([citys_end(:,1);citys_end(1,1)],...[citys_end(:,2);citys_end(1,2)],'o-')for i=1:length(citys)text(citys(i,1),citys(i,2),[' ' num2str(i)])endtext(citys_end(1,1),citys_end(1,2),[' 起点' ])text(citys_end(end,1),citys_end(end,2),[' 终点' ])title(['优化后路径(长度:' num2str(Length_end) ')'])axis([0 1 0 1])grid onxlabel('城市位置横坐标')ylabel('城市位置纵坐标')% 绘制能量函数变化曲线plot(1:iter_num,E);ylim([0 2000])title(['能量函数变化曲线(最优能量:' num2str(E(end)) ')']);xlabel('迭代次数');ylabel('能量函数');elsedisp('寻优路径无效');end% %===========================================% function du=diff_u(V,d)% global A D% n=size(V,1);% sum_x=repmat(sum(V,2)-1,1,n);% sum_i=repmat(sum(V,1)-1,n,1);% V_temp=V(:,2:n);% V_temp=[V_temp V(:,1)];% sum_d=d*V_temp;% du=-A*sum_x-A*sum_i-D*sum_d;% %==========================================% function E=energy(V,d)% global A D% n=size(V,1);% sum_x=sumsqr(sum(V,2)-1);% sum_i=sumsqr(sum(V,1)-1);% V_temp=V(:,2:n);% V_temp=[V_temp V(:,1)];% sum_d=d*V_temp;% sum_d=sum(sum(V.*sum_d));% E=0.5*(A*sum_x+A*sum_i+D*sum_d);% % % % 计算dufunction du=diff_u(V,d)global A Dn=size(V,1);sum_x=repmat(sum(V,2)-1,1,n);sum_i=repmat(sum(V,1)-1,n,1);V_temp=V(:,2:n);V_temp=[V_temp V(:,1)];sum_d=d*V_temp;du=-A*sum_x-A*sum_i-D*sum_d;% % % % % 计算能量函数function E=energy(V,d)global A Dn=size(V,1);sum_x=sumsqr(sum(V,2)-1);sum_i=sumsqr(sum(V,1)-1);V_temp=V(:,2:n);V_temp=[V_temp V(:,1)];sum_d=d*V_temp;sum_d=sum(sum(V.*sum_d));E=0.5*(A*sum_x+A*sum_i+D*sum_d);。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
smpeg a hG t h ieln t fPN i weg e . W ih rs ett h aro n dae c etc si ,te i l rp wi t e sd e g h o s h ih d t e p c O t ep i fu aj cn y v rie n G h
第 3 卷 第 2期 7 21 0 0年 3 月
浙 江 大 学 学 报 ( 学版 ) 理 J u n lo ein iest ( ce c io o r a fZhja gUnv ri S in eEdt n) y i ht / www.o r as zU e u c / c tp:/ j u n l.j . d . n si
3 0 2 ,C i a 107 hn )
S ligHa l n c cep o lm yui gHo f l e r ln t r . J u n lo h j n ie st ( ce c iin) ovn mi o y l r be b sn p i d n u a ewok o r a fZ ei g Unv riy S in eEdt t e a o ,
K e o ds H a it yce pr blm ;H opfed ne a et o k;t a e ig s ls a r e yW r : m lon c l o e il ur ln w r r v ln ae m n p HC 的充 要 条 件 是 迄 今 尚
ln t ft e s o t s a h b t e h ar i f u d a d t e h sp i wih t e ln t ft ed s a c ft o n s e g h o h h r e tp t e we n t ep i s o n n h n t i ar t h e g h o h it n eo wo p i t
whih ln t n t e s c i k a pa h of PN i h ame lngt s e h i weghe . H e c i d n e, t H a it n cy l p oblm t a s or s t he m lo ce r e ofG r n f m o a ta e i a e m a ob e t t r i e t atw he h r t r e it a o i a ou ih t e e t f p rm e e f r v lng s l s n pr l m o de e m n h t e he e xs s n ptm lt r w t h lng h o e i t r o P N. I de O e or e t e ul H op il ne a ne wor m e ho n or r t g t c r c r s t by fed ur l t k t d, t i ta s a e a e i p iid nd he he niil t t s r sm lfe a t dy m i lm i ton m e h Sus d na c e i na i t od i e .
V I 7N . M. o2 o3
a. 2 0 r 01
用 Ho f l p i d神 经 网 络 解 哈 密 顿 回路 问题 e
陆 生 勋
( 江 大 学 信 息 与 电子 工 程 学 系 ,浙 江 杭 州 3 0 2 ) 浙 1 0 7
摘 要 : P 设 是 一 个 圆 的 内接 正 N 边 形 , 圆的 直 径 为 1 将 一 个 N 个 顶 点 的 简单 图 G 的 每 条 边 赋 权 , 重 为 P . 权 的边 长 ; 于 图 G 中 不邻 接 的 各 对 顶 点 , 求 出这 对 顶 点 最 短 路 的长 度 , 赋 予 P 中 同样 长度 的路 的 两 端 点 的 距 对 先 再 离. 此 , 图 G 的 哈 密 顿 回路 问题 转 变成 旅 行 商 问题 : 游 回路 最 优 解 的 长 度 是 否 等 于 正 N 边 形 的 周 长 . 了用 如 将 周 为 Ho f l 经 网络 方 法 得 到 正 确 的 判 定 , p i d神 e 简化 了初 始状 态 , 用 了动 态 消 元 算 法 . 引
2 0, 7( 01 3 2): 80— 1 4 1 8 Absr c t a t:Sup s ha N i n i s rb d r g a — i l go ice w h c a i a e e . Ea h e geofa po e t tP s a n c i e e ulr N sdepo y n ofa cr l ih h s un tdim t r c d
关
键
词 : 密 顿 回 路 问题 ;Ho f l 哈 p i d神 经 网络 ;旅 行 商 问题 e
中图 分 类 号 : P1 2 T 8
文献标志码 : A
文章 编 号 :0 8 9 9 ( 0 0 0 — 8 — 5 1 0 — 4 7 2 1 ) 21 00
LU h n — u (De a t n f n r to a d S e gx n p rme to I fo ma in n Elcr n c eto i En ie rn g n e ig, Zh ja g ei n Unv ri iest y, Ha gz o n hu