关于EEPOM负载均衡想法实现
计算机网络负载均衡技术

计算机网络负载均衡技术计算机网络负载均衡技术旨在解决网络中的流量分发不均和服务器过载的问题。
它通过在网络中分配和管理任务,使得每台服务器都能够得到合理的负载,提高整体的性能和可靠性。
本文将介绍计算机网络负载均衡技术的原理、常见的实现方式以及其在企业网络中的应用。
一、负载均衡技术原理负载均衡技术通过将网络请求分发给多台服务器处理,以达到平衡负载的目的。
它可以通过四层和七层两种方式来实现。
1.四层负载均衡四层负载均衡工作在传输层,主要根据源IP地址、目标IP地址、源端口号和目标端口号等信息来进行请求的分发。
常见的四层负载均衡算法包括轮询、加权轮询、最少连接和哈希算法。
轮询算法将请求依次分发给不同的服务器,加权轮询算法则根据服务器的权重来分配请求,最少连接算法会将请求发送给连接数最少的服务器,哈希算法则根据请求的某个特定字段计算哈希值,再将请求分配给哈希值对应的服务器。
2.七层负载均衡七层负载均衡工作在应用层,可以根据请求的内容进行更为精确的负载均衡。
通过深入解析应用层协议(如HTTP、HTTPS),七层负载均衡可以根据请求的URL、请求头、请求参数等信息来决定将请求发送给哪个服务器。
七层负载均衡可以实现更加灵活和精确的负载均衡策略,提供更好的用户体验和性能。
二、负载均衡技术实现方式负载均衡技术有多种实现方式,常见的包括硬件负载均衡和软件负载均衡。
1.硬件负载均衡硬件负载均衡器是专业的网络设备,具有高性能和可靠性。
它通常包括专用硬件和软件,能够根据负载均衡算法将请求分发给后端的服务器集群。
硬件负载均衡器适用于大型网络环境,能够处理高并发的请求,提供稳定和可靠的负载均衡服务。
2.软件负载均衡软件负载均衡是通过在普通的服务器上安装负载均衡软件来实现的。
常见的软件负载均衡方案有Nginx、HAProxy等。
软件负载均衡器可以运行在虚拟机、容器等环境中,具有灵活性和可扩展性,适用于中小型网络环境。
三、负载均衡技术在企业网络中的应用负载均衡技术在企业网络中有广泛的应用。
负载均衡算法

负载均衡算法
负载均衡算法是计算机科学中重要的一种算法,由于它具有可扩展性、稳定性和可靠性,因此被用于网络负载均衡,特别是大规模分布式系统中,如云计算、数据库系统等。
本文将介绍负载均衡算法的基本原理和常见实现方法。
负载均衡算法是一种能够增加系统可用性以及保证系统运行稳定性的算法。
它可以将计算机系统中的多个进程,任务或服务平均分布到多个处理器上,从而达到软件系统平衡负载的目的。
负载均衡算法的算法原理及实现方法有多种,其中常见的实现方法有轮询法、最少连接法、最大限度利用法、最佳优先级法等。
轮询法是一种简单直接的方法,它是按照顺序轮流的将任务分配到多个处理器上,根据客户端的要求选择一台处理器来处理它。
优点是可以平均分配任务,缺点是不能记录处理器的状态,服务器性能有较大的浪费。
最少连接法是一种比轮询法更加高效的实现方法,它是根据每个服务器剩余连接数来确定要分配到哪台服务器上,从而使每台服务器的负载都能得到平均分配。
最大限度利用法是一种针对不同类型请求的负载均衡算法,它可以根据客户端请求的类型,将其分配到最合适的服务器上,从而达到最大程度利用服务器性能的目的。
最佳优先级法是一种选择性的负载均衡算法,它不仅考虑服务器的当前负载情况,还考虑客户本身的优先级,从而确定服务器的分配
顺序。
负载均衡算法是一种非常重要的计算机科学算法,它能够有效地增加系统可用性,保证系统运行稳定性,有效地降低负载,延长系统的使用寿命,以及提高系统的资源利用率。
随着云计算的发展,负载均衡算法将会在业界越来越受重视,发挥着更大的作用。
服务器负载均衡的原理和实现方式

服务器负载均衡的原理和实现方式服务器负载均衡是指在网络服务器集群中,通过某种策略将客户端的请求分发到多台服务器上,以达到均衡服务器负载、提高系统性能和可靠性的目的。
本文将介绍服务器负载均衡的原理和实现方式。
一、负载均衡的原理1.1 负载均衡的作用在网络服务器集群中,随着用户数量和访问量的增加,单台服务器可能无法满足所有用户的请求,容易导致服务器负载过高、性能下降甚至宕机。
负载均衡的作用就是通过将用户请求分发到多台服务器上,使得每台服务器的负载相对均衡,提高系统的整体性能和可靠性。
1.2 负载均衡的原理负载均衡的原理主要包括以下几个方面:(1)请求分发:负载均衡设备接收到用户的请求后,根据预先设定的负载均衡算法,将请求分发到服务器集群中的某一台服务器上处理。
(2)健康检测:负载均衡设备会对服务器集群中的每台服务器进行健康检测,监测服务器的负载情况、性能状态等,以确保只有正常工作的服务器参与请求处理。
(3)负载均衡算法:常见的负载均衡算法包括轮询算法、加权轮询算法、最小连接数算法、最小响应时间算法等,不同的算法适用于不同的场景,可以根据实际需求选择合适的算法。
1.3 负载均衡的优势负载均衡技术能够提供以下几方面的优势:(1)提高系统性能:通过将请求分发到多台服务器上,有效减轻单台服务器的负载压力,提高系统的整体性能。
(2)提高系统可靠性:当某台服务器发生故障时,负载均衡设备可以自动将请求转发到其他正常工作的服务器上,保证系统的可靠性。
(3)扩展系统规模:通过增加服务器数量,可以灵活扩展系统的规模,应对不断增长的用户请求。
二、负载均衡的实现方式2.1 硬件负载均衡硬件负载均衡是通过专门的负载均衡设备(如F5、CISCO等)来实现的,这些设备具有强大的处理能力和丰富的负载均衡算法,能够有效地分发用户请求并监控服务器状态。
硬件负载均衡通常适用于大型网络环境,能够提供高性能和高可靠性的负载均衡服务。
2.2 软件负载均衡软件负载均衡是通过在普通服务器上安装负载均衡软件来实现的,常见的软件负载均衡方案包括Nginx、HAProxy、LVS等。
服务器负载均衡技术解析如何实现服务器负载均衡

服务器负载均衡技术解析如何实现服务器负载均衡服务器负载均衡技术是指通过将网络请求分发到多台服务器上,以达到均衡服务器负载、提高系统性能和可靠性的目的。
在现代互联网应用中,服务器负载均衡技术扮演着至关重要的角色。
本文将深入探讨服务器负载均衡技术的实现原理和方法,帮助读者更好地理解和应用这一关键技术。
一、服务器负载均衡技术概述服务器负载均衡技术是指通过将网络请求分发到多台服务器上,以达到均衡服务器负载、提高系统性能和可靠性的目的。
在现代互联网应用中,服务器负载均衡技术扮演着至关重要的角色。
通过服务器负载均衡技术,可以实现以下几个方面的优势:1. 提高系统性能:通过将请求分发到多台服务器上,可以充分利用服务器资源,提高系统的并发处理能力,从而提升系统的性能表现。
2. 提高系统可靠性:通过服务器负载均衡技术,可以将请求分发到多台服务器上,当某台服务器发生故障时,其他服务器仍然可以正常处理请求,从而提高系统的可靠性和稳定性。
3. 实现横向扩展:通过服务器负载均衡技术,可以方便地实现系统的横向扩展,即向系统中添加更多的服务器以应对不断增长的用户请求。
二、服务器负载均衡的实现原理服务器负载均衡技术的实现原理主要包括以下几个方面:1. 负载均衡算法:负载均衡算法是服务器负载均衡的核心。
常见的负载均衡算法包括轮询算法、加权轮询算法、最小连接数算法、最小响应时间算法等。
不同的负载均衡算法适用于不同的场景,可以根据实际需求选择合适的算法。
2. 健康检查:健康检查是保证服务器负载均衡正常运行的关键。
通过定期对服务器进行健康检查,可以及时发现故障服务器并将其排除在负载均衡范围之外,确保系统的稳定性和可靠性。
3. 会话保持:在某些场景下,需要保证用户的会话在同一台服务器上进行保持,以确保用户操作的一致性。
服务器负载均衡技术可以通过会话保持功能实现这一需求。
4. 动态调整:服务器负载均衡技术需要能够根据实际情况动态调整负载均衡策略,以应对不断变化的网络流量和服务器负载情况。
了解服务器负载均衡及其实现方式

了解服务器负载均衡及其实现方式服务器负载均衡是一种重要的网络技术,用于分配和管理服务器上的负载,以保持系统稳定和可靠。
本文将介绍服务器负载均衡的概念、作用以及常用的实现方式。
一、概念和作用服务器负载均衡是指将网络流量、请求或任务分配到多个服务器上,以实现更高的性能、可用性和可伸缩性的技术。
通过负载均衡,可以消除服务器单点故障、提供更好的用户体验和资源利用率。
服务器负载均衡的主要作用有:1. 提高性能:通过将请求分配到多个服务器上,负载均衡可以减轻单个服务器的压力,从而提高整体系统的吞吐量和响应速度。
2. 提高可用性:通过在多个服务器之间分配请求,负载均衡可以防止单个服务器故障导致整个系统不可用。
3. 扩展性和弹性:通过增加、减少服务器数量,负载均衡可以根据实际需求自动调整负载分配,以满足不断变化的流量和需求。
4. 简化管理:通过集中管理服务器、监控系统状态和实时数据统计,负载均衡可以提供更便捷的管理和监控。
二、实现方式1. 硬件负载均衡硬件负载均衡是通过物理设备实现的负载均衡,主要包括:(1)负载均衡器:负载均衡器是专用的硬件设备,使用高速转发器和负载均衡算法,将请求分配到不同的服务器上。
负载均衡器通常具有高性能、高可靠性和可扩展性。
(2)交换机:交换机可以根据预设的负载均衡规则,将流量动态分配到不同的服务器上。
交换机具有较强的转发性能和可控性。
2. 软件负载均衡软件负载均衡是通过软件实现的负载均衡,常见的实现方式有:(1)DNS负载均衡:通过在DNS服务器上配置多个IP地址,将请求分配到不同的服务器上。
DNS负载均衡的优点是简单易用,但其缺点是DNS的缓存和更新可能导致不均衡的问题。
(2)反向代理负载均衡:通过将负载均衡器作为反向代理服务器,将请求转发到不同的后端服务器上。
常见的反向代理软件有Nginx和Apache。
(3)软件负载均衡器:通过在服务器上安装负载均衡软件,如HAProxy和LVS,实现负载均衡功能。
emmc负载均衡算法

emmc负载均衡算法EMMC负载均衡算法是一种在嵌入式系统中应用的负载均衡策略,主要用于调节嵌入式存储器EMMC(Enhanced MultiMediaCard)的读写负载。
在嵌入式系统中,EMMC存储器承担着数据存储和读取的重要任务,随着系统应用的复杂度不断提高,如何合理分配EMMC的读写负载,以保证系统的稳定性和性能成为了一个关键问题。
一、EMMC负载均衡算法的基本原理EMMC负载均衡算法主要通过对系统中各个任务的数据读写需求进行预测和分析,根据预测结果合理分配数据读写任务到不同的EMMC通道。
负载均衡算法可以分为两个阶段:任务分配阶段和任务调度阶段。
1.任务分配阶段:在这个阶段,负载均衡算法根据系统中各个任务的优先级、紧急程度以及EMMC通道的负载情况,对任务进行分类和排序。
对于高优先级、紧急程度较高的任务,优先分配到负载较轻的EMMC通道进行处理。
2.任务调度阶段:在这个阶段,负载均衡算法根据EMMC通道的负载情况,实时调整任务执行顺序,确保各个通道的负载均衡。
当某个EMMC通道的负载过高时,可以调整后续任务的执行顺序,让其他通道的任务优先执行,以降低该通道的负载压力。
二、EMMC负载均衡算法的实现1.预测算法:预测算法是负载均衡算法的重要组成部分,主要用于预测系统中各个任务的数据读写需求。
常见的预测算法有马尔可夫链预测、支持向量机预测等。
预测算法的结果可以为任务分配阶段提供依据,使得任务分配更加合理。
2.任务分配策略:任务分配策略是负载均衡算法在任务分配阶段的实现方式。
常见的任务分配策略有轮询分配、最轻负载分配等。
任务分配策略的目的是在保证系统性能的前提下,实现EMMC通道的负载均衡。
3.任务调度策略:任务调度策略是负载均衡算法在任务调度阶段的实现方式。
常见的任务调度策略有优先级调度、时间片轮转等。
任务调度策略的目的是实时调整任务执行顺序,确保EMMC通道的负载始终处于合理范围内。
4.负载监控与调整:负载监控与调整是负载均衡算法的一个重要环节。
负载均衡存储功能概述-概述说明以及解释
负载均衡存储功能概述-概述说明以及解释1.引言1.1 概述负载均衡存储功能是一种重要的技术,用于在现代计算机系统中平衡数据的存储负载。
它通过将数据分散到多个存储节点上,实现对数据的并行处理和存储,从而提高系统的性能和可扩展性。
负载均衡存储功能的核心思想是将大容量的数据分散到多个存储节点上,这些节点可以是物理服务器、虚拟机或云存储服务等。
每个存储节点都负责处理其中一部分数据,以平衡整个系统的负载。
在数据的读取和写入过程中,负载均衡算法可以根据不同的策略,选择合适的存储节点来完成操作,从而实现数据的快速存取。
负载均衡存储功能主要有两个方面的作用。
首先,它可以提高系统的可用性和可靠性。
由于数据被分散存储在多个节点上,即使某个节点发生故障,系统仍然可以通过其他节点提供正常的服务,避免了单点故障对整个系统的影响。
其次,负载均衡存储功能还可以提高系统的性能和吞吐量。
通过并行处理数据,系统可以同时从多个存储节点读取数据,从而提高数据的读取速度;同时,多节点共同处理数据的写入请求,可以减少写入的延迟,提高系统的响应速度和处理能力。
负载均衡存储功能在现代计算机系统中具有广泛的应用。
它可以用于分布式文件系统、云存储架构、大规模数据处理和分析等场景。
对于面临大数据存储和处理挑战的企业和组织来说,负载均衡存储功能是提高系统性能和可扩展性的重要手段之一。
在未来,负载均衡存储功能将继续发展和完善。
随着云计算和大数据时代的到来,数据的规模和增长速度将进一步加快。
因此,如何有效地实现数据的存储和访问将成为一个更加迫切的问题。
未来的负载均衡存储系统将更加注重数据的分布和复制策略,并引入更智能的负载均衡算法和机制,以应对不断增长的数据量和更高的访问需求。
总结而言,负载均衡存储功能是一种重要的技术,它可以通过将数据分散存储在多个节点上,提高系统的性能、可用性和可扩展性。
在现代计算机系统中,负载均衡存储功能已经得到广泛应用,并将在未来持续发展和完善。
如何实现服务器的负载均衡和高可用
如何实现服务器的负载均衡和高可用一、什么是负载均衡负载均衡(Load Balance)是指将网络流量分配到多台服务器上,以达到各个服务器的负载均衡,提高网络性能和可靠性的一种技术手段。
负载均衡的主要作用在于:1. 提高系统的吞吐量和处理能力。
2. 提高系统的稳定性和可靠性。
3. 提高系统的可扩展性和可维护性。
二、负载均衡的原理负载均衡的核心思想是将整个请求流量分配到多台服务器上,以达到各个服务器的负载均衡。
常见的负载均衡算法包括轮询、加权轮询、最小连接数、IP哈希、URL哈希等。
1. 轮询算法:将请求按照顺序分配给服务器,每个服务器接受一定数量的请求,最终实现负载均衡。
2. 加权轮询算法:在轮询算法的基础上,给不同的服务器分配不同的权重值,以达到更精确的负载均衡效果。
3. 最小连接数算法:当前连接数最少的服务器会被选中处理请求。
4. IP哈希算法:利用请求的IP地址进行哈希计算,将请求分配给特定的服务器,常用于需要保持会话的应用(如网上银行)。
5. URL哈希算法:利用请求的URL地址进行哈希计算,将请求分配给特定的服务器,用于需要静态资源管理和缓存的应用(如图片、CSS、JS等)。
三、负载均衡的实现有多种方式可以实现负载均衡,如硬件负载均衡、软件负载均衡、DNS负载均衡等。
1. 硬件负载均衡:通常采用专用的硬件设备,如F5 BIG-IP、Cisco ACE等。
这类设备能够提供高性能、高可靠性和可扩展性的负载均衡服务,但价格昂贵。
2. 软件负载均衡:通常采用开源方案,如Nginx、HAProxy等。
这些软件具有灵活性和便捷性高,成本相对较低,但可能对系统性能有一定影响。
3. DNS负载均衡:利用DNS解析器返回多个IP地址,实现请求分配到多台服务器上的负载均衡服务。
优点在于利用现有DNS架构,不增加新的硬件或软件成本,但有可能对系统性能有一定影响。
四、实现高可用性除了负载均衡,高可用性也是企业级应用必须考虑的因素之一。
EIGRP负载均衡过程全解
EIGRP负载均衡过程全解EIGRP(Enhanced Interior Gateway Routing Protocol)是一种边界网关协议(IGP),用于在网络中实现动态路由并实现负载均衡。
EIGRP负载均衡过程是一种自适应算法,它在网络中的不同路径之间分配流量,并确保数据包能够快速有效地到达目的地。
以下是EIGRP负载均衡过程的全面解释。
1. EIGRP邻居关系建立:EIGRP路由器之间的邻居关系是通过发送和接收Hello消息来建立的。
当一个路由器在接口上收到另一个EIGRP路由器的Hello消息时,它将认定这个路由器是它的邻居,并开始进行邻居关系的建立过程。
邻居关系建立后,路由器将周期性地发送和接收更新消息。
2.路由信息交换:一旦EIGRP邻居关系建立,路由器将开始交换路由信息。
在EIGRP脊柱路由器(也称为核心路由器)之间,会进行完整路由表的交换。
在非脊柱路由器之间,则会交换部分路由表信息。
路由器通过EIGRP更新消息广播自己的路由表,并监听其他路由器发送的路由信息。
3. 路由信息选择:EIGRP使用DUAL(Diffusing Update Algorithm)算法来选择最佳路径。
DUAL考虑了带宽、延时、可靠性和MTU等因素,来选择最佳路径。
每个路由器都维护一个路由表,其中包含可以达到目的地的所有路径和相关的度量指标。
路由器使用DUAL算法来选择具有最佳度量指标的路径,并将其加入到路由表中。
4.负载均衡:当存在多条等价路径时,EIGRP可以通过在这些路径间分配流量来实现负载均衡。
通过将数据流量分发到多个路径,可以减轻网络中一些路径的负载,提高整个网络的性能。
EIGRP默认情况下支持等价路径的负载均衡,但也可以通过配置来修改负载均衡的行为。
-路由器获得多个到达目的地的等价路径。
-路由器在其路由表中选择最佳路径,并将其用作主路径。
-路由器计算其他路径的可用带宽,并将其加入到负载均衡列表中。
服务器负载均衡策略与实现方法
服务器负载均衡策略与实现方法在现代互联网应用中,服务器的负载均衡是确保系统高可用性和提高性能的重要策略之一。
通过合理选择和实施负载均衡策略,可以将流量分散到多个服务器上,从而提高系统的处理能力和用户的访问速度。
本文将介绍一些常见的服务器负载均衡策略和实现方法。
一、轮询策略轮询策略是最简单和常见的负载均衡策略之一。
它按照事先定义的顺序依次将请求分发给每台服务器,直到所有服务器都被轮询到。
这种方式适用于服务器的负载相对均衡的情况,每个请求都能够平均地被分配到不同的服务器上。
然而,在实际应用中,服务器的负载可能不均衡,因此需要更加智能的负载均衡策略。
二、基于权重的负载均衡策略基于权重的负载均衡策略是根据服务器的性能和负载情况,为每台服务器分配一个权重值,根据权重值决定请求的分发比例。
具有较高权重的服务器将处理更多的请求,而具有较低权重的服务器将处理相对较少的请求。
这种策略可以根据服务器的性能差异进行动态负载均衡,提高系统整体的性能。
三、最小连接数策略最小连接数策略是通过监控服务器的当前连接数来动态地选择最空闲的服务器进行请求的分发。
该策略可以有效地将请求分配给负载较轻的服务器,从而减轻负载较重的服务器的压力,并提高用户的响应时间。
然而,该策略可能会导致服务器之间的连接数不均衡,需要进行动态监控和调整,以确保负载的均衡性。
四、IP散列策略IP散列策略是根据请求的来源IP地址将请求分配给对应的服务器。
通过使用散列算法计算客户端IP地址的哈希值,并将哈希值映射到服务器的地址空间中,可以实现将同一个客户端的请求始终分发到同一台服务器上。
这种策略适用于某些需要保持会话状态的应用场景,可以避免因为请求被分发到不同的服务器而导致的会话丢失问题。
五、内容导向路由策略内容导向路由策略是根据请求的内容特征将请求分发给最能够处理该请求的服务器。
例如,在视频流服务中,可以将高清视频请求分发给性能较高的服务器,将普通视频请求分发给性能较低但成本较低的服务器。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
关于EEPOM负载均衡想法实现
大家都知道EEPOM FLASH是有擦写寿命的
平时我们的单片机总是会用到其中一小部分若是这一小部分都擦写到死那么就会造成机器使用寿命的衰减
我就琢磨能不能平衡擦写或者有序擦写EEPOM中的每一部分
下面的代码解决了我的疑问
void EEPOM_Test_AddrChange(void)
{
u8 i=0;
u8 j=0;
Address_Channel_1=STORE_Resistance_Address_Channe l_1;
Address_Channel_2=STORE_Resistance_Address_Channe l_2;
Address_Channel_3=STORE_Resistance_Address_Channe l_3;
DETECT_Address=STORE_RT_DETECT_Address; TEMPER_Address=STORE_RT_TEMPER_Address;//定义了五个存储地址
i = (u8)AD_Get_Average(AD_CHANNEL_0); //ADC采集
值做随机数
while(1)
{
EE24c02_transfer(WRITE,Address_Channel_1,&i,1);//写随机数
EE24c02_transfer(READ,Address_Channel_1,&j,1);//读随机数
if(i==j)//E2POM没问题
{
#ifdef DEBUG
SERIAL_Putchar(Address_Channel_1);//如果读写正确证明此字节擦写正常
#endif
break;//跳出循环
}
else
{
#ifdef DEBUG
SERIAL_Putchar(Address_Channel_1);
SERIAL_Putchar(i);
SERIAL_Putchar(j);
#endif
Address_Channel_1 += 0x14;//如果擦写不正常地址+20做为新地址
}
}
i = (u8)AD_Get_Average(AD_CHANNEL_0); //产生0-127的随机数
while(1)
{
EE24c02_transfer(WRITE,Address_Channel_2,&i,1); EE24c02_transfer(READ,Address_Channel_2,&j,1);
if(i==j)//E2POM没问题
{
#ifdef DEBUG
SERIAL_Putchar(Address_Channel_2);
#endif
break;
}
else
{
#ifdef DEBUG
SERIAL_Putchar(Address_Channel_2);
#endif
Address_Channel_2 += 0x14;
}
}
i = (u8)AD_Get_Average(AD_CHANNEL_0); //产生0-127的随机数
while(1)
{
EE24c02_transfer(WRITE,Address_Channel_3,&i,1); EE24c02_transfer(READ,Address_Channel_3,&j,1);
if(i==j)//E2POM没问题
{
#ifdef DEBUG
SERIAL_Putchar(Address_Channel_3);
#endif
break;
}
else
{
#ifdef DEBUG
SERIAL_Putchar(Address_Channel_3);
#endif
Address_Channel_3 += 0x14;
}
}
i = (u8)AD_Get_Average(AD_CHANNEL_0);//产生0-127的随机数
while(1)
{
EE24c02_transfer(WRITE,DETECT_Address,&i,1); EE24c02_transfer(READ,DETECT_Address,&j,1);
if(i==j)//E2POM没问题
{
#ifdef DEBUG
SERIAL_Putchar(DETECT_Address);
#endif
break;
}
else
{
#ifdef DEBUG
SERIAL_Putchar(DETECT_Address);
#endif
DETECT_Address += 0x14;
}
}
i = (u8)AD_Get_Average(AD_CHANNEL_0); //产生0-127的随机数
while(1)
{
EE24c02_transfer(WRITE,TEMPER_Address,&i,1); EE24c02_transfer(READ,TEMPER_Address,&j,1);
if(i==j)//E2POM没问题
{
#ifdef DEBUG
SERIAL_Putchar(TEMPER_Address);
#endif
break;
}
else
{
#ifdef DEBUG
SERIAL_Putchar(TEMPER_Address); #endif
TEMPER_Address += 0x14;
}
}
}。