离散和连续空间中的最优搜索理论
搜寻理论

理论应用
商品市场
婚姻市场
劳动力市场
现在,我们回过头来分析一下“鲜花插在牛粪上”的现象。在青年男女拍拖过程中,个人是否采取搜寻行动, 不仅取决于个人的边际搜寻成本,而且还取决于个人所处的战略地位。一般地,在同等条件下,美丽姑娘或英俊 小伙子的搜寻成本要高于相貌普通的姑娘或相貌一般的小伙子。爱美之心,人皆有之,同娶一个相貌普通的姑娘 或嫁一个相貌一般的小伙子相比,娶一个相貌美丽的姑娘或嫁一个英俊的小伙子所获得的收益自然更高一些。当 然,姑娘和小伙子都可采取搜寻和不搜寻两种战略。通过设计一个适当的效用函数,我们就能得出在姑娘和小伙 子的战略式表述中,只有相貌普通的小伙子搜寻而美丽姑娘不搜寻,以及相貌普通的姑娘搜寻而英俊小伙子不搜 寻这两种战略组合属于稳定均衡。在均衡点上,效率与公平达到了完美结合。
具备相同功能的消费品的质量差别,往往是市场价格离散的主导因素。事实上,即使是同质商品,由于时间、 空间上的差异,市场价格也会出现离散。
厂商对由价格竞争和非价格竞争所产生的成本函数的反应不同,其制定价格的政策就有所不同,这会使市场 价格进一步离散。此外,市场规模,如交易量和市场交易人数的变化,也会使价格的离散幅度发生变化。
我国当前的就业形势,总体上讲不容乐观。就业压力不仅在短期内存在,而且会持续相当长的一段时期。全 社会在转变择业观念的同时,努力创造条件减少雇主和劳动虑目标
二维离散空间与连续空间中的极值点

一、概述二维离散空间和连续空间是数学中重要的概念,在这两种空间中寻找极值点是一个基本而且重要的问题。
本文将分别介绍二维离散空间和连续空间中的极值点的定义、求解方法以及相关定理。
二、二维离散空间中的极值点1. 定义在二维离散空间中,极值点指的是一个点,在该点的邻域内,函数取得局部最大值或者最小值的点。
离散空间中的函数是在离散的点上定义的,因此极值点的求解方式也与连续空间有所不同。
2. 求解方法在二维离散空间中,求解极值点的方法一般包括以下步骤:(1)确定函数在给定区域内的取值范围。
(2)遍历区域内的所有点,计算函数在这些点上的取值。
(3)找出函数取值最大或者最小的点,即为极大值点或者极小值点。
3. 相关定理在二维离散空间中,可以利用两阶偏导数的方法来判断一个点是否为极值点。
具体来讲,通过计算函数的一、二阶偏导数,可以求解其驻点,并判断这些驻点是否为极值点。
三、连续空间中的极值点1. 定义在连续空间中,极值点的定义与二维离散空间中相似,即在该点的邻域内,函数取得局部最大值或者最小值。
2. 求解方法在连续空间中,求解极值点的方法一般包括以下步骤:(1)计算函数的一阶偏导数,找出其所有的驻点。
(2)利用二阶偏导数的方法判断这些驻点是否为极值点。
(3)在确定极值点的要验证其是否为局部最大值或者最小值。
3. 相关定理在连续空间中,存在许多与求解极值点相关的重要定理,例如费马定理、拉格朗日乘子法和极值存在的充分条件等。
这些定理为求解连续空间中的极值点提供了重要的理论基础和方法论。
四、总结在本文中,我们分别介绍了二维离散空间和连续空间中的极值点的定义、求解方法和相关定理。
通过对这两种空间中极值点求解的方式和理论基础的分析,可以更好地理解数学中的极值问题,为相关领域的研究和应用提供理论支持。
我们也可以看到,二维离散空间与连续空间中极值点的研究有着许多相似之处,但在具体的求解方法和理论体系上也有所差异,这为我们在实际问题中的求解提供了更多的选择空间。
最优控制问题的数值方法比较

最优控制问题的数值方法比较最优控制问题是应用数学中的一个重要研究领域,其目标是找到一种使系统性能达到最优的控制策略。
在现实生活中,最优控制问题广泛应用于机器人控制、经济管理、工程优化等领域。
为了解决这个问题,研究者们发展了许多数值方法,本文将对其中的几种方法进行比较。
一、动态规划动态规划是最早也是最经典的最优控制方法之一。
它基于状态和控制变量的离散化,将最优控制问题转化为一系列子问题的求解。
动态规划的核心思想是利用最优子结构性质,即全局最优解可以通过局部最优解的组合而得到。
动态规划方法的优点是理论基础牢固,能够得到全局最优解。
然而,动态规划在处理高维状态空间问题时,由于状态空间的指数增长,计算复杂度会急剧增加。
二、最优控制理论最优控制理论是另一种常用的数值方法,主要包括泛函分析、变分法和极大极小值等数学工具。
最优控制理论通过建立最优控制问题的变分原理,推导出极值条件,从而求解最优解。
最优控制理论在处理连续时间、连续状态和控制变量问题时效果较好,但在面对非线性系统和大规模系统时计算复杂度也较高。
三、优化算法优化算法是一类基于搜索策略的最优控制方法。
常见的优化算法包括最速下降法、共轭梯度法和拟牛顿法等。
这些方法通过迭代优化的方式逐步逼近最优解。
优化算法具有灵活性和适用性广的特点,能够处理一般的最优控制问题。
然而,这类方法的局部收敛性和迭代次数都与初始猜测解有关,需要耗费较多的计算资源。
四、数值仿真数值仿真方法是一种常用的最优控制求解技术,特别适用于非线性和高维系统。
数值仿真通过数值积分的方式,将最优控制问题转化为求解微分方程或者差分方程的问题,然后利用数值计算的方法求解。
数值仿真方法的优点是能够直接处理连续状态和控制变量,适用于复杂的系统模型。
然而,数值仿真方法在求解过程中容易受到数值误差的影响,需要对收敛性和精度进行分析。
总结起来,动态规划方法适用于离散状态和控制变量的最优控制问题,最优控制理论适用于连续状态和控制变量的问题,优化算法适用于一般的最优控制问题,而数值仿真方法适用于复杂的非线性和高维系统。
数学中的离散优化与组合优化

数学中的离散优化与组合优化在数学领域中,离散优化和组合优化是两个重要的子领域。
它们在解决实际问题和优化理论中起着至关重要的作用。
本文将对离散优化和组合优化进行介绍,并探讨它们在数学中的应用。
离散优化是一种数学优化方法,它涉及到离散型的变量和函数。
与连续优化不同,离散优化通常涉及到某种最优化问题的离散解。
离散优化问题可以用数学模型来描述,并通过应用各种优化方法来解决。
离散优化可应用于许多领域,如工程、网络优化、资源分配等。
组合优化是离散优化的一个重要分支,它专注于解决组合结构中的最优化问题。
组合优化涉及到从给定的有限集合中选择最佳的组合方式,以满足特定的约束条件和目标函数。
在组合优化中,我们通常要在多个选择之间进行权衡,并在不同的约束条件下寻找最优解。
离散优化和组合优化在实际应用中具有广泛的应用。
比如在交通规划中,离散优化可以帮助我们确定最佳的路径和排班方案;在生产调度中,离散优化可以帮助我们提高效率和降低成本;在电子商务中,组合优化可以帮助我们确定最佳的商品推荐和营销策略。
离散优化和组合优化的研究方法包括数学建模、算法设计和复杂性分析等。
数学建模是将实际问题抽象成数学模型的过程,它涉及到对问题进行定义、变量的选择和约束条件的确定等。
算法设计是为了解决离散优化和组合优化问题而开发出的具体计算方法,它可以通过穷举搜索、贪婪法、动态规划等方式来寻找最优解。
复杂性分析是对算法性能进行评估的过程,它可以帮助我们了解算法的时间和空间复杂度,并评估其可行性和可扩展性。
总结起来,离散优化和组合优化在数学领域中扮演着重要的角色。
它们不仅帮助我们解决实际问题,还促进了数学理论的发展。
通过研究离散优化和组合优化,我们可以深入理解数学模型的构建和算法的设计,为其他领域的优化问题提供借鉴和启示。
希望本文能够为读者对离散优化和组合优化有更清晰的认识,并进一步探索它们在实践中的应用。
连续优化、离散优化、组合优化与整数优化

连续优化、离散优化、组合优化与整数优化最优化问题(optimization problem)⾃然地分成两类:⼀类是连续变量的问题,称为连续优化问题;另⼀类是离散变量的问题,称为离散优化问题。
1. 连续优化(continuous optimization)连续优化是求解连续优化是求解在连续变量的问题,其⼀般地是求⼀组实数,或者⼀个函数。
离散优化(discrete optimization)2. 离散优化连续优化是求解离散变量的问题,是从⼀个⽆限集或者可数⽆限集⾥寻找⼀个对象,典型地是⼀个整数,⼀个集合,⼀个排列,或者⼀个图。
3. 组合优化(combinatorial optimization)组合优化问题的⽬标是从组合问题的可⾏解集中求出最优解,通常可描述为:令Ω={s1,s2,…,sn}为所有状态构成的解空间,C(si)为状态si对应的⽬标函数值,要求寻找最优解s*,使得对于所有的si∈Ω,有C(s*)=minC(si)。
组合优化往往涉及排序、分类、筛选等问题,它是运筹学的⼀个重要分⽀。
典型的组合优化问题有旅⾏商问题(Traveling Salesman Problem-TSP)、加⼯调度问题(Scheduling Problem,如Flow-Shop,Job-Shop)、0-1背包问题(Knapsack Problem)、装箱问题(Bin Packing Problem)、图着⾊问题(Graph Coloring Problem)、聚类问题(Clustering Problem)等。
这些问题描述⾮常简单,并且有很强的⼯程代表性,但最优化求解很困难,其主要原因是求解这些问题的算法需要极长的运⾏时间与极⼤的存储空间,以致根本不可能在现有计算机上实现,即所谓的“组合爆炸”。
正是这些问题的代表性和复杂性激起了⼈们对组合优化理论与算法的研究兴趣。
4. 整数优化(integer programming, IP)要求所有的未知量都为整数的线性规划问题叫做整数规划 (integer programming, IP) 或整数线性规划 (integer linear programming, ILP) 问题。
如何在马尔可夫决策过程中处理连续状态空间(九)

马尔可夫决策过程(MDP)是一种用来描述决策问题的数学框架,它可以用来解决许多实际问题,包括机器学习、人工智能、运筹学等领域。
在MDP中,状态空间通常被假设为离散的,即只有有限个状态。
然而,在实际问题中,状态空间往往是连续的,这给MDP的求解带来了挑战。
本文将讨论如何在马尔可夫决策过程中处理连续状态空间的问题。
1. 状态空间的表示在处理连续状态空间时,首先需要解决的问题是如何表示状态空间。
对于离散状态空间,可以用一个向量来表示状态,每个元素对应一个状态。
但是对于连续状态空间,这种表示方法就不再适用了。
一种常用的方法是使用函数逼近,将状态空间映射到一个有限维的空间中。
常用的函数逼近方法包括线性函数逼近、非线性函数逼近(如神经网络)等。
这样就可以将连续状态空间转化为有限维的空间,从而可以应用离散状态空间的方法。
2. 动作空间的表示与状态空间类似,连续动作空间也需要进行适当的表示。
对于离散动作空间,可以用一个向量来表示动作,每个元素对应一个动作。
但是对于连续动作空间,同样需要采用函数逼近的方法,将动作空间映射到有限维的空间中。
这样就可以将连续动作空间转化为有限维的空间,从而可以应用离散动作空间的方法。
3. 值函数的逼近值函数是MDP中非常重要的概念,它描述了在某一状态下采取某一动作所能获得的长期回报。
在处理连续状态空间时,需要采用适当的方法来逼近值函数。
常用的方法包括线性函数逼近、非线性函数逼近(如神经网络)等。
这样就可以用有限维的空间来表示值函数,从而可以应用离散状态空间的方法。
4. 策略搜索在MDP中,需要找到一个最优策略,使得长期回报最大化。
对于离散状态空间,可以采用动态规划等方法来搜索最优策略。
但是对于连续状态空间,这些方法就不再适用了。
在处理连续状态空间时,常用的方法是策略搜索,即通过优化算法来搜索最优策略。
常用的算法包括随机搜索、梯度下降等。
这样就可以找到在连续状态空间中的最优策略。
5. 模型学习在MDP中,通常假设环境的动态由一个转移概率矩阵来描述。
mpc中的优化算法

mpc中的优化算法MPC中的优化算法: 从理论到应用引言:Model Predictive Control(MPC)是一种广泛应用于工业自动化领域的控制策略。
它通过对系统模型进行预测,并通过优化算法来选择最优控制策略。
本文将介绍MPC中常用的优化算法,并探讨其在实际应用中的一些挑战和解决方案。
一、线性二次规划(Linear Quadratic Programming,LQP)线性二次规划是MPC最常用的优化算法之一。
它通过最小化代价函数来选择最优控制策略,同时满足系统的动态方程和约束条件。
LQP算法具有计算效率高、收敛性好等优点,适用于许多实际控制问题。
二、非线性规划(Nonlinear Programming,NLP)当系统模型具有非线性特性时,MPC需要使用非线性规划算法来求解最优控制策略。
NLP算法通过迭代优化过程,逐步逼近最优解。
然而,由于非线性规划问题的复杂性,NLP算法的计算量较大,需要高效的数值求解方法。
三、多目标优化算法在某些应用中,MPC需要同时优化多个目标函数,如最小化能耗和最大化生产效率。
这时,多目标优化算法可以用来解决这类问题。
常用的多目标优化算法有遗传算法、粒子群算法等。
这些算法通过搜索解空间的不同位置,找到一组最优解,满足不同的目标需求。
四、鲁棒优化算法在实际应用中,系统模型通常存在不确定性和扰动。
鲁棒优化算法可以在系统不确定性较大时,保证控制性能的稳定性和鲁棒性。
这类算法通常使用鲁棒约束和鲁棒代价函数来处理不确定性,以保证控制器在各种不确定情况下都具有良好的性能。
五、混合整数优化算法有些应用中,MPC需要考虑离散控制变量,如开关状态等。
混合整数优化算法可以用来求解这类问题。
它将连续变量和离散变量结合起来,通过搜索整数解空间,找到最优解。
然而,由于整数优化问题的NP难度,混合整数优化算法通常需要进行适当的求解策略和剪枝操作。
六、并行优化算法随着计算机硬件的发展,MPC中的优化算法可以利用并行计算的优势来提高计算效率。
数学中的离散优化离散问题的最优化方法与算法

数学中的离散优化离散问题的最优化方法与算法数学中的离散优化:离散问题的最优化方法与算法离散优化是数学中的一个重要分支,涉及到在给定的约束条件下,寻找离散决策变量的最优值。
离散问题的最优化方法与算法在现实生活中有着广泛的应用,例如在经济学、工程学、计算机科学等领域。
本文将介绍几种常见的离散优化方法与算法,并给出相应的实例说明。
1. 背包问题背包问题是一类经典的离散优化问题,其目标是在给定的背包容量下,选择一些物品放入背包中,使得物品的总价值最大化。
常见的背包问题包括0-1背包问题、分数背包问题等。
0-1背包问题要求每个物品要么完整地放入背包,要么完全不放入;而分数背包问题允许物品被切割后放入背包。
这类问题通常可以用动态规划算法来解决。
2. 蚁群算法蚁群算法是一种基于模拟蚂蚁觅食行为的启发式优化算法,在求解离散优化问题中具有很好的效果。
蚁群算法模拟了蚂蚁在搜索食物时的行为,通过信息素的引导和信息素挥发的调控,使蚂蚁集体找到最优解。
蚁群算法在TSP(旅行商问题)等多个领域取得了较好的实验结果。
3. 遗传算法遗传算法是一种模拟自然进化过程的优化算法,适用于求解离散或连续优化问题。
遗传算法通过模拟遗传、变异和选择等基本过程,生成新的解并逐代改进,最终得到一个或多个最优解。
遗传算法通过种群的进化,使解空间中的解逐渐趋向最优解,具有全局搜索能力。
遗传算法在图着色、子集选择等问题中有广泛应用。
4. 线性规划算法线性规划是研究线性约束条件下的最优解的数学方法。
虽然线性规划常被用于求解连续问题,但在离散优化问题中也有相应的应用。
例如,当变量的取值只能是整数时,可将线性规划问题转化为整数线性规划问题,再利用分支定界等方法求解。
5. 图论算法图论是数学中探讨图的性质和关系的重要分支,也是解决离散优化问题的有效工具。
图论中的最短路径算法(如Dijkstra算法、Bellman-Ford算法)、最小生成树算法(如Prim算法、Kruskal算法)等,都可以应用于离散优化中,如网络规划、通信路由等问题。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Initial probability density function:(1)Uniform density1/V n(2)Gaussian densitymu, sigma(3)Truncated Gaussian densityNormalization constant c=1/int A(p0(s)ds)目标运动模型:采用Transition density function 表示: dX/dt=V(X,t) (V表示目标的速度向量)在正态分布等假设下,X(t)满足:(*) dX=beta(X,t)dt+a(X,t)1/2dW其中dW是一个维纳过程(Wiener process),有时也叫做布朗运动(Brownian motion),定义为: dW是具有正态分布且满足E(dW)=0和E[(dW)2]=dt,并且在不相交的时间区间上有相互独立的增量的随机过程.方程(*)只是随机运动目标的近似模型,特别是当deta t很小时不成立.因为当deta t - ->0时,增量独立的假设不正确.为了弥补这个缺点,可以引入下面的加速度模型,或采用一个更一般的随机过程.但是对于大部分的应用来说,由(*)式所定义的运动模型只需经过少许修正就可使用.两个特例:1.逃避运动目标(evading target)假定目标在向量场Z p(t)X(t)的方向以最大的速度逃离2.随机漫游(random tours)第二类的运动目标模型是基于目标的运动加速模型.探测函数模型:1.Visual detection model (视觉探测模型), 一个通用的视觉探测函数模型构造为:假定目标位置在平面上的X点,而搜索者的位置在空间Z点处,探测函数b与目标所在平面和搜索者与目标位置所在直线的立体角(solid angle)成比例2.Radar detection model (雷达探测模型), 应用探测统计学理论3.Cookie cutter model (圆盘探测模型), 对称之为对时间依赖的圆盘模型(TDCC,time-dependent cookie cutter)----当搜索者和目标之间的距离小于R时,探测概率为1,而在其他情况下探测概率等于0扫描宽度(sweep width):它表示的是一个距离的大小,在这个距离以外搜索者探测到目标的概率与在这个距离以内搜索者探测不到目标的概率恰好相等最简单情况:假设搜索者站在原点不动,而目标以速度v沿着平行于y轴的直线移动.设探测函数为b(x1,x2,t,z),则在时间t1和t2之间,搜索者探测的目标的概率为…公式略这个积分值F[x1]称为视能(sighting potential)现在假设目标的运动路线是源于x点且平行于y轴的射线,到t时刻搜索者探测不到目标的概率u(x,t),表示搜索时间开始于t…令p(x)=1-u(x,infinity), 这样p(x)就是最终在x点一侧的半直线上探测到目标的概率.因此得: p(x)=1-e-F[x]通常称为侧向值域曲线(lateral range curve).现在给出扫描宽度W的定义如下:W=int-infity+infinity p(x)dx因为p(x)关于原点对称,很容易看出这样定义的扫描宽度W满足:int0W/2[1-p(x)]dx=int W/2infinity p(x)dx上面的等式说明前面对扫描宽度W的理解是正确的对视觉探测的情况…搜索者运动模型和搜索资源模型简单情况下搜索者是静止的,dZ/dt=0. 更普遍情况下,搜索者的运动分基于速度的运动模型和基于加速度的运动模型.定义:搜索资源分配函数本书新颖之处:1.以前的论著中均假设搜索目标的位置的初始概率分布函数是已知的,本书研究了在离散空间中当目标的初始分布函数未知的情况下的最优搜索问题2.分析讨论了非正则探测函数的最优搜索问题3.研究了把随机运动的移动目标最优搜索问题转化为随机系统的最优控制问题进行研究的方法,并利用最优化原是推导出随机移动目标搜索问题的Hamilton-Jacobi-Bellman (HJB)方程,将随机系统的最优搜索问题转为拟线性确定性系统的求解.这种方法对于解决十分困难的移动目标最优搜索问题指出了一条新途径.对于静止目标的最优搜索问题即搜索资源的最优分配问题开展研究的先驱是B.O. Koopman.在探测函数具有指数函数形式的假定下研究了如何最大化发现目标的概率,并提出了在连续目标空间中且搜索资源连续可分的情况下进行查找的资源分配方法.Koopman证明了资源E1+E2的最优分配是资源E1的最优分配与资源E2的条件最优分配之和(在E1的分配完成后没能找到目标的条件对资源E2的最优分配).因此他得出结论:如果资源E1的分配策略已定,则搜索者在分配资源E2时并不能从资源E1的使用没能找到目标这个附加信息中获得任何好处.Gluss推广了Koopman的模型,使之包含了惩罚性开销在内.连续空间中的Koopman模型假定搜索目标是隐藏在一个一维空间中的点:g(x)>=0;g(x)dx=Prob[x<=X<=x+dx]int-infinity infinity g(x)dx=1 - ->此条件隐含着目标必定隐藏在这个给定的一维空间内的假定.当然我们也可以假定目标隐藏在此空间中的概率为alpha(alpha<=1).这样一来就包含了我们不知道是否搜索目标真的在我们所查找的空间内的情况,这种情况在实际实用(如石油勘探)中是可能出现的.在区间x和x+dx中所投入的搜索资源可以用phi(x)dx表示.这里的phi(x)是一个尚待确定的非负并且连续的函数,称之为资源分配函数.如果我们所掌握的可供配置的总资源是有限的,设其等于K,于是我们得到:int-infinity infinity phi(x)dx=K在搜索目标确实位于点x的条件下,使用了搜索资源phi(x)以后成功地发现目标的概率记为b[phi(x)],这个概率叫做探测概率或探测函数,其特点如下:b(0)=0, b’(phi)>=0, lim phi->infinity b(phi)=1De Guenin进一步假设这个探测函数b(phi)是个正则函数,即: b’(.)是个单调递减函数,并且有b’(0)>0以及b’(infinity)=0.所以搜索者在x和x+dx之间成功发现目标的概率等于:g(x)b[phi(x)]dx,于是在整个空间中的搜索过程的成功发现目标的总概率为:P(phi)= int-infinity infinity g(x)b[phi(x)]dx.所以在这种情况下,最优搜索问题等价于确定函数phi(x)使得P(phi)达到最大化,并且满足下面的约束条件:phi(x)>=0; int-infinity infinity phi(x)dx=K.De Guenin的主要结果阐述在下面的定理中:定理2.1 phi(x)使用P(phi)达到最大值的必要条件是在任一满足条件phi(x)>0的点x,有g(x)b’phi[phi(x)]=C这里C是任一常数.Algorithm De Guenin略…最小期望成本模型不同的优化准则:1.成功发现目标的概率最大化,而且总的搜索成本开销不超过事先的预算值K2.用于查找和发现目标的时间期望值达到最小化- ->StaroverovN个笼子:<1> 目标不在笼j中,则找到目标的概率为0<2> 目标在笼j中,则找到目标的概率为p假定搜查不同笼子时得到的搜索结果是相互独立的.我们可以将搜索所有笼子的过程表示为如下的一个序列:a=(a1,a2,…,a j,…)对应于每一个搜索过程a我们引入一个随机变量tao a,它的含义是在本次搜索中发现目标的时刻, Staroverov通过研究相关的正单调递减序列得到的一些代数结果,给出了:E[tao a*]=inf a E[tao a];其中E表示数学期望算子.因此a*是满足第二种优化优化准则的过程.满足第二种优化准则的最优化搜索资源分配策略是由Gilbert首先提出并研究的:两个盒子,时间损失- ->Gluss,N个盒子搜索问题,特例:这些盒子是排成一列的- ->时间损失为常数的N 个盒子- ->具有转换损失的离散搜索模型,并得到了使用检测时间期望值最小化的最优搜索所满足的条件.行踪搜索:Detection search探测搜索:在资源预算的限制下选择一种搜索策略使得找到目标的可能性大致最大,在这种情况下整个搜索成本是由事先确定的数值K所限定的.Whereabouts search行踪搜索:在使搜索成本不超过K个单位(预算的上限)的条件下判断出目标最有可能藏在哪个盒子里.行踪搜索的结果可能有两种:一是搜索中成功地找到了目标;二是在搜索到最后也没有找到目标的情况下给出哪个盒子最可能藏有目标的判断.所以行踪搜索的策略不但包括了前面的最优搜索策略,还包括在搜索不成功时的最优猜想策略.第三章:分布函数未知情况下的搜索问题:设计搜索策略时首先考虑的是选择目标分布函数q(k),探测函数具有指数函数形式(例如b(t)=1-e-t).定理3.1(最优搜索策略的探测概率的上下界)一个物体藏在N个盒子中的一个盒子里面,并且具有任意的概率分布函数:p(i) (i=1,2,…,N).b(t)=1-e-t,则最优搜索策略f*发现目标的概率P[f*]满足不等式:1-e-k/N<=P[f*]<=1-C N e-k/N=1-lambda其中:C N=N[p(1)…p(N)]1/N,且K>0是总成本开销约束条件.推广到探测函数b(i,z)是正则函数时的情况b(i,0)+lambda*K<=P[f*]<=b(i,0)+b’(i,0)K.目标概率分布的估计和误差分析简化:两个盒子,探测函数具有指数形式的情况;目标真实概率分布(a,1-a),搜索者假设其为(b,1-b);定理:P[f b*]<=P[f a*]推论: (选取目标位置概率分布的第一个准则) 使得下面的式子取最大值:P[f b*]=1-(a+b-2ab)/sqrt(b-b2) e-K/2这里a定义在一个优先集(priority set)上,即所有的a有较大可能取值的那些点的集合. 即:P[a=a0 in A]>=p0. 其中p0是一个固定的常数,通常在0.5到1之间.(探测概率误差) 搜索空间为两个盒子:探测概率误差由下式给出:E(a,b)= (a+b-2sqrt(ab)[sqrt(ab)+sqrt((1-a)(1-b))]) / () e-K/2.选择目标概率分布的第二个准则:满足在a的一个优先集上使E(a,b)取值为最小.下面我们将证明:如果优先集是一个长度为delta>0的区间,那么当区间长度趋于0时,误差E(a,b)也趋于0.E(a,a0)<c0 (delta)2.其中c0为某个常数.假设我们知道探测概率的均值是E[P(f*)],那么由此可以计算出相应的目标分布函数的平均值吗?换句话说,如果目标分布函数是E(a),那么对应的最优搜索方案的探测概率等于E[P(f*)]吗?答案通常中否定的.推广到N个盒子的情况:定理:探测函数为指数函数形式,则P[f b*]<=P[f a*]P[f b*]=1-e-K/N sum i=1N [(prod j=1N bj)1/N a i/b i]第一准则:使上面的表达式P[f b*]在一个优先集上达到最大值.第二准则:使下面的表达式E(a,b)在一个优先集上达到最小值误差E(a,b)= e-K/N sum i=1N {[(prod j=1N b j)1/N a i - (prod j=1N a j)1/N b i] / b i }非正则探测函数的最优搜索问题:正则:如果b(i,.)对每个i是连续可导的,并且导函数b’(i,.)是单调递减函数,且满足b’(i,0)>0和b’(i,infinity)=0,那么称b(i,z)是正则的.很明显,正则函数存在可逆的导函数,这个限制很强很不必要.因为正则函数必须单调递增的,这个性质隐含着对于每一个单元格(盒子)C i,搜索者在其中搜索一个物体所花的时间越长,在这个单元格中找到这个物体的可能性就越大.然而在很多情况下,这个假设并不正确.探测函数:b(i,z)=exp(–alpha i (z-z i)2), z>0, alpha i>0, i=1~N,b(i,z)=0, z=0.例子: (2/3,1/3) 总时间4分钟- ->在引入了非正则探测函数之后,我们看到花在第一个抽屉里的搜索时间由2.35降到了2.28,这是因为在搜索第一个抽屉所花的时间超过了某一个临界点后,再继续搜索下去将会是徒劳的.当b!=a=2/3时,探测概率P[f b]变化曲线: 先增后减Chapter 4:静止目标搜索模型中,目标的位置是由一个概率分布函数来描述.对于运动目标来说,目标的位置是关于时间的函数,因此可以用一个随机过程来刻画.假设搜索时间被限制在一个区间[0,T]上,我们的目的是使得在时刻T发现目标的概率达到最大.搜索空间为Y,搜索策略ψ (y,t)>=0表示一种搜索策略,即t时刻分配到y点上的搜索资源密度.搜索资源的投放速度是具有限制的,即存在一个与t有关的搜索资源上限m(t),使得:∫Yψ (y,t)dy<=m(t), t in [0,T]满足上式的搜索策略ψ集合记为Ψ(m)。