转载至: https://www.jb51.net/books/626028.html
下载链接: 点我一键跳转到 下载链接
下载声明: 本资料仅供个人学习和研究使用,不能用于商业用途,请在下载后24小时内删除。如果喜欢,请购买正版!
概率图模型将概率论与图论相结合,是当前非常热门的一个机器学习研究方向。本书详细论述了有向图模型(又称贝叶斯网)和无向图模型(又称马尔可夫网)的表示、推理和学习问题,全面总结了人工智能这一前沿研究领域的最新进展。为了便于读者理解,书中包含了大量的定义、定理、证明、算法及其伪代码,穿插了大量的辅助材料,如示例(examples)、技巧专栏(skill boxes)、实例专栏(case study boxes)、概念专栏(concept boxes)等。另外,在第 2章介绍了概率论和图论的核心知识,在附录中介绍了信息论、算法复杂性、组合优化等补充材料,为学习和运用概率图模型提供了完备的基础。
本书可作为高等学校和科研单位从事人工智能、机器学习、模式识别、信号处理等方向的学生、教师和研究人员的教材和参考书。
== 序 言 ==
很高兴能够看到我们所著的《概率图模型》一书被翻译为中文出版。我们了解到这本书涵盖的课题已在中国引起了巨大的兴趣。已有众多中国读者写信向我们解释这本书对于他们的学习的重要性,并希望获得更易理解的版本。随着众多来自中国研究机构或国外研究机构的中国学者署名或共同署名的文章的发表,中国研究者已在概率图领域中扮演了非常重要的角色。这些文章对于概率图模型领域的发展起到了非常重要的作用。我们相信《概率图模型》中文版的出版将帮助许多中国读者学习并掌握这一重要课题的基础。同时,这也将进一步提高中国学者应用概率图模型思想的能力,并为这一领域的发展做出贡献。
本书的翻译工作由王飞跃研究员主导,并得到了王珏研究员及其众多助手和合作者的支持。这是一份历时 5年、具有里程碑意义的努力,我深深地感谢该团队所有为本书翻译做出贡献的人员。我尤其希望借此机会感谢王珏研究员——一位中国机器学习领域的开拓者。王珏研究员是此项翻译工作的十分重要的推动者。没有他的支持,没有他的众多杰出的机器学习领域的学生的帮助,可能这项工作到现在还没有结果。很遗憾王珏研究员于 2014年 12月死于癌症,终年 66岁,已不能看到他努力的结果。然而,他的思想活在他的学生们的工作中,与本书的出版同在。
Daphne Koller
(复杂系统管理与控制国家重点实验室王晓翻译)

目 录
 致谢 29
 插图目录 31
 算法目录 39
 专栏目录 41
 第 1章引言 .. 1
 1.1动机 . 1
 1.2结构化概率模型 . 2
 1.2.1 概率图模型 . 3
 1.2.2 表示、推理、学习 . 5
 1.3概述和路线图 . 6
 1.3.1 各章的概述 . 6
 1.3.2 读者指南 . 9
 1.3.3 与其他学科的联系 ... 10
 1.4历史注记 ... 12
 第 2章 基础知识 15
 2.1概率论 ... 15
 2.1.1 概率分布 ... 15
 2.1.2 概率中的基本概念 ... 17
 2.1.3 随机变量与联合分布 ... 19
 2.1.4 独立性与条件独立性 ... 22
 2.1.5 查询一个分布 ... 25
 2.1.6 连续空间 ... 27
 2.1.7 期望与方差 ... 30
 2.2图 ... 33
 2.2.1 节点与边 ... 33
 2.2.2 子图... 34
 2.2.3 路径与迹 ... 35
 2.2.4 圈与环 ... 36
 2.3相关文献 ... 37
 2.4习题 ... 38
 第Ⅰ部分表示
 第 3章贝叶斯网表示 45
 3.1独立性性质的利用 ... 45
 3.1.1 随机变量的独立性 ... 45
 3.1.2 条件参数化方法 ... 46
 3.1.3 朴素贝叶斯模型 ... 48
 3.2贝叶斯网 ... 51
 3.2.1 学生示例回顾 ... 51
 3.2.2 贝叶斯网的基本独立性 ... 55
 3.2.3 图与分布 ... 59
 3.3图中的独立性 ... 68
 3.3.1 d-分离 ... 68
 3.3.2 可靠性与完备性 ... 71
 3.3.3 d-分离算法 ... 73
 3.3.4 I-等价 75
 3.4从分布到图 ... 77
 3.4.1 昀小 I-map 78
 3.4.2 P-map 80
 3.4.3 发现 P-map* . 82
 3.5小结 ... 91
 3.6相关文献 ... 92
 3.7习题 ... 95
 第 4章无向图模型 .. 103
 4.1误解示例 . 103
 4.2参数化 . 106
 4.2.1 因子. 106
 4.2.2 吉布斯分布与马尔可夫网 . 107
 4.2.3 简化的马尔可夫网 . 110
 4.3马尔可夫网的独立性 . 113
 4.3.1 基本独立性 . 113
 4.3.2 独立性回顾 . 116
 4.3.3 从分布到图 . 119
 4.4参数化回顾 . 121
 4.4.1 细粒度参数化方法 . 121
 4.4.2 过参数化 . 127
 4.5贝叶斯网与马尔可夫网 . 132
 4.5.1 从贝叶斯网到马尔可夫网 . 132
 4.5.2 从马尔可夫网到贝叶斯网 . 136
 4.5.3 弦图. 138
 4.6部分有向模型 . 140
 4.6.1 条件随机场 . 141
 4.6.2 链图模型 *... 146
 4.7总结与讨论 . 149
 4.8相关文献 . 150
 4.9习题 . 151
 第 5章局部概率模型 .. 155
 5.1 CPD表 155
 5.2确定性 CPD 156
 5.2.1 表示. 156
 5.2.2 独立性 . 157
 5.3特定上下文 CPD 160
 5.3.1 表示. 160
 5.3.2 独立性 . 168
 5.4因果影响的独立性 . 172
 5.4.1 Noisy-or模型 . 172
 5.4.2 广义线性模型 . 175
 5.4.3 一般公式化表示 . 179
 5.4.4 独立性 . 180
 5.5连续变量 . 181
 5.5.1 混合模型 . 185
 5.6条件贝叶斯网 . 187
 5.7总结 . 189
 5.8相关文献 . 189
 5.9习题 . 191
 第 6章基于模板的表示 .. 195
 6.1引言 . 195
 6.2时序模型 . 196
 6.2.1 基本假设 . 196
 6.2.2 动态贝叶斯网 . 198
 6.2.3 状态-观测模型 ... 203
 6.3模板变量与模板因子 . 208
 6.4对象-关系领域的有向概率模型 211
 6.4.1 Plate模型 211
 6.4.2 概率关系模型 . 217
 6.5无向表示 . 223
 6.6结构不确定性 * ... 227
 6.6.1 关系不确定性 . 227
 6.6.2 对象不确定性 . 230
 6.7小结 . 235
 6.8相关文献 . 236
 6.9习题 . 237
 第 7章高斯网络模型 .. 241
 7.1多元高斯分布 . 241
 7.1.1 基本参数化方法 . 241
 7.1.2 高斯分布的运算 . 243
 7.1.3 高斯分布的独立性 . 244
 7.2高斯贝叶斯网 . 245
 7.3高斯马尔可夫随机场 . 248
 7.4小结 . 251
 7.5相关文献 . 251
 7.6习题 . 252
 第 8章指数族 .. 255
 8.1引言 . 255
 8.2指数族 . 255
 8.2.1 线性指数族 . 257
 8.3因式化的指数族( factored exponential families)... 260
 8.3.1 乘积分布( product distributions) 260
 8.3.2 贝叶斯网 . 261
 8.4熵和相对熵 . 263
 8.4.1 熵. 263
 8.4.2 相对熵 . 266
 8.5投影 . 267
 8.5.1 比较. 268
 8.5.2 M-投影 270
 8.5.3 I-投影 .. 275
 8.6小结 . 275
 8.7相关文献 . 276
 8.8习题 . 276
 第Ⅱ部分推理
 第 9章精确推理:变量消除 .. 281
 9.1复杂性分析 . 281
 9.1.1 精确推理分析 . 282
 9.1.2 近似推理分析 . 284
 9.2变量消除:基本思路 . 286
 9.3变量消除 . 290
 9.3.1 基本消除 . 290
 9.3.2 证据处理 . 295
 9.4复杂度与图结构:变量消除 . 298
 9.4.1 简单分析 . 298
 9.4.2 图论分析 . 299
 9.4.3 寻找消除顺序 *... 302
 9.5条件作用 * ... 308
 9.5.1 条件作用算法 . 308
 9.5.2 条件作用与变量消除 . 309
 9.5.3 图论分析 . 313
 9.5.4 改进的条件作用算法 . 314
 9.6用结构 CPD推理*.. 316
 9.6.1 因果影响的独立性 . 316
 9.6.2 上下文特定的独立性 . 319
 9.6.3 讨论. 326
 9.7总结和讨论 . 327
 9.8相关文献 . 328
 9.9习题 . 329
 第 10章精确推理:团树 337
 10.1 变量消除与团树 ... 337
 10.1.1 聚类图 . 337
 10.1.2 团树. 338
 10.2 消息传递:和积 ... 340
 10.2.1 团树中的变量消除 . 341
 10.2.2 团树校准 . 346
 10.2.3 将校准团树作为一个分布 . 352
 10.3 消息传递:置信更新 ... 355
 10.3.1 使用除法的消息传递 . 356
 10.3.2 和-积与置信-更新消息的等价性 .. 359
 10.3.3 回答查询 . 360
 10.4 构建一个团树 ... 364
 10.4.1 源自变量消除的团树 . 364
 10.4.2 源自弦图的团树 . 365
 10.5 小结 ... 367
 10.6 相关文献 ... 368
 10.7 习题 ... 369
 第 11章作为优化的推理 373
 11.1引言 ... 373
 11.1.1 再议精确推理 * ... 374
 11.1.2 能量泛函 . 376
 11.1.3 优化能量泛函 . 377
 11.2作为优化的精确推理 ... 378
 11.2.1 不动点刻画 . 379
 11.2.2 推理优化 . 382
 11.3基于传播的近似 ... 382
 11.3.1 一个简单的例子 . 383
 11.3.2 聚类图置信传播 . 387
 11.3.3 聚类图置信传播的性质 . 391
 11.3.4 收敛性分析 * ... 393
 11.3.5 构建聚类图 . 395
 11.3.6 变分分析 . 401
 11.3.7 其他熵近似 * ... 404
 11.3.8 讨论. 417
 11.4近似消息传播 *.. 419
 11.4.1 因子分解的消息 . 419
 11.4.2 近似消息计算 . 422
 11.4.3 近似消息推理 . 425
 11.4.4 期望传播 . 431
 11.4.5 变分分析 . 434
 11.4.6 讨论. 436
 11.5结构化的变分近似 ... 437
 11.5.1 平均场近似 . 438
 11.5.2 结构化的近似 . 445
 11.5.3 局部变分法 * ... 456
 11.6总结与讨论 ... 460
 11.7相关文献 ... 462
 11.8习题 ... 464
 第 12章基于粒子的近似推理 475
 12.1 前向采样 ... 476
 12.1.1 从贝叶斯网中采样 . 476
 12.1.2 误差分析 . 478
 12.1.3 条件概率查询 . 479
 12.2 似然加权与重要性采样 ... 480
 12.2.1 似然加权:直觉 . 480
 12.2.2 重要性采样 . 482
 12.2.3 贝叶斯网的重要性采样 . 486
 12.2.4 重要性采样回顾 . 492
 12.3 马尔可夫链的蒙特卡罗方法 ... 492
 12.3.1 吉布斯采样算法 . 493
 12.3.2 马尔可夫链 . 494
 12.3.3 吉布斯采样回顾 . 499
 12.3.4 马尔可夫链的一个更广泛的类 * ... 502
 12.3.5 马尔可夫链的使用 . 505
 12.4 坍塌的粒子 ... 512
 12.4.1 坍塌的似然加权 *... 513
 12.4.2 坍塌的 MCMC ... 517
 12.5 确定性搜索方法 * . 522
 12.6 小结 ... 525
 12.7 相关文献 ... 527
 12.8 习题 ... 529
 第 13章最大后验概率推理 537
 13.1 综述 ... 537
 13.1.1 计算复杂性 . 537
 13.1.2 解决方法综述 . 538
 13.2 (边缘) MAP的变量消除.. 540
 13.2.1 昀大-积变量消除 ... 540
 13.2.2 找到昀可能的赋值 . 542
 13.2.3 边缘 MAP的变量消除* 545
 13.3 团树中的昀大 -积.. 547
 13.3.1 计算昀大 -边缘 ... 548
 13.3.2 作为再参数化的信息传递 . 549
 13.3.3 昀大-边缘解码 ... 550
 13.4 多圈聚类图中的昀大 -积置信传播 .. 553
 13.4.1 标准昀大 -积消息传递 ... 553
 13.4.2 带有计数的昀大 -积 BP* 557
 13.4.3 讨论. 560
 13.5 作为线性优化问题的 MAP* 562
 13.5.1 整数规划的公式化 . 562
 13.5.2 线性规划松弛 . 564
 13.5.3 低温极限 . 566
 13.6 对 MAP使用图割. 572
 13.6.1 使用图割的推理 . 572
 13.6.2 非二元变量 . 575
 13.7 局部搜索算法 * . 579
 13.8 小结 ... 580
 13.9 相关文献 ... 582
 13.10习题 . 584
 第 14章混合网络中的推理 589
 14.1 引言 ... 589
 14.1.1 挑战. 589
 14.1.2 离散化 . 590
 14.1.3 概述. 591
 14.2 高斯网络中的变量消除 ... 592
 14.2.1 标准型 . 592
 14.2.2 和-积算法 ... 595
 14.2.3 高斯置信传播 . 596
 14.3 混合网络 ... 598
 14.3.1 面临的困难 . 599
 14.3.2 混合高斯网络的因子运算 . 601
 14.3.3 CLG网络的 EP .. 604
 14.3.4 一个“准确的” CLG算法* .. 609
 14.4 非线性依赖 ... 613
 14.4.1 线性化 . 614
 14.4.2 使用高斯近似的期望传播 . 620
 14.5 基于粒子的近似方法 ... 624
 14.5.1 在连续空间中采样 . 625
 14.5.2 贝叶斯网中的前向采样 . 626
 14.5.3 马尔可夫链 -蒙特卡罗方法 626
 14.5.4 坍塌的粒子 . 627
 14.5.5 非参数消息传递 . 628
 14.6 总结与讨论 ... 629
 14.7 相关文献 ... 630
 14.8 习题 ... 631
 第 15章时序模型中的推理 635
 15.1 推理任务 ... 636
 15.2 精确推理 ... 637
 15.2.1 状态观测模型的滤波 . 637
 15.2.2 作为团树传播的滤波 . 638
 15.2.3 DBN中的团树推理 ... 639
 15.2.4 复杂情况探讨 . 640
 15.3 近似推理 ... 644
 15.3.1 核心思想 . 645
 15.3.2 因子分解的置信状态方法 . 646
 15.3.3 粒子滤波 . 648
 15.3.4 确定性搜索方法 . 658
 15.4 混合 DBN.. 659
 15.4.1 连续模型 . 659
 15.4.2 混合模型 . 667
 15.5 小结 ... 671
 15.6 相关文献 ... 672
 15.7 习题 ... 674
 第 Ⅲ部分学习
 第 16章图模型学习:概述 681
 16.1 动机 ... 681
 16.2 学习目标 ... 682
 16.2.1 密度估计 . 682
 16.2.2 具体的预测任务 . 684
 16.2.3 知识发现 . 685
 16.3 优化学习 ... 686
 16.3.1 经验风险与过拟合 . 686
 16.3.2 判别式与生成式训练 . 693
 16.4 学习任务 ... 695
 16.4.1 模型限制 . 695
 16.4.2 数据的可观测性 . 696
 16.4.3 学习任务的分类 . 697
 16.5 相关文献 ... 698
 第 17章参数估计 699
 17.1 昀大似然估计( MLE) 699
 17.1.1 图钉的例子 . 699
 17.1.2 昀大似然准则 . 701
 17.2 贝叶斯网的 MLE.. 704
 17.2.1 一个简单的例子 . 704
 17.2.2 全局似然分解 . 706
 17.2.3 CPD表 707
 17.2.4 高斯贝叶斯网 *... 709
 17.2.5 作为 M-投影的昀大似然估计* . 713
 17.3 贝叶斯参数估计 ... 714
 17.3.1 图钉例子的回顾 . 714
 17.3.2 先验分布与后验分布 . 719
 17.4 贝叶斯网中的贝叶斯参数估计 ... 723
 17.4.1 参数独立性与全局分解 . 723
 17.4.2 局部分解 . 727
 17.4.3 贝叶斯网学习的先验分布 . 729
 17.4.4 MAP估计* . 732
 17.5 具有共享参数的学习模型 ... 735
 17.5.1 全局参数共享 . 736
 17.5.2 局部参数共享 . 741
 17.5.3 具有共享参数的贝叶斯推断 . 742
 17.5.4 层次先验 *... 744
 17.6 泛化分析 * . 750
 17.6.1 渐近性分析 . 750
 17.6.2 PAC界 751
 17.7 小结 ... 757
 17.8 相关文献 ... 758
 17.9 习题 ... 759
 第 18章贝叶斯网中的结构学习 767
 18.1 引言 ... 767
 18.1.1 问题定义 . 767
 18.1.2 方法概述 . 769
 18.2 基于约束的方法 ... 769
 18.2.1 总体框架 . 769
 18.2.2 独立性检验 . 771
 18.3 结构得分 ... 774
 18.3.1 似然得分 . 774
 18.3.2 贝叶斯得分 . 778
 18.3.3 单个变量的边缘似然 . 780
 18.3.4 贝叶斯网的贝叶斯得分 . 782
 18.3.5 理解贝叶斯得分 . 785
 18.3.6 先验性 . 787
 18.3.7 得分等价性 *... 790
 18.4 结构搜索 ... 791
 18.4.1 学习树结构网络 . 791
 18.4.2 给定顺序 . 793
 18.4.3 一般图 . 794
 18.4.4 用等价类学习 *... 804
 18.5 贝叶斯模型平均 * . 807
 18.5.1 基本理论 . 807
 18.5.2 基于给定序的模型平均 . 809
 18.5.3 一般的情况 . 811
 18.6 带有附加结构的学习模型 ... 815
 18.6.1 带有局部结构的学习 . 816
 18.6.2 学习模板模型 . 819
 18.7 总结与讨论 ... 821
 18.8 相关文献 ... 822
 18.9 习题 ... 825
 第 19章部分观测数据 833
 19.1 基础知识 ... 833
 19.1.1 数据的似然和观测模型 . 833
 19.1.2 观测机制的解耦 . 837
 19.1.3 似然函数 . 840
 19.1.4 可识别性 . 843
 19.2 参数估计 ... 846
 19.2.1 梯度上升方法 . 846
 19.2.2 期望昀大化( EM)... 852
 19.2.3 比较:梯度上升与 EM.. 870
 19.2.4 近似推理 *... 876
 19.3 使用不完备数据的贝叶斯学习 *.. 880
 19.3.1 概述. 880
 19.3.2 MCMC采样 ... 881
 19.3.3 变分贝叶斯学习 . 887
 19.4 结构学习 ... 890
 19.4.1 结构得分 . 891
 19.4.2 结构搜索 . 898
 19.4.3 结构 EM.. 902
 19.5 带有隐变量的学习模型 ... 907
 19.5.1 隐变量的信息内容 . 908
 19.5.2 确定基数 . 909
 19.5.3 引入隐变量 . 912
 19.6 小结 ... 914
 19.7 相关文献 ... 915
 19.8 习题 ... 917
 第 20章学习无向模型 927
 20.1 概述 ... 927
 20.2 似然函数 ... 928
 20.2.1 一个例子 . 928
 20.2.2 似然函数的形式 . 930
 20.2.3 似然函数的性质 . 930
 20.3 昀大(条件)似然参数估计 ... 932
 20.3.1 昀大似然估计 . 933
 20.3.2 条件训练模型 . 934
 20.3.3 用缺失数据学习 . 937
 20.3.4 昀大熵和昀大似然 *... 939
 20.4 参数先验与正则化 ... 941
 20.4.1 局部先验 . 942
 20.4.2 全局先验 . 944
 20.5 用近似推理学习 ... 945
 20.5.1 信念传播 . 945
 20.5.2 基于 MAP的学习* 950
 20.6 替代目标 ... 953
 20.6.1 伪似然及其推广 . 953
 20.6.2 对比优化准则 . 957
 20.7 结构学习 ... 962
 20.7.1 使用独立性检验的结构学习 . 962
 20.7.2 基于得分的学习:假设空间 . 964
 20.7.3 目标函数 . 965
 20.7.4 优化任务 . 968
 20.7.5 评估模型的改变 . 975
 20.8 小结 ... 978
 20.9 相关文献 ... 981
 20.10习题 . 984
 第 Ⅳ部分行为与决策
 第 21章因果关系 993
 21.1 动机与概述 ... 993
 21.1.1 条件作用与干预 . 993
 21.1.2 相关关系和因果关系 . 996
 21.2 因果关系模型 ... 998
 21.3 结构性因果关系的可识别性 . 1000
 21.3.1 查询简化规则 ... 1001
 21.3.2 迭代的查询简化 ... 1003
 21.4 机制与响应变量 * ... 1009
 21.5 函数因果模型中的部分可识别性 * 1013
 21.6 虚拟查询 * ... 1017
 21.6.1 成对的网络 ... 1017
 21.6.2 虚拟查询的界 ... 1020
 21.7 学习因果模型 . 1021
 21.7.1 学习没有混合因素的因果模型 ... 1022
 21.7.2 从干预数据中学习 ... 1025
 21.7.3 处理隐变量 *. 1029
 21.7.4 学习功能因果关系模型 *.. 1032
 21.8 小结 . 1033
 21.9 相关文献 . 1034
 21.10习题 ... 1035
 第 22章效用和决策 .. 1039
 22.1 基础:期望效用昀大化 . 1039
 22.1.1 不确定性情况下的决策制定 ... 1039
 22.1.2 理论证明 *. 1041
 22.2 效用曲线 . 1044
 22.2.1 货币效用 ... 1044
 22.2.2 风险态度 ... 1046
 22.2.3 合理性 ... 1047
 22.3 效用的获取 . 1048
 22.3.1 效用获取过程 ... 1048
 22.3.2 人类生命的效用 ... 1049
 22.4 复杂结果的效用 . 1050
 22.4.1 偏好和效用独立性 *. 1051
 22.4.2 加法独立性特性 ... 1053
 22.5 小结 . 1060
 22.6 相关文献 . 1061
 22.7 习题 . 1063
 第 23章结构化决策问题 .. 1065
 23.1 决策树 . 1065
 23.1.1 表示... 1065
 23.1.2 逆向归纳算法 ... 1067
 23.2 影响图 . 1068
 23.2.1 基本描述 ... 1068
 23.2.2 决策规则 ... 1070
 23.2.3时间与记忆 ... 1071
 23.2.4 语义与昀优性准则 ... 1072
 23.3 影响图的逆向归纳 . 1075
 23.3.1 影响图的决策树 ... 1075
 23.3.2 求和-昀大化-求和规则 1077
 23.4 期望效用的计算 . 1079
 23.4.1 简单的变量消除 ... 1079
 23.4.2 多个效用变量:简单的方法 ... 1080
 23.4.3 广义变量消除 *. 1081
 23.5 影响图中的昀优化 . 1086
 23.5.1 昀优化一个单一的决策规则 ... 1086
 23.5.2 迭代优化算法 ... 1087
 23.5.3 策略关联与全局昀优性 *. 1089
 23.6 忽略无关的信息 * ... 1097
 23.7 信息的价值 . 1100
 23.7.1 单一观察 ... 1100
 23.7.2 多重观察 ... 1103
 23.8 小结 . 1105
 23.9 相关文献 . 1106
 23.10习题 ... 1108
 第 24章结束语 .. 1113
 附录 A背景材料 1117
 A.1信息论 .. 1117
 A.1.1 压缩和熵 . 1117
 A.1.2 条件熵与信息 . 1119
 A.1.3 相对熵和分布距离 . 1120
 A.2收敛界 .. 1123
 A.2.1 中心极限定理 . 1124
 A.2.2 收敛界 . 1125
 A.3算法与算法复杂性 .. 1126
 A.3.1 基本图算法 .. 1126
 A.3.2 算法复杂性分析 .. 1127
 A.3.3 动态规划 .. 1129
 A.3.4 复杂性理论 .. 1130
 A.4组合优化与搜索 .. 1134
 A.4.1 优化问题 .. 1134
 A.4.2 局部搜索 .. 1134
 A.4.3 分支限界搜索 .. 1141
 A.5连续昀优化 .. 1142
 A.5.1 连续函数昀优解的刻画 .. 1142
 A.5.2 梯度上升方法 .. 1144
 A.5.3 约束优化 .. 1148
 A.5.4 凸对偶性 .. 1152
 参考文献 1155
 符号索引 1191
 主题索引 1195
 支付宝打赏
                            支付宝打赏
                         微信打赏
                            微信打赏
                         
                        


