人工智能-一种现代的方法-(第3版)

价格 128.00对比
发货 广东东莞市
销量 暂无
评价 已有 0 条评价
人气 已有 4 人关注
数量
+-
库存100
 
联系方式
加关注0

新图书资料发布

VIP   VIP会员第1年
资料未认证
保证金未缴纳

内容简介

《世界计算机教材·人工智能:一种现代的方法(第3版)》是威、典的人工智能教材,已被全世界100多个国家的1200多所大学用作教材。
  《世界计算机教材·人工智能:一种现代的方法(第3版)》的版全面而系统地介绍了人工智能的理论和实践,阐述了人工智能领域的核心内容,并深入介绍了各个主要的研究方向。全书分为七大部分:第1部分“人工智能”,第II部分“问题求解”,第III部分“知识、推理与规划”,第IV部分“不确定知识与推理”,第V部分“学习”,第VI部分“通信、感知与行动”,第VII部分“结论”。《世界计算机教材·人工智能:一种现代的方法(第3版)》既详细介绍了人工智能的基本概念、思想和算法,还描述了其各个研究方向沿的进展,同时收集整理了详实的历史文献与事件。另外,本书的配套网址为教师和学生提供了大量教学和学习资料。
  本书适合于不同层次和领域的研究人员及学生,是高等院校本科生和研究生人工智能课的选教材,也是相关领域的科研与工程技术人员的重要参考书。

目录

第1部分 人工智能
第1章 绪论
1.1 什么是人工智能
1.2 人工智能的基础
1.3 人工智能的历史
1.4 发展水平
1.5 本章小结
参考文献与历史注释
习题
第2章 智能Agent
2.1 Agent和环境
2.2 好的行为:理性的概念
2.3 环境的性质
2.4 Agent的结构
2.5 本章小结
参考文献与历史注释
习题
第Ⅱ部分 问题求解
第3章 通过搜索进行问题求解
3.1 问题求解Agent
3.2 问题实例
3.3 通过搜索求解
3.4 无信息搜索策略
3.5 有信息(启发式)的搜索策略
3.6 启发式函数
3.7 本章小结
参考文献与历史注释
习题
第4章 超越经典搜索
4.1 局部搜索算法和化问题
4.2 连续空间中的局部搜索
4.3 使用不确定动作的搜索
4.4 使用部分可观察信息的搜索
4.5 联机搜索Agent和未知环境
4.6 本章小结
参考文献与历史注释
习题
第5章 对抗搜索
5.1 博弈
5.2 博弈中的优化决策
5.3 a-p剪枝
5.4 不的实时决策
5.5 随机博弈
5.6 部分可观察的博弈
5.7 博弈程序发展现状
5.8 其他途径
5.9 本章小结
参考文献与历史注释
习题
第6章 约束满足问题
6.1 定义约束满足问题
6.2 约束传播:CSP中的推理
6.3 CSP的回溯搜索
6.4 CSP局部搜索
6.5 问题的结构
6.6 本章小结
参考文献与历史注释
习题
第Ⅲ部分 知识、推理与规划
第7章 逻辑Agent
7.1 基于知识的Agent
7.2 Wumpus世界
7.3 逻辑
7.4 命题逻辑:一种简单逻辑
7.5 命题逻辑定理证明
7.6 有效的命题逻辑模型检验
7.7 基于命题逻辑的Agent
7.8 本章小结
……
第Ⅳ部分 不确定知识与推理
第V部分 学习
第Ⅵ部分 通讯、感知与行动
第Ⅶ部分 结论
参考文献

摘要与插图

这个例子说明理性不等于。理性是使期望的性能化,而是使实际的性能化。对Agent而言是不太合理的要求。关键是如果我们期望Agent能采取事实上的行动,设计满足这样要求的Agent是不可能的——除非我们能改进水晶球或者时间机器的性能。
  因此,对理性的定义并不要求全知,因为理性的选择只依赖于到当时为止的感知序列。我们还要确保没有因漫不经心而让Agent进行愚蠢的活动。例如,如果Agent穿行繁忙的马路前没有观察道路两边的情况,那么它的感知序列就不可能告诉它有大卡车在高速接近。我们对理性的定义会说现在可以穿过马路吗?不会!先,根据信息不全的感知序列穿行马路是不理性的:不观察的情况下穿行发生事故的风险太大了。其次,理性Agent应该在走上街道之前选择“观察”行动,因为观察有助于化期望性能。为了修改未来的感知信息而采取行动——有时称为信息收集——是理性的重要部分,将在第16章中深入讨论。真空吸尘器清洁Agent在初始未知的环境中必须探查,这为我们提供了信息收集的第二个实例。
  我们的定义不仅要求理性Agent收集信息,而且要求Agent从它所感知的信息中尽可能多的学习。Agent的设定可能反映的是环境的先验知识,但随着Agent经验的丰富这些知识会被改变或者增加。在一些的情况中环境被当成先验知识。在这样的情况下,Agent不再需要感知和学习;它只要正确地行动就可以。当然,这样的Agent是脆弱的。考虑一下蜣螂。蜣螂做窝并产卵后,会从附近的粪堆取回一个粪球堵住窝的入口。如果粪球在路途中脱离了它的掌握,蜣螂还会继续赶路,并做动作用不存在的粪球塞住入口,而不会注意到粪球已经不见了。蜣螂进化时在它的行为里内建了假设,当该假设被破坏时,就会产生不成功的行为。黑足泥蜂要聪明一些。雌蜂先挖一个洞,出去叮一只毛虫并拖回洞,再次进洞查看,再把毛虫拖到洞里,然后产卵。毛虫在黑足泥蜂孵卵期间作为食物来源。到目前为止一切似乎顺利,但是假如有昆虫学家在雌蜂检查地洞的时候把毛虫挪开几英寸,雌蜂就会回到计划中“拖毛虫到地洞”的步骤,继续进行不做任何修改的计划,甚至在发生过很多次毛虫被移动的干扰后仍然如此。雌蜂无法知道它天生的计划是失败的,因而也不会改变计划。
  Agent依赖于设计人员的先验知识而不是它自身的感知信息,这种情况我们会说该Agent缺乏自主性。理性Agent应该是自主的——它应该学习,以弥补不完整的或者不正确的先验知识。例如,学会预见灰尘出现的地点和时间的吸尘器清洁Agent,显然就能比不会预见的Agent要做得好。实践中,很少要求Agent从一开始就自主:当Agent没有或者只有很少的经验时,它的行为往往是随机的,除非设计人员提供一些帮助。因此就像进化为动物提供了足够的内建的反射,以使它们能生存足够长的时间进行学习一样,给人工智能的Agent提供一些初始知识以及学习能力是合理的。当得到关于环境的充足经验后,理性Agent的行为才能独立于它的先验知识有效地行动。从而,与学习相结合使得我们可以设计在很多不同环境下都能成功的理性Agent。
  ……
举报收藏 0
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  粤ICP备2021111040号