在好例子网,分享、交流、成长!
您当前所在位置:首页Others 开发实例一般编程问题 → 中科大人工智能总结+19年春季原题.pdf

中科大人工智能总结+19年春季原题.pdf

一般编程问题

下载此实例
  • 开发语言:Others
  • 实例大小:0.74M
  • 下载次数:7
  • 浏览次数:531
  • 发布时间:2020-09-03
  • 实例类别:一般编程问题
  • 发 布 人:robot666
  • 文件格式:.pdf
  • 所需积分:2
 

实例介绍

【实例简介】
中科大高级人工智能期末总结+19年春季考试原题;
路径耗散 C.搜索问题优化最小路径耗散,而马尔科夫决策过程优化 最大化收益 d.马尔科夫性:行动a只与状态s有关 7.机器学习算法中解释性较好的代表性算法 a.决策树和k近邻 8.支持向量机将线性不可分的数据集的特征映射到高维特征 a.此时引入核函数的作用是不做特征映射步骤 9KNN卷积神经网络SVM决策树中训练时间最少的是knn训练误差最 小的svm 10.设计节点评估函数的两种方法 a.f(N)=g(N)+h(N),表示完整的路径耗散,对应A*算法 b.f(N)=h(N),表示当前节点到目标节点的路径耗散,对 应贪婪算法 11为评估函数f的近似值h,常用的评价标准包括 a.精确性和复杂性完备 12.神经网络常见的激活函数 a tanh sigmod relu 13.搜索算法中搜索策略通常是指搜索过程中 a FRINGE的优先级次序(待扩展节点) 14.宽度优先搜索、深度优先搜索、迭代深入, a.完备的算法, b.空间需求较少的,迭代深入 C.深度优先搜索 DFS depth first search:一般不能找到最 优解,最坏情况等于穷举,节省内存,只存储根节点到当 前节点的路径。 d.广度 breadth first search:问题有解时一定能找到解, 效率低,存储量大 e.迭代深入搜索 iterative deepening search深度限制 Criterion Breadth-First Uniform-Cost Depth- First Depth-Limited Iterative Deepening Complete Ye es Ye No Yes,f/≥d Yes Time bd+ Space bd+1 bcel b bd Optimal Ye Yes N Yes 为了评估函数f近似值h,常用的评价标准有准确性、复杂性、完备性。因为计 算的复杂性,我们无法计算h在所有数据上的误差,因此采用h在随机抽样数据 (实际应用:测试数据)上的平均误差来近似。 策略的价值∨(中的s状态Q(φpisa)的意思从状态s触发,采用行动a后继续釆 用策略p的价值 强化学习中基于模型的方法,就是为了获得对转移概率和奖励的描述 1.过拟合产生的原因,通过修改损失函数可以避免过拟合,举两个例子 a.数据有噪声,训练数据不足,训练模型过度导致模型复 b.稀疏参数(L1):参数的稀疏,在一定程度实现了特征 的选择。稀疏矩阵指有很多元素为0,少数参数为非零值。 一般而言,只有少部分特征对模型有贡献,大部分特征对 模型没有贡献或者贡献很小,稀疏参数的引入,使得一些 特征对应的参数是0,所以就可以剔除可以将那些没有用的 特征,从而实现特征选择。 C.更小参数(L2):越复杂的模型,越是尝试对所有样本 进行拟合,那么就会造成在较小的区间中产生较大的波 动,这个较大的波动反映出在这个区间内的导数就越大。 只有越大的参数才可能产生较大的导数。试想一下,参数 大的模型,数据只要偏移一点点,就会对结果造成很大的 影响,但是如果参数比较小,数据的偏移对结果的影响力 就不会有什么影晌,那么模型也就能够适应不同的数据 集,也就是泛化能力强,所以一定程度上避免过拟合。 搜索问题、MDP(马尔可夫决策过程)、强化学习、完美信息下的动态博弈、 非完美信息下的动态博弈 a.博弈就是搜索,状态:参与者的行动策略及其对应的收 益;后继函数:参与者可能的各种新策略;初态:随机或 某个给定的初态;终态:均衡态;路径耗散在博弈中不大 关注;解序列不是追求的目标,均衡的终态才是关注的目 标。比如下棋是动态博弈,路径耗散是下多少棋子,并不 重要,重要的是最终态,获胜。 b.完美信息下的动态博弈:每一个参与者可以知道一切可 以知道的公共信息,一个参与者和所有未知因素综合而成 的虚拟参与者之间的二人博弈,也就是MDP C.强化学习与MDP的差异就是不知道所有的转移概率和奖 励情况,只能看到部分情况寻找最优策略,它们的目标是 致的 搜索:状态空间、初态、终态、后继函数、路径耗散。搜索可以确定地沿着一条路径前进 只有唯一一条从初态到终态的最优路径。只有一个参与者。 MDP:给定状态和后继函数,后继状态不确定,状态转移是按照一定的概率进行的,其解 是定义一个最优的策略。优化最大化收益。后继函数相当于转移概率和行动。 强化学习:不知道所有的转移概率和奖励情况,目标是一致的。 博弈:博弈在意的是胜利(终态,均衡态)而不是路径耗散,状态是行动策略及其对应的收 益,后继函数是更新的新策略。多个参与者。 动态博弈:交替(依次,可采取针对性的行动)进行的博弈。 完美信息下的动态博弈:每一—个参与者对其他参与者的行动选择有准确的了解,了解别人如 同了解自己。一个参与者和所有未知因素综合而成的虛拟参与者之间的二人博弈,也就是 MDP 19春季考试题目 填空27分 除了上面总结的一些还有 cnn池化的作用 节点的两个评估函数 变量由x和x组成的 大题 搜索是数码魔方使用宽度优先、A*15分 SVM给5个点求超平面15分 贝叶斯考的原题15分 1l.图547给出了表5-12中的数据集对应的贝叶斯信念网络(假设所有属性都是二元的)。 (a)画出网络中每个结点对应的概率表 (b)使用贝叶斯网络计算P引擎=差,空调=不可用)。 行车里程 引擎 空调 车的价值 图547贝叶斯信念网络 习题197 表5-12习题11的数据集 行车里程引擎空调车的价值一高的记录数车的价值=低的记录数 好可用 高高高高低低低 好不可用 差可用 差不可用 好可用 好不可用 可用 42540122 低差不可用 (a) Draw the probability table for each node in the network P(Mileage=Hi)=0.5 P(Air Cond=Working)=0625 P(Engine=Good Mileage=Hi)=0.5 P(Engine=Good/ Mileage=Lo)=0.75 P(Value=High Engine=Good, Air Cond=Working)=0.750 P(Value=High Engine=Good, Air Cond=Broken)=0.667 P(Value=High Engine=Bad, Air Cond=Working)=0.222 P(Value=High Engine=Bad, Air Cond=Broken)=0 (b) Use the Bayesian network to compute P(Engine= Bad, Air Conditioner Broken P(Engine= Bad, Air Cond= Broken) >P(Engine=Bad, Air Ccnd=Broken, Mileage =a, Value=B) 2P(Value= B Engine =Bad, Air Cond=Broken) x P(Engine= Bad Mileage= a)P(Mileage =a)P(Air Cond= Broken) 0.1453 极大似然法求投硬币的概率15分 西瓜书上神经网络反向传播的原例15分 【实例截图】
【核心代码】

标签:

实例下载地址

中科大人工智能总结+19年春季原题.pdf

不能下载?内容有错? 点击这里报错 + 投诉 + 提问

好例子网口号:伸出你的我的手 — 分享

网友评论

发表评论

(您的评论需要经过审核才能显示)

查看所有0条评论>>

小贴士

感谢您为本站写下的评论,您的评论对其它用户来说具有重要的参考价值,所以请认真填写。

  • 类似“顶”、“沙发”之类没有营养的文字,对勤劳贡献的楼主来说是令人沮丧的反馈信息。
  • 相信您也不想看到一排文字/表情墙,所以请不要反馈意义不大的重复字符,也请尽量不要纯表情的回复。
  • 提问之前请再仔细看一遍楼主的说明,或许是您遗漏了。
  • 请勿到处挖坑绊人、招贴广告。既占空间让人厌烦,又没人会搭理,于人于己都无利。

关于好例子网

本站旨在为广大IT学习爱好者提供一个非营利性互相学习交流分享平台。本站所有资源都可以被免费获取学习研究。本站资源来自网友分享,对搜索内容的合法性不具有预见性、识别性、控制性,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,平台无法对用户传输的作品、信息、内容的权属或合法性、安全性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论平台是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二与二十三条之规定,若资源存在侵权或相关问题请联系本站客服人员,点此联系我们。关于更多版权及免责申明参见 版权及免责申明

;
报警