在好例子网,分享、交流、成长!
您当前所在位置:首页Others 开发实例一般编程问题 → sklearn0.19中文文档

sklearn0.19中文文档

一般编程问题

下载此实例
  • 开发语言:Others
  • 实例大小:14.92M
  • 下载次数:3
  • 浏览次数:105
  • 发布时间:2021-01-22
  • 实例类别:一般编程问题
  • 发 布 人:好学IT男
  • 文件格式:.pdf
  • 所需积分:2
 

实例介绍

【实例简介】
sklearn0.19中文文档 PDF格式高清。 .1. 广义线性模型 1.1.1. 普通最小二乘法 1.1.1.1. 普通最小二乘法复杂度 1.1.2. 岭回归 1.1.2.1. 岭回归的复杂度 1.1.2.2. 设置正则化参数:广义交叉验证 1.1.3. Lasso 1.1.3.1. 设置正则化参数 1.1.3.1.1. 使用交叉验证 1.1.3.1.2. 基于信息标准的模型选择 1.1.3.1.3. 与 SVM 的正则化参数的比较 1.1.4. 多任务 Lasso 1.1.5. 弹性网络 1.1.6. 多任务弹性网络 1.1.7. 最小角回归 1.1.8. LARS Lasso 1.1.
1.监督学习 1.1.广义线性模型 o1.1.1.普通最小二乘法 1.1.1.1.普通最小二乘法复杂度 o1.1.2.岭回归 1.1.2.1.岭回归的复杂度 1.1.22.设置正则化参数:广义交叉验证 o 113. Lasso ■1.1.3.1.设置正则化参数 1.1.3.1.1.使用交叉验证 ■1.1.3.1.2.基于信息标准的模型选择 1.1.3.1.3.与SVM的正则化参数的比较 o1.1.4.多任务 Lasso o1.1.5.弹性网络 o1.1.6.多任务弹性网络 o1.1.7.最小角回归 o.8. LARS Lasso ■1.1.8.1.数学表达式 o1.1.9.正交匹配追踪法(OMP) o1.1.10.贝叶斯回归 1.1.10.1.贝叶斯岭回归 1.1.10.2.主动相关决策理论-ARD 1.1.11. logistic回归 o1.1.12.随机梯度下降,SGD o1.1.13. Perceptron(感知器) o1.1.14. Passive Aggressive Algorithms(被动攻击算法) o1.1.15.稳健回归( Robustness regression):处理离群点 ( outliers)和模型错误 1.1.15.1.各种使用场景与相关概念 ■1.1.15.2. RANSAC:随机抽样一致性算法( RANdom SAmple Consensus 1.1.15.2.1.算法细节 1.1.15.3.Thel-sen预估器:广义中值估计 1.1.153.1.算法理论细节 1.1.154. Huber回归 1.1.155.注意 1.1.16.多项式回归:用基函数展开线性模型 1.2.线性和二次判别分析 o1.2.1.使用线性判别分析来降维 o12.2.LDA和QDA分类器的数学公式 o123.LDA的降维数学公式 o1.2.4. Shrinkage(收缩) o12.5.预估算法 1.3.内核岭回归 1.4.支持向量机 o1.4.1.分类 ■1.4.1.1.多元分类 ■1.4.1.2.得分和概率 1.4.1.3.非均衡问题 1.4.2.回归 o143.密度估计,异常( novelty)检测 o1.4.4.复杂度 o1.4.5.使用诀窍 o1.4.6.核函数 1.4.6.1.自定义核 14.6.1.1.使用 python函数作为内核 1.4.6.1.2.使用Gram矩阵 14.6.1.3.RBF内核参数 o1.4.7.数学公式 1.4.7.1.sVC ■1.4.7.2. NuSVo 1.4.7.3.sVR o14.8.实现细节 1.5.随机梯度下降 o1.5.1.分类 o1.5.2.回归 1.5.3.稀疏数据的随机悌度下降 o1.5.4.复杂度 o1.5.5.实用小贴士 o1.5.6.数学描述 ■1.5.6.1.SGD o1.5.7.实现细节 1.6.最近邻 o1.6.1.无监督最近邻 ■1.6.1.1.找到最近邻 1.6.1.2. KDTree和 BallTree类 1.62.最近邻分类 o16.3.最近邻回归 o1.6.4.最近邻算法 1.64.1.暴力计算 ■1.6.4.2.K-D树 1.64.3.Ba|树 ■1.6.4.4.最近邻算法的选择 1.6.4.5.1 eaf size的影响 o165.最近质心分类 1.6.5.1.最近缩小质心 1.7.高斯过程 o1.7.1.高斯过程回归(GPR) o1.7.2.GPR示例 1.7.2.1.具有噪声级的GPR估计 1.722.GPR和内核岭回归( Kernel Ridge Regression)的比 较 1.7.2.3. Mauna loa co2数据中的GRR o1.7.3.高斯过程分类(GPC) o1.7.4.GPC示例 1.7.4.1.GPC概率预测 ■1.74.2.GPC在XOR数据集上的举例说明 ■1.7.4.3.iris数据集上的高斯过程分类(GPC) o1.7.5.高斯过程内核 1.7.5.1.高斯过程内核AP ■1.7.5.2.基础内核 ■1.7.5.3.内核操作 1.7.5.4.径向基函数内核 1.7.5.5. Matern内核 1.7.5.6.有理二次内核 1.7.5.7.正弦平方内核 1.7.58.点乘内核 ■1.7.5.9.参考文献 o1.7.6.传统高斯过程 1.7.6.1.回归实例介绍 1.7.62.噪声数据拟合 17.6.3.数学形式 1.7.6.3.1.初始假设 ■1.7.6.32.最佳线性无偏预测(BLUP) 1.7.6.3.3.经验最佳线性无偏估计( EBLUP) 1.7.6.4.关联模型 1.7.6.5.回归模型 1.7.6.6.实现细节 1.8.交叉分解 1.9.朴素贝叶斯 o1.9.1.高斯朴素贝叶斯 o1.92.多项分布朴素贝叶斯 1.9.3.伯努利朴素贝叶斯 1.9.4.堆外朴素贝叶斯模型拟合 1.10.决策树 o1.10.1.分类 o1.10.2.回归 o1.10.3.多值输出问题 o1.10.4.复杂度分析 o1.10.5.实际使用技巧 1.10.6.决策树算法:ID3,C4.5,c5.0和CART o1.10.7.数学表达 1.10.7.1.分类标准 ■1.10.7.2.回归标准 1.11.集成方法 o1.111. Bagging meta-estimator( Bagging元估计器) o1.11.2.由随机树组成的森林 1.11.2.1.随机森林 1.11.2.2.极限随机树 1.11.2.3.参数 1.11.24.并行化 1.11.2.5.特征重要性评估 1.11.2.6.完全随机树嵌入 o 1.113. AdaBoost 1.11.3.1.使用方法 o1.114. Gradient Tree Boosting(梯度树提升) 1.11.4.1.分类 1.11.42.回归 1.114.3.训练额外的弱学习器 1.11.4.4.控制树的大小 ■1.11.4.5. Mathematical formulation(数学公式) ■1.11.4.5.1. LoSS Functions(损失函数) 1.114.6. Regularization(正则化) ■1.14.6.1.收缩率( Shrinkage) ■1.1.4.6.2.子采样( Subsampling) ■1.11.4.7. Interpretation(解释性) 1.114.7.1. Feature importance(特征重要性) 1.114.7.2. Partial dependence(部分依赖) o1.11.5. Voting Classifier(投票分类器) 1.115.1.多数类标等(又称为多数/硬投票) 1.11.5.1.1.用法 ■1.11.52.加权平均概率(软投票) 1.11.5.3.投票分类器( Voting Classifier)在网格搜索 ( Grid search)应用 1.11.5.3.1.用法 1.12.多类和多标签算法 o1.12.1.多标签分类格式 o1.12.2.1对其余 1.122.1.多类学习 1.122.2.多标签学习 o1.12.3.1对1 1.12.3.1.多类别学习 o1.12.4.误差校正输出代码 1.12.4.1.多类别学习 o1.12.5.多输出回归 o1.12.6.多输出分类 o1.12.7.链式分类器 ·1.13.特征选择 1.13.1.移除低方差特征 o1.13.2.单变量特征选择 o1.13.3.递归式特征消除 o1.13.4.使用 Select From Mode选取特征 ■1.13.4.1.基于L1的特征选取 1.13.4.2.基于Tree(树)的特征选取 1.13.5.特征选取作为 pipeline(管道)的一部分 1.14.半监督学习 o1.14.1.标签传播 1.15.等式回归 1.16.概率校准 1.17.神经网络模型(有监督) o1.17.1.多层感知器 o1.17.2.分类 o1.17.3.回归 o1.17.4.正则化 o1.17.5.算法 o1.17.6.复杂性 o1.17.7.数学公式 o1.178.实用技巧 o1.17.9.使用 warm start的更多控制 【实例截图】
【核心代码】

标签:

实例下载地址

sklearn0.19中文文档

不能下载?内容有错? 点击这里报错 + 投诉 + 提问

好例子网口号:伸出你的我的手 — 分享

网友评论

发表评论

(您的评论需要经过审核才能显示)

查看所有0条评论>>

小贴士

感谢您为本站写下的评论,您的评论对其它用户来说具有重要的参考价值,所以请认真填写。

  • 类似“顶”、“沙发”之类没有营养的文字,对勤劳贡献的楼主来说是令人沮丧的反馈信息。
  • 相信您也不想看到一排文字/表情墙,所以请不要反馈意义不大的重复字符,也请尽量不要纯表情的回复。
  • 提问之前请再仔细看一遍楼主的说明,或许是您遗漏了。
  • 请勿到处挖坑绊人、招贴广告。既占空间让人厌烦,又没人会搭理,于人于己都无利。

关于好例子网

本站旨在为广大IT学习爱好者提供一个非营利性互相学习交流分享平台。本站所有资源都可以被免费获取学习研究。本站资源来自网友分享,对搜索内容的合法性不具有预见性、识别性、控制性,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,平台无法对用户传输的作品、信息、内容的权属或合法性、安全性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论平台是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二与二十三条之规定,若资源存在侵权或相关问题请联系本站客服人员,点此联系我们。关于更多版权及免责申明参见 版权及免责申明

;
报警