实例介绍
【实例简介】
sklearn0.19中文文档 PDF格式高清。 .1. 广义线性模型 1.1.1. 普通最小二乘法 1.1.1.1. 普通最小二乘法复杂度 1.1.2. 岭回归 1.1.2.1. 岭回归的复杂度 1.1.2.2. 设置正则化参数:广义交叉验证 1.1.3. Lasso 1.1.3.1. 设置正则化参数 1.1.3.1.1. 使用交叉验证 1.1.3.1.2. 基于信息标准的模型选择 1.1.3.1.3. 与 SVM 的正则化参数的比较 1.1.4. 多任务 Lasso 1.1.5. 弹性网络 1.1.6. 多任务弹性网络 1.1.7. 最小角回归 1.1.8. LARS Lasso 1.1.
1.监督学习 1.1.广义线性模型 o1.1.1.普通最小二乘法 1.1.1.1.普通最小二乘法复杂度 o1.1.2.岭回归 1.1.2.1.岭回归的复杂度 1.1.22.设置正则化参数:广义交叉验证 o 113. Lasso ■1.1.3.1.设置正则化参数 1.1.3.1.1.使用交叉验证 ■1.1.3.1.2.基于信息标准的模型选择 1.1.3.1.3.与SVM的正则化参数的比较 o1.1.4.多任务 Lasso o1.1.5.弹性网络 o1.1.6.多任务弹性网络 o1.1.7.最小角回归 o.8. LARS Lasso ■1.1.8.1.数学表达式 o1.1.9.正交匹配追踪法(OMP) o1.1.10.贝叶斯回归 1.1.10.1.贝叶斯岭回归 1.1.10.2.主动相关决策理论-ARD 1.1.11. logistic回归 o1.1.12.随机梯度下降,SGD o1.1.13. Perceptron(感知器) o1.1.14. Passive Aggressive Algorithms(被动攻击算法) o1.1.15.稳健回归( Robustness regression):处理离群点 ( outliers)和模型错误 1.1.15.1.各种使用场景与相关概念 ■1.1.15.2. RANSAC:随机抽样一致性算法( RANdom SAmple Consensus 1.1.15.2.1.算法细节 1.1.15.3.Thel-sen预估器:广义中值估计 1.1.153.1.算法理论细节 1.1.154. Huber回归 1.1.155.注意 1.1.16.多项式回归:用基函数展开线性模型 1.2.线性和二次判别分析 o1.2.1.使用线性判别分析来降维 o12.2.LDA和QDA分类器的数学公式 o123.LDA的降维数学公式 o1.2.4. Shrinkage(收缩) o12.5.预估算法 1.3.内核岭回归 1.4.支持向量机 o1.4.1.分类 ■1.4.1.1.多元分类 ■1.4.1.2.得分和概率 1.4.1.3.非均衡问题 1.4.2.回归 o143.密度估计,异常( novelty)检测 o1.4.4.复杂度 o1.4.5.使用诀窍 o1.4.6.核函数 1.4.6.1.自定义核 14.6.1.1.使用 python函数作为内核 1.4.6.1.2.使用Gram矩阵 14.6.1.3.RBF内核参数 o1.4.7.数学公式 1.4.7.1.sVC ■1.4.7.2. NuSVo 1.4.7.3.sVR o14.8.实现细节 1.5.随机梯度下降 o1.5.1.分类 o1.5.2.回归 1.5.3.稀疏数据的随机悌度下降 o1.5.4.复杂度 o1.5.5.实用小贴士 o1.5.6.数学描述 ■1.5.6.1.SGD o1.5.7.实现细节 1.6.最近邻 o1.6.1.无监督最近邻 ■1.6.1.1.找到最近邻 1.6.1.2. KDTree和 BallTree类 1.62.最近邻分类 o16.3.最近邻回归 o1.6.4.最近邻算法 1.64.1.暴力计算 ■1.6.4.2.K-D树 1.64.3.Ba|树 ■1.6.4.4.最近邻算法的选择 1.6.4.5.1 eaf size的影响 o165.最近质心分类 1.6.5.1.最近缩小质心 1.7.高斯过程 o1.7.1.高斯过程回归(GPR) o1.7.2.GPR示例 1.7.2.1.具有噪声级的GPR估计 1.722.GPR和内核岭回归( Kernel Ridge Regression)的比 较 1.7.2.3. Mauna loa co2数据中的GRR o1.7.3.高斯过程分类(GPC) o1.7.4.GPC示例 1.7.4.1.GPC概率预测 ■1.74.2.GPC在XOR数据集上的举例说明 ■1.7.4.3.iris数据集上的高斯过程分类(GPC) o1.7.5.高斯过程内核 1.7.5.1.高斯过程内核AP ■1.7.5.2.基础内核 ■1.7.5.3.内核操作 1.7.5.4.径向基函数内核 1.7.5.5. Matern内核 1.7.5.6.有理二次内核 1.7.5.7.正弦平方内核 1.7.58.点乘内核 ■1.7.5.9.参考文献 o1.7.6.传统高斯过程 1.7.6.1.回归实例介绍 1.7.62.噪声数据拟合 17.6.3.数学形式 1.7.6.3.1.初始假设 ■1.7.6.32.最佳线性无偏预测(BLUP) 1.7.6.3.3.经验最佳线性无偏估计( EBLUP) 1.7.6.4.关联模型 1.7.6.5.回归模型 1.7.6.6.实现细节 1.8.交叉分解 1.9.朴素贝叶斯 o1.9.1.高斯朴素贝叶斯 o1.92.多项分布朴素贝叶斯 1.9.3.伯努利朴素贝叶斯 1.9.4.堆外朴素贝叶斯模型拟合 1.10.决策树 o1.10.1.分类 o1.10.2.回归 o1.10.3.多值输出问题 o1.10.4.复杂度分析 o1.10.5.实际使用技巧 1.10.6.决策树算法:ID3,C4.5,c5.0和CART o1.10.7.数学表达 1.10.7.1.分类标准 ■1.10.7.2.回归标准 1.11.集成方法 o1.111. Bagging meta-estimator( Bagging元估计器) o1.11.2.由随机树组成的森林 1.11.2.1.随机森林 1.11.2.2.极限随机树 1.11.2.3.参数 1.11.24.并行化 1.11.2.5.特征重要性评估 1.11.2.6.完全随机树嵌入 o 1.113. AdaBoost 1.11.3.1.使用方法 o1.114. Gradient Tree Boosting(梯度树提升) 1.11.4.1.分类 1.11.42.回归 1.114.3.训练额外的弱学习器 1.11.4.4.控制树的大小 ■1.11.4.5. Mathematical formulation(数学公式) ■1.11.4.5.1. LoSS Functions(损失函数) 1.114.6. Regularization(正则化) ■1.14.6.1.收缩率( Shrinkage) ■1.1.4.6.2.子采样( Subsampling) ■1.11.4.7. Interpretation(解释性) 1.114.7.1. Feature importance(特征重要性) 1.114.7.2. Partial dependence(部分依赖) o1.11.5. Voting Classifier(投票分类器) 1.115.1.多数类标等(又称为多数/硬投票) 1.11.5.1.1.用法 ■1.11.52.加权平均概率(软投票) 1.11.5.3.投票分类器( Voting Classifier)在网格搜索 ( Grid search)应用 1.11.5.3.1.用法 1.12.多类和多标签算法 o1.12.1.多标签分类格式 o1.12.2.1对其余 1.122.1.多类学习 1.122.2.多标签学习 o1.12.3.1对1 1.12.3.1.多类别学习 o1.12.4.误差校正输出代码 1.12.4.1.多类别学习 o1.12.5.多输出回归 o1.12.6.多输出分类 o1.12.7.链式分类器 ·1.13.特征选择 1.13.1.移除低方差特征 o1.13.2.单变量特征选择 o1.13.3.递归式特征消除 o1.13.4.使用 Select From Mode选取特征 ■1.13.4.1.基于L1的特征选取 1.13.4.2.基于Tree(树)的特征选取 1.13.5.特征选取作为 pipeline(管道)的一部分 1.14.半监督学习 o1.14.1.标签传播 1.15.等式回归 1.16.概率校准 1.17.神经网络模型(有监督) o1.17.1.多层感知器 o1.17.2.分类 o1.17.3.回归 o1.17.4.正则化 o1.17.5.算法 o1.17.6.复杂性 o1.17.7.数学公式 o1.178.实用技巧 o1.17.9.使用 warm start的更多控制 【实例截图】
【核心代码】
sklearn0.19中文文档 PDF格式高清。 .1. 广义线性模型 1.1.1. 普通最小二乘法 1.1.1.1. 普通最小二乘法复杂度 1.1.2. 岭回归 1.1.2.1. 岭回归的复杂度 1.1.2.2. 设置正则化参数:广义交叉验证 1.1.3. Lasso 1.1.3.1. 设置正则化参数 1.1.3.1.1. 使用交叉验证 1.1.3.1.2. 基于信息标准的模型选择 1.1.3.1.3. 与 SVM 的正则化参数的比较 1.1.4. 多任务 Lasso 1.1.5. 弹性网络 1.1.6. 多任务弹性网络 1.1.7. 最小角回归 1.1.8. LARS Lasso 1.1.
1.监督学习 1.1.广义线性模型 o1.1.1.普通最小二乘法 1.1.1.1.普通最小二乘法复杂度 o1.1.2.岭回归 1.1.2.1.岭回归的复杂度 1.1.22.设置正则化参数:广义交叉验证 o 113. Lasso ■1.1.3.1.设置正则化参数 1.1.3.1.1.使用交叉验证 ■1.1.3.1.2.基于信息标准的模型选择 1.1.3.1.3.与SVM的正则化参数的比较 o1.1.4.多任务 Lasso o1.1.5.弹性网络 o1.1.6.多任务弹性网络 o1.1.7.最小角回归 o.8. LARS Lasso ■1.1.8.1.数学表达式 o1.1.9.正交匹配追踪法(OMP) o1.1.10.贝叶斯回归 1.1.10.1.贝叶斯岭回归 1.1.10.2.主动相关决策理论-ARD 1.1.11. logistic回归 o1.1.12.随机梯度下降,SGD o1.1.13. Perceptron(感知器) o1.1.14. Passive Aggressive Algorithms(被动攻击算法) o1.1.15.稳健回归( Robustness regression):处理离群点 ( outliers)和模型错误 1.1.15.1.各种使用场景与相关概念 ■1.1.15.2. RANSAC:随机抽样一致性算法( RANdom SAmple Consensus 1.1.15.2.1.算法细节 1.1.15.3.Thel-sen预估器:广义中值估计 1.1.153.1.算法理论细节 1.1.154. Huber回归 1.1.155.注意 1.1.16.多项式回归:用基函数展开线性模型 1.2.线性和二次判别分析 o1.2.1.使用线性判别分析来降维 o12.2.LDA和QDA分类器的数学公式 o123.LDA的降维数学公式 o1.2.4. Shrinkage(收缩) o12.5.预估算法 1.3.内核岭回归 1.4.支持向量机 o1.4.1.分类 ■1.4.1.1.多元分类 ■1.4.1.2.得分和概率 1.4.1.3.非均衡问题 1.4.2.回归 o143.密度估计,异常( novelty)检测 o1.4.4.复杂度 o1.4.5.使用诀窍 o1.4.6.核函数 1.4.6.1.自定义核 14.6.1.1.使用 python函数作为内核 1.4.6.1.2.使用Gram矩阵 14.6.1.3.RBF内核参数 o1.4.7.数学公式 1.4.7.1.sVC ■1.4.7.2. NuSVo 1.4.7.3.sVR o14.8.实现细节 1.5.随机梯度下降 o1.5.1.分类 o1.5.2.回归 1.5.3.稀疏数据的随机悌度下降 o1.5.4.复杂度 o1.5.5.实用小贴士 o1.5.6.数学描述 ■1.5.6.1.SGD o1.5.7.实现细节 1.6.最近邻 o1.6.1.无监督最近邻 ■1.6.1.1.找到最近邻 1.6.1.2. KDTree和 BallTree类 1.62.最近邻分类 o16.3.最近邻回归 o1.6.4.最近邻算法 1.64.1.暴力计算 ■1.6.4.2.K-D树 1.64.3.Ba|树 ■1.6.4.4.最近邻算法的选择 1.6.4.5.1 eaf size的影响 o165.最近质心分类 1.6.5.1.最近缩小质心 1.7.高斯过程 o1.7.1.高斯过程回归(GPR) o1.7.2.GPR示例 1.7.2.1.具有噪声级的GPR估计 1.722.GPR和内核岭回归( Kernel Ridge Regression)的比 较 1.7.2.3. Mauna loa co2数据中的GRR o1.7.3.高斯过程分类(GPC) o1.7.4.GPC示例 1.7.4.1.GPC概率预测 ■1.74.2.GPC在XOR数据集上的举例说明 ■1.7.4.3.iris数据集上的高斯过程分类(GPC) o1.7.5.高斯过程内核 1.7.5.1.高斯过程内核AP ■1.7.5.2.基础内核 ■1.7.5.3.内核操作 1.7.5.4.径向基函数内核 1.7.5.5. Matern内核 1.7.5.6.有理二次内核 1.7.5.7.正弦平方内核 1.7.58.点乘内核 ■1.7.5.9.参考文献 o1.7.6.传统高斯过程 1.7.6.1.回归实例介绍 1.7.62.噪声数据拟合 17.6.3.数学形式 1.7.6.3.1.初始假设 ■1.7.6.32.最佳线性无偏预测(BLUP) 1.7.6.3.3.经验最佳线性无偏估计( EBLUP) 1.7.6.4.关联模型 1.7.6.5.回归模型 1.7.6.6.实现细节 1.8.交叉分解 1.9.朴素贝叶斯 o1.9.1.高斯朴素贝叶斯 o1.92.多项分布朴素贝叶斯 1.9.3.伯努利朴素贝叶斯 1.9.4.堆外朴素贝叶斯模型拟合 1.10.决策树 o1.10.1.分类 o1.10.2.回归 o1.10.3.多值输出问题 o1.10.4.复杂度分析 o1.10.5.实际使用技巧 1.10.6.决策树算法:ID3,C4.5,c5.0和CART o1.10.7.数学表达 1.10.7.1.分类标准 ■1.10.7.2.回归标准 1.11.集成方法 o1.111. Bagging meta-estimator( Bagging元估计器) o1.11.2.由随机树组成的森林 1.11.2.1.随机森林 1.11.2.2.极限随机树 1.11.2.3.参数 1.11.24.并行化 1.11.2.5.特征重要性评估 1.11.2.6.完全随机树嵌入 o 1.113. AdaBoost 1.11.3.1.使用方法 o1.114. Gradient Tree Boosting(梯度树提升) 1.11.4.1.分类 1.11.42.回归 1.114.3.训练额外的弱学习器 1.11.4.4.控制树的大小 ■1.11.4.5. Mathematical formulation(数学公式) ■1.11.4.5.1. LoSS Functions(损失函数) 1.114.6. Regularization(正则化) ■1.14.6.1.收缩率( Shrinkage) ■1.1.4.6.2.子采样( Subsampling) ■1.11.4.7. Interpretation(解释性) 1.114.7.1. Feature importance(特征重要性) 1.114.7.2. Partial dependence(部分依赖) o1.11.5. Voting Classifier(投票分类器) 1.115.1.多数类标等(又称为多数/硬投票) 1.11.5.1.1.用法 ■1.11.52.加权平均概率(软投票) 1.11.5.3.投票分类器( Voting Classifier)在网格搜索 ( Grid search)应用 1.11.5.3.1.用法 1.12.多类和多标签算法 o1.12.1.多标签分类格式 o1.12.2.1对其余 1.122.1.多类学习 1.122.2.多标签学习 o1.12.3.1对1 1.12.3.1.多类别学习 o1.12.4.误差校正输出代码 1.12.4.1.多类别学习 o1.12.5.多输出回归 o1.12.6.多输出分类 o1.12.7.链式分类器 ·1.13.特征选择 1.13.1.移除低方差特征 o1.13.2.单变量特征选择 o1.13.3.递归式特征消除 o1.13.4.使用 Select From Mode选取特征 ■1.13.4.1.基于L1的特征选取 1.13.4.2.基于Tree(树)的特征选取 1.13.5.特征选取作为 pipeline(管道)的一部分 1.14.半监督学习 o1.14.1.标签传播 1.15.等式回归 1.16.概率校准 1.17.神经网络模型(有监督) o1.17.1.多层感知器 o1.17.2.分类 o1.17.3.回归 o1.17.4.正则化 o1.17.5.算法 o1.17.6.复杂性 o1.17.7.数学公式 o1.178.实用技巧 o1.17.9.使用 warm start的更多控制 【实例截图】
【核心代码】
标签:
好例子网口号:伸出你的我的手 — 分享!
相关软件
小贴士
感谢您为本站写下的评论,您的评论对其它用户来说具有重要的参考价值,所以请认真填写。
- 类似“顶”、“沙发”之类没有营养的文字,对勤劳贡献的楼主来说是令人沮丧的反馈信息。
- 相信您也不想看到一排文字/表情墙,所以请不要反馈意义不大的重复字符,也请尽量不要纯表情的回复。
- 提问之前请再仔细看一遍楼主的说明,或许是您遗漏了。
- 请勿到处挖坑绊人、招贴广告。既占空间让人厌烦,又没人会搭理,于人于己都无利。
关于好例子网
本站旨在为广大IT学习爱好者提供一个非营利性互相学习交流分享平台。本站所有资源都可以被免费获取学习研究。本站资源来自网友分享,对搜索内容的合法性不具有预见性、识别性、控制性,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,平台无法对用户传输的作品、信息、内容的权属或合法性、安全性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论平台是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二与二十三条之规定,若资源存在侵权或相关问题请联系本站客服人员,点此联系我们。关于更多版权及免责申明参见 版权及免责申明


网友评论
我要评论