目录
机器学习核心算法
├─01.机器学习概述
│ 01_01.机器学习概述一
│ 01_02.课间答疑一
│ 01_03.机器学习概述二
│ 01_04.课间答疑二
│ 01_05.机器学习概述三
│ 01_06.机器学习开发流程讲解一
│ 01_07.课间答疑三
│ 01_08.机器学习开发流程讲解二_特征清洗与转换
│ 01_09.课间答疑四
│ 01_10.机器学习开发流程讲解三_TF-IDF
│ 01_11.机器学习开发流程讲解四
│ 01_12.课间答疑五
│
├─02.回归算法
│ 02_01.技术回顾
│ 02_02.回归算法初识
│ 02_03.课间答疑六
│ 02_04.最小二乘参数值求解过程推导讲解
│ 02_05.线性回归案例代码讲解一
│ 02_06.线性回归案例代码及多项式扩展、管道操作代码讲解二
│ 02_07.线性回归案例中模型参数作用讲解
│ 02_08.常见目标函数及过拟合讲解
│ 02_09.课间答疑一
│ 02_10.过拟合解决方案讲解(L1以及L2正则项)
│ 02_11.回归算法评估指标及交叉验证方式讲解
│ 02_12.课间答疑二
│ 02_13.梯度下降求解方式讲解
│ 02_14.线性回归算法总结归纳
│ 02_15.课间答疑三
│ 02_16.Logistic和Softmax回归算法讲解
│ 02_17.课间答疑四
│ 02_18.晚自习_代码答疑讲解一
│ 02_19.晚自习_代码答疑讲解二
│
├─03.KNN
│ 03_01.KNN算法原理讲解
│ 03_02.课间答疑一
│ 03_03.KD-Tree原理讲解
│
├─04.决策树、随机森林、GBDT
│ 04_01.决策树直观理解
│ 04_02.决策树前置知识点:信息熵理论讲解
│ 04_03.决策树前置知识点:条件熵理论讲解
│ 04_04.决策树原理及构建过程讲解
│ 04_05.决策树构建过程案例讲解
│ 04_06.决策树构建过程总结
│ 04_07.ID3、C45、CART决策树算法讲解
│ 04_08.决策树分类案例:鸢尾花数据分类案例代码实现
│ 04_09.课间答疑二
│ 04_10.鸢尾花数据分类案例代码讲解
│ 04_11.课间答疑三
│ 04_12.分类树和回归树区别讲解
│ 04_13.决策树过拟合、欠拟合以及剪枝原理讲解
│ 04_14.扩展讲解:决策树可视化讲解
│ 04_15.梯度下降线性回归算法代码实现
│ 04_16.答疑
│
├─05.集成学习
│ 05_01.集成学习算法原理讲解
│ 05_02.Bagging集成学习算法方式讲解
│ 05_03.RF随机森林及RF变种算法原理讲解
│ 05_04.课间答疑四
│ 05_05.RF案例:宫颈癌预测及RF随机森林相关API参数讲解
│ 05_06.RF案例:宫颈癌数据分类案例代码答疑讲解
│ 05_07.Bagging和线性回归模型融合案例讲解
│ 05_08.Boosting集成学习方式思想原理讲解
│ 05_09.AdaBoost算法原理讲解一
│ 05_10.AdaBoost算法原理讲解二
│ 05_11.AdaBoost算法案例直观理解
│ 05_12.AdaBoost算法案例代码讲解
│ 05_13.GBDT算法原理讲解
│ 05_14.Bagging和Boosting算法区别讲解
│ 05_15.Stacking集成学习方式原理讲解
│ 05_16.课间答疑一
│
├─06.聚类算法
│ 06_01.知识回顾
│ 06_02.聚类概述及距离度量公式讲解
│ 06_03.聚类算法的思想方式讲解
│ 06_04.KMeans聚类算法原理及伪代码实现讲解
│ 06_05.KMeans算法优缺点讲解
│ 06_06.KMeans算法初始点敏感问题解决方案讲解:二分KMeans、KMeans++算法讲解
│ 06_07.KMeans算法依赖K值问题解决方案讲解
│ 06_08.聚类算法度量指标讲解
│ 06_09.课间答疑二
│ 06_10.层次聚类思想及AGENS算法讲解
│ 06_11.层次聚类优化算法BIRCH和CURE算法讲解
│ 06_12.密度聚类DBSCAN算法讲解
│ 06_13.课间答疑一(Birch聚类算法讲解)
│ 06_14.密度聚类MDCA算法讲解
│ 06_15.密度聚类代码讲解
│ 06_16.谱聚类算法讲解
│ 06_17.聚类综合案例代码讲解
│
├─07.SVM
│ 07_01.拉格朗日乘子法讲解
│ 07_02.SVM原理讲解
│ 07_03.SVM线性不可分模型讲解
│ 07_04.SVM SMO算法求解方式讲解
│ 07_04.SVMSMO算法求解方式讲解
│ 07_05.SVM核函数讲解
│ 07_06.SVM案例:手写数字识别代码讲解
│ 07_07.SVM回归案例及各种分类算法比较讲解
│ 07_08.课间答疑一
│
├─08.单标签和多标签分类算法讲解(扩展内容)
│ 08_01.单标签二分类及多分类算法思想讲解
│ 08_02.课间答疑二
│ 08_03.多标签分类模型思想讲解一
│ 08_04.多标签分类模型思想讲解二
│
├─09.贝叶斯算法
│ 09_02.贝叶斯算法原理及代码案例讲解
│ 09_03.贝叶斯网络
│
├─10.EM算法
│ 10_01.最大似然估计回顾
│ 10_02.贝叶斯算法及最大后验概率估计回顾
│ 10_03.Kmeans算法回顾
│ 10_04.EM算法引入
│ 10_05.EM算法原理讲解
│ 10_06.EM算法案例讲解
│ 10_07.EM算法收敛性证明讲解
│
├─11.EM&隐马尔科夫
│ 11_01.马尔可夫性质和马尔可夫链讲解
│ 11_02.HMM算法引入
│ 11_03.HMM算法参数讲解
│ 11_04.HMM算法案例及HMM三个问题的解决算法讲解
│ 11_06.HMM单个状态和两个状态的概率计算公式讲解
│ 11_07.HMM BaumWelch算法讲解
│ 11_08.HMM Viterbi算法讲解
│ 11_09.HMM hmmlearn框架应用讲解
│ 11_10.HMM应用案例代码讲解
│ 11_11.晚自习_HMM算法思想讲解
│ 11_12.晚自习_前向概率原理讲解及前向概率计算代码实现
│ 11_13.晚自习_后向概率及实现代码讲解
│ 11_14.晚自习_单个状态和连续状态的概率求解以及实现代码讲解
│ 11_15.晚自习_HMM算法模型参数学习之Baum-Welch算法及实现代码讲解
│ 11_16.晚自习_HMM算法模型预测序列之Viterbi算法及实现代码讲解
│
├─12.主题模型算法
│ 12_01.主题模型讲解一
│ 12_02.主题模型讲解二
│ 12_03.主题模型讲解三
│ 12_04.主题模型案例代码讲解
│
└─13.特征工程
13_01.特征工程之数据清洗讲解
13_02.特征工程之文本处理方式讲解
13_03.特征工程之缺省值填充方式讲解
13_04.特征工程之哑编码及二值化方式讲解
13_05.特征工程之标准化、缩放法及归一化讲解
13_06.特征工程之特征选择方式讲解
13_07.特征工程之降维方式讲解
13_08.特征工程之异常数据处理案例代码讲解
13_09.特征工程之中文分词方式讲解