目录
机器学习全过程
├─01.机器学习概述
│ 01_00.课程资料下载方式
│ 01_01.课程内容
│ 01_02.数学基础知识回顾
│ 01_03.梯度下降法回顾
│ 01_04.机器学习概述
│ 01_05.机器学习框架库及scikit-learn安装方式
│ 01_06.机器学习应用场景概述
│ 01_07.机器学习算法分类一
│ 01_08.机器学习算法分类二
│ 01_09.机器学习开发流程一
│ 01_10.机器学习开发流程二
│ 01_11.机器学习开发流程三
│ 01_12.内容总结
│
├─02.机器学习答疑01
│ 02_01.MLE最大似然估计
│ 02_02.梯度下降
│ 02_03.答疑
│
├─03.回归算法
│ 03_01.线性回归算法
│ 03_02.线性回顾损失函数及最小二乘
│ 03_03.案例代码:Python实现最小二乘的解析式发案例代码编写
│ 03_04.案例代码:使用ScikitLearn相关算法API实现案例代码及机器学习代码编写流程
│ 03_05.案例代码:使用ScikitLearn实现普通最小二乘线性回归算法案例代码
│ 03_06.算法模型欠拟合和过拟合问题及多项式扩展
│ 03_07.正则化(L1 norm&L2 norm)
│ 03_08.案例代码:Ridge&Lasso回归案例
│ 03_09.回归算法模型评估指标、超参给定以及交叉验证
│
├─04.回归算法、KNN
│ 04_01.梯度下降Gradient Descent(BGD、SGD、MBGD)
│ 04_02.案例代码:Python实现SGD以及SGD波动性
│ 04_03.Ridge、Lasso算法API优化方式API参数
│ 04_04.线性回归算法总结及作业布置
│ 04_05.案例代码:葡萄酒分类案例
│ 04_06.Logistic回归分类算法原理
│ 04_07.案例代码:Logistic回归病理数据分类案例
│ 04_08.Softmax回归分类算法原理
│ 04_09.案例代码:Softmax算法葡萄酒分类案例
│ 04_10.案例代码:分类案例综合
│ 04_11.KNN算法原理
│ 04_12.KNN模型构建之KD Tree原理
│
├─05.机器学习答疑02
│ 05_01.答疑
│ 05_02.基于BGD的线性回归模型算法案例
│
├─06.决策树
│ 06_01.知识回顾
│ 06_02.案例代码:KNN分类算法鸢尾花数据分类应用
│ 06_03.案例代码:GridSearchCV网格参数选择交叉验证
│ 06_04.决策树直观理解
│ 06_05.扩展:信息熵讲解
│ 06_06.扩展:条件熵讲解
│ 06_07.决策树算法原理及构建过程讲解
│ 06_08.决策树构建流程讲解
│ 06_09.ID3、C45、CART三种决策树算法讲解
│ 06_10.案例代码:决策树实现鸢尾花数据分类案例代码讲解
│ 06_11.决策树过拟合优化之剪枝操作讲解
│ 06_12.分类决策树和回归决策树的区别讲解
│ 06_13.ID3、C45、CART三种决策树算法总结比较
│ 06_14.决策树可视化方式及案例代码讲解
│
├─07.集成学习:随机森林、Adaboost、GBDT
│ 07_01.集成学习(Ensemble Learning)思想讲解
│ 07_02.Bagging集成算法思想讲解
│ 07_03.RandomForest集成算法思想讲解
│ 07_04.RandomForest变种算法讲解
│ 07_05.案例代码:随机森林、Bagging算法应用案例讲解
│ 07_06.案例代码:乳腺癌诊断应用案例代码讲解
│ 07_07.Boosting集成算法思想讲解
│ 07_08.Adaboost算法原理讲解
│ 07_09.Adaboost算法模型构建流程讲解
│ 07_10.案例代码:Adaboost案例代码讲解
│ 07_11.GBDT算法原理讲解
│ 07_12.集成算法之Bagging和Boosting比较总结讲解
│ 07_13.Stacking集成算法思想讲解
│
├─08.机器学习答疑03
│ 08_01.答疑
│ 08_02.答疑
│ 08_03.作业案例代码实现讲解
│
├─09.XGBoost&聚类算法
│ 09_01.XGBoost概述
│ 09_02.XGBoost安装讲解
│ 09_03.XGBoost原理讲解一
│ 09_04.XGBoost原理讲解二
│ 09_05.XGBoost案例代码实现讲解
│ 09_06.聚类算法概述
│ 09_07.聚类算法中相似度度量方式讲解
│ 09_08.KMeans算法原理讲解
│ 09_09.案例代码:KMeans案例代码实现讲解
│ 09_10.KMeans初值敏感问题解决方案讲解一(二分KMeans、KMeans++等)
│ 09_11.KMeans初值敏感问题解决方案讲解二(Canopy算法)
│ 09_12.Mini Batch K-Means算法原理及应用案例讲解
│ 09_13.扩展可选内容:聚类算法衡量指标讲解
│
├─10.聚类算法&SVM
│ 10_01.层次聚类算法原理及案例代码讲解
│ 10_02.层次聚类优化算法原理讲解(BIRCH&CURE)
│ 10_03.案例代码:BIRCH层次聚类算法案例代码讲解
│ 10_04.密度聚类算法DBSCAN算法原理讲解
│ 10_05.密度聚类算法MDCA算法原理讲解
│ 10_06.案例代码:DBSCAN密度聚类算法案例代码讲解
│ 10_07.案例代码:谱聚类构建过程及案例代码讲解
│ 10_08.案例代码:聚类算法应用效果比较案例代码讲解
│ 10_09.案例代码:KMeans算法应用之图像压缩案例代码实现讲解
│ 10_10.SVM前置知识点:梯度下降优化算法原理回顾
│ 10_11.SVM前置知识点:拉格朗日函数和KKT条件算法原理回顾
│ 10_12.SVM前置知识点:点到平面距离公式讲解
│ 10_13.SVM前置知识点:感知器模型算法原理讲解
│ 10_14.SVM算法初识
│
├─11.机器学习答疑04
│ 11_01.答疑01
│ 11_02.答疑02
│ 11_03.答疑03
│ 11_04.答疑04
│ 11_05.答疑05
│
├─12.SVM
│ 12_01.SVM算法构建原理回顾
│ 12_02.线性可分SVM算法原理讲解
│ 12_03.软间隔线性可分SVM算法原理讲解
│ 12_04.课间答疑
│ 12_05.非线性可分SVM算法原理及核函数原理讲解
│ 12_06.扩展:高斯核函数公式证明讲解
│ 12_07.SMO算法求解过程讲解一
│ 12_08.SMO算法求解过程讲解二
│ 12_09.SMO算法求解过程讲解三
│ 12_10.SVR算法原理讲解
│ 12_11.sklearn中SVM相关算法库API参数讲解
│ 12_12.案例代码:OneClassSVM异常点检测代码实现讲解
│ 12_12.案例代码:SVM鸢尾花数据分类案例代码实现讲解
│
├─13.多分类及多标签分类算法、贝叶斯算法、EM算法
│ 13_01.案例代码:SVM实现手写数字识别案例代码实现讲解
│ 13_02.案例代码:自定义核函数、SVR以及分类算法比较案例代码讲解
│ 13_03.单标签二分类&单标签多分类算法回顾
│ 13_04.单标签多分类解决方案OVO&OVR算法原理及案例代码讲解
│ 13_05.单标签多分类解决方案错误码机制算法原理及案例代码讲解
│ 13_06.多标签分类算法解决方案讲解一
│ 13_07.多标签分类算法解决方案讲解二
│ 13_08.朴素贝叶斯算法原理讲解
│ 13_09.高斯朴素贝叶斯、伯努利朴素贝叶斯、多项式朴素贝叶斯算法求解方式讲解
│ 13_10.案例代码:鸢尾花数据分类贝叶斯算法应用案例代码实现讲解
│ 13_11.案例代码:新闻数据分类案例代码讲解
│ 13_12.扩展:贝叶斯网络讲解
│ 13_13.知识回顾:MLE最大似然估计讲解
│ 13_14.知识回顾:贝叶斯估计和MAP最大后验概率估计讲解
│ 13_15.知识回顾:KMeans算法讲解
│
├─14.机器学习答疑05
│ 14_01.答疑01
│ 14_02.机器学习总结01
│ 14_03.答疑02
│
├─15.EM算法、隐马尔科夫
│ 15_01.EM算法引入
│ 15_02.EM算法原理讲解
│ 15_03.EM算法收敛性证明过程讲解
│ 15_04.EM算法思想直观案例理解
│ 15_05.EM算法应用问题引入讲解
│ 15_06.GMM高斯混合聚类算法原理构建过程讲解
│ 15_07.案例代码:Python实现GMM高斯混合聚类算法案例代码实现讲解
│ 15_08.案例代码:GMM案例代码实现讲解
│ 15_09.马尔可夫性质讲解
│ 15_10.HMM算法结构讲解
│ 15_11.HMM算法应用场景讲解
│ 15_12.HMM概率计算:暴力计算法及前向概率和后向概率讲解
│ 15_13.HMM概率计算:前向算法和后向算法讲解
│ 15_14.HMM算法单个状态及连续状态概率公式讲解
│ 15_15.HMM模型参数学习:基于有监督模型的模型参数学习方式讲解
│
├─16.隐马尔科夫、主题模型
│ 16_01.HMM知识回顾
│ 16_02.HMM模型参数学习:基于无监督模型的模型参数学习方式讲解
│ 16_03.HMM隐状态预测:Viterbi算法讲解
│ 16_04.扩展:HMM应用案例讲解
│ 16_05.HMM环境安装方式讲解
│ 16_06.案例代码:HMM案例代码实现讲解
│ 16_07.主题模型算法概述
│ 16_08.主题模型之LSA算法原理及构建过程讲解
│ 16_09.主题模型之NMF非负矩阵分解算法原理及坐标轴下降法讲解
│ 16_10.知识回顾:二项分布、多项式分布、Beta分布以及Dirichlet分布知识回顾
│ 16_11.主题模型之LDA算法原理讲解
│ 16_12.案例代码:LDA及sklearn中的主题模型案例代码讲解
│
├─17.机器学习答疑06
│ 17_01.答疑01
│ 17_02.机器学习总结二
│ 17_03.答疑02
│ 17_04.答疑03
│ 17_05.HMM算法Python代码实现讲解
│ 17_06.HMM算法Python代码实现讲解(对数转换实现方式)
│
├─18.特征工程一
│ 18_01.建议
│ 18_02.数据收集及数据存储方式讲解
│ 18_03.数据清洗方式讲解
│ 18_04.数据不平衡解决方案讲解
│ 18_05.数据不平衡解决方案代码实现讲解
│ 18_06.文本数据分词之jieba工具应用讲解
│ 18_07.文本数据转换为特征矩阵方式讲解(词袋法、词集法、HashTF、TF-IDF)
│ 18_08.缺省值处理方式及案例代码讲解
│ 18_09.哑编码应用方式及案例代码讲解
│
├─19.特征工程二
│ 19_01.二值化、连续数据区间化应用方式及案例代码讲解
│ 19_02.标准化、区间缩放法、正则化应用方式及案例代码讲解
│ 19_03.多项式维度扩展、GBDT+LR应用方式及案例代码讲解
│ 19_04.特征选择方式讲解一
│ 19_05.特征选择方式案例代码讲解
│ 19_06.降维应用方式及案例代码讲解
│ 19_07.特征工程方式总结
│ 19_08.机器学习阶段内容总结
│
├─20.机器学习项目案例:垃圾邮件过滤一
│ 20_01.项目概述
│ 20_02.垃圾邮件过滤业务概述
│ 20_03.垃圾邮件过滤项目开发流程及需求讲解
│ 20_04.垃圾邮件过滤项目之数据清洗过程讲解
│ 20_05.垃圾邮件过滤项目之特征工程讲解一
│
├─21.机器学习答疑07
│ 21_01.机器学习总结三
│ 21_02.答疑01
│ 21_03.HMM隐马尔科夫应用到文本分词中的案例代码实现讲解
│ 21_04.答疑02
│
├─22.机器学习项目案例:垃圾邮件过滤二
│ 22_01.垃圾邮件过滤项目之特征工程讲解二
│ 22_02.垃圾邮件过滤项目之特征工程讲解三
│ 22_03.垃圾邮件过滤项目之特征工程讲解四
│ 22_04.垃圾邮件过滤项目之算法代码实现讲解
│ 22_05.垃圾邮件过滤项目之多种算法实现效果比较以及项目总结讲解
│
├─23.机器学习项目案例:音乐文件分类一
│ 23_01.音乐文件分类项目之项目概述及核心技术点概述讲解
│ 23_02.音乐文件分类项目之MFCC案例代码讲解
│ 23_03.音乐文件分类项目之pydub案例代码讲解
│ 23_04.音乐文件分类项目之特征工程实现代码一
│ 23_05.音乐文件分类项目之特征工程实现代码二
│
├─24.机器学习项目案例:音乐文件分类二
│ 24_01.音乐文件分类项目之交叉验证代码实现
│ 24_02.音乐文件分类项目之模型训练代码实现
│ 24_03.音乐文件分类项目之模型预测及结果保存代码实现
│ 24_04.音乐文件分类项目之项目总结及项目扩展需求讲解
│
├─25.机器学习项目案例:金融反欺诈
│ 25_01.金融反欺诈模型概述讲解
│ 25_02.金融反欺诈模型之特征工程实现代码讲解
│ 25_03.金融反欺诈模型之模型训练实现代码讲解
│ 25_04.天池、Kaggle等算法比赛方式介绍
│ 25_05.天池等比赛项目案例代码讲解
│ 25_06.机器学习总结
│
├─26.机器学习答疑08
│ 26_01.答疑
│ 26_02.答疑
│ 26_03.牛顿法、拟牛顿法讲解
│ 26_04.答疑
│ 26_05.答疑
│
└─27.人工智能-机器学习项目
27_01.项目热身之机器学习算法串讲1
27_02.项目热身之机器学习算法串讲2
27_03.项目热身之机器学习算法串讲+贝叶斯算法讲解3
27_04.垃圾邮件分类之数据清洗1
27_05.垃圾邮件分类之数据清洗2
27_06.垃圾邮件分类之结巴介绍及特征提取1
27_07.垃圾邮件分类之特征提取2
27_08.垃圾邮件分类之建模及预测结果评估
27_09.傅里叶变换及音乐文件处理接口讲解
27_10.音乐文件降维处理及特征提取
27_11.音乐文件特征提取及建模预测
27_12.金融反欺诈项目背景概述
27_13.金融反欺诈项目数据清洗及特征提取
27_14.金融反欺诈项目特征提取及建模预测