目录

  • 1 01.机器学习概述
    1. 01_01.课程内容

      00:21:42

    2. 01_02.数学基础知识回顾

      00:33:59

    3. 01_03.梯度下降法回顾

      00:54:46

    4. 01_04.机器学习概述

      00:40:39

    5. 01_05.机器学习框架库及scikit-learn安装方式

      00:18:13

机器学习全过程

1014人在学
公众号二维码

公众号

小程序二维码

小程序

课程详情

我要提问


├─01.机器学习概述
│      01_00.课程资料下载方式
│      01_01.课程内容
│      01_02.数学基础知识回顾
│      01_03.梯度下降法回顾
│      01_04.机器学习概述
│      01_05.机器学习框架库及scikit-learn安装方式
│      01_06.机器学习应用场景概述
│      01_07.机器学习算法分类一
│      01_08.机器学习算法分类二
│      01_09.机器学习开发流程一
│      01_10.机器学习开发流程二
│      01_11.机器学习开发流程三
│      01_12.内容总结
│      
├─02.机器学习答疑01
│      02_01.MLE最大似然估计
│      02_02.梯度下降
│      02_03.答疑
│      
├─03.回归算法
│      03_01.线性回归算法
│      03_02.线性回顾损失函数及最小二乘
│      03_03.案例代码:Python实现最小二乘的解析式发案例代码编写
│      03_04.案例代码:使用ScikitLearn相关算法API实现案例代码及机器学习代码编写流程
│      03_05.案例代码:使用ScikitLearn实现普通最小二乘线性回归算法案例代码
│      03_06.算法模型欠拟合和过拟合问题及多项式扩展
│      03_07.正则化(L1 norm&L2 norm)
│      03_08.案例代码:Ridge&Lasso回归案例
│      03_09.回归算法模型评估指标、超参给定以及交叉验证
│      
├─04.回归算法、KNN
│      04_01.梯度下降Gradient Descent(BGD、SGD、MBGD)
│      04_02.案例代码:Python实现SGD以及SGD波动性
│      04_03.Ridge、Lasso算法API优化方式API参数
│      04_04.线性回归算法总结及作业布置
│      04_05.案例代码:葡萄酒分类案例
│      04_06.Logistic回归分类算法原理
│      04_07.案例代码:Logistic回归病理数据分类案例
│      04_08.Softmax回归分类算法原理
│      04_09.案例代码:Softmax算法葡萄酒分类案例
│      04_10.案例代码:分类案例综合
│      04_11.KNN算法原理
│      04_12.KNN模型构建之KD Tree原理
│      
├─05.机器学习答疑02
│      05_01.答疑
│      05_02.基于BGD的线性回归模型算法案例
│      
├─06.决策树
│      06_01.知识回顾
│      06_02.案例代码:KNN分类算法鸢尾花数据分类应用
│      06_03.案例代码:GridSearchCV网格参数选择交叉验证
│      06_04.决策树直观理解
│      06_05.扩展:信息熵讲解
│      06_06.扩展:条件熵讲解
│      06_07.决策树算法原理及构建过程讲解
│      06_08.决策树构建流程讲解
│      06_09.ID3、C45、CART三种决策树算法讲解
│      06_10.案例代码:决策树实现鸢尾花数据分类案例代码讲解
│      06_11.决策树过拟合优化之剪枝操作讲解
│      06_12.分类决策树和回归决策树的区别讲解
│      06_13.ID3、C45、CART三种决策树算法总结比较
│      06_14.决策树可视化方式及案例代码讲解
│      
├─07.集成学习:随机森林、Adaboost、GBDT
│      07_01.集成学习(Ensemble Learning)思想讲解
│      07_02.Bagging集成算法思想讲解
│      07_03.RandomForest集成算法思想讲解
│      07_04.RandomForest变种算法讲解
│      07_05.案例代码:随机森林、Bagging算法应用案例讲解
│      07_06.案例代码:乳腺癌诊断应用案例代码讲解
│      07_07.Boosting集成算法思想讲解
│      07_08.Adaboost算法原理讲解
│      07_09.Adaboost算法模型构建流程讲解
│      07_10.案例代码:Adaboost案例代码讲解
│      07_11.GBDT算法原理讲解
│      07_12.集成算法之Bagging和Boosting比较总结讲解
│      07_13.Stacking集成算法思想讲解
│      
├─08.机器学习答疑03
│      08_01.答疑
│      08_02.答疑
│      08_03.作业案例代码实现讲解
│      
├─09.XGBoost&聚类算法
│      09_01.XGBoost概述
│      09_02.XGBoost安装讲解
│      09_03.XGBoost原理讲解一
│      09_04.XGBoost原理讲解二
│      09_05.XGBoost案例代码实现讲解
│      09_06.聚类算法概述
│      09_07.聚类算法中相似度度量方式讲解
│      09_08.KMeans算法原理讲解
│      09_09.案例代码:KMeans案例代码实现讲解
│      09_10.KMeans初值敏感问题解决方案讲解一(二分KMeans、KMeans++等)
│      09_11.KMeans初值敏感问题解决方案讲解二(Canopy算法)
│      09_12.Mini Batch K-Means算法原理及应用案例讲解
│      09_13.扩展可选内容:聚类算法衡量指标讲解
│      
├─10.聚类算法&SVM
│      10_01.层次聚类算法原理及案例代码讲解
│      10_02.层次聚类优化算法原理讲解(BIRCH&CURE)
│      10_03.案例代码:BIRCH层次聚类算法案例代码讲解
│      10_04.密度聚类算法DBSCAN算法原理讲解
│      10_05.密度聚类算法MDCA算法原理讲解
│      10_06.案例代码:DBSCAN密度聚类算法案例代码讲解
│      10_07.案例代码:谱聚类构建过程及案例代码讲解
│      10_08.案例代码:聚类算法应用效果比较案例代码讲解
│      10_09.案例代码:KMeans算法应用之图像压缩案例代码实现讲解
│      10_10.SVM前置知识点:梯度下降优化算法原理回顾
│      10_11.SVM前置知识点:拉格朗日函数和KKT条件算法原理回顾
│      10_12.SVM前置知识点:点到平面距离公式讲解
│      10_13.SVM前置知识点:感知器模型算法原理讲解
│      10_14.SVM算法初识
│      
├─11.机器学习答疑04
│      11_01.答疑01
│      11_02.答疑02
│      11_03.答疑03
│      11_04.答疑04
│      11_05.答疑05
│      
├─12.SVM
│      12_01.SVM算法构建原理回顾
│      12_02.线性可分SVM算法原理讲解
│      12_03.软间隔线性可分SVM算法原理讲解
│      12_04.课间答疑
│      12_05.非线性可分SVM算法原理及核函数原理讲解
│      12_06.扩展:高斯核函数公式证明讲解
│      12_07.SMO算法求解过程讲解一
│      12_08.SMO算法求解过程讲解二
│      12_09.SMO算法求解过程讲解三
│      12_10.SVR算法原理讲解
│      12_11.sklearn中SVM相关算法库API参数讲解
│      12_12.案例代码:OneClassSVM异常点检测代码实现讲解
│      12_12.案例代码:SVM鸢尾花数据分类案例代码实现讲解
│      
├─13.多分类及多标签分类算法、贝叶斯算法、EM算法
│      13_01.案例代码:SVM实现手写数字识别案例代码实现讲解
│      13_02.案例代码:自定义核函数、SVR以及分类算法比较案例代码讲解
│      13_03.单标签二分类&单标签多分类算法回顾
│      13_04.单标签多分类解决方案OVO&OVR算法原理及案例代码讲解
│      13_05.单标签多分类解决方案错误码机制算法原理及案例代码讲解
│      13_06.多标签分类算法解决方案讲解一
│      13_07.多标签分类算法解决方案讲解二
│      13_08.朴素贝叶斯算法原理讲解
│      13_09.高斯朴素贝叶斯、伯努利朴素贝叶斯、多项式朴素贝叶斯算法求解方式讲解
│      13_10.案例代码:鸢尾花数据分类贝叶斯算法应用案例代码实现讲解
│      13_11.案例代码:新闻数据分类案例代码讲解
│      13_12.扩展:贝叶斯网络讲解
│      13_13.知识回顾:MLE最大似然估计讲解
│      13_14.知识回顾:贝叶斯估计和MAP最大后验概率估计讲解
│      13_15.知识回顾:KMeans算法讲解
│      
├─14.机器学习答疑05
│      14_01.答疑01
│      14_02.机器学习总结01
│      14_03.答疑02
│      
├─15.EM算法、隐马尔科夫
│      15_01.EM算法引入
│      15_02.EM算法原理讲解
│      15_03.EM算法收敛性证明过程讲解
│      15_04.EM算法思想直观案例理解
│      15_05.EM算法应用问题引入讲解
│      15_06.GMM高斯混合聚类算法原理构建过程讲解
│      15_07.案例代码:Python实现GMM高斯混合聚类算法案例代码实现讲解
│      15_08.案例代码:GMM案例代码实现讲解
│      15_09.马尔可夫性质讲解
│      15_10.HMM算法结构讲解
│      15_11.HMM算法应用场景讲解
│      15_12.HMM概率计算:暴力计算法及前向概率和后向概率讲解
│      15_13.HMM概率计算:前向算法和后向算法讲解
│      15_14.HMM算法单个状态及连续状态概率公式讲解
│      15_15.HMM模型参数学习:基于有监督模型的模型参数学习方式讲解
│      
├─16.隐马尔科夫、主题模型
│      16_01.HMM知识回顾
│      16_02.HMM模型参数学习:基于无监督模型的模型参数学习方式讲解
│      16_03.HMM隐状态预测:Viterbi算法讲解
│      16_04.扩展:HMM应用案例讲解
│      16_05.HMM环境安装方式讲解
│      16_06.案例代码:HMM案例代码实现讲解
│      16_07.主题模型算法概述
│      16_08.主题模型之LSA算法原理及构建过程讲解
│      16_09.主题模型之NMF非负矩阵分解算法原理及坐标轴下降法讲解
│      16_10.知识回顾:二项分布、多项式分布、Beta分布以及Dirichlet分布知识回顾
│      16_11.主题模型之LDA算法原理讲解
│      16_12.案例代码:LDA及sklearn中的主题模型案例代码讲解
│      
├─17.机器学习答疑06
│      17_01.答疑01
│      17_02.机器学习总结二
│      17_03.答疑02
│      17_04.答疑03
│      17_05.HMM算法Python代码实现讲解
│      17_06.HMM算法Python代码实现讲解(对数转换实现方式)
│      
├─18.特征工程一
│      18_01.建议
│      18_02.数据收集及数据存储方式讲解
│      18_03.数据清洗方式讲解
│      18_04.数据不平衡解决方案讲解
│      18_05.数据不平衡解决方案代码实现讲解
│      18_06.文本数据分词之jieba工具应用讲解
│      18_07.文本数据转换为特征矩阵方式讲解(词袋法、词集法、HashTF、TF-IDF)
│      18_08.缺省值处理方式及案例代码讲解
│      18_09.哑编码应用方式及案例代码讲解
│      
├─19.特征工程二
│      19_01.二值化、连续数据区间化应用方式及案例代码讲解
│      19_02.标准化、区间缩放法、正则化应用方式及案例代码讲解
│      19_03.多项式维度扩展、GBDT+LR应用方式及案例代码讲解
│      19_04.特征选择方式讲解一
│      19_05.特征选择方式案例代码讲解
│      19_06.降维应用方式及案例代码讲解
│      19_07.特征工程方式总结
│      19_08.机器学习阶段内容总结
│      
├─20.机器学习项目案例:垃圾邮件过滤一
│      20_01.项目概述
│      20_02.垃圾邮件过滤业务概述
│      20_03.垃圾邮件过滤项目开发流程及需求讲解
│      20_04.垃圾邮件过滤项目之数据清洗过程讲解
│      20_05.垃圾邮件过滤项目之特征工程讲解一
│      
├─21.机器学习答疑07
│      21_01.机器学习总结三
│      21_02.答疑01
│      21_03.HMM隐马尔科夫应用到文本分词中的案例代码实现讲解
│      21_04.答疑02
│      
├─22.机器学习项目案例:垃圾邮件过滤二
│      22_01.垃圾邮件过滤项目之特征工程讲解二
│      22_02.垃圾邮件过滤项目之特征工程讲解三
│      22_03.垃圾邮件过滤项目之特征工程讲解四
│      22_04.垃圾邮件过滤项目之算法代码实现讲解
│      22_05.垃圾邮件过滤项目之多种算法实现效果比较以及项目总结讲解
│      
├─23.机器学习项目案例:音乐文件分类一
│      23_01.音乐文件分类项目之项目概述及核心技术点概述讲解
│      23_02.音乐文件分类项目之MFCC案例代码讲解
│      23_03.音乐文件分类项目之pydub案例代码讲解
│      23_04.音乐文件分类项目之特征工程实现代码一
│      23_05.音乐文件分类项目之特征工程实现代码二
│      
├─24.机器学习项目案例:音乐文件分类二
│      24_01.音乐文件分类项目之交叉验证代码实现
│      24_02.音乐文件分类项目之模型训练代码实现
│      24_03.音乐文件分类项目之模型预测及结果保存代码实现
│      24_04.音乐文件分类项目之项目总结及项目扩展需求讲解
│      
├─25.机器学习项目案例:金融反欺诈
│      25_01.金融反欺诈模型概述讲解
│      25_02.金融反欺诈模型之特征工程实现代码讲解
│      25_03.金融反欺诈模型之模型训练实现代码讲解
│      25_04.天池、Kaggle等算法比赛方式介绍
│      25_05.天池等比赛项目案例代码讲解
│      25_06.机器学习总结
│      
├─26.机器学习答疑08
│      26_01.答疑
│      26_02.答疑
│      26_03.牛顿法、拟牛顿法讲解
│      26_04.答疑
│      26_05.答疑
│      
└─27.人工智能-机器学习项目
        27_01.项目热身之机器学习算法串讲1
        27_02.项目热身之机器学习算法串讲2
        27_03.项目热身之机器学习算法串讲+贝叶斯算法讲解3
        27_04.垃圾邮件分类之数据清洗1
        27_05.垃圾邮件分类之数据清洗2
        27_06.垃圾邮件分类之结巴介绍及特征提取1
        27_07.垃圾邮件分类之特征提取2
        27_08.垃圾邮件分类之建模及预测结果评估
        27_09.傅里叶变换及音乐文件处理接口讲解
        27_10.音乐文件降维处理及特征提取
        27_11.音乐文件特征提取及建模预测
        27_12.金融反欺诈项目背景概述
        27_13.金融反欺诈项目数据清洗及特征提取
        27_14.金融反欺诈项目特征提取及建模预测
        

评价(0) 立即评论
0/150