wa_9527 发表于 2025-9-11 09:09:04

九天菜菜-机器学习实战

名称:九天菜菜-机器学习实战

描述:这是一门由“九天菜菜”主讲的机器学习实战课程,内容极其全面和深入,覆盖了从机器学习基础到高级实战项目的全流程。课程从基本概念、矩阵运算、线性回归和逻辑回归的手动实现入手,深入讲解了梯度下降家族算法、模型评估、Scikit-Learn应用、决策树、集成算法(Bagging、随机森林、AdaBoost、GBDT、XGBoost、LightGBM)、超参数优化(网格搜索、贝叶斯优化、Halving、Optuna)等核心主题。最大的亮点是包含了多个大型实战项目,如用户流失预测、金融风控、股价预测、时间序列预测(WSDM案例),并详细演示了特征工程、特征衍生、特征筛选、模型融合(Stacking, Blending)等工业级技巧。课程注重“手动实现”以加深理解,并紧密结合理论与代码实践,旨在培养学员的完整机器学习项目能力。

链接:
百度:https://pan.baidu.com/s/1WHANVkZ6u4fl9Y5qHanySQ?pwd=9527
夸克:https://pan.quark.cn/s/48217ff8bd02

???? 大小:68.32 GB
???? 标签:#机器学习实战 #线性回归 #逻辑回归 #梯度下降 #集成学习 #XGBoost #特征工程 #超参数优化 #模型融合 #时间序列预测 #九天菜菜 #baidu #quark




└─九天菜菜-机器学习实战
      001.Lesson 0.1 前言与导学(上).mp4
      002.Lesson 0.2 前言与导学(下).mp4
      003.Lesson 1.1 机器学习基本概念与建模流程(上).mp4
      004.Lesson 1.2 机器学习基本概念与建模流程(下).mp4
      005.Lesson 2.1 矩阵运算基础、矩阵求导与最小二乘法(一).mp4
      006.Lesson 2.2 矩阵运算基础、矩阵求导与最小二乘法(二).mp4
      007.Lesson 2.3 矩阵运算基础、矩阵求导与最小二乘法(三).mp4
      008.Lesson 3.0 线性回归的手动实现.mp4
      009.Lesson 3.1 变量相关性基础理论.mp4
      010.Lesson 3.2 数据生成器与Python模块编写.mp4
      011.Lesson 3.3 线性回归手动实现与模型局限.mp4
      012.Lesson 3.4 机器学习模型可信度理论与交叉验证基础.mp4
      013.Lesson 4.1.1 逻辑回归模型构建与多分类学习方法(上).mp4
      014.Lesson 4.1.2 逻辑回归模型构建与多分类学习方法(下).mp4
      015.Lesson 4.2 逻辑回归参数估计.mp4
      016.Lesson 4.3.1 梯度下降基本原理与手动实现(上).mp4
      017.Lesson 4.3.2 梯度下降基本原理与手动实现(下).mp4
      018.Lesson 4.4.1 随机梯度下降与小批量梯度下降(上).mp4
      019.Lesson 4.4.2 随机梯度下降与小批量梯度下降(下).mp4
      020.Lesson 4.5.1 梯度下降优化基础:数据归一化与学习率调度(上).mp4
      021.Lesson 4.5.2 梯度下降优化基础:数据归一化与学习率调度(下).mp4
      022.Lesson 4.6.1 逻辑回归的手动实现方法(上).mp4
      023.Lesson 4.6.2 逻辑回归的手动实现方法(下).mp4
      024.Lesson 5.1 分类模型决策边界.mp4
      025.Lesson 5.2 混淆矩阵与F1-Score.mp4
      026.Lesson 5.3 ROC-AUC的计算方法、基本原理与核心特性.mp4
      027.Lesson 6.1 Scikit-Learn快速入门.mp4
      028.Lesson 6.2 Scikit-Learn常用方法速通.mp4
      029.Lesson 6.3.1 正则化、过拟合抑制与特征筛选.mp4
      030.Lesson 6.3.2 Scikit-Learn逻辑回归参数详解.mp4
      031.Lesson 6.4 机器学习调参入门.mp4
      032.Lesson 6.5.1 机器学习调参基础理论.mp4
      033.Lesson 6.5.2 Scikit-Learn中网格搜索参数详解.mp4
      034.Lesson 6.6.1 多分类评估指标函数的使用方法.mp4
      035.Lesson 6.6.2 GridSearchCV的进阶使用方法.mp4
      036.Lesson 7.1.1 无监督学习与K-Means基本原理.mp4
      037.Lesson 7.1.2 K-Means聚类的Scikit-Learn实现.mp4
      038.Lesson 7.2 Mini Batch K-Means与DBSCAN聚类.mp4
      039.Lesson 8.1 决策树模型的核心思想与建模流程.mp4
      040.Lesson 8.2.1 CART分类树的建模流程.mp4
      041.Lesson 8.2.2 sklearn中CART分类树的参数详解.mp4
      042.Lesson 8.3【加餐】ID3和C4.5的基本原理介绍.mp4
      043.Lesson 8.4 CART回归树的建模流程与sklearn中评估器参数解释.mp4
      044.Lesson 9.1 集成算法开篇:Bagging方法的基本思想.mp4
      045.Lesson 9.2 随机森林回归器的实现.mp4
      046.Lesson 9.3 随机森林回归器的参数.mp4
      047.Lesson 9.4 集成算法的参数空间与网格优化.mp4
      048.Lesson 9.5 随机森林在巨量数据上的增量学习.mp4
      049.Lesson 9.6 Bagging及随机森林6大面试热点问题.mp4
      050.Lesson 10.1 开篇:超参数优化与枚举网格搜索的理论极限.mp4
      051.Lesson 10.2.1 随机网格搜索(上).mp4
      052.Lesson 10.2.2 随机网格搜索(下).mp4
      053.Lesson 10.3.1 Halving网格搜索(上).mp4
      054.Lesson 10.3.2 Halving网格搜索(下).mp4
      055.Lesson 10.4 贝叶斯优化的基本流程.mp4
      056.Lesson 10.5 BayesOpt vs HyperOpt vs Optuna.mp4
      057.Lesson 10.6 基于BayesOpt实现高斯过程gp优化.mp4
      058.Lesson 10.7 基于HyperOpt实现TPE优化.mp4
      059.Lesson 10.8 基于Optuna实现多种优化.mp4
      060.Lesson 11.1 Boosting的基本思想与基本元素.mp4
      061.Lesson 11.2 AdaBoost的参数(上):弱评估器与学习率.mp4
      062.Lesson 11.3 AdaBoost的参数(下):实践算法与损失函数.mp4
      063.Lesson 11.4 原理进阶:AdaBoost算法流程详解.mp4
      064.Lesson 12.1 梯度提升树的基本思想与实现.mp4
      065.Lesson 12.2 迭代过程中的参数(1):GBDT的初始化与多分类.mp4
      066.Lesson 12.3 迭代过程中的参数(2):GBDT的8种损失函数.mp4
      067.Lesson 12.4 弱评估器结构参数:弗里德曼均方误差.mp4
      068.Lesson 12.5 梯度提升树的提前停止.mp4
      069.Lesson 12.6 袋外数据与其他参数.mp4
      070.Lesson 12.7 梯度提升树的参数空间与TPE优化.mp4
      071.Lesson 12.8 原理进阶 (1):GBDT数学流程与残差概念辨析.mp4
      072.Lesson 12.9 原理进阶 (2):拟合伪残差的数学意义与数学证明.mp4
      073.Lesson 13.1.1 XGBoost的基本思想.mp4
      074.Lesson 13.1.2 实现XGBoost回归:sklearnAPI详解.mp4
      075.Lesson 13.1.3 实现XGBoost回归:xgb原生代码详解.mp4
      076.Lesson 13.1.4 实现XGBoost分类:目标函数与评估指标详解.mp4
      077.Lesson 13.2.1 基本迭代过程中的参数群.mp4
      078.Lesson 13.2.2 目标函数及其相关参数.mp4
      079.Lesson 13.2.3 三种弱评估器与DART树详解.mp4
      080.Lesson 13.2.4 弱评估器的分枝:结构分数与结构分数增益.mp4
      081.Lesson 13.2.5 控制复杂度:弱评估器的剪枝与训练数据.mp4
      082.Lesson 13.2.6 XGBoost中的必要功能性参数.mp4
      083.Lesson 13.3.1 XGBoost的参数空间.mp4
      084.Lesson 13.3.2 XGBoost基于TPE的调参.mp4
      085.Lesson 13.4.1 XGBoost的基本数学流程.mp4
      086.Lesson 13.4.2 化简XGBoost的目标函数.mp4
      087.Lesson 13.4.3 求解XGBoost的损失函数.mp4
      088.Lesson 14.1.1 LightGBM入门与原理框架介绍.mp4
      089.Lesson 14.1.2 LightGBM EFB互斥特征捆绑策略.mp4
      090.Lesson 14.2.1 基于梯度的单边采样方法.mp4
      091.Lesson 14.2.2 LightGBM分裂增益计算过程与叶节点优先生长策略.mp4
      092.Lesson 14.2.3 LightGBM直方图优化算法.mp4
      093.Part 1.1 业务背景与Kaggle平台使用方法介绍.mp4
      094.Part 1.2 数据字段解释与数据质量检验.mp4
      095.Part 1.3 字段类型转化与缺失值填补.mp4
      096.Part 1.4 异常值检测.mp4
      097.Part 1.5 相关性分析.mp4
      098.Part 1.6 数据探索性分析与可视化呈现.mp4
      099.【用户流失】Part 2.1 数据重编码:OrdinalEncoder过程.mp4
      100.Part 2.2 数据重编码:OneHotEncoder过程.mp4
      101.Part 2.3 转化器流水线:ColumnTransformer过程.mp4
      102.Part 2.4 特征变换:数据标准化与归一化.mp4
      103.Part 2.5 连续变量分箱:等宽、等频与聚类分箱.mp4
      104.Part 2.6 连续变量分箱:目标编码与有监督分箱.mp4
      105.Part 2.7 逻辑回归机器学习流构建与训练.mp4
      106.Part 2.8 逻辑回归机器学习流超参数搜索调优.mp4
      107.【用户流失】Part 2.9 自定义sklearn评估器网格搜索.mp4
      108.【用户流失】Part 2.10 逻辑回归模型解释与特征系数解读.mp4
      109.【用户流失】Part 2.11 决策树模型训练与优化.mp4
      110.Part 2.12 决策树模型解释与结果解读.mp4
      111.Part 3.1.1 特征衍生方法综述.mp4
      112.Part 3.1.2 基于业务的新用户标识字段创建与验证.mp4
      113.Part 3.1.3 基于业务的服务购买字段创建.mp4
      114.Part 3.1.4 基于数据探索的用户属性字段创建:基本思路与IV值计算过程.mp4
      115.Part 3.1.5 借助IV值检验衍生特征有效性方法.mp4
      116.Part 3.1.6 基于数据探索的合约字段创建与验证.mp4
      117.Part 3.2.1 单变量特征衍生方法.mp4
      118.Part 3.2.2 四则运算衍生与分组交叉衍生.mp4
      119.Part 3.2.3 分组统计特征衍生.mp4
      120.Part 3.2.4 多项式特征衍生.mp4
      121.Part 3.2.5 统计演变特征.mp4
      122.Part 3.2.6 多变量交叉组合特征衍生.mp4
      123.Part 3.2.7 多变量分组统计衍生方法介绍.mp4
      124.Part 3.2.8 多变量分组统计函数编写.mp4
      125.Part 3.2.9 多变量多项式衍生与笛卡尔积运算.mp4
      126.Part 3.2.10 多变量多项式衍生函数创建.mp4
      127.Part 3.2.11 时序特征分析方法.mp4
      128.Part 3.2.12 时序特征衍生与自然周期划分.mp4
      129.Part 3.2.13 时序特征衍生本质与时间差值衍生.mp4
      130.Part 3.2.14 时序特征衍生函数创建.mp4
      131.Part 3.2.15 时间序列分析简介.mp4
      132.Part 3.2.16 词向量化与TF-IDF.mp4
      133.Part 3.2.17 NLP特征衍生方法介绍.mp4
      134.Part 3.2.18 NLP特征衍生函数编写与使用.mp4
      135.Part 3.2.19(新) 交叉组合与多项式衍生高阶函数.mp4
      136.Part 3.2.20 分组统计高阶函数编写.mp4
      137.Part 3.2.21 目标编码.mp4
      138.Part 3.2.22 关键特征衍生高阶函数.mp4
      139.Part 3.2.23特征衍生实战-1.mp4
      140.Part 3.2.24 特征衍生实战-2.mp4
      141.Part 3.2.25 特征衍生实战-3.mp4
      142.Part 3.2.26 特征衍生实战-4.mp4
      143.Part 3.2.27 特征衍生流程总结.mp4
      144.Part 3.3.0 特征筛选技术介绍.mp4
      145.Part 3.3.1 缺失值过滤与方差过滤.mp4
      146.Part 3.3.2 评分函数与特征筛选评估器.mp4
      147.Part 3.3.3 假设检验基本流程.mp4
      148.Part 3.3.4 卡方检验与特征筛选.mp4
      149.Part 3.3.5 方差分析与特征筛选.mp4
      150.Part 3.3.6 线性相关性的F检验.mp4
      151.Part 3.3.7 离散变量之间的互信息法.mp4
      152.Part 3.3.8 连续变量与离散变量的互信息法.mp4
      153.Part 3.3.9 连续变量之间的互信息计算过程.mp4
      154.Part 3.3.10 互信息法特征筛选实践.mp4
      155.Part 3.3.11 feature_importance特征筛选.mp4
      156.Part 3.3.12 RFE筛选与RFECV筛选.mp4
      157.Part 3.3.13 SFS方法与SFM方法.mp4
      158.Part 3.3.14 特征筛选方法总结.mp4
      159.Part 4.0第四部分导学.mp4
      160.Part 4.1.1 海量特征衍生与筛选(上).mp4
      161.Part 4.1.2 海量特征衍生与筛选(下).mp4
      162.Part 4.2.1 网格搜索超参数优化实战(上).mp4
      163.Part 4.2.2 网格搜索超参数优化实战(下).mp4
      164.Part 4.3.1 模型融合与深度森林技术体系介绍.mp4
      165.Part 4.3.2.1 投票法与均值法.mp4
      166.Part 4.3.2.2 阈值移动的TPE搜索与交叉验证.mp4
      167.Part 4.3.3.1(新) 加权平均融合与理论最优权重.mp4
      168.Part 4.3.3.2(新) 加权平均法的经验法权重设置策略.mp4
      169.Part 4.3.3.3 基于搜索空间裁剪的权重搜索策略.mp4
      170.Part 4.3.3.4 交叉训练与Stacking融合的基本思路.mp4
      171.Part 4.3.4.1 交叉训练基本思想和数据准备.mp4
      172.Part 4.3.4.2 随机森林模型的交叉训练过程.mp4
      173.Part 4.3.4.3 决策树&逻辑回归的交叉训练.mp4
      174.Part 4.3.4.4 基于交叉训练的TPE搜索融合.mp4
      175_Part-4.3.5.1-细粒度&多级分层加权融合原理.mp4
      176_Part-4.3.5.2-细粒度&多级分层加权融合实践.mp4
      177_Part-4.3.6.1-Stacking基本原理与手动实现方法.mp4
      178_Part-4.3.6.2-Stacking优化方法初阶.mp4
      179_Part-4.3.7.1-Stacking一级学习器训练策略.mp4
      180_Part-4.3.7.2-Stacking元学习器优化流程.mp4
      181_Part-4.3.8.1-Stacking自动超参数交叉训练函数.mp4
      182_Part-4.3.8.2-Stacking自动元学习器优化函数.mp4
      183_Part-4.3.9-Blending融合原理与实践.mp4
      184_Part-4.3.10-Blending融合进阶优化策略.mp4
      185_Part-4.3.11.1-回归类集成算法优化策略(上).mp4
      186_Part-4.3.11.2-回归类集成算法优化策略(下).mp4
      187_Part-4.3.12.1-回归问题的加权平均融合方法实践.mp4
      188_Part-4.3.12.2-回归问题的Stacking&Blending融合方法.mp4
      189_【金融案例】01-认识捷信金融还款风险预测.mp4
      190_【金融案例】02-比赛背景与目标.mp4
      191_【金融案例】03-比赛背景与目标主表的特征字段讲解以及缺失值的处理.mp4
      192_【金融案例】04数据探索:主表的异常值处理以及相关性分析.mp4
      193_【金融案例】05海量数据处理入门.mp4
      194_【金融案例】06三剑客建立baseline.mp4
      195_【金融案例】07-主表的领域特征:还款业务指标.mp4
      196_【金融案例】08-Leaking-proof式目标编码.mp4
      197_【金融案例】09-GAME策略和bureau表单的业务特征衍生.mp4
      198_【金融案例】11GAME策略在附表中的综合应用.mp4
      199_【金融案例】10-GAME策略的进阶应用:相对性行为分析和分层聚合分析.mp4
      200_【金融案例】12自动化衍生技巧以及featuretools库的基本流程.mp4
      201_【金融案例】13-featuretools在HomeCredit数据集的进阶应用.mp4
      202_【金融案例】-14-特征工程成果与focal-loss原理精讲.mp4
      203_【金融案例】-15-focal-loss-在二分类上的实现.mp4
      204_【金融案例】17-Leaking-Usage:重复申请人漏洞.mp4
      205_【金融案例】-16-focal-loss在多分类上的实现.mp4
      206_【金融案例】-18-optuna实现贝叶斯优化.mp4
      207_【金融案例】19-逆向工程与无限融合.mp4
      208_【股价项目】01认识量化交易和股票收益预测.mp4
      209_【股价项目】02-股票相关的金融概念与评估指标.mp4
      210_【股价项目】03-kaggle三大经典比赛形式.mp4
      211_【股价项目】04-股票数据的特征含义与业务理解.mp4
      212_【股价项目】05-数据探索与股票字段的深入理解.mp4
      213_【股价项目】06-basline的建立.mp4
      214_【股价项目】-07-kaggle常见Q&A.mp4
      215_【股价项目】08-趋势特征分析简介.mp4
      216_【股价项目】-09-历史平移和增长率特征.mp4
      217_【股价项目】10-窗口统计特征.mp4
      218_【股价项目】12-市场波动特征.mp4
      219_【股价项目】11-指数加权移动平均.mp4
      220_【股价项目】13-时序特征工程在股价数据中的应用.mp4
      221_【股价项目】14-行业分段建模与模型融合.mp4
      222_【WDSM时序案例】01-赛题理解(1)-理解流媒体平台基本业务.mp4
      223_【WDSM时序案例】02-赛题理解(2)-标签理解:用户留存分.mp4
      224_【WDSM时序案例】03-赛题理解(3)-解读测试数据集.mp4
      225_【WDSM时序案例】04-赛题理解(4)-解读登录数据集-(上).mp4
      226_【WDSM时序案例】04-赛题理解(4)-解读登录数据集-(下).mp4
      227_【WDSM时序案例】06-赛题理解(6)-解读视频与用户画像信息.mp4
      228_【WDSM时序案例】05-赛题理解(5)-解读互动与视频播放信息.mp4
      229_【WDSM时序案例】08-理解时序预测(1)-单变量vs多变量时间序列.mp4
      230_【WDSM时序案例】07-赛题理解(7)-时间窗口与赛题难点.mp4
      231_【WDSM时序案例】09-理解时序预测(2)-时间序列的训练与预测(上).mp4
      232_【WDSM时序案例】10-理解时序预测(3)-时间序列的训练与预测(下).mp4
      233_【WDSM时序案例】12-理解时序预测(5)-统计学与机器学习中的时间序列模型.mp4
      234_【WDSM时序案例】11-理解时序预测(4)-2大关键预测类型与前沿时序领域.mp4
      235_【WDSM时序案例】13-理解时序预测(6)-深度学习领域的时间序列模型.mp4
      236_【WDSM时序案例】14【加餐】ARIMA模型详解(1)-AR自回归模型原理与公式.mp4
      237_【WDSM时序案例】16【加餐】时序模型-(3)-MA模型原理与公式讲解.mp4
      238_【WDSM时序案例】15【加餐】ARIMA模型详解(2)-AR自回归模型的训练与测试流程.mp4
      239_【WDSM时序案例】17【加餐】时序模型-(4)-MA模型训练与测试流程.mp4
      240_【WDSM时序案例】19【加餐】时序模型-(6)-滞后算子与差分运算.mp4
      241_【WDSM时序案例】18【加餐】时序模型-(5)-ARIMA模型与差分运算.mp4
      242_【WDSM时序案例】21【加餐】时序模型-(8)-ACF与PACF的定义与图像.mp4
      243_【WDSM时序案例】20【加餐】时序模型-(7)-ARIMA模型的平稳性要求.mp4
      244_【WDSM时序案例】23【加餐】时序模型-(10)-确定p、d、q的超参数值.mp4
      245_【WDSM时序案例】22【加餐】时序模型-(9)-ACF和PACF的三种趋势.mp4
      246_【WDSM时序案例】24【加餐】时序模型-(11)-时序模型的评估指标.mp4
      247_【WDSM时序案例】25【加餐】ARIMA模型的实现-(1)-ARIMA经典假设与建模流程.mp4
      248_【WDSM时序案例】26【加餐】ARIMA模型的实现-(2)-平稳性检验与差分运算.mp4
      249_【WDSM时序案例】27【加餐】ARIMA模型的实现-(3)-确定d值,进行建模.mp4
      250_【WDSM时序案例】29【加餐】ARIMA模型的实现-(5)-选择最佳参数组合.mp4
      251_【WDSM时序案例】28【加餐】ARIMA模型的实现-(4)-解读ARIMA的Sum表单.mp4
      252_【WDSM时序案例】31-多变量时序模型(2)-VAR与VARMA模型的数学表示.mp4
      253_【WDSM时序案例】30-多变量时序模型(1)-多变量模型的基本思想.mp4
      254_【WDSM时序案例】32-多变量时序模型(3)-VARMAX模型的代码实现.mp4
      255_【WDSM时序案例】34-机器学习中的时间序列(2)-Pmdarima实现滚动交叉验证.mp4
      256_【WDSM时序案例】33-机器学习中的时间序列(1)-Pmdarima实现SARIMAX.mp4
      257_【WDSM时序案例】35-机器学习中的时间序列(3)-Pmdarima实现滑窗交叉验证.mp4

页: [1]
查看完整版本: 九天菜菜-机器学习实战