wa_9527 发表于 6 天前

唐宇迪aigc与nlp大模型实战-经典cv与nlp大模型及其下游应用任务实现

名称:唐宇迪aigc与nlp大模型实战-经典cv与nlp大模型及其下游应用任务实现

描述:该课程为唐宇迪AIGC与NLP大模型实战,系统讲解CV与NLP大模型及其下游应用实现:基础篇深入GPT系列算法(三代版本演进、训练策略与CODEX应用)、ChatGPT原理(强化学习与RLHF训练流程);进阶篇涵盖LLM微调技术(LLAMA与LORA)、提示工程与langchain框架应用;视觉篇聚焦SAM分割大模型、BEV空间感知(DeformableAttention、特征融合)、视觉QA与自监督学习(SimCLR、BEIT系列);生成篇详解扩散模型(数学推导、DALL-E2源码)与对比学习,配套论文解读、源码实现与实战案例,打通大模型预训练、微调到部署全流程。

链接:
百度:https://pan.baidu.com/s/12PlyTiPIg04W9BC-bVCXdQ?pwd=9527
夸克:https://pan.quark.cn/s/e2544b0c0c03

???? 大小:10.46 GB
???? 标签:#GPT系列 #ChatGPT #RLHF训练 #LORA微调 #langchain框架 #SAM分割大模型 #BEV空间感知 #扩散模型 #DALLE2 #自监督学习 #对比学习 #唐宇迪aigc与nlp大模型实战 #baidu #quark




└─唐宇迪aigc与nlp大模型实战-经典cv与nlp大模型及其下游应用任务实现
    │100_4-特征对齐与位置编码初始化_ev.mp4
    │101_5-Reference初始点构建_ev.mp4
    │102_6-BEV空间与图像空间位置对应_ev.mp4
    │103_7-注意力机制模块计算方法_ev.mp4
    │104_8-BEV空间特征构建_ev.mp4
    │105_9-Decoder要完成的任务分析_ev.mp4
    │106_10-获取当前BEV特征_ev.mp4
    │107_11-Decoder级联校正模块_ev.mp4
    │108_12-损失函数与预测可视化_ev.mp4
    │109_1-DeformableAttention概述分析_ev.mp4
    │10_1-生成模型可以完成的任务概述_ev.mp4
    │110_2-可变形偏移量分析_ev.mp4
    │111_3-应用场景分析解读_ev.mp4
    │112_4-论文计算公式解读_ev.mp4
    │113_5-整体框架流程实例_ev.mp4
    │114_6-下游任务应用场景_ev.mp4
    │11_2-数据样本生成方法_ev.mp4
    │12_3-训练所需参数解读_ev.mp4
    │13_4-模型训练过程_ev.mp4
    │14_5-部署与网页预测展示_ev.mp4
    │15_1-chatgpt概述_ev.mp4
    │16_2-挑战及其与有监督问题差异_ev.mp4
    │17_3-强化学习登场_ev.mp4
    │18_4-强化学习的作用效果_ev.mp4
    │19_5-奖励模型设计方法_ev.mp4
    │1_课程简介_ev.mp4
    │20_6-RLHF训练流程解读_ev.mp4
    │21_7-总结分析_ev.mp4
    │22_1-大模型如何做下游任务_ev.mp4
    │23_2-LLM落地微调分析_ev.mp4
    │24_3-LLAMA与LORA介绍_ev.mp4
    │25_4-LORA微调的核心思想_ev.mp4
    │26_5-LORA模型实现细节_ev.mp4
    │27_1-提示工程的作用_ev.mp4
    │28_2-项目数据解读_ev.mp4
    │29_3-源码调用DEBUG解读_ev.mp4
    │2_1-GPT系列算法概述_ev.mp4
    │30_4-训练流程演示_ev.mp4
    │31_5-效果演示与总结分析_ev.mp4
    │32_1-langchain框架解读_ev.mp4
    │33_2-基本API调用方法_ev.mp4
    │34_3-数据文档切分操作_ev.mp4
    │35_4-样本索引与向量构建_ev.mp4
    │36_5-数据切块方法_ev.mp4
    │37_1-DEMO效果演示_ev.mp4
    │38_2-论文解读分析_ev.mp4
    │39_3-完成的任务分析_ev.mp4
    │3_2-GPT三代版本分析_ev.mp4
    │40_4-数据闭环方法_ev.mp4
    │41_5-预训练模型的作用_ev.mp4
    │42_6-Decoder的作用与项目源码_ev.mp4
    │43_7-分割任务模块设计_ev.mp4
    │44_8-实现细节分析_ev.mp4
    │45_9-总结分析_ev.mp4
    │46_1-视觉QA要解决的问题_ev.mp4
    │47_2-论文概述分析_ev.mp4
    │48_3-实现流程路线图_ev.mp4
    │49_4-答案关注区域分析_ev.mp4
    │4_3-GPT初代版本要解决的问题_ev.mp4
    │50_5-VQA任务总结_ev.mp4
    │51_1-扩散模型概述与GAN遇到的问题_ev.mp4
    │52_2-要完成的任务分析_ev.mp4
    │53_3-公式原理推导解读_ev.mp4
    │54_4-分布相关计算操作_ev.mp4
    │55_5-算法实现细节推导_ev.mp4
    │56_6-公式推导结果分析_ev.mp4
    │57_7-细节实现总结_ev.mp4
    │58_8-论文流程图解读_ev.mp4
    │59_9-案例流程分析_ev.mp4
    │5_4-GPT第二代版本训练策略_ev.mp4
    │60_10-基本建模训练效果_ev.mp4
    │61_1-论文基本思想与核心模块分析_ev.mp4
    │62_2-不同模块对比分析_ev.mp4
    │63_3-算法核心流程解读_ev.mp4
    │64_4-各模块实现细节讲解_ev.mp4
    │65_1-项目整体流程分析_ev.mp4
    │66_2-源码实现细节分析_ev.mp4
    │67_3-源码公式对应论文分析_ev.mp4
    │68_4-Decoder模块实现细节解读_ev.mp4
    │69_5-源码实现流程总结_ev.mp4
    │6_5-采样策略与多样性_ev.mp4
    │70_1-对比学习要解决的问题分析_ev.mp4
    │71_2-正负样本构建方法_ev.mp4
    │72_3-Simclr框架流程分析_ev.mp4
    │73_4-下游任务应用概述_ev.mp4
    │74_1-视觉自监督任务分析_ev.mp4
    │75_2-任务训练目标分析_ev.mp4
    │76_3-建模流程分析与效果展示_ev.mp4
    │77_4-codebook模块的作用_ev.mp4
    │78_5-任务总结分析_ev.mp4
    │79_1-BEITV2版本论文出发点解读_ev.mp4
    │7_6-GPT3的提示与生成方法_ev.mp4
    │80_2-自监督任务中两大核心任务分析_ev.mp4
    │81_3-整体网络架构图分析_ev.mp4
    │82_4-框架实现细节流程分析_ev.mp4
    │83_5-论文细节模块实现解读_ev.mp4
    │84_1-mmselfup源码实现解读_ev.mp4
    │85_2-网络结构搭建细节解读_ev.mp4
    │86_3-源码实现流程总结_ev.mp4
    │87_1-BEV要解决的问题通俗解读_ev.mp4
    │88_2-BEV中的3D与4D分析_ev.mp4
    │89_3-特征融合过程中可能遇到的问题_ev.mp4
    │8_7-应用场景CODEX分析_ev.mp4
    │90_4-BEV汇总特征方法实例解读_ev.mp4
    │91_5-DeformableAttention回顾_ev.mp4
    │92_6-空间注意力模块解读_ev.mp4
    │93_7-时间模块与拓展补充_ev.mp4
    │94_8-论文知识点分析_ev.mp4
    │95_9-核心模块论文分析_ev.mp4
    │96_10-整体架构总结_ev.mp4
    │97_1-环境配置方法解读_ev.mp4
    │98_2-数据集下载与配置方法_ev.mp4
    │99_3-特征提取以及BEV空间初始化_ev.mp4
    │9_8-DEMO应用演示_ev.mp4
    │
    └─AIGC与大模型
      └─AIGC与大模型
            │LLAVA_YOLO.rar
            │第一章:GPT系列.pdf
            │第二章:ChinesePretrainedModels.zip
            │
            ├─llama3
            │      Chinese-LLaMA-Alpaca-3-main.zip
            │      LLAMA3.docx
            │      rag.zip
            │
            ├─SAM2
            │      SAM2.pdf
            │      segment-anything-2-main.zip
            │
            ├─第七章:视觉大模型SAM
            │      SAM.pdf
            │      segment-anything-main.rar
            │
            ├─第三章:ChatGpt
            │      GPT系列.pdf
            │
            ├─第九章:扩散模型
            │      annotated_diffusion.ipynb
            │
            ├─第五章:LLM下游任务
            │      Huatuo-Llama-Med-Chinese-main.zip
            │
            ├─第八章:视觉QA
            │      From Images to Textual Prompts.pdf
            │
            ├─第六章:langchain
            │      langchain-tutorials-main.zip
            │
            ├─第十一章:dalle2源码解读
            │      DALLE2-pytorch-main.zip
            │
            ├─第十七章:BEVFORMER源码
            │      BEV特征空间bevformer.mp4
            │
            ├─第十三章:BEIT
            │      beit.pdf
            │
            ├─第十二章:自监督任务对比学习
            │      对比学习.pdf
            │
            ├─第十五章:BEITV2源码
            │      mmselfsup-1.x.zip
            │
            ├─第十六章:BEV感知
            │      BEV.pdf
            │
            ├─第十四章:BEITV2
            │      BEiT v2.pdf
            │
            ├─第十章:dalle2论文解读
            │      dalle2.pdf
            │
            └─第四章:LLM与LORA
                  大模型.pdf

页: [1]
查看完整版本: 唐宇迪aigc与nlp大模型实战-经典cv与nlp大模型及其下游应用任务实现