吾爱破解软件站

 找回密码
 立即注册
开启左侧

51CTO-崔浩-LLM 推理优化与部署实战

[复制链接]
wa_9527 发表于 昨天 22:23 | 显示全部楼层 |阅读模式
名称:51CTO-崔浩-LLM 推理优化与部署实战

描述:《LLM推理优化与部署实战》是一门由崔浩主讲、面向中高级AI工程师的硬核技术课程,旨在系统性地解决大语言模型在生产环境中的推理效率与部署难题。课程内容深入且结构化,分为三大核心模块:理论基石(LLM推理阶段、KVCache原理、性能指标TTFT/TPS等)、优化策略(模型量化AWQ/GPTQ、剪枝蒸馏、MQA/GQA注意力机制、FlashAttention、PagedAttention、持续批处理)以及部署实战(vLLM分布式推理集群搭建、TensorRT-LLM量化与评测、LLMCompressor工具链应用)。课程最大特点是理论与实践深度结合,在透彻讲解底层原理(如GPU运算、内存估算)之后,手把手指导学员进行显卡驱动配置、Docker部署、量化脚本执行与性能评测,帮助学员掌握从模型压缩、运行时加速到生产级分布式部署的完整技能栈。

链接:https://pan.quark.cn/s/eb44fb86e191

???? 大小:1.8 GB
???? 标签:#LLM推理 #vLLM #模型量化 #部署实战 #性能优化 #KVCache #FlashAttention #TensorRT #分布式推理 #崔浩 #推理优化与部署实战 #quark

吾爱破解软件站欢迎你!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|吾爱破解软件站

GMT+8, 2026-3-11 01:13 , Processed in 0.036174 second(s), 15 queries .

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表