AI 与大模型 硬件加速 利用多张 GPU 训练大语言模型 2025年4月4日 阅读 Train LLM DeepSpeed ZeRO FlashAttention Quantization 李宏毅 2025 操作 复制 Markdown 打开 Markdown 智能问答 参考资料 李宏毅生成式 AI 时代下的机器学习(2025)助教课:利用多张 GPU 训练大型语言模型——从零开始介绍 DeepSpeed、Liger Kernel、Flash Attention 及 Quantization 【生成式AI時代下的機器學習(2025)】助教課:利用多張GPU訓練大型語言模型—從零開始介紹DeepSpeed、Liger Kernel、Flash Attention及Quantization Excalidraw The Ultra-Scale Playbook: Training LLMs on GPU Clusters 相关文章 2023年2月13日 ChatGPT 快速入门 阅读 → 2023年2月9日 在 MacBook Pro M2 Max 上安装 PyTorch 阅读 → 2024年4月22日 ChatTongyi 阅读 → 2024年1月24日 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub 阅读 →