Published onFebruary 9, 2026Transformer 完全指南:从注意力机制到 GPT/DeepSeek 架构,再到 LLM 使用技巧AITransformerAttentionSelf-AttentionBERTGPTNLPPyTorchDeep-Learning最全面的 Transformer 中文教程:从注意力直觉到 Q/K/V 手算,从多头注意力到位置编码,从 Encoder-Decoder 到 PyTorch 实现。涵盖 GPT-4/Claude/DeepSeek/LLaMA 架构对比、LLM 使用技巧的 Transformer 原理解析、2025-2026 前沿趋势(FlashAttention、Mamba/SSM、MoE),附 10 个交互式可视化和完整代码。
Published onFebruary 7, 2026从预训练到参数高效微调:LoRA、Adapter 与 QLoRA 完全指南AILLMFine-tuningLoRAQLoRAAdapterPyTorchHuggingFaceDeep-Learning一篇从零开始的完整教程:从理解HuggingFace推理、预训练LLM、全量微调,到参数高效微调方法(Adapter、LoRA、QLoRA)的深度解析。包含大量PyTorch代码实现、数学原理和对比实验。