深度学习笔记
| Title | Author | Date |
|---|---|---|
| 1.3 前向传播、反向传播与计算图 | Apr 5, 2026 | |
| 10.1 为什么 Attention 是 IO-Bound | Apr 5, 2026 | |
| 10.2 FlashAttention-1:消除 IO | Apr 5, 2026 | |
| 11.1 Region-based CNN (R-CNN) | Apr 5, 2026 | |
| 11.2 Fast R-CNN | Apr 5, 2026 | |
| 11.3 Faster R-CNN | Apr 5, 2026 | |
| 12.1 生成对抗网络(GAN) | Apr 5, 2026 | |
| 13.1 AutoEncoder:从压缩与重建开始 | Apr 5, 2026 | |
| 13.2 VAE:概率建模与重参数化技巧 | Apr 5, 2026 | |
| 13.3 ELBO:VAE 的目标函数从哪里来 | Apr 5, 2026 | |
| 13.4 VAE 的训练现象与潜空间直觉 | Apr 5, 2026 | |
| 13.5 VAE 的优点、局限与后续发展 | Apr 5, 2026 | |
| 14.1 DDPM:从去噪到生成 | Apr 5, 2026 | |
| 14.2 DDPM 的前向加噪过程 | Apr 5, 2026 | |
| 14.3 DDPM 的反向去噪过程与训练目标 | Apr 5, 2026 | |
| 14.4 DDPM 的网络结构与采样过程 | Apr 5, 2026 | |
| 14.5 从变分推导看 DDPM:ELBO 从哪里来 | Apr 5, 2026 | |
| 2.1 PyTorch 中的自动微分 | Apr 5, 2026 | |
| 2.2 PyTorch 中的梯度记录与控制 | Apr 5, 2026 |
No matching items