深度学习研究备忘录
2026-01-10 20:01 (GMT+8) 阅读时间 3 分钟 深度学习研究备忘录
INFO
这里会记录一些我自己的笔记,一般都很短,无法成文,但是可能又对其他人有帮助。内容可能比较杂,但是主要还是围绕深度学习框架和 low-level vision 以及扩散模型的。
工程实践
nvidia-pyindex这个包能不装就不装,会在 pip config 里面到处拉屎,最直接的影响就是缓存会被直接禁止。实际上在安装必要包时加上--extra-index-url https://pypi.ngc.nvidia.com也是一样的效果,比如:
bash
pip install nvidia-tensorrt --extra-index-url https://pypi.ngc.nvidia.com- 在国内的机器上安装 flash attention 很麻烦,可以直接下载官方编译好的包:Releases 其中
abiTRUE或者abiFALSE的选择可以这样判断:
bash
python -c "import torch;print(torch._C._GLIBCXX_USE_CXX11_ABI)"扩散模型
- 流匹配的定义里
t = 0是纯噪声,t = 1是清晰图像;但是 Diffusers 中用的是 DDPM 的祖宗之法,t = 0是清晰图像,t = 1才是纯噪声。这个在何凯明 JiT 的复现中很关键,不然模型在采样时只能训出纯黑图片。
模型微调
- Huggingface PEFT 库中的 LoRA 微调时,传入参数有
target_modules和modules_to_save两个参数。其中target_modules是冻结原有的层,然后在旁路插入两个低秩矩阵(即和 ),通过计算 来实现对原有层参数的低秩近似;保存内容是 和 。而 modules_to_save会解冻目标层并进行标准的 SGD 更新,并且在保存时,会保存该层的完整权重张量而不是 LoRA 的适配器权重。
辅助工具
- Antigravity 服务端启用脚本:antissh
