Intrinsic LoRA 项目使用教程
1. 项目的目录结构及介绍
Intrinsic LoRA 项目目录结构如下:
intrinsic-lora/
├── assets/ # 存储项目相关资源,如图片等
├── diode/ # 与 DIODE 数据集相关的代码
├── .gitignore # 指定 Git 忽略的文件和目录
├── LICENSE # 项目使用的许可证信息
├── README.md # 项目说明文件
├── augunet_diode_pseudo_depth.py
├── augunet_diode_pseudo_normal.py
├── inference_sd_single.py
├── rescale_cfg_pipeline_forward.py
├── sd_single_diode_pseudo_depth.py
├── sd_single_diode_pseudo_normal.py
assets/
: 存储项目所需的各种资源文件。diode/
: 包含与 DIODE 数据集相关的处理代码。.gitignore
: 指定在 Git 版本控制中应该忽略的文件和目录。LICENSE
: 项目使用的许可证文件,本项目使用的是 CreativeML Open RAIL-M 许可证。README.md
: 项目说明文件,包含项目的描述、使用方法和相关链接。- 其他
.py
文件: 包含项目的核心代码,用于模型的训练和推理。
2. 项目的启动文件介绍
项目的启动文件主要是各个 .py
文件,例如 sd_single_diode_pseudo_normal.py
用于训练表面法线单步 UNet 模型。以下是启动该训练脚本的基本命令:
export MODEL_NAME="runwayml/stable-diffusion-v1-5"
export DATA_DIR="path/to/DIODE/normals"
export PSEUDO_DIR="path/to/pseudo/labels"
export HF_HOME="path/to/HuggingFace/cache/folder"
accelerate launch sd_single_diode_pseudo_normal.py \
--pretrained_model_name_or_path=$MODEL_NAME \
--train_data_dir=$DATA_DIR \
--pseudo_root=$PSEUDO_DIR \
--output_dir="path/to/output/dir" \
--train_batch_size=4 \
--dataloader_num_workers=4 \
--learning_rate=1e-4 \
--report_to="wandb" \
--lr_warmup_steps=0 \
--max_train_steps=20000 \
--validation_steps=2500 \
--checkpointing_steps=2500 \
--rank=8 \
--scene_types='outdoor,indoors' \
--num_train_imgs=4000 \
--unified_prompt='surface normal' \
--resume_from_checkpoint='latest' \
--seed=1234
确保在执行这些命令之前,你已经安装了所有必要的依赖,并且设置了正确的环境变量。
3. 项目的配置文件介绍
在 Intrinsic LoRA 项目中,配置主要是通过命令行参数传递给 Python 脚本的。这些参数包括模型名称、数据目录、伪标签目录、输出目录、训练参数等。上述启动命令中已经展示了如何通过环境变量和命令行参数来配置训练过程。
如果需要更改配置,你可以在命令行中修改相应的参数。例如,如果你想更改训练批次大小,可以修改 --train_batch_size
参数的值。
项目没有单独的配置文件,所有的配置都是通过命令行参数直接传递的,这样做使得项目更加灵活和易于管理。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考