Решение ошибок и проблем при генерации с лорами

Автор Kronik77, Май 14, 2025, 18:58

« назад - далее »
Fooocus выдаёт `RuntimeError: CUDA out of memory` при включении двух LoRA — как разгрузить GPU?
  •  

Май 14, 2025, 19:00 #1 Последнее редактирование: Май 14, 2025, 19:20 от user123
1. Снизьте вес одной из LoRA до 0.5 — это экономит VRAM.
2. В **Settings → Performance** включите **"Half-precision FP16"**.
3. Если не помогает — переключите часть LoRA на CPU через **Mixed-Device Mode**.
  •