вопросы и ответы по обучению Lora

Автор user123, Апр. 29, 2025, 14:44

« назад - далее »
Блок 1: Проблемы при обучении
    Ответ:[/b] Сделайте больше эпох и сократите количество повторов. Судя по всему, обучение идёт, просто по настройкам не видно. Если ошибка — в терминале будет [ERROR], а не [INFO].[/li]
  • Вопрос: "Ребят, может туповатый вопрос, но флаксовые лори же можно тренировать на реальных фотках одного человека? (нормальный результат будет?)"
    Ответ: Да, можно. Главное — чтобы фотографии были однородные по свету, желательно с нейтральным фоном. Тогда Flux отрабатывает прилично даже с 10–15 картинок.
  • Вопрос: "Flux1 Dev lora на логотип. Уже 3-й день гоняю в comfyUI, 10-20 картинок, шагов больше 1000 не делал. Лора рисует правильно максимум один раз. Что я делаю не так?"
    Ответ: Для логотипов минимум 2000 шагов, и лучше без prompt guidance. Четкий промпт и много повторений по узкому датасету. Рекомендуем использовать Flux-Dev2Pro — он лучше держит форму.

Блок 2: Настройки и параметры обучения
  • Вопрос: "Какие параметры обучения вы ставите для SDXL LoRA? Особенно интересует количество изображений, эпох и повторов."
    Ответ: Оптимально: 200–300 изображений, 10–20 эпох, 10–50 повторов. Размер 1024x1024. На Flux с SDXL желательно использовать preset 'protrain' с блоком weight decay.
  • Вопрос: "Хочу обучить LoRA с заранее выбранными весами для блоков. Возможно ли внести их в сам файл, а не нодой применять?"
    Ответ: Можно. Нужно после обучения отредактировать .safetensors или .pt через скрипт. Внутри структуры заданы блоки attention и conv. Менять вручную — риск, но возможно.

Блок 3: Используемые инструменты
  • Вопрос: "OneTrainer ставлю LoRA — ни одна не работает. Кто сталкивался? Может сборка кривая?"
    Ответ: Да, стандартная сборка OneTrainer часто даёт пустые выходы. Лучше использовать портативку с Git и Python 3.10.11, preset для Flux от испанца и запуск через start-ui.bat.
  • Вопрос: "Какие вообще сейчас инструменты можно использовать для тренировки LoRA, если я хочу именно для Flux?"
    Ответ: Самые надёжные: Kohya для SDXL, FluxGym для Flux, AI Toolkit и OneTrainer (только модифицированный). Для простоты — Civitai тренажёры, если не боишься ограничений.

Блок 4: Качество и артефакты
  • Вопрос: "FluxGym даёт рабочие LoRA, но артефакты на изображении. Как от них избавиться?"
    Ответ: Артефакты появляются при плохой балансировке CFG и недотренировке. Попробуй early stopping, увеличь количество регуляризационных изображений, и отфильтруй исходники.
  • Вопрос: "Результат LoRA 'мылит' детали лица, особенно в SDXL. Что делать?"
    Ответ: Включить face fidelity LoRA или fine detail LoRA, уменьшить Denoising Strength. Можно также использовать Lora Block ноду и отключить influence на mid layers.

Блок 5: Структурные особенности
  • Вопрос: "Каков нормальный размер LoRA-файла? У меня он почему-то 200 MB..."
    Ответ: Скорее всего, вы не использовали параметр rank (обычно 4–16). Без него создается полная копия весов, что делает файл огромным. Проверь Network Rank.
  • Вопрос: "Как тренировать LoRA на позы? Какой датасет и ранг лучше использовать?"
    Ответ: Используй датасет с keypoint-аннотацией. Rank 4–8. До 2000 шагов достаточно. Лучше всего работает с ControlNet и depthmap guidance.

Блок 6: Продвинутые советы
  • Вопрос: "Можно ли обучить LoRA, которая будет универсальной — и под SD1.5, и под SDXL?"
    Ответ: В теории да, но на практике лучше делать под каждую архитектуру отдельно. Универсальность ломается на уровне attention-слоёв. Используй Flux-Dev2Pro как мостовую модель.
  • Вопрос: "Можно ли сохранять LoRA в квантованном GGUF-формате?"
    Ответ: Да, если используешь quantizer типа GPTQ или bitsandbytes. Но работает не со всеми интерфейсами. Лучше не делать это до постобработки.
  • Вопрос: "Обучение LoRA под один стиль: как сохранить чистоту результата при множестве фонов?"
    Ответ: Рекомендуется регуляризация фоном: использовать 1–2 контрольных изображения одного фона и применять их каждый N шаг.
  •  

Блок 7: Параметры и практическая настройка
  • Вопрос: "Сделал LoRA для пылесоса в FluxGym, настройки по умолчанию. Но как ставлю вес выше 1, артефакты на лице. Если ниже — LoRA почти не работает. Это из-за rank или чего?"
    Ответ: Часто это связано с тем, что при маленьком датасете и rank >16 модель начинает переобучаться. Лучше ставь LoRA weight в районе 0.7–0.9 и не выше. Для баланса можешь попробовать блоковое влияние через Lora Block в Comfy.
  • Вопрос: "Привет! А кто-нибудь знает, сколько шагов и повторов адекватно для SDXL LoRA? Хочу попробовать стиль портрета."
    Ответ: Для SDXL 300–500 шагов на 10 повторов при 100 картинках уже дают результат. Лучше уменьшить лернинг до 1e-5, иначе 'выпирает'. Размер 1024x1024 и rank 8. Стиль держится хорошо.
  • Вопрос: "Пробую Flux Dev LoRA — логотип не держится, а фон вообще переезжает. Что не так?"
    Ответ: На логотипы нужен строго ориентированный датасет, минимум 20 изображений в одних и тех же пропорциях. Без регуляризационных изображений получишь 'прыгающий' фон. Шагов минимум 1500, CFG лучше занижать.
  • Вопрос: "Обучаю LoRA в FluxGym, но it/s не показывает. Терминал пустой, обучение вроде идёт. Как проверить?"
    Ответ: Если терминал пишет только [INFO] и нет it/s, значит, возможно, epoch = 1 и repeat слишком высок. Поставь epoch >3 и меньше repeat — увидишь скорость. Если будет [ERROR], тогда точно что-то не так.
  • Вопрос: "Подскажите: можно ли тренировать LoRA под позы, чтобы в итоге одно и то же лицо было в разных сценах?"
    Ответ: Да, это один из классических кейсов. Используй pose keypoints и добавь controlnet на этапе генерации. Для LoRA при этом ставь небольшой rank (4–8), чтобы сохранить лицо, и побольше разных поз в датасете.

Блок 8: Ошибки и нестабильность
  • Вопрос: "OneTrainer у меня вообще не генерит после обучения. Пробовал 3 модели — ноль. Такое у всех?"
    Ответ: Да, стандартная сборка OneTrainer часто нерабочая. Лучше использовать портабельную от Артура: Python 3.10.11 + preset от испанца + Flux training. Тогда хоть что-то выходит. Git в системе обязателен.
  • Вопрос: "Ребят, как понять, что LoRA обучена хорошо, а не просто 'вроде работает'?"
    Ответ: Смотри визуально на consistency: одинаковые черты, нет случайных искажений. Если сильно мылит — значит, либо переобучена, либо не дошёл до нужного шага. Проверяй каждые 500 шагов генерацией.
  • Вопрос: "Я LoRA на SDXL обучил, но когда в Comfy вставляю — не видно изменений. LoRA вроде 'не цепляется'."
    Ответ: Проверь, точно ли ты вставляешь в ту же модельную архитектуру. SDXL-LoRA к SD1.5 не подходит. Кроме того, путь должен быть правильный и в параметрах — вес не 0. Иначе визуально будет без эффекта.
  • Вопрос: "Как можно ускорить обучение LoRA на слабом железе? У меня 6 ГБ видеопамяти."
    Ответ: FP16 обязателен, rank не больше 4, batch size 1, gradient checkpointing включить. Лучше всего идти через Kohya или OneTrainer с уменьшенным датасетом. И шагов 500–1000 хватит для простого результата.
  • Вопрос: "На стадии генерации с моей LoRA иногда в кадре появляются странные тени/артефакты. Почему?"
    Ответ: Это либо переобучение (слишком точная привязка), либо некорректные данные — фон, JPEG-артефакты. Пройди датасет вручную, вырежи только нужное, желательно PNG, 512 или 1024 по размеру.

Блок 9: Применение и продвинутые кейсы
  • Вопрос: "Если я хочу сделать LoRA на цвет одежды — только на красную кофту, как это правильно сделать?"
    Ответ: Собери датасет с одинаковым фоном, только одна кофточка должна меняться — цвет, стиль. LoRA научится отличать по тегу. Главное — четкий тег и отсутствие других перемен в кадре.
  • Вопрос: "А можно ли обучать LoRA на изображениях с уже сгенерированных моделей, а не фото?"
    Ответ: Да, можно. Но качество генерации (сглаживание, смешение стиля) будет зависеть от качества исходника. Лучше брать исходники из SDXL или MJ 6.0 — они чище, чем старые с artefacts.
  • Вопрос: "Кто-нибудь обучал LoRA так, чтобы сохранялся не только стиль, но и мимика персонажа?"
    Ответ: Да, это делается при точной подборке датасета: одна сцена, разные эмоции. Делай маскирование на лицо и указывай тег 'emotion'. Тогда модель начнёт цеплять это в LoRA.
  • Вопрос: "Я сделал LoRA для одного персонажа, но она не переносится на других. Как добиться универсальности?"
    Ответ: Никак. Это принципиально разные подходы: универсальная LoRA — это скорее стиль. Если нужен один стиль на разных лицах — делай не персонажа, а окружение, цвет, одежду.
  • Вопрос: "Могу ли я объединить несколько LoRA в один файл? Например, стиль + цвет + фон?"
    Ответ: Да, можно. Есть merge_lora.py, в Comfy — ноды Merge Weights. Указываешь веса влияния каждой LoRA и объединяешь в новую. Будь осторожен с rank — при сумме может выйти слишком тяжёлый файл.

Блок 10: Теория и знания
  • Вопрос: "Есть курсы, которые реально учат тренировать LoRA, а не только повторять схемы?"
    Ответ: Да. Boosty у Orex, курсы на Civitai и YouTube у ComfyMaster. Но чаще — самоподготовка: гайды от испанца, Discord чаты и опыт. Главное — практика.
  • Вопрос: "Какая роль у параметра 'Weight Decay'? Часто вижу в схемах, но не понимаю."
    Ответ: Это регуляризация: защищает от переобучения. Обычно 0.01, но можно уменьшить до 0.001 при большом датасете. Особенно полезен при генерации фона или стиля.
  • Вопрос: "А зачем иногда добавляют регуляризационные изображения? Что они дают?"
    Ответ: Они нужны, чтобы модель не 'забыла', как выглядит базовая генерация. Без них LoRA начинает слишком точно воспроизводить особенности и теряет универсальность.
  • Вопрос: "Почему советуют validation каждые 500 шагов?"
    Ответ: Потому что после 1500–2000 шагов часто начинается переобучение. Лучше контролировать визуально. В Comfy есть специальные ноды для этого — Validation Prompt Preview.
  • Вопрос: "Можно ли после обучения вручную поменять веса внутри LoRA?"
    Ответ: Да, если понимаешь структуру .safetensors. Через Python и tensor редакторы можно менять блоковые веса. Но без опыта — риск сломать.
  •  

Блок 11: Технические вопросы и инфраструктура
  • Вопрос: "Где взять конкретный пресет для обучения LoRA под Flux в OneTrainer или Kohya? Или руками всё?"
    Ответ: Для Flux лучше качать пресет с Civitai: Flux-Dev2Pro. В OneTrainer можно подгрузить конфиг через .json — там уже будут настройки под fp16 и rank 8. В Kohya — ручками, но есть шаблоны в github репах.
  • Вопрос: "Подскажите, можно ли менять модель в FluxGym? Я так и не понял, как."
    Ответ: Да, в FluxGym можно указать кастомную модель — в конфиге config.yaml прописать путь к .safetensors. Только нужно, чтобы имя модели и весов совпадали, иначе не подхватывает.
  • Вопрос: "Почему у меня пулид выдает ошибку 'Недостаточно значений для распаковки'? Всё по гайду делал."
    Ответ: Скорее всего, в ноде неправильный формат вывода. Такое бывает, если обновить одну ноду, а вторую забыть. Проверь лог в консоли: где-то ожидается 2 переменные, а передаётся только одна.

Блок 12: Проверка результата
  • Вопрос: "Как правильно проверить, работает ли LoRA? Есть какая-то стандартная методика?"
    Ответ: Да, включаешь LoRA без промпта, но с активационным словом. Если она обучена — сработает. Идеально, если и без активационного срабатывает. Но вообще — надо делать генерацию на одинаковом prompt с/без LoRA и сравнивать.
  • Вопрос: "Может ли LoRA без промпта давать результат? У меня одна работает так, а остальные — нет."
    Ответ: Значит, эта одна — переобучилась и стала влиять даже без триггера. Это не баг, но и не всегда хорошо. Лучше иметь управляемое поведение через промпт.
  • Вопрос: "Как узнать, что LoRA переобучена, а не просто 'мощная'?"
    Ответ: Если она влияет даже при весе 0.3 и 'портит' neutral изображения — значит, переобучена. Или если все изображения одинаковые — тоже тревожный звонок. Сохрани чекпоинты и проверь промежуточные стадии.

Блок 13: Специальные применения
  • Вопрос: "Можно ли сделать LoRA только на один элемент? Типа шапка, очки, цвет обуви?"
    Ответ: Да. Делай датасет, где единственное различие — нужный элемент. Тег будь точный, например, 'red sneakers'. В остальном — одинаковый фон, поза, лицо. Тогда LoRA учится именно на этой фиче.
  • Вопрос: "А можно ли натренировать лору только на движение? Чтобы, например, персонаж шел или махал рукой?"
    Ответ: Можно. Используй sequence или анимационные ключевые кадры. Но лучше работает вместе с ControlNet — тогда указываешь нужное движение через pose или depth. Rank лучше 4 или 8.
  • Вопрос: "Хочу лору только на эмоции лица. Это реально?"
    Ответ: Да, реально. Главное — собрать датасет с одним и тем же персонажем в одинаковой позе, но с разной мимикой. Теги: 'happy face', 'angry face'. Только так оно и научится различать выражения.

Блок 14: Курсы и обучение
  • Вопрос: "Где вообще учатся тренировать LoRA? Вижу, что многие просто методом тыка..."
    Ответ: Есть платные курсы: Boosty от Orex, видео от ComfyGuide. Но чаще всего — реально через Discord, Telegram и личный опыт. Всё сильно зависит от платформы: Comfy, Forge, A1111 — у каждого нюансы.
  • Вопрос: "А где взять курс по обучению лор именно на позы?"
    Ответ: Пока только в виде постов и гитов. Ищи на Civitai или GitHub 'pose lora train dataset'. Можно использовать инструменты типа OpenPose для подготовки датасета.

Блок 15: Диагностика ошибок
  • Вопрос: "Обучил LoRA на Flux, в Forge подгружается, но результата 0. Что не так?"
    Ответ: Надо в настройках выбрать совместимый backend — Automatic fp16 или bnb-nf4. Если выбрано default — LoRA не применится. Также проверь вес и наличие активационного слова.
  • Вопрос: "Кидаю LoRA в папку, но она не отображается в списке моделей в Comfy."
    Ответ: Сделай refresh (F5) в Comfy, и убедись, что папка правильно подключена в extra_model_path. Ещё проверь имя файла — должно быть name_lora.safetensors.
  • Вопрос: "Ошибки при загрузке depth/canny LoRA в Comfy. Что делать?"
    Ответ: Скорее всего, несовместимы версии. Обнови Comfy через bat-файл, а не из менеджера. Тогда обновятся и зависимости. Если не поможет — попробуй переустановить саму LoRA.

Блок 16: Настройки dataset и генерации
  • Вопрос: "Сколько картинок минимум надо для LoRA? У меня 12, этого мало?"
    Ответ: Можно и 10, если правильно отобраны: один стиль, один персонаж, одинаковое освещение. Тогда хватит 500–1000 шагов. Но лучше — 20+.
  • Вопрос: "Если использовать LoRA на другого человека — почему лицо съезжает?"
    Ответ: Потому что LoRA заточена под исходный образ. Если хочешь универсальность — используй style LoRA, а не персонажную.
  • Вопрос: "Можно ли в одном промпте применить две LoRA и разделить по частям?"
    Ответ: Да, через расширение Composable LoRA. Пишешь в промпт: <LoRA1>AND текст <LoRA2>AND следующий текст. Тогда они работают на свои сегменты.
  • Вопрос: "Влияет ли оперативка на скорость обучения LoRA?"
    Ответ: Да, особенно при больших моделях и SDXL. Для Flux желательно от 32 Гб. На 16 будет работать, но с частыми сбоями.
  • Вопрос: "Если LoRA влияет на все — как сделать, чтобы только на одного персонажа?"
    Ответ: Используй inpaint с маской и применяй LoRA только на выделенную часть. Или совмещай изображение с и без LoRA вручную в редакторе.
  • Вопрос: "Какой шаг проверки лучше ставить при обучении — каждые сколько итераций?"
    Ответ: Оптимально каждые 500 шагов. Тогда видно, когда начинается переобучение. Используй Validation Preview node в Comfy.
  •  

Блок 17: Конфигурации и примеры
  • Вопрос: "Привет, кто может поделиться простым рабочим workflow SD 3.5 Large с LoRA, чтобы не усложнять?"
    Ответ: Вариант с AGFlux или PulID подойдет. Берешь стандартную схему Comfy, добавляешь Lora Loader и node AGFlux_Loader. Проверяй поэтапно через визуализацию. Нужен checkpoint для SD3.5 — не путай с SDXL.
  • Вопрос: "Делал LoRA на лого, всё ровно, но на выходе иногда искажения в цвете и форме. Это из-за шагов?"
    Ответ: Да, маловато. Обычно нужно 1500–2000 шагов. И еще — если фон разный, то логотип 'плавает'. В идеале фон — белый или серый. Размер картинок лучше 512x512.
  • Вопрос: "После обучения LoRA в OneTrainer получаю файл 380МБ, а в FluxGym — 38МБ. Что не так?"
    Ответ: Скорее всего, в OneTrainer ты не задал rank — тогда сохраняются все веса. В FluxGym он по умолчанию = 8. Поставь rank=4–8, иначе файл будет гигантским и работать плохо.
  • Вопрос: "Сделал LoRA, но она не работает без <lora:...> в prompt. Это нормально?"
    Ответ: Да. LoRA без вызова обычно не активна, если ты не переобучил её. Лучше управлять явно. Если включается сама — значит, перебор с шагами или плохо проработанный dataset.
  • Вопрос: "Работаю с PulID, хочу, чтобы вес по умолчанию был 2.8. Как сделать?"
    Ответ: Открой файл ui-config.json, найди строки txt2img/Preferred weight/maximum и поменяй значение на 2.8. Тогда оно будет по дефолту при старте.

Блок 18: Оптимизация обучения
  • Вопрос: "Обучение лоры на 3060 12Гб — 1800 шагов почти 2 часа. Это нормально?"
    Ответ: Да. Это типичное время при batch=1. Можно ускорить, если включишь mixed precision (fp16) и уменьшишь dataset до нужного минимума. Но главное — не жертвуй качеством.
  • Вопрос: "Можно ли после перерыва продолжить обучение LoRA? У меня 2000 шагов — жалко бросать."
    Ответ: Да. Если у тебя trainer поддерживает сохранение прогресса (Kohya, FluxGym), просто переименуй last.safetensors как continue_from и перезапусти.
  • Вопрос: "Почему некоторые лоры при одинаковых параметрах выходят разными?"
    Ответ: Потому что сид в обучении влияет. При каждом запуске — рандом. Можно зафиксировать seed, тогда повторы будут воспроизводимы. Это особенно важно при тестах.
  • Вопрос: "Flux Dev лоры не держат форму, а Flux Dev2Pro — да. Почему?"
    Ответ: Потому что Dev2Pro — специально донастроен под обучение. Он как бы 'выравнивает' внутренние веса. Лучше использовать Dev2Pro как основу для трейна, особенно в FluxGym.
  • Вопрос: "Есть ли смысл использовать 3M изображения для LoRA?"
    Ответ: Если они обрезаны до 1024 и однотипны — да. Но если много деталей и шумов — будет 'захлебываться'. Лучше 512 или 768, но качественные и чистые.

Блок 19: Подготовка датасета
  • Вопрос: "Можно ли использовать картинки из Pinterest для обучения лоры?"
    Ответ: Можно, но с осторожностью. Часто там фильтры, JPEG-артефакты. Лучше их обрабатывать: crop, normalize, белый фон. Иначе — слабая обобщаемость.
  • Вопрос: "Фотки с шумом, плохо освещенные — влияют на LoRA?"
    Ответ: Сильно. Лора начнёт запоминать шум как особенность. Лучше делать denoise, или использовать clear PNG. Ну и меньше всякого мусора на фоне.
  • Вопрос: "Нужно ли добавлять к LoRA регуляризационные изображения?"
    Ответ: Да, особенно если учишь на узком стиле. Тогда модель не 'забывает' как выглядит нейтральная генерация и не уводит результат в крайности.
  • Вопрос: "Сколько минимум изображений, чтобы LoRA хоть как-то работала?"
    Ответ: От 10 штук уже можно. Главное — чтобы они были однородны. 10 картинок в одном стиле дадут лучше результат, чем 30 случайных.
  • Вопрос: "Лору на SDXL обучил, а в SDXL-Turbo не работает. Это ок?"
    Ответ: Да, это разные архитектуры. Turbo часто не совместим с обычными SDXL LoRA. Нужна адаптация или переподгонка параметров.

Блок 20: Совместное использование и адаптация
  • Вопрос: "Можно ли объединить LoRA из разных источников? Одна на стиль, другая на позу."
    Ответ: Да, в Comfy есть LoRA Merge node. Прописываешь веса каждой, задаешь выход. Только следи за rank — общий не должен быть >32.
  • Вопрос: "Можно ли обучить LoRA под Comfy и потом использовать в A1111?"
    Ответ: Если ты сохраняешь в .safetensors, то да. Главное — не использовать специфичные ноды или кастомный токен. А так — совместимо.
  • Вопрос: "Папку с Comfy скопировал на другой комп — не запускается. Почему?"
    Ответ: Вероятно, пути сбились. Проверь в extra_model_paths и config.yaml, где прописаны пути к моделям и нодам. И да — лучше не копировать, а развернуть заново.
  • Вопрос: "Если LoRA 'сильно' работает — лучше уменьшить её вес или заново обучить?"
    Ответ: Для начала — снизить вес до 0.6–0.7. Если не помогает — пересобрать датасет. Иногда помогает настройка alpha или уменьшение rank.
  • Вопрос: "Могу ли я настроить одну LoRA под SD1.5 и SDXL одновременно?"
    Ответ: На практике нет. Они разные по архитектуре. Лору лучше адаптировать под каждую модель отдельно. Универсальность почти всегда теряет детализацию.

Блок 21: Тестирование и распространение
  • Вопрос: "Как проверить, как работает моя LoRA на других промптах?"
    Ответ: Сделай тестовую галерею: минимум 5 промптов — портрет, пейзаж, фантазия, низкий свет, мягкий фон. Сравни с дефолтной генерацией без LoRA.
  • Вопрос: "Проблема с загрузкой моей LoRA на Civitai — не отображается превью. Что делать?"
    Ответ: Сделай 3–5 изображений заранее, подпиши их как preview. Загрузи вручную в форму. Убедись, что в файле metadata указано model_type=lora.
  • Вопрос: "Можно ли делиться LoRA-файлом, если в нем стиль из DALL·E?"
    Ответ: Юридически — нет, если стиль защищен. Но если ты сам сгенерировал изображения и переработал — скорее всего можно. Но всегда проверяй условия использования.
  • Вопрос: "Сколько людей реально используют мою LoRA на Civitai?"
    Ответ: В разделе 'Model Insights' видна статистика загрузок и лайков. Подписки — отдельная метрика. Иногда можно запросить дополнительную статистику у админов.
  • Вопрос: "Если в одной LoRA мешаются позы и стиль, как их разделить?"
    Ответ: Обучай отдельно: одна LoRA на позу, вторая на стиль. А потом своди. В dataset делай фильтрацию по характеристикам — иначе будет 'грязный' стиль.
  • Вопрос: "Можно ли выкладывать LoRA, сделанную на фотографиях публичных личностей?"
    Ответ: Только с их разрешения. Иначе — это нарушение приватности и авторских прав. Лучше делать на персонажах или полностью синтетических данных.
  • Вопрос: "Можно ли обучить LoRA на основе видео?"
    Ответ: Да. Сделай нарезку кадров, убери лишнее, нормализуй по размеру. Главное — чтобы кадры не были слишком похожими. Иначе переобучение.
  • Вопрос: "Есть ли автоматизация для подготовки датасета?"
    Ответ: Да, есть тулзы: Image Sort, BLIP caption, AutoTag, BG remover. Всё можно подключить к Comfy или гонять отдельно. Делай предобработку.
  • Вопрос: "Моя LoRA работает отлично на женских лицах, но плохо на мужских. Почему?"
    Ответ: Скорее всего, dataset был смещен в сторону женских черт. Нужно балансировать: минимум 30% мужских изображений, иначе стиль 'залипает'.
  • Вопрос: "Есть ли примеры LoRA, которые работают на черно-белых фото?"
    Ответ: Да. Их тренируют специально под grayscale-датасеты. Нужно использовать grayscale pipeline и не включать augmentation с цветами.
  •