Earanak, а можно спросить как вы выбираете диффузную модель для генерации? И если не секрет скажите где можно почитать про все эти Art Unverse, SD 1.5, Jaggernaut и прочие...
Earanak, а можно спросить как вы выбираете диффузную модель для генерации? И если не секрет скажите где можно почитать про все эти Art Unverse, SD 1.5, Jaggernaut и прочие...
Я выбираю методом тыка Ну, осознанно я выбираю только размер модели обычная 512px или XL 1024px. Оно все равно генерит там за считанные секунды результат. Прост сижу и переключаю их пока не начнет рисовать близкое к тому что нужно. Потом промпты и Noise/CFG туда-сюда тягаю и переписываю. "Стили" (которые преукрашивают промпты) тоже переключаю туда-сюда. И вот такой процесс выходит. С Апскейлером так же делаю, тыкаю разные варианты апскейла и выбираю тот который интереснее выдает результат.
Почитать про модели, их настройки, рекомендации авторов, скачать их можно тут :
В tyDiffusion очень удобны сделаны пресеты каждой модели. Там стрелочка снизу просто копирует рекомендуемые настройки под каждую модель. Раньше приходилось выписывать все это отдельно или лезть на сайт.
Вообще кстати и в играх тоже нейросети уже не так уж и плохо справляются. Есть еще нюансы и проблемы и все же, так глядишь еще немного, несколько лет может и будет вообще годно.
Кто пробовал новую нейронку для генерации видео из поднебесной?: https://hailuoai.com/video Пока бесплатно, и без лимитных ограничений на количество генераций