можно в нейронке спросить и она напишет, если правильно спросишь.А чтоб правильно спросить, нужно разбираться)
Золотые слова! Если "человек по уму" (в собирательном смысле) не разбирается в определенной теме того же программирования, то нейронка ему только во вред. Первое время он не будет этого осознавать. Хватает личных примеров. Жил- был человек-прогер, и за пару лет использования нейронок кодить вообще разучился. Его даже зовут на хорошие места, но он вынужден отказывать, ибо сам понимает что без нейронки он теперь ниже джуна. Это может касаться практически всего - нужно пару лет посушить мозги, и ты перестанешь уметь то, что раньше делал легко и просто
SPARC3D лучше с такими вещами справляется, млн полигонов правда будет, но детальнее, а текстуру можно прожектором с этой модели перетянуть. Я бы еще перед генерацией апскейнул до приемлемого результата,что бы нейронке меньше фантазировать. Риг в том же хуняне есть, сэмплы бега и подобного.
Слева хунян в максе, справа спарк без текстур
Про текстуры имеется ввиду Stable projector? Там можно за реф брать текстуру с фото? Ну чтоб при генерации нейронка ориентировалась на фото с которого сгенерена 3д модель? Просто если через контролнет там глубина и нормалка, а диффуза или альбедо нет.
Не, я про стариковское запекание текстур через модификатор в максе) Через Comfy можно перетекстурить, классно получается, из GLB + реф, уже вроде было тут, хорошо работает на моделях после ретопа,у PixelArtistry посмотри, сам пробовал, был удивлен
Да, работает довольно хорошо. Ещё надо подумать как это теперь прикрутить к Krita AI через графы. И сделать экшен с апскейлом.
Что то у вас цвета какие то блекловатые получились, там надо конкретно описывать промпт что то типа этого: "photorealism, HDRI quality, high resolution, Improve, make a color photograph (HDRI quality), add natural lighting to the character." Эта штука довольно конкретно чувствительно реагирует на промпты, Workflow кстати я использовал стандартный, который поставляется вместе с обновлением ComfyUI до версии 0.3.43:
Да, работает довольно хорошо. Ещё надо подумать как это теперь прикрутить к Krita AI через графы. И сделать экшен с апскейлом.
Что то у вас цвета какие то блекловатые получились, там надо конкретно описывать промпт что то типа этого: "photorealism, HDRI quality, high resolution, Improve, make a color photograph (HDRI quality), add natural lighting to the character." Эта штука довольно конкретно чувствительно реагирует на промпты, Workflow кстати я использовал стандартный, который поставляется вместе с обновлением ComfyUI до версии 0.3.43:
Я ничего вообще не добавлял. Решил попробовать как он справится без доп описания. А так да, у Вас вышло сочнее конечно. Ну тут главное что это очень даже хорошо работает. Теперь хочу архив старых семейных фото так "оцветнить".
Да, работает довольно хорошо. Ещё надо подумать как это теперь прикрутить к Krita AI через графы. И сделать экшен с апскейлом.
Что то у вас цвета какие то блекловатые получились, там надо конкретно описывать промпт что то типа этого: "photorealism, HDRI quality, high resolution, Improve, make a color photograph (HDRI quality), add natural lighting to the character." Эта штука довольно конкретно чувствительно реагирует на промпты, Workflow кстати я использовал стандартный, который поставляется вместе с обновлением ComfyUI до версии 0.3.43:
на постобработке стараются уйти от разных оттенков на коже, а здесь наоборот искусственно добиваемся пятен))
Не алё апскейл по чесноку, вот сейчас в новых версиях "Topaz Gigapixel AI" ( на торентах есть) появилась новая модель "Redefine", вот то апскейл так апскейл, рекомендую... Правда ресурсы видеокарты жрёт тоже будь здоров.
С какой версии модель "Redefine" появилась в гигапикселе?
Загрузил картинки в форме "коллажа" (думал, чтоб ИИ со всех ракурсов её изучил).
Исходник:
Результат:
вариант обычного моделинга:
Из такой детализаци нечего и взять на доработку (ретоп или ручная правка) - всё убого.
Ещё пытался сгенерировать по одной фотке, но нейронка в двух попытках безнадёжно зависла)) Возможно я неправильно с ней работал (хотя, как по иному её референсами "кормить"?)) ), но если на текущий момент времени она выдаёт такое качество, то хоронить 3d-художников ещё слишком рано))