В статье рассказано как получить такие модели при помощи нейросетей:
Статья является результатом личных экспериментов, и помощи 3д сообщества. Огромное спасибо всем причастным.
Увеличение интереса к генерации контролируемого 3д увеличилось связи с выходом tydiffusion - расширения для 3ds max, позволяющее просто использовать нейросеть stable diffusion внутри программы, и с вменяемым интерфейсом. Это ключевой фактор. Всё, что сложнее 2 минут на освоение - не усваивается любителями, и продолжающими.
Я провел серию экспериментов, для понимания, как это решение может быть использовано в реальных задачах. Меня, в первую очередь, интересует генерация моделей в полуавтоматическом режиме. Это позволит быстро генерировать декор/детали в интерьерных задачах, драфт модели для композиций в медиа проектах, и "3д задники" для продуктовых задач (маркетплейсы, производственники)
Софт который необходим для работы с данным решением: 3ds max (2019-2025) и бесплатный плагин tydiffusion (существует и платная версия, но для личного пользования за глаза и бесплатной).
Установка tydiffusion производится путем перетаскивания вашей версии плагина в папку plugins в 3ds max:
При первом запуске необходимо установить все необходимые компоненты для работы плагина. Внимание! Компоненты легко могут занимать 20-30 Гб (и докачиваться в процессе освоения), так что выберите диск с нужным количеством места. Установка, и ее опции доступны в левой вкладке внутри плагина:
Внимание. Удостоверьтесь что для скачивания доп. модулей (Модели, LoRA, CtrlNet) выбраны диски с достаточным количеством места. Там 2,5,8 Гб за элемент это норма.
Процесс установки легко может занять часы (в основном это скачивание данных), так что запаситесь терпением.
В этой статье я не вижу смысла расписывать все вкладки и возможности tydiffusion. Моя цель показать именно генерацию контролируемого 3д. Но если коротко - tydiffusion позволяет обращаться к возможностям stable diffusion непосредственно из среды 3ds max. Доступен весь функционал данной нейросети, и доп. модулей.
Итак, моя цель это получение моделей, сделанных ногами, за три минуты, без навыков.
Первый пример - сложенное полотенце. Делаем геометрию:
Затем применяем к геометрии модификатор tydiffusiontexgen - это самая важная часть процесса.
Если грубо, то процесс очень схож с процессом 3д скана по фото, только вместо фото выступает серия генераций изображений, с учитыванием того, что сгенерировано в соседних точках. А это, как подход, дает возможность получать не противоречащий друг-другу контент в рамках модели/пространства.
Внутри модификатора нам доступны несколько видов развертки объекта (Можно так же использовать и свою развертку, что позволит контролировать швы при сложных генерациях)
При помощи кнопок создания точек для проецирования, мы создаем несколько таких точек, желательно с взаимным перекрытием процентов на 30% (обычно это 6-8 точек по радиусу вокруг объекта).
От себя замечу что для точек проецирования лучше выбирать "характерные" ракурсы, где читается форма объекта, так как по умолчанию контролирующим модулем для генерации является геометрия объекта, считай карта глубины. И если точка будет "вялая", то нейросеть нарисует на ней невнятное мракобесие.
После создания точек вы можете сгенерировать превью, или уже чистовой результат. Плагин переберет все точки, спроецирует на них текстуру, и создаст итоговый результат, который будет по возможности учитывать данные со всех ракурсов. При создании превью вы можете выбрать режим отображения "покрытия" где вам подсветит те участки, для которых нет данных при текущих точках проецирования.
Промпт. В серии экспериментов я намеренно опирался только на примитивные промпты, тк задача это молниеносная генерация моделей. Вот пример промпта для полотенца. Важно понимать что для каждой модели (ИИ) результаты генерации будут свои, но смысла тут их обсуждать считаю бессмысленным, так как они все время развиваются и меняются. Просто учитывайте что разные модели натасканы на разные типы изображений.
Модель после генерации я обычно копирую при помощи edit - snapshot. После этого модель можно использовать так, как вам нужно. Текстуру, полученную сохранением (см. картинку ниже) можно использовать в любом удобном движке, с материалами которые вам привычны.
Сами текстуры вызывают вопросики, но если вы будете использовать свою развертку при проецировании, то можно даже говорить о возможности редактирования текстур. Для той части модели что не была "покрыта" при проецировании, текстуры будут наложены максимально криво.
Понятно, что для улучшения результатов нужно генерировать пакет вспомогательных текстур, например, через pixplant
Что имеем в сухом остатке? Возможность получения 3д моделей для средних и дальних планов, декора, деталей и проч. Генерация реально занимает секунды в разрешении 512/1024, а этого вполне хватит для рутины.
Безусловно, способ имеет много ограничений и нюансов. Но это уже полноценный подход для поточного производства моделей, или, его ускорения. Лично для себя я вижу огромные горизонты в связке с лепкой в zbrush, или дорисовывания в Substance painter.
Но и без этого, для тех у кого совсем туго с моделлингом и материалами, получать подобные модели - подарок. Особенно, если мы говорим о генерации под ракурс, где прожекторов модет быть 2-3, чисто под половинку модели.
Например, сделать на кухню вазочку с яблоками займет 2-3 минуты.
Или драфт ассета, для понимания цветов или композиции.
Причем, стилевые или цветовые вариации полностью под вашим контролем.
Надеюсь данная статья поможет кому-то увидеть практическое применение нейросетей в своей работе, а не только "баловства" без результата.
Всем благ.