Кто-нибудь знает, что могло случиться с моим automatic 1111? Раньше я использовал это с epic model и другими моделями. Я просто улучшал людей из 3d, а теперь это стало уродливым. Плохие лица, плохие руки и т.д. Я ничего не делал. Я ничего не менял в stable Diffusion. Кто мог бы мне помочь?
Кто-нибудь знает, что могло случиться с моим automatic 1111? Раньше я использовал это с epic model и другими моделями. Я просто улучшал людей из 3d, а теперь это стало уродливым. Плохие лица, плохие руки и т.д. Я ничего не делал. Я ничего не менял в stable Diffusion. Кто мог бы мне помочь?
На сайте c 21.12.2007
Сообщений: 2610
Санкт-Петербург
Привет, форум. Есть желающие подумать?
Сделал геометрию полотенца:
Запустил tydiffusion. добился вменяемого результата промптом и контролем по zdepth:
Прикрутил к геометрии tytexgen, расставил прожекты:
Получил сносную модель развернутую и замапленную нейросетью:
Ниже скриншоты вьюпорта. GIF. Надо ткнуть.
Вопрос: Как бы выдрать данные из HLSL шейдера, чтоб можно было использовать в архитектурных рендер-движках(Corona, V-ray)? Вопрос полуавтоматического текстуринга объектов, пространств пригодился бы в ряде задач.
Решено.
Сохраняем результат typrojection как текстуру. Снимаем с изначального объекта snapshot'ом сетку, применяем текстуру к любому удобному материалу.
На сайте c 11.11.2016
Сообщений: 637
Внутренний мир
Друзья думаю это
(ChatRTX) может быть полезной штукой для работы над своими проектами. Плюсы этой штуки в том что она работает с вашими документами локально, не нужен интернет, обучаема. Может помочь увидеть недостатки, ошибки, поможет проанализировать, найти, дать рекомендации или совет. По своему аналог чат GPT но локальна. Не нужен интернет, автономен. Работает только с картами серии 3и4.. Минусы в том что контекст не запоминает, но думаю это временно. По крайней мере если вы на острове и вас Илон маск забанил можно юзать.
Решил попробовать создать песню с клипом исключительно бесплатными нейросетями. Музыку генерировал в Udio ai, видео делал сначала 2д изображение в leonardo ai, потом в нём же анимировал, кому интересно что получилось вот: https://youtu.be/MG8b9Fc4hSg?si=INU8km20G9z3Pudz
Забавно, мой канал ютуб удалил, возможно из-за того что не указал, что видео и/или музыка была сгенерирована с помощью нейросетей
я генерировал аниме изображение в этом клинге и получалась такая дичь: он делает из мультика реалистичные видео причём превращает всех персонажей в китайцев (намёк?)
Цитата Medonozza:Вопрос: Как бы выдрать данные из HLSL шейдера, чтоб можно было использовать в архитектурных рендер-движках(Corona, V-ray)? Вопрос полуавтоматического текстуринга объектов, пространств пригодился бы в ряде задач
Присоединяюсь к вопросу.Скачал,установил.По дефолту предлагают сделать кошку,я нашел у себя 3д модель кошки без текстур в сермате,рендернул,получилось вполне ничего,при помощи ty diffusion texture gen на модельку спроецировалась текстура кошки.А дальше что делать с этим не понятно.