Полная версия FLUX.2 [dev] насчитывает 32 миллиарда параметров, и в стоковом состоянии для ее запуска требуется около 90 ГБ VRAM. Хорошая новость в том, что NVIDIA совместно с BFL уже выпустили оптимизированные FP8-квантизации, снижающие потребление памяти примерно на 40%. Это делает локальный запуск FLUX.2 [dev] реальностью на топовых картах RTX 4090 и 5090, а поддержка модели уже внедряется в свежие обновления ComfyUI и Diffusers.
и создал пустое помещение и просил наполнить разными стилями (есть еще несколько 18+)) (все - gemini, nano banana pro 2800х1550 - https://disk.yandex.ru/i/83DG31eiQ2mBPQ )
Для иллюстраторов годный инструмент,как помошник конечно же,не как готовый продукт.Для архивизеров же вообще как собаке пятая нога.Потому что нет повторяемости результата .Представьте вы показываете клиенту разные кадры и на всех отличная мебель,детали,освещение.Покажите мне одну и ту же комнату с разных ракурсов и что бы все детали соответствовали общему замыслу.
Uraken, да я без понятия про какое качество речь шла и что там и как там. Я открыл картинки - они мыльные/будто потянутые, мне такое не заходит, у меня и так зрение с рождения плохое, люблю перешарп )) А откуда это мыло, как это исправить, нужно ли это исправлять - это уже мне не интересно, я свои пять копеек вставил, пошел дальше 😁
Uraken, качество же не очень, и такое можно делать в ty diffusion прямо в максе формами, причем там все летает на старой SDxl
ок, аргументируй. Приведи пример аналогичный из ty diffusion. То, что например у тебя он сейчас не работает - не отмазка. И почему качество не очень?
примеров не могу привести, к сожалению ty diffusion поломался, и больше не ставится, выдавая ошибку, но на ютубе полно роликов как им пользоваться в 3д максе, там не такая продвинутая модель, но это компенсируется тем что можно использовать модели во вьюпорте их двигать и контролировать, получая именно то что хочешь и где хочешь, а не лишь по описанию текстом или рисованием маски.
https://youtu.be/D-1Vy864PtQ
а качество реально мыльное при 100%
Earanak, из моих опытов самый лучший улучшайзер Magnific AI — The magic image Upscaler & Enhancer
ему можно спихнуть рендер и он добавит реалистичных деталей не портя картинку, но к сожалению он платный и бесплатно дают разово поинты, но не на все акаунты
Ты сам там выбираешь модели в tyDiffusion. В том числе те которых изначально нету в пресетах. tyDiffusion работает на основе ComfyUI, в том числе умеет переносить в него Workflow. Так же он ставит локальную версию ComfyUI которую можно модифицировать под свои нужды.
Если имелось ввиду что в целом все локальные модели не такие продвинутые, ну... Да. Если это не какой то Flux Dev 2 под 96гб видяхи, то - так и есть, увы.
P.S. Если че я в курсе что объем модели/количество параметров не всегда значит что она круче. И я в курсе про тяжеловыесные Воркфлоу под Комфи которые красоту делают и с обычными SDXL моделями. Это приписка для умников у которых может жмыхнуть пятая точка.
Для иллюстраторов годный инструмент,как помошник конечно же,не как готовый продукт.Для архивизеров же вообще как собаке пятая нога.Потому что нет повторяемости результата .Представьте вы показываете клиенту разные кадры и на всех отличная мебель,детали,освещение. Покажите мне одну и ту же комнату с разных ракурсов и что бы все детали соответствовали общему замыслу.
Ну так всё, что вас не устраивает, уже в пути. Все критики нейросетей одинаковы, им не хватает дальновидности. Вчера что-то не устраивало, сегодня это довели до ума, нашли к чему ещё придраться. Вот только завтра и это будет реализовано. К чему все эти однотипные комментарии? Хотя я знаю – самоутешение до последнего. Но прогресс скоро и это у вас отберёт. Нужно немного подождать и всё будет в виде готового инструмента.
Для иллюстраторов годный инструмент,как помошник конечно же,не как готовый продукт.Для архивизеров же вообще как собаке пятая нога.Потому что нет повторяемости результата .Представьте вы показываете клиенту разные кадры и на всех отличная мебель,детали,освещение. Покажите мне одну и ту же комнату с разных ракурсов и что бы все детали соответствовали общему замыслу.
Ну так всё, что вас не устраивает, уже в пути. Все критики нейросетей одинаковы, им не хватает дальновидности. Вчера что-то не устраивало, сегодня это довели до ума, нашли к чему ещё придраться. Вот только завтра и это будет реализовано. К чему все эти однотипные комментарии? Хотя я знаю – самоутешение до последнего. Но прогресс скоро и это у вас отберёт. Нужно немного подождать и всё будет в виде готового инструмента.
абсолютно верно. Например, я испытываю страх и восхищение одновременно, я слежу за развитием нейронок и вижу прогресс. Еще пару итераций и все
ps банана про за 30 секунд отстраивает плюс-минус нормальные ракурсы с других точек по двум схематичным рендерам (например в скетчапе), улучшая их. Часть клиентов уже играются (не я им это показал)), лучше бы вообще им не показывать