AI - Нейросети

Автор
Сообщение
На сайте c 08.10.2011
Сообщений: 762
Moscow

Вышел Flux.2. Модель Q8 - 35Гб. И текстовый кодировщик ещё 35Гб. Однако.

На сайте c 06.05.2014
Сообщений: 3725
Краснодар

Полная версия FLUX.2 [dev] насчитывает 32 миллиарда параметров, и в стоковом состоянии для ее запуска требуется около 90 ГБ VRAM. Хорошая новость в том, что NVIDIA совместно с BFL уже выпустили оптимизированные FP8-квантизации, снижающие потребление памяти примерно на 40%. Это делает локальный запуск FLUX.2 [dev] реальностью на топовых картах RTX 4090 и 5090, а поддержка модели уже внедряется в свежие обновления ComfyUI и Diffusers.

%D0%BA%D0%BE%D1%82%D1%8D-facepalm-5843867.jpeg

На сайте c 29.05.2015
Сообщений: 1249
Москва

https://disk.yandex.ru/i/Kc9blXKSFlkU1w  Потихоньку учим какие то реальные профессии)))

На сайте c 26.07.2008
Сообщений: 4038
Москва

Лампы правильно отражают балки. У меня все.

Ниже - увеличение по клику

и создал пустое помещение и просил наполнить разными стилями (есть еще несколько 18+)) (все - gemini, nano banana pro 2800х1550 - https://disk.yandex.ru/i/83DG31eiQ2mBPQ  )

з.ы. уберите от экранов детей и женщин - https://disk.yandex.ru/i/MJokZ6x753cioQ   и  https://disk.yandex.ru/i/a-7WVzRtzH6J-A  

На сайте c 01.02.2008
Сообщений: 3927
Принимаю заказы на визуализацию.
Цитата Nick_pan:

https://disk.yandex.ru/i/Kc9blXKSFlkU1w   Потихоньку учим какие то реальные профессии)))

Поржала над "люксовыми журнальными фотографиями" :)))

На сайте c 29.05.2015
Сообщений: 1249
Москва
Цитата Женька:
Поржала

🙂 Ага)) Но тем не менее, это уже опасно)

На сайте c 06.05.2014
Сообщений: 3725
Краснодар

Uraken, качество же не очень, и такое можно делать в ty diffusion прямо в максе формами, причем там все летает на старой SDxl

На сайте c 26.07.2008
Сообщений: 4038
Москва
Цитата shinodem:

Uraken, качество же не очень, и такое можно делать в ty diffusion прямо в максе формами, причем там все летает на старой SDxl

ок, аргументируй. Приведи пример аналогичный из ty diffusion. То, что например у тебя он сейчас не работает - не отмазка. И почему качество не очень?

На сайте c 24.06.2014
Сообщений: 4852
Цитата Uraken:
И почему качество не очень?

Ну качество будто взяли 1920х1080 растянули до 2560х1440. Или еще хуже.

Не ну конечно можно еще раз переварить эти картинки через какой нить UltimateSDUpscaler/Topaz, навести резкости. Но как по мне - мыльновато.

На сайте c 14.06.2012
Сообщений: 16575
Москва

ваще пофиг на лёгкое размытие, оно даже скрадывает косяки.
круто!

На сайте c 26.07.2008
Сообщений: 4038
Москва
Цитата Earanak:
Цитата Uraken:
И почему качество не очень?

Ну качество будто взяли 1920х1080 растянули до 2560х1440. Или еще хуже.

Не ну конечно можно еще раз переварить эти картинки через какой нить UltimateSDUpscaler/Topaz, навести резкости. Но как по мне - мыльновато.

так там upscale, а не растяжение

На сайте c 15.11.2007
Сообщений: 490
Казань.

Для иллюстраторов годный инструмент,как помошник конечно же,не как  готовый продукт.Для архивизеров же вообще как собаке пятая нога.Потому что нет повторяемости  результата .Представьте вы показываете клиенту разные кадры и на всех отличная мебель,детали,освещение.Покажите мне одну и ту же комнату с разных ракурсов и что бы все детали соответствовали общему замыслу.

На сайте c 24.06.2014
Сообщений: 4852

Uraken, да я без понятия про какое качество речь шла и что там и как там. Я открыл картинки - они мыльные/будто потянутые, мне такое не заходит, у меня и так зрение с рождения плохое, люблю перешарп )) А откуда это мыло, как это исправить, нужно ли это исправлять - это уже мне не интересно, я свои пять копеек вставил, пошел дальше 😁

На сайте c 26.07.2008
Сообщений: 4038
Москва
Цитата olegen:
комнату с разных ракурсов

я такое пробовал

На сайте c 06.05.2014
Сообщений: 3725
Краснодар
Цитата Uraken:
Цитата shinodem:

Uraken, качество же не очень, и такое можно делать в ty diffusion прямо в максе формами, причем там все летает на старой SDxl

ок, аргументируй. Приведи пример аналогичный из ty diffusion. То, что например у тебя он сейчас не работает - не отмазка. И почему качество не очень?

примеров не могу привести, к сожалению ty diffusion поломался, и больше не ставится, выдавая ошибку, но на ютубе полно роликов как им пользоваться в 3д максе, там не такая продвинутая модель, но это компенсируется тем что можно использовать модели во вьюпорте их двигать и контролировать, получая именно то что хочешь и где хочешь, а не лишь по описанию текстом или рисованием маски.

https://youtu.be/D-1Vy864PtQ  

а качество реально мыльное при 100%

Earanak, из моих опытов самый лучший улучшайзер Magnific AI — The magic image Upscaler & Enhancer

https://s1.directupload.eu/images/251128/u2to8uvi.jpg 

https://s1.directupload.eu/images/251128/ito9ixcv.jpg  

ему можно спихнуть рендер и он добавит реалистичных деталей не портя картинку, но к сожалению он платный и бесплатно дают разово поинты, но не на все акаунты

есть https://www.krea.ai/enhancer  здесь бесплатно до мелкого разрешения, но он намного хуже первого сервиса

топаз, airarty почти не дорисовывают детали, только лица могут дорисовать и кое-где шерсть, они не улучшают детали

На сайте c 24.06.2014
Сообщений: 4852
Цитата shinodem:
там не такая продвинутая модель

Ты сам там выбираешь модели в tyDiffusion. В том числе те которых изначально нету в пресетах. tyDiffusion работает на основе ComfyUI, в том числе умеет переносить в него Workflow. Так же он ставит локальную версию ComfyUI которую можно модифицировать под свои нужды.

Если имелось ввиду что в целом все локальные модели не такие продвинутые, ну... Да. Если это не какой то Flux Dev 2 под 96гб видяхи, то - так и есть, увы.

P.S. Если че я в курсе что объем модели/количество параметров не всегда значит что она круче. И я в курсе про тяжеловыесные Воркфлоу под Комфи которые красоту делают и с обычными SDXL моделями. Это приписка для умников у которых может жмыхнуть пятая точка.

На сайте c 18.12.2014
Сообщений: 2
Цитата olegen:

Для иллюстраторов годный инструмент,как помошник конечно же,не как  готовый продукт.Для архивизеров же вообще как собаке пятая нога.Потому что нет повторяемости  результата .Представьте вы показываете клиенту разные кадры и на всех отличная мебель,детали,освещение. Покажите мне одну и ту же комнату с разных ракурсов и что бы все детали соответствовали общему замыслу.

Ну так всё, что вас не устраивает, уже в пути. Все критики нейросетей одинаковы, им не хватает дальновидности. Вчера что-то не устраивало, сегодня это довели до ума, нашли к чему ещё придраться. Вот только завтра и это будет реализовано. К чему все эти однотипные комментарии? Хотя я знаю – самоутешение до последнего. Но прогресс скоро и это у вас отберёт. Нужно немного подождать и всё будет в виде готового инструмента. 

На сайте c 08.12.2015
Сообщений: 295

терпеть не могу эту ветку 😂

На сайте c 26.07.2008
Сообщений: 4038
Москва
Цитата slipknot1111:
Цитата olegen:

Для иллюстраторов годный инструмент,как помошник конечно же,не как  готовый продукт.Для архивизеров же вообще как собаке пятая нога.Потому что нет повторяемости  результата .Представьте вы показываете клиенту разные кадры и на всех отличная мебель,детали,освещение. Покажите мне одну и ту же комнату с разных ракурсов и что бы все детали соответствовали общему замыслу.

Ну так всё, что вас не устраивает, уже в пути. Все критики нейросетей одинаковы, им не хватает дальновидности. Вчера что-то не устраивало, сегодня это довели до ума, нашли к чему ещё придраться. Вот только завтра и это будет реализовано. К чему все эти однотипные комментарии? Хотя я знаю – самоутешение до последнего. Но прогресс скоро и это у вас отберёт. Нужно немного подождать и всё будет в виде готового инструмента. 

абсолютно верно. Например, я испытываю страх и восхищение одновременно, я слежу за развитием нейронок и вижу прогресс. Еще пару итераций и все

ps банана про за 30 секунд отстраивает плюс-минус нормальные ракурсы с других точек по двум схематичным рендерам (например в скетчапе), улучшая их. Часть клиентов уже играются (не я им это показал)), лучше бы вообще им не показывать

На сайте c 18.12.2014
Сообщений: 2
Цитата Uraken:
Цитата slipknot1111:
Цитата olegen:

Для иллюстраторов годный инструмент,как помошник конечно же,не как  готовый продукт.Для архивизеров же вообще как собаке пятая нога.Потому что нет повторяемости  результата .Представьте вы показываете клиенту разные кадры и на всех отличная мебель,детали,освещение. Покажите мне одну и ту же комнату с разных ракурсов и что бы все детали соответствовали общему замыслу.

Ну так всё, что вас не устраивает, уже в пути. Все критики нейросетей одинаковы, им не хватает дальновидности. Вчера что-то не устраивало, сегодня это довели до ума, нашли к чему ещё придраться. Вот только завтра и это будет реализовано. К чему все эти однотипные комментарии? Хотя я знаю – самоутешение до последнего. Но прогресс скоро и это у вас отберёт. Нужно немного подождать и всё будет в виде готового инструмента. 

абсолютно верно. Например, я испытываю страх и восхищение одновременно, я слежу за развитием нейронок и вижу прогресс. Еще пару итераций и все

ps банана про за 30 секунд отстраивает плюс-минус нормальные ракурсы с других точек по двум схематичным рендерам (например в скетчапе), улучшая их. Часть клиентов уже играются (не я им это показал)), лучше бы вообще им не показывать

Так точно. Недавно видел видео о нейронках от Изотова. У которого онлайн школа по визу. Он там всех убеждал что лет 50 нейронок точно боятся не стоит)) Ну он то понятно зачем это делает. А насчет критиков. Полное отсутствие дальновидности, завтрашнего дня в фокусе нет. Ну он все ровно их настигнет. И тогда уже наступит время принятия и горевания. Пока они занимаются восхвалением своей незаменимости и обесцениванием прогресса, вместо того что бы идти в ногу со временем и вливатся в новые реалии. нейронки накрывают всё это медным тазом. И как раз вот такие тугоголовые борцы и останутся за бортом индустрии.   Насчет клиентов тоже есть заблуждения. Все почему-то уверены, что до момента когда останется одна кнопка, какие-либо заказчики не будут в состоянии выучить десять. Но и здесь уже стадия самоуспокоения не работает. Начинают уж и они втягиваться.