Ах, да. Отбой по x2 в D5 Рендере. Они на новых слайдах дописали под столбиками - DLSS4. А на старых слайдах не было этого 'нюанса'
Еще я не удивился что они сравнивали 4090 и 5090 в Flux.Dev, ну канеш... Где сам диффузер весит 23.5гб К нему еще надо докачивать VAE и CLIP на 10гб. И все это выжирает в ноль 24гб видеопамяти и 40гб оперативки. Сидишь потом тыщу лет (1-2 минуты) ждешь пока оно одну картинку вырисовывает вместо 10-15 секунд на других моделях. К тому же авторы - демоны, запретили сиськи рисовать в Flux.Dev, им явно дорога в ад за такое ))) Хотя может с сиськами диффузер-модель весила бы 32гб и работала бы только на 5090, ну тогда в самый раз было бы
не совсем, 5000 серия вышла дешевле чем 4000, надо смотреть какие закупочніе цені были у продавцов, он не станет торговать себе в убыток, кому надо они впарят 4070 по цене дороже чем 5070, что-бы отбить затраты
не совсем, 5000 серия вышла дешевле чем 4000, надо смотреть какие закупочніе цені были у продавцов, он не станет торговать себе в убыток, кому надо они впарят 4070 по цене дороже чем 5070, что-бы отбить затраты
Я свою ASUS 4070 Duo взял за 700$ когда она только вышла.
Сейчас MSRP цена на 5070 - 550$ + вендор накинет + поставщик в среднем 25%. Как минимум будет так же 700$, а то и дороже, учитывая что на 4070 цены не сильно ниже, чем при выходе.
У Вас сцена в разы легче, как по геометрии так и по текстурам. Еще Вы не учитываете, что проект делается на лету с дизайнером. При таком подходе могут висеть мусорные материалы, может быть скрытая геометрия от какого то варианта и т.д.
К примеру, крупные планы колосника, который на этом ракурсе не особо виден.
Тут видео 5090 в Cyberpunk
(www.youtube.com/watch?v=lA8DphutMsY) без DLSS в 4K показали — 28 фпс. В тестах Geekbench Vulkan
там такая же разница что и предполагали ранее 26–37%.
По визу пока не понятно. Помню давно iray когда был, он не поддерживал долго карты 10-ой серии Nvidia, нужно было какие билды рукодельные качать. Но время у прог обновится есть. Nvidia лидер, карты она презентует теперь раз в 2.5 года, может на 3-хлетку перейдёт, так что 50-ая с нами надолго. Кому нужна 40 серия, то берите, потом не будет, Nvidia избавляется от запасов RTX 40, распродаются остатки. Цена на 50 будет выше, хотя бы из-за начального дефицита.
Я кстати совсем не понимаю тэйков про то, что при 4к низкие фпс с ртх лучами. Есть вообще понимание, что в риалтайм идет просчет огромных сцен, так еще и в 30фпс с таким огромным разрешением. Или из-за нытья огромного кол-ва блогеров, которые сами не особо то разбираются в теме Хуанг такой "О нет, Ололошин Ваня сделал про меня видос, теперь вместо прокачки длсс буду упираться на производительность".
Еще я не удивился что они сравнивали 4090 и 5090 в Flux.Dev, ну канеш... Где сам диффузер весит 23.5гб К нему еще надо докачивать VAE и CLIP на 10гб. И все это выжирает в ноль 24гб видеопамяти и 40гб оперативки.
Ещё t5xxl_fp16 плюс 10Гб.
Для такого дела, видимо, нужны монстры типа Tesla A100 или H800.
filatkin_m, ну на 4090 - Flux.Dev в ComfyUI - терпимо работает. Ну да, медленней раза эдак в 2-3 чем SDXL модели, и сжирает в 2.5-3 раза больше ресурсов. Например пока он там пыхтит с апскейлингом то фоном Фотошоп подтупливает, у других моделей которые на порядок проще - такого не происходит конечно.
Некие тесты
в Blender, 34% в пользу 5090. Во всех тестах нужно будет потребление мониторить, разница 575 Вт против 450 Вт у 4090.
вот тема мощности хоть поднята . на 4080 нужно было блок питания 850 ватт . а на 5080 теперь?
когда пойдут продажи увидим тесты и обзоры . а пока что какая то лажа
5070 сравнивают с 4070 . хотя есть и 4070 супер и 4070 ти . 5070ти почему то с 4070ти супер не сравнивают . хотя по обьему памяти можно сказать родственники
на 4080 нужно было блок питания 850 ватт . а на 5080
Цитата Rebate:
575 Вт
Не знаю, как там 5080, но 5090 - короче, с учетом того, что 4080 жрет до 320 Вт, для 5090 нужно +250 иии... ура, настал момент, когда в киловаттнике не просто есть смысл, его хватает почти впритык
Киберсексуалы и железоложцы строем бегут за 1500-2000 Вт (с заделом на будущее, как они любят)
5080, вероятно, будет кушОть 400+.
Для себя рассматриваю не более чем 5070 тисупер, но втайне жду удара в псину куртку от Intel - B580 очень, очень хороша. Если сделают в 2 раза быстрее за в 2 раза больше денег - порвут рынок.
Для меня никаких открытий не свершилось, все как и прогнозировал с первого же дня на CES.
А не... Во... Вот что удивило ))
Помните же что было с RTX 3090 и GDDR6X ?
Ну... Потом вендоры расчехлились и научились охлаждать видеопамять.
Но тут же GDDR7, и шина жесткая и ПСП улетело в небеса. Да ?
Получите, распишитесь :
Разумеется стоит отметить то что GDDR6X на самом деле оказалось КРАЙНЕ выносливой памятью и та что грелась до 95-105 градусов на RTX 3000 - до сих пор себя чувствует ОК и никаких нигде, ни на каких каналах Сервис Центров я не видел жалоб на нее. Так что как бы да... Горячая до безумия, но проблем ноль. Если GDDR7 выйдет такой же - ок. Жаль что вся видяха сушиться, пыхтит и выделяет тонну тепла - но хотя бы не дохнет.
Потому что не нужная вещь, с ненужной ценой на старте, выдающая перфоменс в большинстве случаев за счет пропорционального увеличения мощности, имеющее нишевое уникальное достоинство в 32 Гб.
В сети появились данные о новой профессиональной видеокарте Nvidia RTX 6000 Blackwell с впечатляющими 96 ГБ памяти GDDR7 и 512-битной шиной. Однако её энергопотребление и цена возможно удивят даже профессионалов.
Компания Nvidia, завершая работу над игровой RTX 5090, сосредоточилась на новом флагмане для профессионалов — RTX 6000 Blackwell. Согласно данным Tom's Hardware, карта получит 96 Гбайт памяти GDDR7 с 512-битной шиной. Решение ориентировано на задачи визуализации, 3D-моделирование и «лёгкий» ИИ. Ожидается, что Blackwell станет ключевым инструментом для индустрии дизайна и разработки.
В декабре один из экспортёров отправил в Индию четыре тестовых образца с маркировкой PG153, что в целом характерно для Nvidia. Получателем выступила дочерняя компания Nvidia Graphics Private Limited. Это подтверждает, что компания, очевидно, намерена протестировать новинку перед релизом. Пока официальное название карты не раскрывается, но источники связывают её с линейкой RTX 6000 Blackwell Generation.
Для достижения 96 Гбайт памяти Nvidia использует 32 микросхемы GDDR7 по 24 Гбит каждая, размещённые в режиме clamshell. Это позволяет удвоить объём без потерь в пропускной способности, то есть два чипа будут работать через один 32-битный контроллер, разделяя адресную шину. Таким образом, 512-битный интерфейс сохранит эффективность, обеспечив высокую скорость передачи данных.
Что касается мощности и охлаждения, то точные характеристики GPU Blackwell не раскрыты, однако аналитики предполагают, что видеокарта превзойдёт игровой GB202 в RTX 5090. Ожидается до 24 576 CUDA-ядер (против 21 760 у GeForce) и 192 мультипроцессоров. Потребление энергии превысит 300 Вт, как у RTX 6000 Ada, что, вероятно, потребует усиленной системы охлаждения.
Стоит сказать, что 96 Гбайт памяти избыточны для классического CAD или рендеринга, но критичны для ИИ-задач. Поэтому Nvidia, вероятно, выпустит отдельную версию карты для машинного обучения. Ожидается, что анонс состоится на Game Developers Conference (GDC) в марте в Сан-Хосе или на собственном мероприятии GTC 2025 (17–21 марта, Сан-Франциско).
С такой штукой и в ГПУ рендер можно уходить. Только вопрос цены. Вполне возможно за ее стоимость можно будет стек нод собрать и получить такую же производительность. А вот для анрила весьма интересно.
Ну на старте продаж А6000 Ампер, A6000 Ада стоили по 10-12к баксов. Тут старый техпроцесс и чип не сильно толще 5090, ну 96гб памяти... По идее не должна больше 15к баксов стоить, так что окупить по идее не проблема.
Ivaner, так берут же ее для проектов где платят как за целый боинг.
Меня большую надежду вселяет появление таких продуктов на потребительский рынок. Да дорого, да такую сложно будет купить, но сугубо в теории, возможно появится инструмент для решения тяжелых задач.
Ведь сейчас на ЦПУ посчитать можно любой проект. Даже, если делать ногами или рендерить город в одной сцене, есть тредриппер про куда два терабайта ОЗУ воткнуть можно. Не хватает скорости, рендер-ферма или дома стек нод. А рендер на ГПУ че? 24 на геймерской и 48 на про карте, мало.