Вообще под рендер о вторых видеокартах задумываются, когда уже в потолок упираются с топовой версией. А так чтобы рассматривать две бюджетные карты довольно необычно.
Вообще под рендер о вторых видеокартах задумываются, когда уже в потолок упираются с топовой версией. А так чтобы рассматривать две бюджетные карты довольно необычно.
Я в потолок буду упираться при любых раскладах. Тут вопрос чисто в эффективности потраченных средств. Ну и вообще в функциональности системы, тк c GPU у меня опыта очень мало.
Тут вопрос чисто в эффективности потраченных средств.
Если говорить про процессоры, то выгоднее уходить в количество. Есть безусловно как плюсы, так и минусы, но лично для меня плюсы перевешивают минусы. Хоть и пришлось сильно отступиться от своих неудобств. По поводу видеокарт из-за нелинейного прироста к мощности, а так же не суммировании объемов памяти полагаю что выгоднее будет вкладываться в более производительную карту, нежели в количество.
Однако, Вы как решите, сообщите о своем выборе пожалуйста. Если выберите две карты, то интересно будет об опыте использования почитать, потому что производительность 4090 многих более устраивает. И я не встречал еще отзывы от тех кто считает ролики более, чем на одной топовой карте, про бюджетные карты последний раз видел отзывы, когда существовал NVLink.
Тут вопрос чисто в эффективности потраченных средств.
Если говорить про процессоры, то выгоднее уходить в количество. Есть безусловно как плюсы, так и минусы, но лично для меня плюсы перевешивают минусы. Хоть и пришлось сильно отступиться от своих неудобств. По поводу видеокарт из-за нелинейного прироста к мощности, а так же не суммировании объемов памяти полагаю что выгоднее будет вкладываться в более производительную карту, нежели в количество.
Однако, Вы как решите, сообщите о своем выборе пожалуйста. Если выберите две карты, то интересно будет об опыте использования почитать, потому что производительность 4090 многих более устраивает. И я не встречал еще отзывы от тех кто считает ролики более, чем на одной топовой карте, про бюджетные карты последний раз видел отзывы, когда существовал NVLink.
Сообщу конечно. Единственное что я наверное не буду самый топ брать, а значит не смогу быть абсолютно объективным. Впрочем, я до НГ еще поизучаю вопрос.
Вообще интересно, что всех утсраивает. По моему почти 15-летнему опыту(правда на CPU и статике) ресурсов всегда не хватает.
С процессорами да, есть такая история. Видеокарты рендерят в разы быстрее, однако у них узкое место - объем памяти. Как только видеокарты станут сопоставимы по цене и производительности с процессорами, многие переедут с ЦПУ на ГПУ. Хотя безусловно не совсем корректно так в лоб сравнивать, потому что есть много нюансов. К примеру, вся система может увеличить свой срок службы на несколько лет. Потому что условный процессор Intel примерно десяти летней давности для моделирования хватает с головой. А видеокарт за это время можно было бы сменить несколько. Соответственно держа это в голове можно один-два бюджета апгрейда компьютера добавить на разность в стоимости карты.
А пока увы, слишком много работы по оптимизации необходимо провести, чтобы в рабочих проектах помещаться в 24 ГБ памяти. Тем не менее, есть у меня подруга коллега, которая со времен 2080 перешла на ГПУ. Делает только интерьеры. Мучается, оптимизирует, для каждой комнаты своя сцена. Но работает и ей нравится. На мой взгляд дешевле купить еще один-два компьютера, чтобы выйти на аналогичную скорость, но при этом штамповать проекты быстрее.
Резюмируя, пока еще слишком рано отказываться от ЦПУ в арх. визе в 3д максе. Но еще не настолько, чтобы игнорировать ГПУ, смотреть и щупать все-таки стоит.
С процессорами да, есть такая история. Видеокарты рендерят в разы быстрее, однако у них узкое место - объем памяти. Как только видеокарты станут сопоставимы по цене и производительности с процессорами, многие переедут с ЦПУ на ГПУ. Хотя безусловно не совсем корректно так в лоб сравнивать, потому что есть много нюансов. К примеру, вся система может увеличить свой срок службы на несколько лет. Потому что условный процессор Intel примерно десяти летней давности для моделирования хватает с головой. А видеокарт за это время можно было бы сменить несколько. Соответственно держа это в голове можно один-два бюджета апгрейда компьютера добавить на разность в стоимости карты.
А пока увы, слишком много работы по оптимизации необходимо провести, чтобы в рабочих проектах помещаться в 24 ГБ памяти. Тем не менее, есть у меня подруга коллега, которая со времен 2080 перешла на ГПУ. Делает только интерьеры. Мучается, оптимизирует, для каждой комнаты своя сцена. Но работает и ей нравится. На мой взгляд дешевле купить еще один-два компьютера, чтобы выйти на аналогичную скорость, но при этом штамповать проекты быстрее.
Резюмируя, пока еще слишком рано отказываться от ЦПУ в арх. визе в 3д максе. Но еще не настолько, чтобы игнорировать ГПУ, смотреть и щупать все-таки стоит.
Отказываться полностью и не получится. Но я рассчитываю 50% рендера перевести на GPU. У меня и так 3 компа, дальше только ферму собирать. В общем все зависит от задач
Ребята, извиняюсь если не туда пишу но вопрос такой, нужно купить второй монитор хочется конечно 27 диагональ 4к разрешение, либо 27 диагональ 2к разрешение, уже имеющийся монитор 24 диагональ FullHD, но есть нюанс видеокарта GTX1650, потянет ли он 2 монитора если один из них будет 4к или 2к, в том плане насколько комфортно будет пользоваться 3дмаксом, заранее благодарю всех кто поможет советом.
Цитата ModifyKZ:
Ребята, извиняюсь если не туда пишу но вопрос такой, нужно купить второй монитор хочется конечно 27 диагональ 4к разрешение, либо 27 диагональ 2к разрешение, уже имеющийся монитор 24 диагональ FullHD, но есть нюанс видеокарта GTX1650, потянет ли он 2 монитора если один из них будет 4к или 2к, в том плане насколько комфортно будет пользоваться 3дмаксом, заранее благодарю всех кто поможет советом.
Всех приветствую! Подскажите, пожалуйста! В общем я всячески отказывался от ноутбука и собрал себе комп, достаточно хороший для начинания в 3D max. Но потребность в передвижение взяла верх. Теперь продаю комп, и не могу определиться с ноутбуком, а точнее с видео картой в нем. Мое железо работает на 3060ti а ноутбук который могу позволить себе купить 4060. У 4060 шина меньше в 2 раза, а пропускная способность на 50% в остальном она опережает. Вот теперь мой вопрос! На сколько сильно играют роль эти 2 показателя (шина и пропускная способность) в 3D max ? На сколько сильно я почувствую разницу ? Или она будет не значительной учитываю что производительность процессора одинаковая. Помогите, парнииии!
Всех приветствую! Подскажите, пожалуйста! В общем я всячески отказывался от ноутбука и собрал себе комп, достаточно хороший для начинания в 3D max. Но потребность в передвижение взяла верх. Теперь продаю комп, и не могу определиться с ноутбуком, а точнее с видео картой в нем. Мое железо работает на 3060ti а ноутбук который могу позволить себе купить 4060. У 4060 шина меньше в 2 раза, а пропускная способность на 50% в остальном она опережает. Вот теперь мой вопрос! На сколько сильно играют роль эти 2 показателя (шина и пропускная способность) в 3D max ? На сколько сильно я почувствую разницу ? Или она будет не значительной учитываю что производительность процессора одинаковая. Помогите, парнииии!
Мое железо работает на 3060ti а ноутбук который могу позволить себе купить 4060. У 4060 шина меньше в 2 раза, а пропускная способность на 50% в остальном она опережает. Вот теперь мой вопрос! На сколько сильно играют роль эти 2 показателя (шина и пропускная способность) в 3D max?
Ни насколько. Для 3Ds Max видеокарта не важна. Особенно при моделировании.
В Corona Render видеокарта использует только при включении NVIDIA AI denoiser и на скорость влияет количество CUDA ядер. Для GPU рендеров (V-Ray, Octane, FStorm), помимо количества CUDA ядер важен объём видеопамяти. В Unreal всё упирается в объем VRam.
Цитата CrazyChao:
На сколько сильно я почувствую разницу? Или она будет не значительной учитываю что производительность процессора одинаковая. Помогите, парнииии!
Зависит от Ваших задач, скорее всего не почувствуете вовсе. Главное — памяти побольше!
Цитата shafxat:
4060ти и 4060 рекомендуется не покупать . так как является напрасной тратой денег
Мое железо работает на 3060ti а ноутбук который могу позволить себе купить 4060. У 4060 шина меньше в 2 раза, а пропускная способность на 50% в остальном она опережает. Вот теперь мой вопрос! На сколько сильно играют роль эти 2 показателя (шина и пропускная способность) в 3D max?
Ни насколько. Для 3Ds Max видеокарта не важна. Особенно при моделировании.
В Corona Render видеокарта использует только при включении NVIDIA AI denoiser и на скорость влияет количество CUDA ядер. Для GPU рендеров (V-Ray, Octane, FStorm), помимо количества CUDA ядер важен объём видеопамяти. В Unreal всё упирается в объем VRam.
Цитата CrazyChao:
На сколько сильно я почувствую разницу? Или она будет не значительной учитываю что производительность процессора одинаковая. Помогите, парнииии!
Зависит от Ваших задач, скорее всего не почувствуете вовсе. Главное — памяти побольше!
Цитата shafxat:
4060ти и 4060 рекомендуется не покупать . так как является напрасной тратой денег
4060Ti есть смысл покупать только с 16Gb памяти.
уважаемый . зачем ей 16 гб?
16 гб нужны для игр в 4к . этой видеокарте зачем 16 гб? для понтов или нвидео обгадившись с выходом 4060ти 8 гб решила подсластить пилюлю
16 гб нужны для игр в 4к . этой видеокарте зачем 16 гб? для понтов или нвидео обгадившись с выходом 4060ти 8 гб решила подсластить пилюлю
Нейросети.
И НВидия не обгадилась. 16 ГБ видеопамяти в младших картах нужны для медиаэкранов, как самостоятельных так и кластерных, которым не нужен сверхбыстрый чип для обработка данных, а вот большой объем памяти под вывод изображения нужен как воздух.
4060Ti может и не оптимальный вариант под игры и избыточный под Макс, но модель на 16гб это отличный варик под UE когда не хочется переплачивать, ведь следующая Нвидиевская видяха с 16-гигами это 4070Ti, а это уже х2 ценник, или даже чуть больше. Ну а под Макс я бы проще брал что-то, 1650-1660 какую нить ну или там что бы и поиграть сносно какую нить 3060.
так сейчас 3070 и 3070 ти дешевле чем 4060ти . почему только обьем памяти ? мощность самой видеокарты ни чего не решает?
Отвечу развернуто, как всегда...
Во время сборки сцены вы как правило работаете в небольшой области с низким разрешением, еще и по дефолту всегда включен апсемпинг. Вот у меня на 2560x1440 разрешении рабочее окно 2000x900px (остальное - интерфейс) и дефолтный апсемплинг стоит на 67%, получается там нативное разрешение примерно 1340x600, мощная видяха не нужна что бы вьюпорт крутить в таком раскладе. Помимо этого я и на 4090 работаю в пресете High Quality (это ниже чем Epic и Cinematic). И как бы очень редко я переключаю пресет выше этого, в этом просто нужды нету. Только когда камеру уже выставили и хотите получше поглядеть на результат. Но там можно потерпеть и 5 и 10FPS, без проблем.
По полной настройки выкручиваться уже во время MRQ рендера. А рендрит Анриал очень быстро, по крайней мере Люменом. Особенно если вы включаете DLAA, там на 4060Ti можно в 4К/60FPS трехминутный ролик на 10800 кадров отрендрить за 40-50 минут, даже если это какой то экстерьер с кучей неоптимизированных ассетов. Соответственно, превью рендер в 1440p/30-48FPS можно бахать хоть по 10 раз на дню за 5-7 минут. Да, в финальном качестве и без DLAA, на хороших настройках это уже будет не 40-50 минут а 8-10 часов, но это все таки трехминутный ролик в 4К/60FPS. Я все это к тому что сама по себе мощность GPU для рендера в Люмене, на мой взгляд не сильно то и важна. Мощности 3060 мне бы хватало.
Где же нужна мощность GPU в Анриале ? VR/AR/Рантайм. И ПасТрейсер. Пастрейсер имеет кучу ограничений и нюансов и он примерно раз эдак в 20 медленней чем Люмен. И тут как бы и одной 4090 маловато не говоря про 3070... Не ну статику можно рендрить в целом. Но IMHO, что рендрить видосы ПасТрейсером это удел mGPU сборок или пачки рендер-нод. Хотя это спорное заявление. Спорить не собираюсь, я на 4090 попробовал Пастрейсером порендрить, как по мне это слишком медленно. А на 3070 вообще "смэрть" как долго будет...
Память. Память в Анриале важна в том плане что когда ее нехватает - Анриал все чаще и чаще вылетает. Фризит. Иногда из-за отложенного рендринга во избежания статтеров движок может просто прятать какие то объекты, инвалидация VSM карт может работать с задержкой из за чего могут начать моргать тени или появляться пятна. А так же VT/RVT-Текстуры от нехватки памяти могут внезапно прогружаться на глазах (Popout-эффект). Тот же Nanite-Дисплейсмент может начать стрелять треугольниками или дырами из за нехватки видеопамяти. Но самое неприятное это то что чем сильнее нехватает памяти тем чаще он падает во время рендера. Да, конечно у UE есть механизм свопа (подкачки из ОЗУ), так называемая GPU Shared Memory, когда заполняется память видяхи то остальная видеопамять лезет в ОЗУ. Но обычно когда она вылезает уже на 20% то тогда начинаются проблемы. Так что вот... Да, память в Анриале важнее чем мощность GPU. А в тех задачах где мощность GPU нужна то там и одной 3090-4090 может нехватать. А, ну и конечно при нехватке памяти замедляется рендер, ну то такое, это наверное самая незначительная проблема. А и еще, GPULightmass при бейке освещения как я понимаю не умеет в GPU Shared Memory, вот там если память набортная закончилась то все - вылетает он нафиг. Приходиться считать либо на проце (10 тысчяч лет) либо зарубать качество Лайтмапы. Либо печь частями и склеивать. Геммор короче.
Конечно еще стоило бы сделать оговорку про тип проектов которые вы делать планируете в Анриале. Если это игры под мобилочки или планшетики то конечно и 8гб хватит с запасом. Если делать легкие модерновые интерьеры, без сложного бейка освещения и без кучи комнат, тоже хватит и будет все ОК. Но когда вы делаете чет большое, заваливаете сцену неоптимизированными ассетами/растениями от Короны, когда чет масштабное делаете то из за любого чиха может нехватать памяти )) Тогда уже приходится страдать с настройкой стриминга ассетов/слоев/текстур, мучать настройки кулинга, жать все подряд и короче тратить время и силы на технический процесс. Когда эта рутина душить начинает то воешь как волк и думаешь купить A6000 48GB (Turing, не Ada) на еБее за 3-4к баксов
Ну и вообще, ведь у вас то не один Анриал запущен. Не ну бывает конечно. Но у меня периодами там Substance Painter, RIZomUV, Photoshop, 3Ds Max, по разному и в разных комбинациях могут понемногу сжирать VRAM фоном. Та даже Chrome с аппаратной аккселерацией. Постоянно приходится думать об этом всем.
Подскажите про ASUS 4090 TUF Gaming OC Edition в сравнении с MSI GeForce RTX 4090 suprim X. Понимаю что последняя одна из лучших 4090, но она и стоит дороже. В чем принципиальное различие? Если верно понял то у этой модели ASUS вполне годная элементная база, но может я заблуждаюсь Пытаюсь для себя понять стоит ли переплачивать за MSI.
Подскажите про ASUS 4090 TUF Gaming OC Edition в сравнении с MSI GeForce RTX 4090 suprim X. Понимаю что последняя одна из лучших 4090, но она и стоит дороже. В чем принципиальное различие? Если верно понял то у этой модели ASUS вполне годная элементная база, но может я заблуждаюсь Пытаюсь для себя понять стоит ли переплачивать за MSI.
Заранее благодарен.
Не могу сказать про асус у самого мси суприм.холодная тихая и продуктувная уже год в експлуатации
Параметры, практически идентичны, но различия есть:
распределение фаз питания: у карты Asus TUF Gaming OC Edition — 18 фаз на ядро и 4 на микросхемы памяти (всего 22), максимальная частота GPU 2775 МГц, 8 тепловых трубок в охлаждении (ixbt
).
у карты MSI Suprim X — 26 + 4 (всего 30), максимальная частота GPU 2790 МГц, 9 тепловых трубок (ixbt
).
MSI — надёжнее и сильнее разогнана в стоке.
Хотя, умеючи, каждую можно разогнать ещё сильнее, если нужно, конечно...