угу, на dwg.ru как-то чувак поведал, что у него на Bentley Microstation без как минимум 4 каких-то квадр с RTX-ом часть функционала даже не запускается :)
Earanak, с учетом цены, я бы взял вторую 3090 и воткнул бы в NVLink. Он ведь нормально работает?
С другой стороны, под соответствующее решение вопроса, должен быт бюджет. Иными словами, рабочий инструмент (системный блок) должен быть примерно, как 1-2 месячный доход. Либо на тот уровень дохода, на который планируешь выйти в ближайшее время. Потому что я не представляю себе случай, когда мне надо будет купить карту за 5500$ с окупаемостью в год.
Earanak, я просто не особо слежу за новостями. Помню, что говорили о суммировании памяти, а выходит не реализовали. Тогда безусловно можно пожертвовать скоростью.
Пока остается ждать, либо карт с бОльшим объемом памяти, либо на программном уровне исполнении. А в реалиях стараться помещаться в установленные рамки.
grdesigner, 3090, конечно, зверюга, особенно если разогнана (и вместе с тем - уже менее стабильна по определению), но у неё 24 гектара памяти, и в том же редшифте если сцена с текстурами "вывалится" за 24 гектара, скорость 3090 упадёт вдвое (а то и больше, если ссд медленный) за счёт кеширования в своп, а вирей (по крайней мере пред.версий) вообще бы ушёл в аут, поэтому тут всё же важен баланс — пожертвовать ли 10-15 секунд буста на кадр ради двойной вместительности и меньшей нагрузки в питании, охлаждении, эргономичности, или нет ) nvlink — тоже своего рода "узкое горлышко", и он в любом случае будет медленнее, чем решение "на одном борту"
ну и блендер — не то что бы "эталонный критерий" в освоении мощностей. да, квадры сертифицируются под конкретный серьёзный софт, а не под игры, которые в большинстве своём наоборот — оптимизируются под железо, и шансы словить глюк в профессиональном софте на гейм-реди гораздо выше, чем на обкатанных студио-драйверах, так что игровые сценарии в контексте работы я бы вообще не рассматривал.
Earanak, вот да — когда видяха считает GPULightMass — достаточно случайно открыть браузер с десятком вкладок и (щас найду скрин)
aӀех, у нас случилось недопонимание. Рассматривал вопрос исключительно скорости рендера и частоты кадров во вьюпорте. Естественно при необходимости больше 24 ГБ надо покупать карту где памяти больше, вне зависимости скорости рендера.
Автор темы, как я понял, архитектурный визулятор, отсюда и совет согласно его планируемой конфигурации.
grdesigner, ок ) кстати, на этом и строятся маркетинговые уловки — обещают десяток секунд прироста в скорости, оставляя за кадром более важные показатели
* скрин по браузеру влёт не нашёл, но зато нашёл скрин по майке, когда случайно её запустил в момент просчёта движком GPULightMass
aӀех, а можете для примера сцену показать, если нет нда и по теме архвиза. Потому что, я сейчас анрил начал ковырять встал вопрос за карту. Думал брать 3080 ти. И теперь уже интересно, а хватит ли мне ее для интерьера среднестатической квартиры 60-80 м2 из 5-6 помещений современного дизайна?
grdesigner, можно "на ты" спокойно ) скрин могу показать (не архивиз, – виар)
3080ti вполне хватит, да и 2080ti — тоже, хотя если в планах какие-нибудь масштабные экстерьеры и именно на пятом движке — подумать над 3090 имеет смысл
* в 17 году примерно на вот такой масштаб (с интерактивом) хватало и 1080ti, правда без rtx, и если сейчас на ней запустить эту же сцену на свежих дровах, умеющих в rtx — будут заметные тормоза, т.к. эмуляция всё-таки не rtx-ядра и отжирает прорву ресурсов
* на примерно такую площадь даже с интерактивом 2080ti — за глаза
aӀех, пока понять сложно и примерить на свои задачи.
Если вкратце. Анрил под архвиз интересует давно, но в основном загруженность по работе и приоритеты в дизайн не позволяли выделять много времени на обучение. С появлением курса от dviz увидел, что в нем рассказываются все интересующие меня вопросы. Плюс по работе сейчас сильно свободнее и есть возможность вникать в новое для себя направление. Одновременно с этим цены на карты опустились, что тоже не может не радовать.
Поэтому пока в планах взять 3080 Ти. Из аргументов в пользу нее чуть ниже цена, чем на 3090, останется мой БП. Но главное то, что осенью выйдет 4090, которая судя по кудаядрам будет значительно быстрее 3090. А разница между 3080 и 4080 на уровне 20-25%. Т.е. ждать 4080 смысла нет, ради 10-15% прироста. А 4080 Ти ожидать не раньше лета. Цены на 4ххх серию уверен будут выше, пока не распродадут 3ххх серию. Следовательно лишь к следующему лету будут плюс-минус адекватные с полной линейкой карт. К этому времени уже успею погонять 3080 Ти и в хвост и в гриву. С учетом небольшого пробега и действующей гарантии продать будет несложно.
На данный момент 3080 Ти уже сильно выше моих потребностей и вряд ли себя окупит. В игры не играю, а для вьюпорта в максе и автокада/ревита 1660 Ти более чем. Поэтому предполагается взять 3080 Ти, на ней собрать два-три интерьера из своих старых, реализованных объектов. Возможно один взять чуть более премиального уровня для отработки знаний и портфолио. После того, как в политическом плане в стране наступит стабильность, то выходить на более дорогой сегмент, где как раз и будут оплачивать интерьер в виртуальной реальности. А там уже можно смотреть в сторону топовых решений.
Сравнивал вьюпорт твинмоушеновский в больших сценах на 2080супер/3060*12/3080ti. 2080 в пролете сразу, между 3060 и 3080ti разница 9 фпс против 30 плюс упоры в vram периодические. В итоге докупил 3090ti от гиги, на ней и упоров нет и фрейм около 35-37 без дропов, причём с каждым новым драйвером лучше шевелится. Если что-то для анрила брать то не менее 12гб: 3060/3080/3090, т.к. память жрётся только в путь.
Если видеокарты, то только профессиональные серии Quadro от Nvidia и FirePro от AMD, но стоят они как крыло от боинга.
Квадры все слишком слабенькие, для GPU рендеринга не подходят. Vray GPU, FStorm, Redshift, Octane не требуют их специфических возможностей, а требуют просто максимально много мощности и памяти, как в обычных игровых картах. Квадры для автокада и ещё хз какого сапра.
Цитата aӀех:
grdesigner, 3090, конечно, зверюга, особенно если разогнана (и вместе с тем - уже менее стабильна по определению), но у неё 24 гектара памяти, и в том же редшифте если сцена с текстурами "вывалится" за 24 гектара, скорость 3090 упадёт вдвое (а то и больше, если ссд медленный) за счёт кеширования в своп, а вирей (по крайней мере пред.версий) вообще бы ушёл в аут, поэтому тут всё же важен баланс — пожертвовать ли 10-15 секунд буста на кадр ради двойной вместительности и меньшей нагрузки в питании, охлаждении, эргономичности, или нет ) nvlink — тоже своего рода "узкое горлышко", и он в любом случае будет медленнее, чем решение "на одном борту"
ну и блендер — не то что бы "эталонный критерий" в освоении мощностей. да, квадры сертифицируются под конкретный серьёзный софт, а не под игры, которые в большинстве своём наоборот — оптимизируются под железо, и шансы словить глюк в профессиональном софте на гейм-реди гораздо выше, чем на обкатанных студио-драйверах, так что игровые сценарии в контексте работы я бы вообще не рассматривал.
Earanak, вот да — когда видяха считает GPULightMass — достаточно случайно открыть браузер с десятком вкладок и (щас найду скрин)
А кто-то умеет NVLINK использовать зачем-то? Какая с него может быть выгода? Оно же всё компилируется в Куду на процессоре (или на самой же видеокарте, как Андрей сделал в FStorm) и выгружается в видеокарту, после чего начинается просчёт своей части задачи. Хоть в одну видеокарту, а хоть и параллельно в 10 штук, коли материнка позволит столько воткнуть. Как здесь может нвлинк помочь?
Цитата grdesigner:
aӀех, а можете для примера сцену показать, если нет нда и по теме архвиза. Потому что, я сейчас анрил начал ковырять встал вопрос за карту. Думал брать 3080 ти. И теперь уже интересно, а хватит ли мне ее для интерьера среднестатической квартиры 60-80 м2 из 5-6 помещений современного дизайна?
3080Ti должно хватить с запасом, но разница в цене с 3090 и разница в объёме памяти говорят в сторону 3090, а если нет задачи суперскорости, то вместо 3080Ti можно взять 3060 пока не наступит подходящий момент 3090 взять
Я пришёл к выводу что самый главный критерий для рендеринга на GPU - максимум памяти за эти деньги, отсюда выходит простая логика 3060 12GB - базовая карта, а 3090 24GB - лучшая карта. 3080 и 3080Ti - неинтересное предложение, слишком мало памяти за много денег.
12 GB в экстерьерах часто не хватает )))
Цитата aӀех:
grdesigner, 3090, конечно, зверюга, особенно если разогнана (и вместе с тем - уже менее стабильна по определению), но у неё 24 гектара памяти, и в том же редшифте если сцена с текстурами "вывалится" за 24 гектара, скорость 3090 упадёт вдвое (а то и больше, если ссд медленный) за счёт кеширования в своп, а вирей (по крайней мере пред.версий) вообще бы ушёл в аут, поэтому тут всё же важен баланс — пожертвовать ли 10-15 секунд буста на кадр ради двойной вместительности и меньшей нагрузки в питании, охлаждении, эргономичности, или нет ) nvlink — тоже своего рода "узкое горлышко", и он в любом случае будет медленнее, чем решение "на одном борту"
ну и блендер — не то что бы "эталонный критерий" в освоении мощностей. да, квадры сертифицируются под конкретный серьёзный софт, а не под игры, которые в большинстве своём наоборот — оптимизируются под железо, и шансы словить глюк в профессиональном софте на гейм-реди гораздо выше, чем на обкатанных студио-драйверах, так что игровые сценарии в контексте работы я бы вообще не рассматривал.
Earanak, вот да — когда видяха считает GPULightMass — достаточно случайно открыть браузер с десятком вкладок и (щас найду скрин)
Когда-то на главной странице редшифта, ещё, кажется, до покупки максоном было гордо написано что текстуры и что-то ещё вроде волюметриков по определению за пределами ядра и память кушает в основном геометрия. Я от таких раскладов офигел, и поробовал последнюю картинку своего экстерьерного проекта посчитать редшифтом. 9 часов в ручную переделывал материалы и потихоньку настраивал сцену. Поначалу всёё считалось очень быстро, просто космос. Потом аут оф кор и одна картинка 18 часов в 4K считалась на 1080Ti. С тех пор к аут оф кор отношусь скептически. На процессоре такое же часов за 5 посчиталось бы.
Памяти на всё выделял немного, по алгоритму постепенного инкремента значений пока качество не станет меня устраивающим, обвинять меня в неправильном подборе значений памяти не надо, я с редшифтом в нормальных отношениях.
P.S. не люблю маркетинговые заявления. Особенно когда они потом исчезают.
saurongorynich, редшифт умеет
, вкратце — суммирует объём памяти для размещения данных. анрил пока
не научился, поэтому для него — да, 3090 выглядит предпочтительнее, с хорошим таким запасом. да и для шифта — тоже, я бы предпочёл одну вместительную по причинам, о которых говорил выше
be quiet! DARK ROCK PRO 4 стоит на AMD Ryzen 9 3900X 2 год полет нормальный . видюха 1660 Рендер корона
Автор планирует на гпу рендер переходить. Поэтому ему минимум средний ценовой сегмент нужен.
Я про охлаждение ) Сама пока на видюхе поэкономила . но для GPU лучше памяти у видюхи побольше . И вообще я за Quadro RTX 4000 8GB ( на старом компе стоит одна из первых версий - лютая вещь!)
Уже пару лет с dark rock pro 4 на 3950х, всё отлично, всё тихо, ничего не греется, даже если сутками рендерить. Слышно кратковременное повышение оборотов кулера в момент включения деноизера, уже перед сохранением рендера.
Все довольно просто. Для моделинга достаточно и бюджетной, для рендера за счет ГПУ на все что есть деньги из игровых. Обязательно от НВидиа, ибо ртх, куда ядра, только там.
Серия квадро исключительно для САПРа.
а если в планах есть анимация (стадия изучения и начальный-средний уровень)?