Всем привет! Вопрос экстерьерщикам, работающим в FSTORM - насколько сочетаются понятия "комфортная работа" и "3080 на 12Gb видеопамяти"?У меня был опыт работы с интерьерными сценами с карточкой на 11Gb, там более или менее хватало, а что насчёт экстерьера? И стоит ли переплачивать за 3090 с её 24 гигами?
Если есть возможность - берите 3090 или 3090Ti, если хотите сэкономить - 3060 (не 3060Ti, конечно)
3080Ti - хлам
Две карты по 12Гб вместо одной на 24 - это бред! Когда поймёте как облажались вы их об стенку разобьёте
Память не суммируется и не будет никаким раком ни в вычислениях CUDA (это то что использует большая часть GPU рендеров) ни в OpenCL (если мосье знает толк в извращениях) - официальный ответ Nvidia для трёх команд разработчиков с разными технологиями
OutOfCore - в FStorm нет, а там где есть - это такая просадка в скорости что зачем вообще этот огород городить - непонятно
Учитывайте что для 12Гб видеопамяти вам потребуется 64Гб оперативной памяти (это впритык, проверенно), а для 24Гб видеопамяти скорее всего потребуется уже 128Гб оперативной - иначе на этапе компиляции в CUDA при загрузке в карту сцены вы будете вылетать в своп на каждом кадре, что может привести к большим потерям во времени. ССД для свопа спасает не сильно - проверял. От Win 7 тоже лучше отказаться, studio driver'ов для неё нет, а гейм драйвер работает медленнее.
Всем привет! Вопрос экстерьерщикам, работающим в FSTORM - насколько сочетаются понятия "комфортная работа" и "3080 на 12Gb видеопамяти"?У меня был опыт работы с интерьерными сценами с карточкой на 11Gb, там более или менее хватало, а что насчёт экстерьера? И стоит ли переплачивать за 3090 с её 24 гигами?
Если есть возможность - берите 3090 или 3090Ti, если хотите сэкономить - 3060 (не 3060Ti, конечно)
3080Ti - хлам
Две карты по 12Гб вместо одной на 24 - это бред! Когда поймёте как облажались вы их об стенку разобьёте
Память не суммируется и не будет никаким раком ни в вычислениях CUDA (это то что использует большая часть GPU рендеров) ни в OpenCL (если мосье знает толк в извращениях) - официальный ответ Nvidia для трёх команд разработчиков с разными технологиями
OutOfCore - в FStorm нет, а там где есть - это такая просадка в скорости что зачем вообще этот огород городить - непонятно
Учитывайте что для 12Гб видеопамяти вам потребуется 64Гб оперативной памяти (это впритык, проверенно), а для 24Гб видеопамяти скорее всего потребуется уже 128Гб оперативной - иначе на этапе компиляции в CUDA при загрузке в карту сцены вы будете вылетать в своп на каждом кадре, что может привести к большим потерям во времени. ССД для свопа спасает не сильно - проверял. От Win 7 тоже лучше отказаться, studio driver'ов для неё нет, а гейм драйвер работает медленнее.
привет! подскажите, а почему 3080Ti хлам? А просто 3080 - тоже хлам? И в чем преимущество 3060 перед 3060 TI
kiwi-007, неужели непонятно как то написали тут, не пойму. Причем тут CUDA ядра...
Лично для меня все что меньше 24гб - мусор. Без разницы сколько там CUDA ядер если видяха НЕ сможет рендрить нормально (либо вообще не сможет если нету поддержки Out of Core в рендере). Сортиры и предметку можно и на проце рендрить без таких ограничений. Как по мне если 'мокаться' в GPU рендеры то минимум 24гб брать нужно. Для экстерьеров желательно 48гб. И то... Смотря каких экстерьеров.
Если побаловаться. То идеальный вариант 3060 на 12гб. Да. 3080Ti будет значительно быстрее рендрить. Но она и стоит как две с половиной 3060. А GPU рендеры и так быстрые... Да и большой объем не вгонишь в 12гб. Тогда че толку от этой 3080Ti с 12гб будет, ну вы играх - да. Кайф будет. Но рендрить она сможет только такие же объемы как и 3060.
Были слухи про 16гб видяху. Но пока это лишь слухи...
то есть 3060 с меньшим количеством ядер CUDA и с 12 гб памяти будет эффективнее чем 3080 у которой ядер в раза 3 больше, но при этом 10 гб памяти?
Да вы половину производительности
потеряете 3060 против 3080. Но, если не влезет в память, потеряете всё )).
Цитата klizma2000:
да возьми ты две древних 1080 TI и получишь в GPU рендере примерно тот же результат в бенчмарке что и с одной дорогущей 3090.
1080Ti
уже всё, они в подметки 3090
-ой не годятся. Хотя кто знает, что там на Fstorm без денойза; ждать что на той, что на той век. 1080Ti уровень 3050 в V-ray.
Сейчас посмотрим какой будет вся линейка 40-ой серии. Там RTX 4050 заткнет всю 10-ую серию и даст прикурить 20-ой. Вход в "ванны" за 20-30к. р. открыт всем )). 10 минут на кард - как пирожки. За час финалка легкого интерьер на 3060 запросто. Дольше в Фотошопе красоту наводить будете.
Наверное единственный расклад когда для GPU рендера я бы посоветовал 3080Ti вместо 3060. Это когда легкие сцены, и рендрить надо видео. Т.е когда много памяти не нужно но нужен мощный GPU что бы считать много кадров. Тогда конечно 3080Ti будет отличным вариантом.
Тут человек выбирает между 3060 и 3080Ti... Octane, FSTORM, V-Ray RT, RedShift - умеют использовать общий пул видеопамяти ? - Нет. Только не нужно сейчас выгугливать какие то фантастические неизвестные никому GPU Рендеры. Тут люди выбирают из обычных доступных видях под обычные распространенные GPU-Рендеры.
ukachaka, nVlink/SLI не делают общий пулл видеопамяти у RTX2000-3000 в перечисленных мною рендерах. Можете третий раз одну и ту же картинку скинуть - от этого у вас не станет 22гб у двух 2080Ti
P.S. Про Quadro, A6000, RTX 8000 - не в курсе. Но про них и речь не идет.
Может я как то не так понял ? Не ну ок. Я то не упертый, если я ошибся и есть какие то GPU рендеры которые возьмут из двух 2080Ti сделают 22гб VRAM - то ок. Ноу проблем. Не всем же обо всем знать. Буду даже рад узнать об этом.
То есть вы хотите сказать, что весь честной народ 3 года в шары долбился, покупая видеокарты с большим объёмом памяти, а надо было просто почитать хелп?
Мне кажется, где-то есть подвох. Либо это работает только в редшифте, который знающие ребята кроме как говношифт по-другому не называют. Либо чтоб везде работало, то нужны квадры ценой как чугунный мост.
Yehat, зависит от содержимого коропных черёбок "ребят", которых, например, я, как поклонник шифта года с 16-го влёгкую озадачу вопросом: "а судьи кто?" ) анрил уже тоже учится, к слову