и я не без греха. но работая исключительно на фрилансе это единственный способ общения не считая семьи) откровенно говоря в живом диалоге уже заметна разница в легкости общения.
и я не без греха. но работая исключительно на фрилансе это единственный способ общения не считая семьи) откровенно говоря в живом диалоге уже заметна разница в легкости общения.
Я к тому что нынешние игры = просмотр фильмов. Просто немного интерактивный.
Работать на дому сложно, забываешь как с людьми общаться.) Да и способность говорить тоже.
А что вы скажете насчет octane render и/или unreal engine ? или v-ray, render man
Вы сейчас перечислили рендеры, которые работают от CPU, кроме v-ray, octane. анрилу нужно много памяти и там больше зависит от эффектов и кол-ва объектов в сцене. С 1080 проблем не должно быть.
Арил прекрасно работает с гпу)))запекает НАМНОГО быстрее свет. да и с динамическим светом будет удобнее с хорошей картой.
Только вот для дефолтного GPULightmass-а да и для Luoshuang LightMass
нужна видяха с RT Ядрами или Хардверной поддержкой RT (RTX 2000/RTX3000/Radeon 6000).
И проблема такая что при GPU бейке когда заканчивается память то анриал вылетает во время бейка. Без вариантов. Без кэширования без свопа и виртуальной памяти.
Ну у Luoshuang LightMass есть хотя бы бейк без загрузки редактора. Экономит Видеопамять.
Тем не менее... Надо видяха на много памяти. А так... Интерьер даже на 120кв метров и пять помещений на 3080 без компрессии лайтмап печет за 30 секунд. Да. Быстро. Очень быстро. Но... Главное что бы памяти хватало ))
Так что тут даже и не знаешь что лучше человеку посоветовать. RTX 2060 на 12гб или RX 6800 на 16гб. Или что бы сразу обломать намекнуть ему на RTX 3090 24GB, nVidia A6000 48GB ))
А если кто то вдруг подумает что... Так есть же в Анриале бейк на CPU ! Там же Оперативка ! Там же много памяти ! Да... Но... Вот только CPU Бейк использует на первичных отскоках Irradiance Map, а GPU Бейк использует Brute Force (Path Tracing). И получается. Да... Вы можете если не хватит видеопамяти перейти на CPU бейк.
И наверное самое страшное... То сколько времени вы потеряете на бейк. Я на проце пробовал не много бейкать но там где 3080 справлялась за 30 секунд то 5900Х справлялся за 30 минут. А этот чувак в этой серии уроков вообще говорит что на 2066/x299 системе и сетевом двуголовом Зионе, он может по 20-30 часов считать
в финальном качестве на CPU Звучит страшно. Хотя даже и вериться мало в такую разницу. Но то был 2019 год. Мало ли. Вдруг GPULightMass тогда не в массах был.
реально, на продакшен качестве на слабом проце будет запекать по 20-30 часов. А на видюхах rtx 3080-3090 считанные секунды. Я сравнивал печь 5950x и видюхой - все так и есть. на А6000 поработать недовелось)) но думаю там на каком нибудь микрорайоне будет заметна разница)
Вообще все же гпу себя на данный момент оправдывает, кто бы что не говорил когда всё только это начиналось.
Я даже в врее сравнивал скорость на проце и на видюхе. Проц посчитал за 12 минут, видюха за полторы минуты.
Да, можно собрать зеоны китайские (что я и собирался по началу сделать), но они чисто под ферму, в однопотоке проиграешь. Всё же целится нужно на гпу рендер, поэтому и видюхи стоят так дорого, потому что это значительный прирост в скорости, качестве. Соответственно у кого такие мощности - работает быстрее, выдает лучше качество. Конкуренция....
Ну и вспомнил. не хватает памяти - можно на уровни поделить и всё будет отлично.
Ну в данном случае я не говорил за GPU Рендер как таковой. Я лишь говорил за бейк света на GPU в Анриале. Это все же разные вещи... Так то при желании в Анриале есть и Path Tracing
, без всякого бейка безудержно веселая штука которая что то напоминает
Цитата 2garyn:
ну скорее всего. но там разве не аналогично? сомневаюсь что нивидиа создавая видюхи не знали, на какой рынок в итоге эти карточки пойдут)))
Когда майнят Эфир преимущественно важен не GPU а VRAM, его ПСП. Под майнинг гонят именно память у видях, Жмут тайминги памяти. Например у Эфира это ключевой момент. GPU может быть нагружен на 40% а VRAM до упора. Потому важно исключительно то что какая там шина, GDDR6 или GDDR6X там. А так майнингу пофигу какой там GPU. Так же в майнинге не важна ПСП PCI слота, может быть 3.0 1x запросто.
И потому первым делом в Майнинге страдают чипы памяти, именно их в первую очередь обслуживают их в первую очередь проверяют. У нвидии есть специальные софтины которые до загрузки системы чекают VRAM на ошибки.
Ну а в случае с GPU рендером - как раз таки не пофиг какой там GPU... И как раз таки пофиг какая там память, важен ее объем. Разная специфика нагрузок. Разные задачи. У майнинга тоже есть при разных алгоритмах требования к объему VRAM, но обычно это в районе 6-8гб, не как у нас в 16+ гб...
но по времени это все равно что врейчиком рендернуть, это не реалтайм на RTX. а так да, вещь вполне себе как доп, для статичных кадров, для видео пока не очень то))
насчет майнинга - ну да, я не фига не знаю, поэтому руководствуюсь своими иллюзиями.
Упс. Я поставил лайк видео вашему и хотел лайк сообщению поставить но промазал. Совсем не хотел. У меня мышка исправная. Реакция и точность норм но вот рано или поздно это должно было случайно произойти ))) Черт. Извиняюсь. Увы у 3ддд нельзя отменить оценку. Не сочтите что я не согласен или еще чет такое.
Наоборот я увидел милые старые ассеты оптимизированные с этого проекта :
Нужно все так же запекать. Качество Lumen-а ущербное. Плюс ограничений куча. Плюс надо понимать что такое Surface Cache под Lumen
. Lumen это не замена бейка. Это лишь альтернатива что бы схалявить на качестве. Но что бы схалявить надо понимать весь спектр ограничений, подготовить сцену к Surface Cache... И только тогда Lumen может запудрить глаза кому то... А так Lumen это уныние паскудное. Люмен можно комбинировать, с динамическими каскадными тенями с DFAO, с RT-Отражениями, но в целом это унылота мерзкая которая поганит качество в целом. Это еще надо дождаться пока Люмен сумеет в транслюценцию, хотя бы. Так же в замену Люмену может выступать например RTXGI, да запросто. А в экстерьерах обычный дешевый SSGI. Люмен это не панацея.
Прелесть Анриала что ты комбинируешь. Ты не упарываешься только в один механизм отражений/AO/GI/Теней. Ты всегда волен комбинировать. Выбирать удобные схемы. Тут же столько всего. И Lumen это лишь частичка всей этой схемы. У вас есть и PathTracing, и RayTracing, и RTXGI, DFAO, SSAO, SSGI, SSR, Бейк через CPU, GPULightMass, Luoshuang GPU Бейк, Volumetric Бейк. Вы в пределах одной сцены можете комбинировать разные механизмы. Идете вы по парку с кучей растительности - SSGI+SSR+DFAO, заходите между домами меняете SSGI на Lumen, заходите в помещение подрубаете Бейк, или Volumetric Бейк (полу-статику), заходите в мелкое помещение с кучей отражений подрубаете RT, отключаешь AO. Кайф же. Чего упарываться в этот убогий Люмен... Ну конечно же у Люмена есть перспективы когда его допилят. И сейчас он частично применим. Просто это опять же не панацея. И от бейка он не избавляет если надо сделать сцену которая будет легко крутиться у клиента на какой нить GTX 1060, с годным качеством.
Всем большое спасибо за ответы) не буду даже делать reply даже, много всего предстоит изучить прежде чем сформировать свое мнение olegwer спасибо за overall, веду такую табличку дополню ее вашим ответом