Сообщения | Дата |
---|
Я вот вообще разницы не вижу — Большая сцена, маленькая, средняя, интерьер это или экстерьер. Какая разница когда всегда скаттерам/тяжелым объектам ставлю упрощенный режим отображения, никогда не использую High Quality/Тени/AO/Antialiasing в вьюпорте, использую Adaptive Degradation (по стандарту включен), тяжеловесные или какие то фоновые объекты закидываю в слой с упрощенным отображением. Таким образом хоть на встройке работай (утрирую, разумеется на встройке не стоит работать, смысла нету).
И вот сколько лет работаю так ни разу и не возникала необходимость что бы прям в вьюпорте видеть прям разом все тяжелые объекты в полном качестве, мне всегда удобнее включить интерактив-рендер и посмотреть на итоговый результат. Лишь в редких случаях приходится на ближних планах некоторым скаттерам включать полное отображение что бы клиппинг на камерах настроить. Ну или что бы точнее подвигать объекты внутри скаттера. Какое то время работал на 8500GT 128MB DDR3 и ничего, справился. Хотя когда уже появилась возможность сменить видяху, до меня дошло что больше толку было использовать софтверный вьюпорт который не задействует видеокарту вообще и отрисовывает вьюпорт с процессора (потому и писал что на встройке нет смысла сидеть). Больше FPS было на проце чем на этом мусоре
Если всем этим делом орудовать, IMHO - 1050 Ti 4GB хватит для любых задач. А у GTX 970 чип на ~50% быстрее выходит, в синтетике уж точно (могу немного ошибаться, но примерно так). Единственное что у 970 используется 512mb медленной VRAM из четырех, ну то такое. Ну а если забивать, и фигачить всюду скаттеры через "Point" отображение или тем более полное отображение... Если держать на всех объектах включенные текстуры (хотя не понятно зачем, развертку подогнал, посмотрел как текстура лягал - отключил), сидеть в HighQuality режиме с тенями и АО, с текстурами и антиалиасингом... Если держать группы в группах многократно и не аттачить объекты состоящие из сотен отдельных объектов...
Тогда вам никакой RTX Titan не поможет.
Ну а если уж вы вообще хардкорщик и не боитесь боли, то можно вообще включить Nitrous Software Viewport, особенно если у вас что то типа Ryzen 1700X или лучше. Особенно хорошо если 3900X/3950X. По крайней мере для интерьеров, думаю при таком раскладе можно вообще обойтись без видеокарты нормальной, хотя нужно понимать что проц все равно будет сильно загружен во время моделинга/перемещения по сцене, но производительность у какого нить 3700Х будет на уровне я бы сказал между GT 1030 и GTX 1050, ближе к 1030. Хотя это такое себе удовольствие, сомнительное )) Тяжело представить ситуацию когда видеокарта у вас уровня GT 1030 или даже слабже а проц 1700Х какой нить.
P.S. Для особо чувствительных и ранимых - я понимаю, у каждого свой подход и мнение на эту тему.
Я же говорю просто за свое отношение к этому всему делу и видеокартам для 3Ds Max/Архивиза.
| 12.02.2020 |
Актуальные конфигурации компьютеров
tangatta, добрая половина х470 материнок будет не лучше чем те две на B450. Только топовые х470 материнки будут ощутимо лучше по питальнику. Но они и дороже будут раза в полтора чем B450, X470 Taichi какая нить например. У Aorus X470 Gaming 7 чуть хуже питальник чем у Тайчи но Радиатор крутой. У ASUS Hero VII годный питальник но унылый радиатор, плюс ограничения по второму M.2. MSI M7 AC годная сбалансированная плата но давно снята с производства и найти ее сложно. Короче если и брать х470 с запасом на будущее то только топовые. Но они дороже начальных х570 и сильно дороже тех двух B450. А начальные х570 убогие и унылые.
В общем, IMHO. Тут либо экономить (B450), либо вкладываться (топ х470, миддл х570).
Промежуточных адекватных вариантов я не вижу. Скоро по идее выйдут B550.
Вполне вероятно именно они и станут тем самым промежуточным вариантом...
Ну или не скоро https://overclockers.ru/hardnews/show/101146/platy-na-baze-chipseta-amd-b550-poyavyatsya-tolko-k-ijunju
P.S. Только нужно понимать что я указал одни из лучших B450 моделей, так то конечно 90% моделей на B450 с 3900Х просто будут подзакипать, мягко говоря. Так что выбор там не велик, либо одна либо другая.
| 11.02.2020 |
Актуальные конфигурации компьютеров
tangatta, если цель сэкономить. То почему х570 ?
Возьмите B450 Tomahawk Max или ASUS TUF B450-Pro Gaming.
Питальника у этих материнок хватит под 3900Х. Разницы никакой не будет ни для проца ни для видяхи.
Только если корпус будет недорогой, то сделайте в нем нормальную продуваемость.
Ну или воткнете какой нить 80-90мм пропеллер на околосокет/VRM. На всякий, нет необходимости.
Есть куча калькуляторов по которым можно прикинуть какого БП для какого железа будет достаточно.
Калькуляторы эти работают +/- одинаково :
https://www.bequiet.com/en/psucalculator
https://www.coolermaster.com/power-supply-calculator/
https://seasonic.com/wattage-calculator
Я насчитал по ним 600вт в пиковой нагрузке. Когда процессор на 100% и видеокарта на 100%, когда пачка винчестеров, 4 плашки памяти (хотя я бы брал 2х32GB), дискретная аудиокарта, пачка 120мм пропеллеров. Так что если вы берете хороший бп, то можно и на 650вт взять. Все равно сложно себе представить расклад при котором и видеокарта и проц будут на 100% загружены. Но если вы хотите все же с запасом взять, то можно и на 750вт, если например вы планируете рендрить через гибрид CPU+GPU. Главное что бы хватало коннекторов для видеокарты и процессора на блоке питания. Ну и от жирности блока питания тоже зависит все это дело, если не вдаваться в детали, то Чифтек какой нить я бы брал на 750вт (потому что разница в цене между 650 и 750 обычно мизерная). А Сисоник или SuperFlower я бы может и на 650вт взял бы если было бы сильно дешевле чем 750вт.
| 11.02.2020 |
Актуальные конфигурации компьютеров
Bruce, я вообще боюсь давать советы по выбору памяти если ее не планируют никак настраивать, тестировать. Ведь XMP при любых раскладах может давать осечки, на Intel/AMD, даже на топовой материнской плате, удачном проце (в смысле удачном КП/IMC), удачной памятью без деффектов и косяков, даже если память есть в QVL-Листе материнской платы. Все это НЕ дает 100% гарантий что все у вас будет нормально работать с XMP+АвтоТаймингами и Автовольтажами.
У меня вон на Авто материнка такую дичь натворила с Корсаровской памятью на 32гб плашках и ихним XMP, что память на 3000Mhz/CL15 работала с той же скоростью как и на 2400Mhz/CL15. А все из за пары ошибок в XMP, из за которых материнка ошиблась уже при тренинге памяти и рассчетах. Ну это просто как пример. Так то там обычно ошибки не настолько катастрофические. Бывают мелкие ошибки которые тупо не позволяют компьютеру запускаться пока вы их не устраните. Самое неприятное когда память запускается, работает, но не стабильно (зависания/синие экраны/вылет софта и тд), в таких случаях всегда приходится перепроверять и тайминги и вольтажи и гонять 'мем-тесты'. Бывают конечно и исключения. Когда прям вот в Авто и XMP память почти идеально настроена. Но я такое видел, ну наверное раза 3 за все время что компы собираю.
Так же, чем медленней память тем выше вероятность что все ОК будет. Особенно когда ее тайминги и частота близкие к JEDEC стандартам. Но нужно понимать что как правило это в принципе самая дубовая и топорная память за несколькими исключениями конечно... Т.е не стоит вдаваться в крайности. Не нужно брать 2400-2666 память в страхе что вдруг выше не пойдет на 3000 Райзене, но так же я бы и не стал брать память на 3800, так как там вот уже реально высокие шансы что на стандартном XMP не поедет ничего без доп настройки. А 3200/CL16, 3000/CL15, пожалуй самые оптимальные варианты и по деньгам и по шансам что все будет ОК.
| 11.02.2020 |
Актуальные конфигурации компьютеров
Bruce, себе я бы такую взял бы в целом. Но советовать кому то ее, стрёмновато. Ведь чуть что может потребоваться ручная настройка каких то вольтажей или таймингов. Друг у меня шарит в целом в железе и понимает чуть что как что можно настроить. Он не стрёманулся взять 128гб этой памяти.
Я тут отписывался :
https://3ddd.ru/forum/thread/show/aktual_nyie_konfighuratsii_komp_iutierov/608#post1494369
Память эта завелась на стандартном XMP без проблем и без доп настроек (но ясное дело что у одного может завестись без проблем а у другого нужно будет чет докручивать). Он еще и чутка ее подразогнал. Работает он тоже в сфере архивиза (интерьеры/экстерьеры/корона). Уже пару месяцев - проблем нету у него с Aorus X470 Gaming 7 + 3900X процом и 128ГБ из этой памяти. Чипы у этой памяти не гугляться, тайфун не отображает полное название чипов. Но скорее всего это старенькие чипы (по меркам 32гб плашек). Вообще Hynix делают сейчас лучшие чипы для 32гб модулей, но они дорогие. А у этой Neo Forza - Lowbinned чипы. Типа отобранные худшие из лучших. Или наоборот... Лучшие из худших )
Друган сказал что выгугливал инфу про эту контору, как я понял (если не ошибаюсь) то они так и работают, покупают всякий мусор и отбросы с помоями и среди них выискивают годные к продаже варианты. Потому и цена неплохая. Базовые XMP у них неплохие и тайминги не самые унылые наверное потому что контора небольшая и может себе позволить тщательно отбирать все это дело. Не знаю что тут еще добавить. Это по моему самая дешевая память с 32гб модулями XMP и Радиаторами. Потому что самая дешевая, от мелкой конторы, собранная из помойных чипов, стрёмно мне конечно советовать. Но как я сказал - себе я бы взял. Да и вообще если вы разбираетесь в настройке памяти то можно не боятся при выборе памяти, любую можно настроить и до ума довести чуть что. А вот если вы только XMP умеет включать, то... Ну. Тут никаких гарантий.
| 10.02.2020 |
Актуальные конфигурации компьютеров
Уж сорян за дикие кривые ссылки. Они работают.
Просто стрёмно выглядят. Лень через TiniURL ужимать их
3dmentor, я четыре месяца назад заказывал с NewEgg. Вышло не дешево.
Брал из далека потому что CU не работает с Украиной. Сейчас на CU есть Корсары например :
https://www.computeruniverse.net/ru/c/apparatnoe-obespechenie-i-komponenty/moduli-pamyati?refinementList%5Bfacets.Bauform.values%5D%5B0%5D=DIMM%20288%20Pin&refinementList%5Bfacets.AnzahlModule.values%5D%5B0%5D=2&range%5Bfacets.Kapazit%25c3%25a4t.valuesDisplayOrder%5D=135%3A
На Nix-е есть Neo Forza, например :
https://www.nix.ru/autocatalog/memory_modules_neo_forza/Neo-Forza-NMUD432F82-3200DB21-DDR4-DIMM-64Gb-KIT-2-32Gb-PC4-25600-CL16_447148.html
На никсе есть и другие 32гб плашки :
https://www.nix.ru/price/price_list.html?section=memory_modules_all&sch_id=957#c_id=182&enums%5B1965%5D%5B%5D=20&fn=182&g_id=9&page=1&sort=p1965&store=msk-0_1721_1&thumbnail_view=2
В Регарде есть несколько вариантов 32гб плашек :
https://www.regard.ru/catalog/filter/?id=MzA0NTs0OCwxNzg7NTAsMTQ2MjM=
Через всякие агреггаторы типа Яндекс-Маркета или Е-Каталога можно еще поискать.
В Украине тоже нету проблем найти 32гб плашки... Главное не протупить и выбрать UDIMM (не RDIMM).
Я уверен что в России можно найти что то, коль уж я за минуту нашел несколько неплохих вариантов.
timecodoff, по стечению обстоятельств у меня есть и х570-P и X470 Taichi и обе на последних биосах и обе по 4 плашки используют (одна 4х32гб другая 4х16гб). Вся память в разгоне на данный момент. Никаких проблем не заметил при переходе на крайние биосы. Не то что бы я отрицаю наличие проблемы. Просто странно что как минимум у двух человек с одного форума возникли проблемы с последними биосами а у меня нет. Что это за рандом то такой.
Увы, понятия не имею в чем дело может быть. Благо можно без проблем откатываться на старые биосы. Правда я бы не откатывался с Агесы 0.4Б на 0.3ABBA, слишком уж много отличий и разные SMU прошивки. Стрёмно. Некоторые производители материнок не советуют откатывать биосы после смены AGESA/SMU прошивки.
| 10.02.2020 |
3dmentor, проблема не в Кингстоне у него была и уже она решена (хотя в идеале еще с месяц нужно поработать посмотреть). Там чипы от Nanya оказались вместо Hynix у комплектов с той же маркировкой. При включении XMP и повышении вольтажа все у него заработало. Он не использовал XMP/DOCP и не пробивал первички, не повышал напряжение на SoC/DRAM, с таким раскладом я бы сказал что 90% плашек будут криво работать Ясное дело что при таком раскладе у него память на 2133-2400 работала бы только. Да и то на 2400 у него были дикие автотайминги (2400/CL13, шок). В то же время он брал другую 2666 память и она у него работала нормально, потому что там были 2666 зашитые не в XMP а в SPD, по JEDEC стандарту. Т.е та память не требовала активации XMP/DOCP и выставления частот. Отсюда заблуждение вышло что один комплект работает а другой нет.
Вообще от производителя (вендора) мало чего зависит. Все что они делают это закупают чипы, сортируют их, пишут свои SPD/XMP, клеят свои радиаторы. Именно потому разницы почти никогда никакой нету что там за бренд G.Skill/Corsair/Кингстон/Геил и тд... Да плевать. Главное что за чипы там, насколько они свежие и насколько отборные. Уж поверьте, если там будет Hynix MFR 2013 года чипы на старом техпроцессе то вообще плевать какая там фирма будет. Эта память будет мусором и в некоторых случаях даже и на родном XMP может не завестись. А если там будут чипы тип Micron E-Die 2019 года, отборные Hynix CJR/DJR, Samsung B-Die образца 2018 года, то будь там хоть Neo Forza хоть ASGARD ( ), да в любом вьетнамском подвале вам соберут из этих чипов отменные плашки. А когда чипы годные то и тренинг таймингов проходит лучше, материнкам легче сконфигурировать память в авторежиме. Так то конечно если руками без XMP настраивать то без разницы че там за материнка че за чипы, всегда можно все поднастроить по уму (если уметь). Но тут речь идет об - воткнул/запустил/включил XMP/все работает.
| 10.02.2020 |
Актуальные конфигурации компьютеров
3dmentor, наоборот четыре двухранговые 16гб плашки будут больше нагружать КП (IMC) в процессоре чем две двухранговые 32гб плашки. Когда начнут одноранги на 16гб делать, тогда еще посмотрим. Но сейчас это вообще не вариант (ну если мы говорим про мейнстрим а не про HEDT). Пока что я не встречал еще ни одного случая где были бы проблемы с 32гб плашками. Сам сидел на 128гб памяти с 2700X и X470 Taichi, сейчас на 3900X перешел. Товарищ тоже на х470 с 128гб сидит, проблем нету. Перед покупкой памяти досконально изучал эту тему. Не выгуглил случаев 'капризов'. Более того, как видите эта память отлично разгоняется. А в случае с плашками Neo Forza, еще и стоит недорого, 34500р за 128гб 3000Mhz/CL15, 35500р за 128гб 3200Mhz/CL16, если нужен один кит на 64гб - делим на половину стоимость. Да и на выбор есть плашки с крутыми чипами, от G.Skill например (вот они то и дорогие) или вот мусор ОЕМ-ный от Самсунг/ADATA без XMP/Радиаторов и без отборных чипов. Каждый может себе выбрать что душе угодно и что по кошельку потянет на 32гб плашках.
Конечно у 16гб плашек есть экземпляры на Nanya/Спектек чипах или сборка от какого нить Асгарда, да. Разумеется четыре такие плашки будут дешевле чем две 32гб плашки, но ох какими же они дерьмовыми то будут. К тому же не стоит забывать что с двумя 32гб плашками всегда есть куда еще расти а с четырьмя уже и некуда. Хотя тут конечно зависит кто чем занимается. Ну и еще с четырьмя плашками на SoC больше питания приходится подавать. Не то что бы это страшно, но лишние ~2 градуса нагрева ан процессоре, ну такое себе удовольствие. Единственный профит от четырех плашек это Memory Interleaving, чередование команд отсылаемым разным банкам/плашкам. Хотя польза - сомнительная.
IMHO - четыре плашки на мейнстриме это должна быть вынужденная мера, например когда позарез нужно 128гб, ну или когда у вас уже стоит 32гб а вы хотите расшириться до 64гб, тогда конечно придется занимать четыре слота. Так же стоит понимать что 90% плат современных идут с Daisy Chain разводкой DIMM слотов, и лишь в 10% там T-Topology. Хотя это уже нужно для частот свыше 3600Mhz. Впрочем есть платы и на Daisy Chain сделанные так что почти и не уступают при использовании четырех плашек, ну то такое. Лишние детали. Я прост когда беру комп в котором будет четыре плашки то выбираю спецом T-Topology плату.
| 10.02.2020 |
Актуальные конфигурации компьютеров
Цитата SPoG:
ГЕНИАЛЬНО))))))))))))))))))))))) 32 гига на боксики)))))))))))))))
Не пойму откуда такая бурная реакция. Если вы собрались советовать человеку ставить 16гб памяти в 2020 году под работу с интерьерами в Короне... Ну чтож флаг вам в руки, я бы не отважился такие то советы раздавать.
ART-R, печалька :(
| 10.02.2020 |
Актуальные конфигурации компьютеров
v3rtex, очень важно отделять понятие уникальной геометрии и инстанс/референс геометрии. Так то в сцене может быть 50 миллионов уникальной геометрии, но при рендере через скаттеры/инстансы может быть например 80-100 миллиардов треугольников (не опечатался). И это будет занимать не более 40-50гб ОЗУ. При условии что текстур в сцене НЕ овердофига и они НЕ жирные. Ведь в данном случае, сами по себе текстуры могут занимать больше места чем сама геометрия. Ну точнее оно так и будет, 100% если куча уникальных шейдеров с уникальными картами. Вообще не думаю что кто-то ответит прям вот сколько что должно занимать. У меня одна сцена на 10кк уникальных поликов может жрать больше чем сцена на 50кк уникальных поликов.
Вот кстати сцена про которую я говорил на 50кк уникальных поликов, 2,4GB ОЗУ на Геометрию, но на текстуры 52гб ОЗУ при 5к Рендере. Нужно понимать что битмапы увеличивают свой вес во время рендера в высоком разрешении. Так же Summed Area фильтр или VRayHDRI с разными режимами фильитрации тоже увеличивает вес текстур. (да я в курсе что вы спрашивали про Корону но VRayHDRI иногда используют с короной из за разных режимов мягкой фильтрации), Blur 0.01 тоже влияет на анизатропную фильтрацию и тоже может увеличивать вес карт. Тяжелые композит карты лучше делать Render to Texture и ужимать в одну текстуру, если там овердофига слоев.
Corona RAM usage breakdown:
269,8 MB used by render elements
(Да. Кстати. LightMix с кучей светильников, куча Элементов, могут сожрать дофига памяти).
2,4 GB used by geometry
51,7 GB used by textures (CoronaBitmap only)
Ну вы поняли Так что, конвертим все подряд в JPEG 10/12, урезаем количество карт уникальных, жмем разрешение для текстур дальнего плана. Не нужно думать что срезав 10 миллионов поликов из 50 миллионов, вы сделаете погоду. А про инстанс вообще говорить и не стоит. Даже если уберете там 50 миллиардов инстанс геометрии, ну снизит это нагрузку на 1гб оперативки, а толку )) Только компиляция сцены при запуске рендера начнет идти быстрее.
Если опустить все эти нюансы :
32ГБ на интерьеры простенькие.
64ГБ на интерьеры тяжелые и экстерьеры простенькие.
128гб на экстерьеры тяжеленькие.
Но кривыми руками можно и 128гб забить. Запросто. По себе сужу
Закинул сборник эвермоушен с витринами магазинов, получил +2500 битмап, +40гб к жору ОЗУ. Кайф !
Кстати. Еще нужно отделять понятия Фактической и Параметрической геометрии. В определенных случаях геометрия сформированная по средствам модификаторов может чуть меньше весить чем геометрия в Mesh/Poly виде с схлопнутым стаком. Я имею ввиду во время рендера весить. Так то ясное дело что в плане веса файла сцены параметрическая геометрия ощутимо меньше весит. Впрочем, обычно как раз таки наоборот бывает фактическая геометрия в Mesh во время рендера жрет чуть меньше памяти чем параметрическая. Так же не стоит забывать про Displacement, он тоже жрет память, хотя в последних версиях Короны он СИЛЬНО меньше жрет чем раньше. Прям раза эдак в два. Это даже в трейлерах разрабы 'форсили'.
VRayHDRI как раз таки ставили на Дисплейсмент карты, иногда на NormalMap-ы. В экстерьерах и интерьерах - этим заморачиваться, IMHO не стоит. В плане предметного рендера, и каких то редких ситуаций - есть смысл. А вот обычная максовская битмапа с Summed Area фильтром, хоть и жрет 400% от веса текстуры, но по моему выдает лучшие результаты в плане анизатропии. Но все равно нужно понимать что Короновская битмапа все же более оптимальный и универсальный вариант. Так же кстати как и другие карты родные для Короны. Тип там всякие CoronaColorCorrect жрут меньше памяти чем родной максовский ColorCorrect.
| 09.02.2020 |
Вылетает макс при рендере в CORONA!
DashaRizhenko, спасибо. К сожалению я не знаю что в данном случае можно посоветовать.
Просто хотел убедится что проблема не в Proxy а в Forest-ах.
| 09.02.2020 |
Вылетает макс при рендере в CORONA!
DashaRizhenko, а если перевести все объекты из Proxy в обычные объекты которые будут в сцене, но оставить Forest-ы старые, что то измениться ? Ну так, ради интереса. Если это конечно не сложно.
| 09.02.2020 |
Жаль что я слишком тупой в моментах понимания принципа работы потоков/ядер. Но я прям всегда недоумевал, почему бы просто не сделать динамическое объединение ядер/потоков. Ну, кэш то все равно инклюзивный (L1/L2 у всех ядер заполнен одинаковой информацией) и доступ к L3 кэшу в тех же 3000 Райзенах сделали почти равномерным по задержкам. Т.е в теории можно сделать какой то динамический режим который брал бы пачку ядер и заставлял бы их работать как одно целое при выполнении однопоточной задачи. Но блин, это все слишком легко звучит, и если бы оно так было то давно бы уже сделали так. Тогда вообще конечно "пушка" была бы, когда какой нить 3990X работает в режиме 64 ядер объединенных в 8 групп и выдает нереальную производительность, а когда дело доходит до рендера, то переключает их в режим 128 отдельных потоков. Ну как то так. Тип создать такого плана механизм и архитектуру, тогда бы и разрабам софта не пришлось бы заморачиваться. Но видать нифига это не просто все так...
В общем что бы это работало как в DirectX 12 - Assync Computing. Хотя это прям не то об чем я говорю. Это придется делать нереально большой буффер для очереди выполнения команд и что бы все ядра одновременно все фигачили и пускали результаты в одном потоке. Наверное это почти невозможно. Ведь им нужно просчитывать одну и ту же задачу.
| 09.02.2020 |
Цитата Yehat:
Attach нескольких тысяч объектов, будет гораздо сильнее ускорена не мощным процом, а по-другому запрограммированным скриптом
Прям прослезился, истинна ) Когда пробовал тысяч ~30 объектов саттачить в один - настрадался. Каждый скрипт который я пробовал делал это все быстрее и быстрее. С 40 минут до 10 минут дошло дело к третьему скрипту. И тогда я узнал что есть обычный стандартный... Который внезапно сделал эту же задачу за 1 минуту )) Ну который - Utilities -> Collapse -> Collapse Selected. Это стало для меня шоком. Тут и вправду. Гони не гони процессор, делай его в 10 раз мощнее, а толку если основной затуп в задаче - сам алгоритм.
| 09.02.2020 |
Вылетает макс при рендере в CORONA!
Сорян за Оффтоп.
shinodem, да полегче, полегче я понял что у вас там не заладилось в Вирее что то с Proxy )
Просто не нужно вбрасывать что от Proxy толку мало. Что бы потом люди страдали с 5-гиговыми сценами.
Ну или тормозным XREF-ом Ладно, ладно. Все. Я вас понял, принял. Проехали.
P.S. Выпад в сторону крутого воркфлоу - оценил )) С меня плюсик.
| 09.02.2020 |
Вылетает макс при рендере в CORONA!
shinodem, как скажете, как скажете ! Мне хватило 15 объектов в Форест от MaxTree Plants подгрузить через XREF что бы все сдохло в пустой сцене, прям пока мы это обсуждаем
Хотя. Нет. Уже не обсуждаем, это уж точно ))
| 09.02.2020 |
Вылетает макс при рендере в CORONA!
shinodem, не проигрывает, ясно... Понятно. Проехали.
Цитата shinodem:
из-за прокси я сказал есть угроза вылета
Не знаю об каких вылетах вы говорите у меня ничего не вылетает
| 09.02.2020 |
Вылетает макс при рендере в CORONA!
shinodem, какой еще Вирей. Это Корона и ForestPack скаттеры. А внутри скаттеров CoronaProxy.
Я ни слова не сказал про выигрыш в памяти. Лишь в весе сцены. Вы по диагонали читали ? ))
Цитата Earanak:
а не экстерьеры где стоит домик, три куста и дерево с травкой...
Я специально Акцент сделал на том что это актуально для больших сцен. И привел вам в пример большую сцену. Где 4гб Прокси файлов и где без них файл сцены весит 5+ гб. Там порядка 70 уникальных моделей растений и некоторые из них по 5кк поликов весят. Во время рендера там порядка 85 миллиардов трисов инстанс-геометрии (собранной из проксей в скаттерах), без учета травы. И полторы тысячи текстур на проксях висит.
Дык блин. Зачем вообще прокси от старых сцен использовать то ? Создать по новой Proxy дело 5 секунд. Даже если этот объект УЖЕ находится в скаттере то ничего с ним не случится. Даже если там тысячи объектов их можно как один инстанс-прокси перевести одним кликом... Они сохранят все свои позиции/повторы-скейлы/материалы. Я вот собираю и рендрю вот такого плана сцены и у меня ни разу в Короне не возникло проблем с Proxy. Без них я бы просто сдох ждать по 3-4 минуты автосейва или сейва сцены и по 10 минут запуска сцены. Когда с ними это дело 40 секунд, и сейвы по 10-15 секунд в 500mb Uncompressed файл, с флагом Keep in Memory конечно загрузка по дольше идет, порядка 2 минут, но оно и понятное дело.
Кстати. XREF вешает сцену в данном случае. Не оптимизирован он под это дело.
Да. Когда XREF подключений в сцену штук 10, и когда объектов не много и они не тяжелый то норм.
Но когда их хотя бы в половину от того что на скринах - все погибает в тормозах.
| 09.02.2020 |
Вылетает макс при рендере в CORONA!
Цитата shinodem:
И от прокси кстати толку мало
На прокси в любой момент можно накинуть Edit Mesh и редактировать, так же можно редактировать развертку, MTLID, сами материалы, делать референс-обьект из прокси. Если не переводить файлы в прокси то файл сцены может вместо 500мб весить под 4гб (на личном опыте это вообще как за здрасте на экстерьерах), а это тормозит в десятки раз автосейвы и сейвы сцены. Да и сцена открывается долго. А Проксям можно отключить Keep in Memory 'флаг', тогда ДО запуска рендера прокси не будут подгружаться вообще в оперативную память пока вы не будете какие то манипуляции с ними проводить. А на этапе интерактив-рендеров можно через Proxy-Lister обратно проставить эти галочки что бы интерактив быстрее стартовал без подгрузки Proxy с жесткого диска. Вьюпорт он освобождает только в случае если ему отображение упрощенное выставлять, если ставить полноценное отображение объектов то разницы не будет что Proxy что обычный объект. Точно таким же образом можно поставить упрощенное отображение и для не-Proxy объекта.
Я бы сказал что не то что толку мало... А Proxy вообще жизненно необходим, когда у вас экстерьер на 20+ скаттеров с 50+ уникальными деревьями-кустами-многолетниками и прочим... Если бы мне скинули экстерьер где не было бы прокси, это был бы молниеносный фейспалм с рассечением бровей и максимальный дизреспект такому сборщику сцен Разумеется я говорю про экстерьеры такого плана - https://prnt.sc/p47u5h / https://prnt.sc/p9tr8b (каждый цвет это отдельный скаттер с своими растениями), а не экстерьеры где стоит домик, три куста и дерево с травкой...
[[image:346129,]]
| 09.02.2020 |
Актуальные конфигурации компьютеров
Графомания у меня прогрессирует. Ужас какой то
К концу сообщения забываю что я написал в начале.
Чувствую уже себя каким то поехавшим когда читаю свои же сообщения ((
amareno, скорее всего при дальнейшем снижении будет теряться производительность однопотока и смешанных нагрузок. Но не будет сильно страдать многопоточная нагрузка. Оффсетом уже не выйдет это делать на х370 Тайчи (насколько я знаю). Придется либо через Ryzen Master ограничивать вольтаж (будет моментальная просадка однопотока). Ну или ставить фиксированный вольтаж, что так же срежет однопоток и смешанные нагрузки. Но так же отключит ряд энергосберегает и заставит процессор работать при определенном вольтаже даже в простое.
Если вместо Offset-а можно где нить там в биосе скорректировать VID, то выйдет по сути то же самое что и Оффсет. Только я не знаю как оно там у Тайчи работать будет. Просто прописать опорный вольтаж этот вместо заводского, тогда по идее все алгоритмы подстроятся под него (как и под оффсет который ограничен в данном случае). Эта настройка может быть в недрах биоса, типа там в подпунктах AMD CBS, AMD PBS, и не удивлюсь что у Асрока она может вводиться в HEX значениях (так уже было с SoC вольтажами у них).
Ведь дело тут такое... Для хорошего многопотока достаточно ~1.2v (+/- 0.03) вольт у 3900Х, для смешанных нагрузок ~1.35v (+/- 0.03), для предельно возможного однопотока нужно ~1.5v (все это имеется ввиду с учетом VDroop, уже во время нагрузки то-есть).
Зарезая оффсетом до -0.1V скорее всего вы не сильно (или вообще не) теряете в многопотоке. Но этого может оказаться многовато для смешанных нагрузок и однопотока. Я потому перешел на -0.08V. Да, пару градусов нагрева вернулись, но это для меня важнее. Т.е в моем случае оказалось что -0.1V оффсет при LLC5 все же многовато отжирало вольтажа в задачах НЕ связанных с рендрингом. В рендринге все ОК было, в однопотоке и смешанных нагрузках (играх например) я терял немного производительности.
Но так же стоит понимать что у каждого процессора свой заводской VID. Для одного будет идеальное значение -0.08, для другого -0.1, а кому то с крутым процом может и меньше можно снижать (но смысла особо нету в этом). Так же от удачности материнок зависит. Разные контроллеры питания идут с разными уровнями LLC. Т.е у х370 / x470 / x570 Taichi будут все те же пять уровней LLC, но каждая из них по разному будет просаживать вольтаж. И некоторые материнки могут вообще быть не способны просадить вольтаж оффсетом до 1.2V в рендере.
В общем... Сравнивать результат нужно до и после андервольта по трем тестам (Однопоток, 12 потоков, 24 потока). В CBR15 например. Прост ни в коем случае не стоит ориентироваться исключительно на многопоточный полноценный рендер. Нет ну конечно если вы ничего на компе не делаете кроме как рендрите - ОК. Но сильным андервольтом вы можете откинуть производительность процессора в других задачах чуть ли не до уровня AMD FX ценою в 3-4 градуса, кому оно нужно...
Если нужен только рендер и плевать на все остальное. То рекомендую начать пробы с Ryzen Master-а, там можно выставлять фиксированные частоты для разных CCD и ограничивать Peak Voltage. Вообще это дает наилучший результат в плане энергоэффективности и скорости рендера. Но худший результат по смешанным нагрузкам и однопотоку. Я на рендер ноде так себе и сделал все. Проц до 60 градусов даже не прогревается теперь. Но во всем остальном он ужасно тугим стал.
Еще раз по пунктам, подытожу :
1.) RM + Фикс Частот + Ограничение Вольтажа = Максимум энергоэффективности в рендере, тугой проц во всем остальном.
2.) Offset -0.1V для некоторых процов может оказаться слишком болезненным, так что проверяйте в трех тестах (1/12/24 потока в CBR15 например). В некоторых случаях может оказаться что лучшим вариантом будет -0.08V.
3.) Использовать Manual/Fixed вольтаж в Биосе вместо Оффсета или крутить VID-ы, почти гарантировано будет большая потеря во всех режимах кроме рендринга. Но результат хуже выйдет чем с Ryzen Master + фиксом и ограничением вольтажа. Хоть и более стабильным результат будет из за дутых (Stretched) частот.
4.) Если при Offset -0.1v и LLC5 у вас недостаточно сильно просаживается вольтаж до нужной отметки. То тут ничего не поделать. Скорее всего у вас 3900Х попался с изначально завышенным VID-ом. Ну или материнка сама по себе не имеет в наборе достаточно расслабленного LLC с сильным VDroop-ом. Я встречал в интернетах 3900X которые при -0.1v и расслабленных LLC (ну как LLC5 у Тайчи) рендрили при 1.28V, что конечно далеко-далеко от идеала. Но тут ниче не поделать. Даже и не знаю что тогда делать. Ведь 1.28V в рендере это тип как по стандарту, практически, а тут выходит 1.28 с оффсетом на -0.1, тлен...
5.) Когда вы крутите оффсетом, нету понятия стабильно работает проц или не стабильно. Там вы можете указывать любой вольтаж, хоть -0.5V (если материнка позволяет), проц просто замедлиться до 800мгц и будет себе дальше работать. Лишь при фиксированной частоте по CCD и Фиксированном вольтаже, когда вы заставляете процессор работать в определенном режиме могут возникнуть проблемы. Потому я сразу отказался от схемы с Ryzen Master и разгоном по CCD. (Пусть будет 100% стабильность хоть и с дутыми частотами).
P.S. Все эти дела я проворачивал что бы одновременно и нагрев снизить и энергопотребление и что бы НИГДЕ и НИЧЕГО не потерять по производительности. Это тот еще геммор был. Но вышло. Если вам пофиг на все кроме рендера, то ставьте просто в биосе Manual/Fixed VCore вольтаж на 1.2V например, и смотрите что выйдет. Вангую что выйдет тип ~150 (вместо ~210) баллов в CBR15 однопотоке и ~3100 (вместо ~3200) в многопотоке и унылые результаты при смешанных нагрузках. Зато будет проц холодный
| 09.02.2020 |
Актуальные конфигурации компьютеров
ART-R, порылся по форуму Асрока, погуглил. Вроде все ок с 3.90 версией. У меня тоже.
Я кстати сбрасывал версию BIOS с 3.90 до 3.75, и потом обратно до 3.90 все ок было.
Т.е прост как обычно через флешку и биос прошивал, никаких предупреждений или нюансов не было.
Но на 3.60 я бы все же не рискнул откатываться. Все же там другая SMU прошивка, старая Агеса.
У меня Тайчи таким образом зависала что POST-Код не работал (т.е на нем вообще циферблат не горел) и кнопка Power/Reset не работала только когда у меня было либо слишком мало либо слишком много CLDO VDDG, CLDO VDDP. Но это слишком индивидуально для каждого экземпляра процессора.
Где то этого достаточно :
CLDO VDDP - 0.95v
CLDO VDDG - 0.85v
Где то этого недостаточно :
CLDO VDDP - 1.05v
CLDO VDDG - 1.05v
Эти вольтажи насколько я знаю отвечают за работу Infinity Fabric и связи между чиплетами. Они привязаны к частоте памяти и соотношению MCLK к FCLK. А новый Биос научился регулировать все это дело. Потому при разгоне памяти до 3800Mhz у меня на новом биосе эти вольтажи прыгали слишком высоко для моего процессора (до 1.2v). А на старом биосе (3.75 они вообще криво работали, вольтажи эти). В 3.78 говорят пофиксили их, но я не в курсе, не пробовал.
В чем проблема может быть - понятия не имею. Я вот до сих пор на 3.90 Биосе сижу но на старых настройках и вольтажах, все ок у меня. Единственное что на ум приходит. Это заметка от ASRock, что после прошивки биоса. Нужно запустить комп, зайти в биос и прожать Load Optimized Settings (или Deafults, не помню как точно). Логики в этом я вообще не понимаю если честно. Ну тип, биос все равно то настройки во время прошивки сбрасывает, на кой еще раз это вручную делать.
https://www.asrock.com/support/BIOSIG.asp?cat=BIOS10
"After the system restarts, press [F2] to enter the BIOS setup utility during boot up. In Exit menu, please select "Load Default Settings" and press [Enter] to continue. Select "Exit Saving Changes" and press [Enter] to exit the BIOS setup utility. Now, the system is booting up with new BIOS."
Так же по заветам 1usmus-а, после каждой обновы/смены версии BIOS нужно переустанавливать Чипсет Драйвера. Вполне могу подтвердить что если этого не делать - слетает CPPC2, какие еще есть последствия не знаю. Кто виноват в этом Microsoft, AMD или вендоры материнок тоже не знаю. Выглядит странно. Считаю все это дело сродни танцу с бубном. Но делаю каждый раз теперь
Но вообще так то... Если у вас на Бета-Биосе все ок было. То я бы лучше на него откатился бы.
Ковырялся бы с новым биосом только если вы явный профит получаете от него.
| 09.02.2020 |
Что бы прям уж кромешного шума в интерактиве не было :
https://youtu.be/N6rtrE3lRUU
Плюс к этому можно добавить эти настройки :
1.) F10 -> Performance -> Force Path Tracing (поставить галочку).
2.) F10 -> System -> System Settings -> Image Upscaling Factor (поставить на 2.0, например).
Помогает, особенно если у вас 2160p Монитор и вы крутите экстерьер с кучей скаттеров.
Но если вы настраиваете еле заметные детали в материалах, то лучше ставить 1.0 как в дефолте.
Еще если в VFB 'зумится' к определенной области, то можно без "Region-а" ограничивать зону просчета в интерактиве. Хотя это уже интуитивный момент, думаю и так все в курсе. Ну и у Proxy файлов конечно держу включенными галки (Keep in Memory, или как то так), без них каждый запуск интерактива затягивается. На 3900Х летаю в экстерьерах с тонной скаттеров без особых затупов на 1440p мониторе с апскейлом (2.0) и этими настройками. Nvidia Денойзер в интерактиве отключаю. Бесполезный (IMHO) с учетом вышеописанных настроек.
| 08.02.2020 |
Жесткий диск, до 3Д проекта был 24 Гб осталось 7 Гб
Если уж вдаваться в детали то в древние времена дефрагментацией можно было сэкономит пару мегабайт на гигабайтом винте. Потому что не все кластеры в память записывались оптимально. Но да и то, это было когда на компе были тысячи мелких файлов. Ну там условно предположить что в ячейки 4кб объемом а у вас тысяча файлов весом в 3кб в них. Дефрагментация могла найти файлы по 1кб что бы дозаполнить ячейки. Ну как то так +-
| 08.02.2020 |
Цитата fobus:
Тестировал и с SMT и без SMT - результат примерно одинаковый. Никаких -25% от скорости нету.
Тогда зачем вообще выбирать один поток если разницы нету. Дичь какая то )) Ясное дело что я имел ввиду 25% грубой вычислительной производительности. Ктож знал что эта помойка от автодеска игнорирует впринципе HT/SMT.
| 08.02.2020 |
Какой ещё турбочайник ? Я первый тест гонял который был изначально в первом сообщении.
| 07.02.2020 |
Замеряю одно и то же ядро (физическое, не SMT-Поток). Никакой фоновой активности нету. Каждый раз разные результаты с разбегом в +/- 2-2.5 секунды. После каждого прогона пробовал комп перезагружать. Безрезультатно. Никакие свопы не забитые. Все свободненько на компе. В чем дело не знаю. CPPC2 включено, винда с новым планировщиком с 1909 версии, 1usmus Power Plan (Universal). Отпишу лучшие результаты. Но смысла особого в этом не вижу. Повторяемость результата в подобных тестах должна быть идеальной при такой короткой дистанции.
3900X 4475Mhz на активном ядре :
3Ds Max 2017 - TIME: 14.594 sec. - Mem: 10.9021 MB
3Ds Max 2020 - TIME: 17.626 sec. - Mem: 0.992146 MB
А что значит параметр MEM я вообще не понимаю. Он то 0.8MB то 20MB.
Цитата -NiK-:
Вы целый процессор выбираете или только одно ядро? :)
Да тут даже выходит что вы выбираете ~75% от одного ядра. Ведь вы не задействуете виртуальный поток у ядра. Сомнительно как то, IMHO если уж и тестить именно ядро - либо отключать SMT в биосе полностью, либо выбирать и само ядро и SMT поток от этого ядра. Ведь это цельный механизм в вычислительном конвейере.
| 07.02.2020 |
Цитата kofsh:
номер процессора может быть любым
Я прост не в курсе. А то что в диспетчере задач, в списке есть и физические ядра и виртуальные HT/SMT потоки то как бы ничего страшного, получается максу по-барабану ? Ну и еще у Ryzen-ов (да и Intel-ов) на разных ядрах разные VID-ы, и буст может отличаться. Или это тоже пофиг ? http://prntscr.com/qz0k5a
| 07.02.2020 |
Актуальные конфигурации компьютеров
.Kin, 16гб плашки для десктопов DDR3 стандарта редкие. И часть из них четырехранговые с ужасными таймингами. Помимо этого стоит понимать что такая память судя по тому что я нагуглил если где то и продается новой то стоит нереально дорого, ~650$ за 64гб. Когда за ~600$ можно взять памяти на 128GB DDR4 так еще и не самой медленной и двухранговой и с радиаторами и XMP профилем. Сомнительно все это.
По поводу заработает ли - нужно понимать что на сайте Интела и сайте Материнки в спецификациях указаны те объемы ОЗУ на которых это железо было протестировано. А DDR3 16GB UDIMM плашки вышли на закате DDR3 стандарта. Гарантий вам никто не даст по этому поводу. Могу лишь сказать что на примере DDR4 всеми этими спецификациями можно подтереться. Где на сайте Intel указано 64GB Max (5820К например) там можно в 8-DIMM слотовую материнку старющую воткнуть 256гб из 32гб плашек (факт). Ну то-есть как то так вот... Что у Интела что у АМД по крайней мере в случае с DDR4 оказалось что контроллеры памяти не имеют ограничений по объему памяти (ну до 1ТБ памяти). Как оно там с DDR3 - понятия не имею. Я не нагуглил прям сходу каких то подтверждений тому что 4770/4770K могут работать на 64гб. Но вообще так то... Иначе зачем кто то бы делал 16ГБ UDIMM DDR3 плашки для десктопов ? https://www.anandtech.com/show/7742/im-intelligent-memory-to-release-16gb-unregistered-ddr3-modules Вот на АМД работают. Так что лишь в теории, могут завестись и на Интеле. Точно так же как сейчас 32гб плашки заводятся на всем подряд где есть DDR4 слоты, будь то древний 5820K/5775C или 6700K. Но это все равно рискованно.
В любом случае. Это лютый геммор будет выискивать 16гб DDR3 плашки что бы были они двухранговыми а не четырехранговыми и отваливать за них нехилую сумму. За эти деньги можно будет новый комп собрать )) И да. В этом ничего удивительного нету что DDR3 дороже чем DDR4. Так же было и когда DDR2 дороже была чем DDR3.
Короч я не занимался бы фигней. Брал бы какой нить современный десктопный проц и материнку. И две плашки по 32гб DDR4 UDIMM памяти. Ну например какой нить такой вот мусор сойдет на отлично : https://www.nix.ru/autocatalog/memory_modules_neo_forza/Neo-Forza-NMUD432F82-3200DC20-DDR4-DIMM-64Gb-KIT-2-32Gb-PC4-25600-CL16_447149.html / там вообще много всякого такого / https://www.nix.ru/autocatalog/memory_modules_neo_forza/Neo-Forza-NMUD432F82-3200DB21-DDR4-DIMM-64Gb-KIT-2-32Gb-PC4-25600-CL16_447148.html
| 07.02.2020 |
Жесткий диск, до 3Д проекта был 24 Гб осталось 7 Гб
Я как то прифигел когда после обновления Винды, система запаковала старую версию в папку Windows.OLD, и скрыла ее на системном диске. После этого я при крупных апдейтах по новой винду начисто ставлю если мне этот апдейт интересен. Пару раз ноутбуки мне давали где вот такие вот папки Windows.OLD висели. Но навряд ли это тот случай. Так бы диск C вообще намертво забитый был бы...
https://remontka.pro/delete-windows-old/
| 07.02.2020 |
Жесткий диск, до 3Д проекта был 24 Гб осталось 7 Гб
А если от имени администратора запускать командную строку ?
https://i.imgur.com/c1j1lGK.gifv (после Enter, ничего не должно быть написано).
Файл сам исчезать должен. Но у вас ошибка какая то... Впервые вижу.
| 07.02.2020 |