Сообщения | Дата |
---|
Вообще плевать в каком там формате текстуры и в каком разрешении. Я их сам на свое усмотрение ужимаю и меняю им формат например через - "Bitmap Tracking / Resizing" от "Pixamoon". А скачивается модель за 1 минуту или за 20 секунд мне не важно. Единственное что порой удивляет что люди держат геометрию в Editable Poly а не в Mesh, что экономит порой 15-20% веса, что впрочем не влияет на потребление памяти в рендере. Просто дополнительное телодвижение.
P.S. Увидел пример модели весом в 400мб - и... A**EL. Сами расшифровывайте. Тут нет аргументов.
| 22.08.2022 |
Цитата v3rtex:
Помогите кто-нибудь победить вот этот глюк, когда в матэдиторе карты разлетаются на пять километров, когда берешь пипеткой материал. Просто жуть как достал!
Следите за центром координат в Мат Эдиторе. Надо что бы материалы держались слева от центральной оси. Если сильно отдалить то будет видно где эта самая ось в Мат Эдиторе. Обычно ноды не переходят за правую ее часть при выравнивании (при Layout). Надеюсь понятно объяснил )) Их еле еле видно эти оси, обвел красным их.
[[image:592726,]]
| 21.08.2022 |
Цитата ck_petya:
Может оно сильно проявляется в анимации или интерактиве, но в статике не заметил большой разницы.
Ну разница в первую очередь в потреблении оперативной памяти. Текстуры ведь больше всего памяти жрут. У меня сейчас в каталоге растений 590 уник Proxy моделей растений, до очистки сцена с ними открывалась 6 минут и жрала 40гб ОЗУ, спустя месяц чистки материалов в сцене уже 20гб и меньше 3 минут на открытие. Конечно когда в проекте штук 150 уникальных растений то хотелось бы что бы вариативность листиков делалась с помощью одной текстуры уникальной и CoronaMultiMap или аналога. На кой мне на каждом растении тьма текстур. Типа такой дичи когда на травке тьма текстур нафиг не нужных, и когда переделываешь все разницы визуальной никакой нету практически а потребление памяти в разы снижается - https://i.imgur.com/3g7lguX.png
Не, я понимаю когда текстура именно по содержанию как то отличается. Ну там, тот же листик но например покоцанный или с пятнами какими то. Это добавляет реализма. Но когда текстуры просто немного по гамме отличаются но сохранены в разные файлы - меня аж трясет. Есть ведь CoronaColorCorrect/Output множители, MultiMap-ы для рандомизации. Да блин куча способов не плодить лишние текстуры которые память забивают.
| 21.08.2022 |
Очень бесят модельки растений где 10+ материалов листьев, и у каждого листика карта Диффуза идет отдельным файлом но по содержанию отличается всего на 1% по Гамме и по 3-4% по HUE. Такое впечатление что некоторые моделеры растений вообще не в курсе про существование CoronaMultiMap которая делает то же самое, и никакой необходимости нету делать 150 текстур на одно растение.
| 21.08.2022 |
Сорян за оффтоп
grdesigner, я не использую дистрибутивный рендер и сетевые возможности плагинов. Только раздельный рендер. Просто запускаю одну и ту же сцену и рендрю разные ракурсы. Таким образом никаких проблем. У меня всякие лицензии куплены но они все идут на два компа по-умолчанию. Т.е с этим у меня никогда проблем не было.
Например Forest Pack/Rail Clone не нужно на два компа покупать. Потому что Пиратка совместима с Лицензией на 100% при условии что сцена будет просто открываться, рендриться и закрываться без сохранения сцены. Так что у меня тут все СУПЕР удобно. KVM-Свитч куплен что бы клаву с мышью переключать налету с компа на комп. Microsoft RDP настроено. Обновления винды синхронизируются. Все гуд в этом плане. Омега удобно.
К тому же у меня ведь компы на открытом стенде. Кисточкой махнул раз в 2-3 месяца. Квартира не пыльная, и все. Очень мало пыли и очень быстро это чиститься. Ниче разбирать не нужно ведь без Корпуса.
Так что мой опыт - ваще супер крутой. Ноль проблем и дискомфорта. К тому же я сделал себе на заказ здоровенный стол что бы открытые стенды были лежачими а не вертикальными. 420мм водянка на одной полке, комп на другой. Никаких заморочек с креплением винчестеров, просто положил его на полку и все, ноль вибраций и звука. Балдёж.
Цитата grdesigner:
В рознице еще не закупался, до этого все в QWERTY покупал. Но как то физические адреса у них больно рядом находятся.
Так они находятся в одном помещении. Один столик для QWERTY, другие от Roznica. Вход и вывеска у них одна Я и там и там наверное на ~пол миллиона гривен железа накупил всякого разного когда сборками компов занимался. Они правда много раз адрес меняли, я помню как минимум четыре переезда у них. Удивительно что они столько лет живут.
Сорян за оффтоп
| 21.08.2022 |
Лан, все. Утолил свою жажду графомании на ближайшие пару недель. Пора спать идти )
grdesigner, понимаю. Да, есть над чем поразмыслить. Еще ведь непонятно че с ценами и доступностью будет. Вон на днях новость что Ethereum дорожает, у меня аж сердечко прихватило от этой новости. Побыстрее бы видяхи вышли ))
Ну у меня тут ситуация такая что я как перешел на экстерьеры так у меня % времени именно рендера стал каким то совсем не серьезным. Типа 90% времени я работаю и 10% времени рендрю. И мне даже как то... Многовато 3900Х + 5900Х. Назрел план продать оба компа и взять вот один на 13900K. Думаю выйдет примерно то же самое, но с более комфортным интерактив рендером и однопотоком. Ну как то так. А вообще конечно можно просто ничего не менять мне и забить. Но хочется.
Цитата grdesigner:
https://www.roznica.com.ua/gskill-trident-z5-rgb-silver-ddr5-64gb-2-g808545
Хех... Я в Рознице начал закупаться еще наверное лет 10 назад или даже больше. Годный подвальный магаз ) Много раз на уступки по гарантии шли. Даже новый БП чуваку выдали когда у него уже истекла гарантия. Правда дали другой БП ему. Тем не менее )) Ну а Хотлайн-Агреггатором я прост пользуюсь что бы в среднем цены смотреть, я все равно выбираю из списка магазов на Хотлайне только те которыми пользуюсь.
P.S. Странно что у этой оперативки не указана Розница.com.ua в предложениях.
| 21.08.2022 |
grdesigner, не знаю. Пока что из за проблем с доставкой и проблемами с логистикой, заказал крепления с Германии под водянку. LGA 1700-BCF Рамочку заказал через посредников с Китая (Алиэкспресс в Одессе не работает с февраля). И вот оно едет пока до меня а я до сих пор не знаю буду ли я грейдить все это дело или плюну и куплю себе просто видяху жирную
Не знаю короче. Я вот почему все эти стены текста пишу. Тоже себя от части пытаюсь убедить в чем то. Сам себе хочу что то рассказать. Успокоить что 250вт это не много )) Пытаюсь придумать зачем мне это все. Сложно короче все.
Ну вот единственная память DDR5 которая сейчас меня бы устроила в полной мере эта вот эта :
F5-6000J3040G32GX2-TZ5RS - https://hotline.ua/computer-moduli-pamyati-dlya-pk-i-noutbukov/gskill-64-gb-2x32gb-ddr5-6000-mhz-trident-z5-rgb-f5-6000j3040g32gx2-tz5rs/
И вот я смотрю на цену в 57000грн (~1550$) а потом смотрю на свою память которую я взял в прошлом году за 590$ и мне просто тупо не хочется даже думать про 7950Х из за этого. Вот вообще. Потому я теперь пытаюсь себя заставить любить Интел. И пытаюсь видеть в нем все хорошее )) Вдруг отопления не будет, вот греться буду зимой от 13900К. Хорошо ведь.
И ведь самое то тупое что я поменяю по сути 128гб на 128гб. Ну было бы там хотя бы 196гб, ну не было бы вопросов. Но камон... Блин. Такая доплата тупо за повышенную ПСП у памяти. Ну нафиг...
| 21.08.2022 |
Цитата grdesigner:
Не очень хочется тратиться на воду.
Т.е ~250вт у 13900K водой надо охлаждать а ~235вт у 7950X будут на воздухе работать ? Не ну кто его знает. Просто мы прикидывали уже тут на счет PL2 PL1 потребления - https://3ddd.ru/forum/thread/show/zen_4/2#post1684446 И по нашим прикидкам они будут греться одинаково, и возможно даже 7950Х будет более горячим из за меньшей площади рассеивания.
Но это лишь догадки, прикидки, гадания.
Цитата grdesigner:
Еще интересно какие материнки завезут под память ДДР4. Вдруг только начального уровня, а среднебюджетные уже на ДДР5.
ASUS ROG STRIX Z690-A GAMING WIFI D4
MSI MPG Z690 EDGE WIFI DDR4
ASUS TUF GAMING Z690-PLUS D4
Уже готовы к 13900К. Уже вышли Биосы. На которых уже эти процессоры тестируются, в том числе уже Quality Sample модели предрелизные.
[[image:592678,]]
[[image:592679,]]
И это не слабые платы. ВООБЩЕ, нисколько. Z790 станет лишь расширением для возможностей южного моста и будет поддерживать функцию Unlimited Power, которая будет давать 350вт на процессор. Если 350вт кажется чем то нереальным. То можно например на этот видос глянуть где водянка за 180 баксов охлаждает 312вт у 12900KS до 61 градуса в 100% нагрузке, правда с LGA 1700 BCF рамкой → https://youtu.be/iYU1OskbY-Q?t=784
Я на 99% уверен что будут не хуже Z790 платы под DDR4. Ну а если я ошибусь, то вот все равно будет выбор из крутых плат.
| 21.08.2022 |
grdesigner, а чего 13900К не рассматривается ?
Ведь вполне вероятно что 13900K может оказаться на уровне 7950Х в рендере, и немного быстрее в однопотоке. При этом они похоже будут жрать примерно одинаково энергии (но это не точно). То что точно 13900К можно будет использовать с DDR4, которая +/- вдвое дешевле стоит чем DDR5 у 7950Х... Если речь идет про 128гб памяти и если уже есть в наличии DDR4 то это значительная разница. Я вот именно потому например и хочу 13900К что бы оставить свою годную Micron Rev.B память в 128гб которая четенько гониться. И нафиг ту DDR5 года на 3-4 ))
К тому же стоит ожидать более предсказуемой работы Intel Thread Director, более обкатанного IMC чем у Райзена. Слухи ходят что релиз Райзенов чутка отложили из за кривых биосов, это уже малёха стрёмно. У Раптор лейка же все более предсказуемо должно быть.
Единственное наверное что не уверен починят ли к тому времени Windows 10 в Corona/V-Ray под гетерогенные архитектуры. Так что вероятно придется на 13900К переходить на Win11. Ну и в пользу Райзена можно было бы отметить что это только старт платформы и потом можно будет менять процы не меняя плату. Но... Вспомните сколько геммора было с старыми X370 платами и нынешними 5000 Ryzen, как АМД сопротивлялась этому всему и только вот в этом году начали разрешать пилить Биосы. Так что тут я бы не раскатывал сильно губу. Может уже не прокатит так легко грейдится. Уверен придумают пачку всяких искусственных штук которые будут вызывать желание махнуть и плату при грейде проца. Думаю и сами производители материнских плат не в восторге от X370/X470/X570 и объема (тьмы) биосов которые им приходилось пилить каждый месяц при обновлении AGESA. Да и вообще кому понравится что человек покупает себе одну плату а потом три поколения процов на ней пользует не покупая новую плату
Впрочем я например когда меняю процессор то и плату беру свежую. Потому что старые платы обычно ни черта не поддерживаются апдейтами Биоса. Знали бы вы как я приуныл когда на X470 выходили биосы с задержкой в 3-4 месяца по версии AGESA а на X570 пилились каждые пару недель. Весь свежак, все фиксы и бусты, постоянная совместимость с CTR обновлялась. А на втором компе я сидел лапу сосал. Страшно представить что было на X370, там еще и были BIOS-чипы мелкого объема куда не влезал микрокод на все поколения процессоров. В общем я уже давно не питаю никаких иллюзий на этот счет, берешь новый проц - старую плату в помойку на продажу. Максимум крепление под кулер купить к новому сокету да и все. Да у AM5 вроде будет крепление совместимо с AM4, можно будет сэкономить 10 баксов ) А да и к Интелу желательно надо покупать за 10 баксов костыль в виде LGA 1700-BCF (Bracket Correction Frame), желательно от Термалрайта. Тоже неприятный момент ))
| 21.08.2022 |
Цитата CrAsssH:
Получается на воздухе 5950х лучше разгонять до частоты 4050. Но на материнка же есть кнопочки автоматического разгона (если не ошибаюсь), они в автоматическом режиме до каких параметров разгоняют процессор? И если память 3200, ее надо гнать с этим процем? Ж. Скил Извиняюсь, если от темы увел.
Вообще для начала надо понимать что у 5900X/5950X - два чиплета. И всегда один из них ощутимо хуже чем другой. Ну, я бы сказал что в 95% случаев так. Потому разгонять оба чиплета до одинаковой частоты нету никакого смысла. Ну например, на идентичном вольтаже один чиплет может в 4.3ггц а другой только в 3.9ггц, ну если вы будете их до одинаковой частоты гнать то на 3.9ггц вы и остановитесь. А так сможете выжать например 4.45ггц и 3.90ггц, продолжая добавлять напряжение но при этом не трогая условно неудачный чиплет а удачному продолжать повышать частоту понемногу. Ну это так, условно говоря. Вручную это делать долго и бестолково, когда CTR/Hydra есть для Ryzen.
Далее, разгон через Curve Optimizer, через Адаптивый Оффсет, через боже упаси убогий PBO, через фиксированные частоты - это херь полная. Самый лучший и правильный разгон под Райзены выполняется либо через Hydra либо через CTR. Но, только с пониманием дела и исключительно с корректной настройкой Биоса предварительной.
Дело в том что CTR/Hydra - НЕ ломают энергосберегайки. И они адаптивные. Там создается два профиля (один под смешанные нагрузки, другой под полную нагрузку). И программа сама жонглирует разными режимами. Она сама понимает когда надо процессору выше частота, когда средняя, когда ему PX-Профиль подрубать для моделинга в Максе, а когда Idle профиль когда комп простаивает и процу нету смысла греться.
Так что я бы сразу забыл нафиг про все эти убогие авторазгонялки и прочие дуболомные глупые PBO.
Про память тема обширная. Во первых то что там G.Skill - ВООБЩЕ ни об чем не говорит.
Потому что существует по большому счету всего четыре производителя чипов - Hynix, Samsung, Micron, Nanya. Они продают чипы уже вендорам типа G.Skill, Corsair, Kingston, Crucial, Geil, Patriot, Team и прочим. То есть G.Skill НЕ производят память. Они собирают из готовой памяти плашки. И под капотом у G.Skill может быть какой то убогий мусор типа Hynix AFR/MFR, а может быть легендарный Samsung B-Die. Т.е когда ставиться вопрос про память нужно ЗНАТЬ какие конкретно чипы у этой памяти. Узнать это можно через Thaiphoon Burner.
Сможете ли память погнаться зависит в основном от грейда чипов (lowbin/lowgrade/midgrade/highgrade), от версии чипа и производителя. Как в случае с процессорами память можно не то что бы гнать а именно настраивать. Т.е получать нехилый прирост не повышая напряжение. Надо ли вам гнать память - Это вопрос другой. Сможет ли она погнаться - никто вам точно не скажет.
Это сложно ? Да, в первый раз это очень сложно, непонятно и куча проблем. Кучи дней на тестирование. Но если раз разобраться и потратить где то часов 100-150 на все это дело (чтение мануалов, тыканье таймингов, изучение чужих разгонов, бенчмарков) и это не считая тестов ночных на стабильность, то тогда конечно разгон памяти будет даваться уже грубо говоря за день времени или даже и того меньше. Изучать это для себя лично можно разве что из спортивного интереса, либо для того что бы этим профессионально заниматься разгоняя другим людям память при сборке. Я уверенным себя в разгоне памяти начал чувствовать наверное где то спустя 30 комплектов памяти которые прошли через меня. И теперь на это уходит 5-6 часов что бы выжать где то 95% потенциала и еще неделя ночных тестов на остальные 3-5%. Именно потому, перед тем как во все это начинать врубаться - надо сначала понять, где оно вам нужно и где будет профит. И вообще годное ли у вас железо под это все дело.
А то че толку гнать память когда у вас унылая видяха например или нету 165-240гц моника или вы не играете в игры чувствительные к памяти или вы вообще не чувствуете равномерности фреймтайма и полностью покрытую герцовку например в 165гц. Есть же люди которые реально 60 от 120 FPS не отличат, я вот без счетчика могу например почувствовать разница между 140 и 160FPS в шутере каком то, моментально. Вот как раз на эту разницу в некоторых играх и можно рассчитывать при условии годного разгона памяти и прочих моментов. А может у вас просто память мусорная и не погонится. А есть игры вообще не чувствительные к этому а есть игры где тупо НЕ нужен такой фреймрейт. Ну, например в RDR2 я бы одинаково комфортно играл и на 90FPS и на 160, какая к черту разница. Или там скажем кинцо какое то типа Detroit. Ну а... Для рендера на проце тут уже 100 раз говорили - память гнать НЕ нужно. Даже для обычного среднестатистического игрового компа я бы не сказал что есть смысл тратить на это свое время. Легче заказать платный разгон памяти у мастера какого нить, видел целые группы есть по этой теме в ВК у "Дакара Технограаля" и прочих "разгонятелей памяти".
Цитата CrAsssH:
Автоматика же наверняка сама определить оптимальный предел разгона?
НЕТ. ДАЖЕ И БЛИЗКО - НЕТ. CTR/Hydra могут потратить порядка часу времени что бы протестировать два чиплета на процессоре до более менее вменяемого результата. Производители просто не могут себе позволить так тестировать процессоры назначая им идеальные VID-ы и частотные режимы. А автоматика ЛИШЬ экстраполирует свои предположения на основе этих VID-ов. И она ВСЕГДА берет СЛИШКОМ много напряжения и выдает очень скудный результат при этом. Да вы даже на 60% потенциала в сравнении с ручной настройкой через CTR/Hydra не выйдете.
Едрить я полотно намаслал. Ну сорян. Я не знал как более лаконично это описать все...
| 21.08.2022 |
Rebate, да, но я сказал что это золотая (середина). Так то, если АМД чувствовали что пахнет жаренным со стороны Интела, то вполне вероятно что они уже перешагнули за эту золотую середину что бы выжать лишних скажем ~10% сверх оптимальных напруг. Но опять же, непонятно тут насколько они будут жестить в полной нагрузке. Так то PL2 может быть и не таким высоким, а например в 200вт. Фиг знает.
Думаю тут многое еще и от сокет с IHS крышкой и подложка влияет и качество припоя. Порой ведь умудряются сделать настолько фиговые крышки, или припой или PCB-подложку процессора тонкую слишком которая плохо рассеивает тепло. Я где то видос смотрел где тепловизором смотрели что сама материнская плата вокруг сокета тоже рассеивает некоторую часть тепла от подложки процессора по PCB материнской платы. И тут как бы... Короче я к тому говорю что те же условные 235вт могут при идентичных условиях греться и до 90 градусов и до 75. И вот думаю если АМД сделают все идеально а не как Интел обычно умудряется - то может даже при идентичном потреблении они будут не такими горячими. И надеюсь не придется покупать аналог "LGA1700-BCF"
| 21.08.2022 |
CrAsssH, мой психологический предел на воздухе типа NH-D15 с годными вертушками с высоким давлением и оборотами это где то 180вт на 5950Х. Это в хорошопродуваемом корпусе и если в помещении 22-23 градуса. И то, это во время рендера скорее всего будет 80-85 градусов где то (в зависимости от того насколько ровная поверхность у пятки кулера и крышки проца, и качество термопасты). На 180вт уже начинает решать полировка крышки процессора на температурные режимы. Corona High Quality Денойз в таком режиме скорее всего в любых раскладах будет сразу уводить процессор в Троттлинг. Т.е на таком разгоне он уже неприменим. По крайней мере на воздухе.
228вт для 5950Х... Это уже слишком жестко. Я даже не уверен что в обычном рендере какая нить Arctic Liquid Freezer II 420mm сможет удержать проц от троттлинга в просто рендере. Ну или это будет постоянно на грани 90 градусов. (если че тут дело не только в Ваттах, а в самом проце, его IHS-крышке и чиплете). Например 12900K при 300вт эта вода до 60 градусов может охлаждать в идеальных лабораторных условиях при 100% оборотов. Но 5950X просто лопнет от 228вт на воздухе и на воде ему тоже плохо будет. Слишком высокая плотность нагрева.
Только вот толку от этого почти нету. Вы просто по дороге разобьетесь об Frequency Wall у Райзенов. Это та самая стена, отметка. После которой каждая прибавка в 25мгц по частоте требует нереального прироста напряжения.
Т.е, возьмем цифры с потолка. К примеру для 4ггц надо 1.0V, на 4.2ггц надо 1.1V, на 4.3ггц надо 1.2V, на 4.4ггц надо 1.4V, на 4.5ггц нужно уже 1.65V. Т.е рост соотношения вольтажа и частоты не идет вровень. И почти у всех Райзенов эта самая золотая середина где то около 160-170вт.
| 20.08.2022 |
Rebate, не знаю как там сейчас. Но раньше CPU Monkey занимались как раз такими прикидываниями. И с каждой утечкой корректировали данные туда-сюда немного. И только на релизе выставляли уже проверенные данные. Ну вот их гадание на кофейной гуще (там ниже по ссылке сайнбенч баллы) :
https://www.cpu-monkey.com/en/compare_cpu-intel_core_i9_13900k-vs-amd_ryzen_9_7950x
А вообще, мы не знаем PL2 потребление у 7950X.
5950X :
PL1 - 105вт
PL2 - 145вт +38% получается ?
7950X :
PL1 - 170вт.
PL2 - ??? 170 + 38% = 235вт ?
Или я хрень насчитал. Или вообще формула своя будет.
13900K :
PL1 - 125
PL2 - 250
12900K :
PL1 - 125
PL2 - 245
| 20.08.2022 |
Ryzen 5950 и dark rock pro 4 у кого такая сборка ?
Цитата SPoG:
Странно, всегда райзен мастер работал стабильно и без нареканий
Ну только если вы судите по своему случаю. С самого его первого появления и по нынешнюю актуальную версию с ним всегда были разного рода проблемы у многих людей. Все потому что AMD намудрили там с метрикой, совместимостью с разными версиями SMU/AGESA и версий Windows.
Если у вас с этим проблем не было то скорее всего у вас все равномерно обновлено было. Т.е ни один из нужных элементов для его работы не выпадал из общей картины. Типа, когда Биос с последней Агесой а винда 1709, или новый биос с старым Райзеном на новой системе. В общем разные комбинации. Да, еще как минимум несколько версий Ryzen Master конфликтовали с чипсет драйверами от AMD и это не исправляли МЕСЯЦАМИ.
У меня то тоже ни разу с ним не было проблем, только вот это ни черта не меняет, ведь сама софтина бестолковая, за какой аналог не возьмись он всяко лучше будет. Ультимативный вариант это конечно же комбинация из CTR или Hydra (если нужно проц настроить, андервольтнуть или разогнать) + HWinfo64 (если надо просто помониторить) + ZenTimings (если настраиваете оперативку). Зачем этот каличный Ryzen Master вообще не пойму. И не хочу, да, точно - я не хочу знать. Если я услышу хоть слово про PBO разгон через RM я точно в окно выйду, пощадите, я не выдержу
UPD - Так и знал, ну ладно. Придется теперь с этим жить.
| 20.08.2022 |
Ryzen 5950 и dark rock pro 4 у кого такая сборка ?
mendygaliev
Вы выбрали два худших по моему мнению варианта для мониторинга Райзенов.
Попробуйте HWInfo64 - https://www.hwinfo.com/download/
HWInfo64 показывает отдельные температуры у каждого CCD. Можно узнать Хотспот температуру (TCTL). И конечно же усредненную температуру глянуть (бесполезный датчик который показывает Ryzen Master и Аида). Еще и отдельно можно глянуть на SoC температуры в проце. Там же можно посмотреть PPT/TDC/EDC лимиты. Потребление проца, узнать Power Reporting Deviation, насколько метрику искривляет материнская плата во время нагрузок. Сравнить VID и VCore что бы понять как LLC настроен. Да блин. Все что надо там есть для идеальной настройки райзена, ну кроме таймингов на оперативку разве что. А в этом убогом мусорном Ryzen Master-е ни черта толкового нету, он еще и работает раз через раз. Да и AIDA64 половину нужной инфы не в состоянии показать.
Но вообще, что бы Ryzen Master нормально работал стоит попробовать :
1.) Уточнить версию винды, если десятка хотя бы 2004 версия нужна, хотя уже давно пора ставить 20H2 и свежее. Жмете Win+R пишите winver, жмете Enter, там версия будет. Если там 1709/1903 переустанавливаете или обновляете систему до актуальной.
2.) Биос обновленный до актуальной AGESA и SMU (от этого точность метрики зависит так же). Под 5950Х SMU 56.46.00 и не младше чем AGESA V2 PI 1.2.0.1 (тут правда такой момент, что если до упора обновиться то например не будут работать старые CTR, придется переползать на Hydra к Райзену). Если работоспособность CTR не интересует - просто обновляетесь до последнего биоса.
3.) Поставить чипсет драйвера последние от AMD (сталкивался с тем что без них Ryzen Master отказывался работать в принципе). Хотя иногда и работает с Microsoft WHQL мусором. Ссылка - https://www.amd.com/ru/products/chipsets-am4
Вообще если банально погуглить, то почти все пишут что проблема с совместимостью с Биосами. Например на MSI X570 Tomahawk в какой то момент Ryzen Master работал только на Бета версиях Биосов а не на Релизных. И так половину прошлого года было пока не починили
| 20.08.2022 |
aw767676, тут еще важно понимать это отзыв с ранних версий биосов когда DDR5 была сырой или это актуальный отзыв. Потому что это запросто может быть косяк биоса который уже вылеченный, например. Я бы взял дату этого коммента. Открыл бы список биосов к этой плате. И посмотрел бы описания биосов вышедших с того момента на предмет пунктов типа "Improved Memory Stability".
Цитата aw767676:
and that was with many many hours of manual tuning
И сложно конечно оценивать навыки человека и понимания что он там много часов вручную настраивал и насколько понимал что делает. Тут ничего конкретнее по этому поводу сказать не могу.
Кроме того что 4400Mhz это вообще ниже чем JEDEC, т.е это ниже гарантированной скорости. Я про такое никогда не слышал. Вместо этого видел кучу примеров когда четыре плашки DDR5 нормально себе разгоняют.
И еще есть куча гайдов для тех кто не понимает как заставить работать нормально четыре плашки DDR5, ну тип такого - https://youtu.be/1KZFeE-o3jo (ну вот в конкретном случае это явно ошибка биоса).
| 19.08.2022 |
Цитата aw767676:
я так поняла - что если 4 планки DDR5..... не будут ониработать на 6000, а будут на 4400- 4800 ??
Нет, это не так устроено. Это обширная тема для обсуждения. Что бы не писать полотно объясняя что да почему и что да как - постараюсь вкратце... Если IMC (Контроллер памяти) в процессоре тащит определенную частоту, то в 99% случаев и с четырьмя плашками можно получить ее же. Т.е что одна что две что четыре плашки можно получить будет те же 6000Mhz. Но у любого стандарта памяти есть свой предел стабильности.
Насколько я знаю у нынешних плат и контроллеров памяти грань предельной частоты где то в районе 8000Mhz. Это конечно же в Gear4 режиме унылом. Тем не менее где то на этой отметке уже могут быть проблемки с четырьмя плашками. Когда придется сильно задирать VCCSA/VCCIO, сопротивления крутить. Т.е может выйти так что с двумя плашками будет 8000Mhz/CL50 (ну например) а с четырьмя может быть 7600Mhz/CL48 (ну например). Но в этом всем нету смысла, процессоры еще не настолько выросли что бы поддерживать такую память. Потому когда память слишком быстрая для процессора они переключают режимы работы контроллера памяти в Gear1/Gear2/Gear4 (или у AMD это 1:1:1, 1:2:2, 1:4:4), он же Coupled и Uncoupled режим.
Потому надо подбирать память с оптимальной частотой. Например у Ryzen современных эта частота в районе 3600-3733Mhz (редко 3933). У следующих Райзенов ориентировочно это будет 6000Mhz. У Раптор Лейков пока непонятно. Ну и у Алдеров если DDR4 Gear1 то это в районе 3600-3733Mhz, если DDR5 то Gear2 в районе 6000-6200Mhz. Короче DDR5 6000Mhz по идее должна быть оптимальным выбором и под Райзены и под Интелы, в том числе и под четыре плашки.
Но вообще тут слишком много нюансов которые стоит объяснять. Проще будет сказать что 6000Mhz это не та частота на которой будет разница между 2 и 4 плашками. И не та частота на которой будут проблемы ощутимые. В крайнем случае можно будет покрутить сопротивления, VCCSA/VCCIO вольтаж и думаю все ок будет в большинстве случаев.
| 19.08.2022 |
А почему бы и нет собственно :
https://videocardz.com/newz/intel-core-i9-13900k-reportedly-supports-extreme-350w-performance-mode-on-some-intel-700-series-motherboards
250вт в рендере вам мало ? Ну так вот, держите кнопочку что бы сделать 350вт
Вот наконец до нашего региона дошла на прилавки годная DDR5 память, которая преодолела мой психологический порог соотношения частоты к таймингам - 6000Mhz/CL30/1.4V, на бумаге оч солидно еще и 32гб плашки (F5-6000J3040G32GX2-TZ5RS). Все бы хорошо, если бы она не стоила 1600$ за 128гб, когда моя годная DDR4 обошлась мне в 600$ за 128гб
Так вот волей не волей посматриваю в сторону 13900K, может ну нафиг эту DDR5. Так просто махну материнку+проц и получу прибавку порядка ~45% в рендере и что меня больше интересует это порядка 30% однопотока (если P-Ядрами считать). Это относительно 5900Х. Был бы у меня 5950Х, не настолько интересно было бы так грейдиться. А так... Звучит заманчиво и адекватно по цифрам. К тому же 420мм вода не будет бездельничать
Единственное что, по моему Интел как то мало рассказывают про Raptor Lake, больше про Meteor Lake. Хотя вроде есть об чем рассказывать. И новая архитектура P-Ядер, E-Ядер вдвое больше, более жирный IMC, кэша вагон навалили на разных уровнях, аналог FIVR запилили снизив энергопотребление (за счет этого смогли впихнуть больше ядер почти при том же потреблении). Только вот проблемка в том что все это как то не по официальным источникам выясняется а по утечкам тестов/инженерников и прочего... Еще интересно будет ли у новых материнок эти распределяющие нагрузку рамочки на сокет )) Стоят они впрочем недорого, на алиэкспрессе вагон вариантов. Еще было бы круто увидеть Gear1 режим в 3933-4266Mhz, это был бы так сказать прощальный выстрел в память об DDR4, кульминация развития контроллеров памяти )) А то у 12900K Gear1 разве что на 3600Mhz работает.
| 19.08.2022 |
Актуальные конфигурации компьютеров
Чет как то тема малёха ушла в оффтоп. Сорян. Завязываю.
Цитата grdesigner:
Я просто по жизни люблю чистоту везде.
Как то это не стыкуется все В голой системе столько хлама и мусора вы себе и не представляете. Через Win10Tweaker только лишь у меня отключается порядка 100 служб из 150 от Microsoft. И еще кучу всего выборочно. Винда это болото из отходов в которое надо после установки сразу закидывать бомбу с хлоркой а гнойных червей которые выползают с него добивать огнеметом. Вот потому и бомбит, что люди не понимают масштаба проблемы. Хотя есть крайности, LTSB/LTSC версии Винды. С которыми больше проблем чем профита.
Просто ознакомьтесь мельком с списком и подумайте, какая к черту там "чистота".
https://i.imgur.com/W3njFhX.png
https://i.imgur.com/b2ePIfK.png
https://i.imgur.com/rq7YNBO.png
https://i.imgur.com/Bb49P8Q.png
Важным уточнением будет что отключение всего хлама этого ничего не ломает. Если конечно читать что оно делает и выбирать правильные пункты. Ну я имею ввиду, если написано что служба отключит сканнеры, а у вас стоит сканнер или МФУ то... НАВЕРНОЕ не стоит отключать эту службу. Ну или если вы не уверены то просто не трогаете какой то пункт. Хотя я не настаиваю конечно, дело ваше сидеть в этой горе мусора или попытаться сделать что бы она хотя бы не воняла.
Цитата CrAsssH:
Есть такое правило - "Работает - не трогай" =)
В данном контексте обсуждения я бы сказал это "Кое-как работает - боюсь трогать".
| 18.08.2022 |
Может знает кто, можно ли сделать что бы по дефолту при работе с сплайнами использовались только Corner Вертексы ? Ну, например когда я использую Refine, он какого то черта иногда ставит Bezier Вертексы, меня аж трясет от этого. Каждый раз приходится конвертировать их в Corner. Это тупо замедляет обработку чертежей под генпланы. Ну или когда через Connect соединяю два вертекса на абсолютно прямой линии они становятся Bezier Corner.
УТОЧНЕНИЕ. Я понимаю что в теории, Refine должен ставить Corner-ы когда на сегменте Corner-узлы. И Bezie когда один из вертексов на сегменте Bezie. Но это не всегда работает именно так. Бывает абсолютно ровные линии, с Корнерами. Да блин ВЕСЬ сплайн Корнерами. И он блин паскуда такая ставит Bezie точку.
Ну а коннект похоже вообще всегда ставит Безье. На кой черт непонятно... Ну с этим допустим еще можно чет придумать наверное, сделать хоткей какой то на этот скрипт. http://www.scriptspot.com/3ds-max/scripts/connect-spline-vertices
| 18.08.2022 |
Актуальные конфигурации компьютеров
На Win11 переходил бы сейчас разве что если брал бы себе Alder Lake/Raptor Lake, из за гетерогенной архитектуры, нового планировщика и косяков в V-Ray/Corona связанных с этим. А вот если брал бы Zen4, нууу даже и не знаю. Вот в Сентябре выйдет Win11 22H2, думаю тогда бы уже и на Райзенах переползал бы туда. Рано или поздно все равно придется, к тому же как по мне к тому моменту Win11 уже достаточно созреет для меня )) Жаль что пока у Win11 нету каких то прям киллерфичь, ради которых бы прям вот хотелось бы на нее переходить.
Цитата grdesigner:
Та это так лениво. Порой тяжело новый макс накатить с десятью плагинами. А винду со всем ПО и настройкой, аж вот глаз задергался пока пишу эти строки.
Делал это сотни а то и под ~тысячу раз когда компы людям собирал/обслуживал и меня не напрягало. Наоборот медитативный процесс, без спешки. И по итогу приятно же когда все четенько настроено, обновлено и свежо. Я еще заморачиваюсь по всяким мелочам ползая в реестр, отключая порядка 90 служб, настраивая всякие штуки в винде под себя, прям от самого процесса допила системы под себя кайфую. Вообще ни разу не лениво этим заниматься было. К тому же от части от этого зависит дальнейший комфорт взаимодействия с компьютером. Я вот уже ~год не переустанавливал систему, и прям как то мерзко на душе. Наверное на днях как раз таки этим займусь.
P.S. Кстати оч люто-бешенно раздражают люди которые просто устанавливают винду, ставят драйвера, качают апдейты и ничего больше не докручивают в системе. Ну как так можно то... У меня прям бомбит от этого.
| 17.08.2022 |
Актуальные конфигурации компьютеров
Цитата grdesigner:
Я правильно понял, при замене процессора и материнки, винда 10 загрузилась и новое железо подтянула как родное? Если так, то это очень здорово.
Да, так то оно так. Но, в случае с Райзенами может все пойти не по плану.
Тут подробнее писал :
https://3ddd.ru/forum/thread/show/3ds_max_i_win_10_kakoi_luchshe/2#post1640032
А если еще и версия винды старая типа 1709 то еще и планировщик может сломаться. Ну а грейдить версию винды например с 1709 до какой нить 21H2 вообще страшно должно быть. Точно что-то отвалиться и засреться, потом вот люди жалуются что у них 3Ds Max вылетает, чет комп тупит, синие экраны какие то. Некоторые даже считают это нормой Конечно, если Винда изначально была 2004 версии то в целом ниче страшного по идее не должно случиться при переходе на 21H2. И все же, я бы потратил пол дня времени и все начистую сделал бы. Делов то...
Еще оч часто когда такой фигней люди занимаются если винда старая и железо сильно отличается то могут быть конфликты с драйверами на звук/сеть/USB-порты/Блютусы и Вайфаи, запросто можно словить повышенное DPC Latency. Так что я бы все равно вручную после этого ставил бы чипсет драйвера, и все остальные драйвера. Не использовал бы тот галимый WHQL мусор от Microsoft который вам прилетит сразу же вместо родных драйверов.
| 17.08.2022 |
Цитата spush:
Напишу сюда, чтоб отдельную тему не создавать. Какие есть плагины - чтоб поправить модели, на которых видимо из за того, что они экспортнутые из сторонних программ - вывернуты нормали и подобные косяки.
Можно попробовать целый комплекс скриптов/плагинов : Sini Software (в интернетах есть ломанная версия) Мне он например помогает при обработке чертежей кривых. При анализе сцены через Sini Forensic. Там вон есть и Repair Normals и прочие штуки удобные для анализа и исправления моделей. И это наверное только половина всяких возможностей с этого пакета.
Картинка кликабельна
[[link:image_uri:591963,]][[image:591963,sky_image_forum]][[/link]]
| 17.08.2022 |
Цитата dead_lyric:
немного оффтоп, а этот скрипт по итогу использует цвет сетки модели для отображения во вьюпорте? или он все серым делает вне зависимости от цвета сетки обьекта?
Использует цвет с слота диффуза объекта (не с текстуры самой).
Ну это по крайней мере так работает в этом стандартном режиме Макса :
[[image:591964,]]
А то мне попадалась сцена где эти штуки были переключены и не мог понять в чем проблема ))
| 17.08.2022 |
kingstones, может я в каких то легких режимах вьюпорта работаю и избыточно пользуюсь плагином для отключения текстур с выделенных объектов, слишком часто использую Wired Box режим отображения объектов (он у меня на хоткее вообще) и у меня так же легкие режимы в Forest Pack/Rail Clone, у проксей. Но я ни разу не видел что бы 3Ds Max заполнял больше 4-х гб Видеопамяти. И много раз тут говорил что на одном компе у меня 1050 Ti 4GB, на втором RTX 3080 10GB, и как то... Без разницы. Что одна видяха летает в вьюпорте что другая. Ну с разницей от силы в 10% в пользу RTX 3080. Не представляю зачем и для чего в вьюпорте держать активными кучу тяжелых объектов или отображать текстуры толстые на них. Никогда за 10 лет работы в Максе не было такой нужды. Максимум это временно включить в Форесте отображение деревьев/кустов что бы под камеру подвигать их, да и все. Тут конечно на 1050Ti будет слайдшоу, в 2-3FPS. Но в остальном в 99% времени будет ли у меня 80FPS или 90FPS мне как то без разницы (ну или 30/35FPS).
Сравнивая 3060 и 3070 в плане памяти надо понимать что у них сильно отличается пропускная способность памяти (из за разных частот и шины). По официальным спекам у референс моделей 3060 это 360GB/s против 448GB/s у 3070. Потому что 192бит шина против 256бит. И это если референс модели где у 3060 память 15Ггц а у 3070 14Ггц. Так то производитель независимый может на 3070 поставить и побыстрее обычную GDDR6 в 16ггц. Тогда отрыв еще больше выйдет.
Но опять же, если условная 1050Ti крутит вьюпорт достаточно бодро что я не чувствую разницы между 3080 и 1050Ti, не понимаю зачем вообще их сравнивать... Ну, понятное дело в Блендере, другом софте разница значительная. Но 3Ds Max-у наверное пофиг, особенно если работать с отображением объектов как я описал. Впрочем, я откатился на прошлые страницы, вроде бы и не было уточнения что речь идет именно про 3Ds Max, это лишь мое предположение.
Потребление видеопамяти можно мониторить через GPU-Z : https://www.techpowerup.com/gpuz/
Ну или через HWInfo64 : https://www.hwinfo.com/download/
Вот например - https://i.imgur.com/jNYQQwl.png Если отключить Wired Box у объектов уже будет 3.7GB если еще и всем 150-Проксям в сцене включить отображение мешей случится резкий скачек до 9.5GB и наконец если выделить все объекты в сцене и прожать отображение текстур, то только в таком случае начнется рост потребления оперативной памяти (10GB VRAM + 6GB ОЗУ). Т.е видеокарта начнет сбрасывать данные на подкачку в ОЗУ. Но это полнейшее безумие и бестолковое распределение ресурсов в сцене. Это лишь с точки зрения эксперимента можно сделать. Т.е вот разве что только так можно забить столько памяти. 400кк пликов в вьюпорте, 1300 файлов текстур на 5GB.
| 16.08.2022 |
где можно обучиться экстерьеру?
Цитата newdeal:
Не нашел темы, но думаю, здесь мой вопрос будет уместным.
Действительно, в самый раз подобрали тему. Идеально
| 16.08.2022 |
где можно обучиться экстерьеру?
persik_ii
Я вообще не сказать что какой то крутой визер, когда интерьеры делал считал себя середнячком. И даже в те условно приятные сроки что мне давали на интерьеры мне не всегда удавалось выдать результат за который не стыдно хотя бы было. У многих интерьеров был просто унылый дизайн, или планировка в которой сложно поставить свет красивый. Или заказчик душный который хочет что бы везде весь свет был включен и солнце что бы лупило и что бы откуда то тени взялись... Или унылые санузлы которые как ты не старайся а не сделаешь красиво. Это дизморалило.
А вот с экстерьерами тут такая штука... Что красивое озеленение скрывает многие огрехи дизайна и унылых зданий. Приятное освещение почти всегда можно выставить. Ну и если ракурс людьми более менее заполнять это тоже как то сглаживает впечатление. И вот как то экстерьеры у меня получалось делать покрасивше что ли. Даже если это територия какой нить унылой больницы всегда можно пустить пыль в глаза, всякими там God-Rays-ами, дымкой, солнечной атмосферой. Я вообще работами своими нигде не свечу почти, мне это не нужно. Но вот один из примеров с детской площадкой на территории унылой больницы, даже и не скажешь что это больница )) https://i.imgur.com/ITxpHKH.jpg Ну или иногда можно драмы нагнать просто подобрав какую то апокалиптичную HDRI на небо типа такого - https://i.imgur.com/BBwJ2fp.jpg и все как бы и кайф, пофиг что там куча огрехов, стерильные материалы, унылые 3д модельки людей, пыль в глаза заброшена - на сердце легче )) Ну или так можно атмосферы нагнать - https://i.imgur.com/vdg2FG9.jpg (не смотрите на вклеенных голубей, я был пьян). Иногда просто может повезет и сам дизайн дворика прикольный, или прикольные "МАФ-ы" какие то есть в кадре и не надо ниче придумывать, просто сделай и оно уже норм выглядит - https://i.imgur.com/dm0A1gM.jpg / https://i.imgur.com/kbmmLz3.jpg (и пофиг что парралаксы в окнах кривые, туда навряд ли будет кто то всматриваться)
А вот в интерьерах у меня не получалось так.
Попадается унылый дизайн и все, хоть ты лопни а выходит фигня, это очень расстраивало меня.
| 16.08.2022 |
где можно обучиться экстерьеру?
Цитата Spark:
И совсем другое большой ЖК или район города, тут нужны совершенно другие умения и навыки, которые самостоятельно получить маловероятно, нужен опыт офисной работы над такими объектами.
Верно подмечено на счёт разного масштаба экстерьеров. Только вот я не понимаю про какие 'совершенно другие умения и навыки' идет речь... Мне вот сразу начали давать большие экстерьеры, площади городов, здоровенные набережные, жилые комплексы, стадионы с бульварами/парками. Я весь цикл работ над проектом сам делал, за исключением разве что моделинга зданий по проекту и сбора инфы по ТЗ. В общем то проблем или осложнений не испытал по этому поводу. Только пришлось на первом же проекте докупить оперативки
По сути мне после интерьеров надо было подучить разве что Forest Pack, Railclone, на базовом простейшем уровне, от силы день времени что бы сделать простые скаттеры/бордюры/заборчики. Сейчас к этому наверное добавилось бы обязательное понимание как ставить в окна плейны с wParralax, ну это тоже дело считанных минут понять как с ними работать. В остальном без понятия какие такие специфические навыки нужны. Усидчивость разве что
Сложно делать самому большой проект месяца четыре, на 90+ ракурсов с зимой-весной-летом-осенью, делать кучи итераций правок, фотошопить все это, людей клеить... Легко впасть в уныние, потерять мотивацию или тупо устать. Это наверное самое сложное. Но в данном случае офисная работа мне бы только мешала, с таким масштабом мне удобнее справляться в свободном графике.
А, да... Пришлось учиться 2D людей клеить в рендеры, раньше делал интерьеры без всякой вклейки людей, а тут это просто необходимая вещь. На дальние планы 3д людишки, на ближних вклейка. Это наверное самое душное было с переходом на экстерьеры. Так и не научился это делать на достойном уровне )) Когда ты уже измотан, когда уже все отрендрено, заставлять себя фотошопить, порой когда ты уже ненавидишь проект ))
P.S. Опыта офисной работы нету, только удаленка.
Сорян за биток текста. У меня графомания )
| 16.08.2022 |
Цитата Rebate:
раньше каждый год выходили.
Думаю это связано в целом с переходом на AM5/DDR5/новыми чипсетами и сокетом, интегрированной графикой. К тому же - Выпустились бы они вместе с Alder Lake но без возможности использовать DDR4, по моему это была бы - "СМЭРТЬ", учитывая что DDR5 в тот период стоила в большинстве случаев в аккурат втрое дороже чем DDR4. Теперь это хотя бы не в три раза а в среднем в х1.75 раза. В отдельных случаях может и в х1.5 раза, что неприятно но терпимо.
Ну а промежуток они вполне успешно заполнили просто кучей других моделей. 5500/5600/5700X/5800X3D, та даже внезапно вышедшие Ryzen 4000 на десктопе типа 6-ти ядерного Ryzen 4500. Забили все ниши и все дыры. Это еще не говоря про кучу APU вышедших. Ну или это они просто так решили избавиться от накопленных чиплетов. Там же еще пачку всяких разных оверпрайснутых Тредриперов насыпали.
Очень жаль кстати что 5800X3D вышел настолько дорогим в производстве. Видать один чиплет с таким кэшом обходятся как два чиплета под 5950Х. Годное решение так то с кэшом вышло. Ну, не для рендеров, а для всего остального. Увы...
P.S. Кстати, интегрированная графика судя по всему не будет похожа ни на APU-шную мощную ни на консольную супермощную, похоже это будет достаточно дохлая графика не сильно быстрее интеловской интегрированной в процессоры.
grdesigner, да, норм в целом оценка в 30% от цены в безналоговых штатах США например. Правда, это если продукт уже на прилавках года пол лежит и нету перебоев с поставками или ажиотажа вокруг него ))
| 16.08.2022 |
где можно обучиться экстерьеру?
По сообщению не понял, есть ли опыт в 3D/Интерьерах/Моделинге или вообще нету опыта в этом.
Цитата persik_ii:
понятное дело, в начале что-то нужно попроще.. поделитесь своим опытом
Если есть опыт в интерьерах то перейти на экстерьеры не проблема.
В школу для этого записываться не нужно ) Я лет пять делал интерьеры, и когда переходил на экстерьеры, условном это у меня заняло от силы недели две. Попробовал разные связки освещения, посмотрел что дает лучше результат, посмотрел пару плагинов и уроков по ним (Forest Pack, RailClone, на базовом уровне). И в общем то мне было этого достаточно. Это уже потом начал обрастать тонной скриптов, всяких специализированных плагинов для снега, скрипт-пакетов типа Sini для чистки чертежей и оценки содержания сцены. Всякие там Quick Tiles для плитки начал осваивать. Splineland и прочее там по мелочам. Ну так вот постепенно наращивал арсенал годами.
Но глобально, по сути все то же самое что и в интерьерах. С той лишь разницей что масштаб работы иной и сроки другие на все это дело. Ну, да типа ракурсы чуть иначе надо ставить, более рационально к сборке сцены подходить нужно, кучу сборников растений/машин-людей/пропсов надо под рукой держать. Ожидать того что могут попросить весну/осень/зиму, вечернее время, дождливую погоду с лужами, ну то такое. Это все мелочи, не думаю что для этого надо в школу идти.
А вот если опыта в 3D/Интерьерах вообще нету. То... Да, тогда мой пример тут будет неуместным.
| 15.08.2022 |