СообщенияДата

Unreal Engine 5

Тааак... Интересненько ) А как же например листики делать на растениях с включенным Lumen, через SSS ? Ну или шторы какие нить. Или есть альтернатива для Translucency ?
19.09.2021

Unreal Engine 5

Всем привет, последний раз ковырял Unreal еще во времена UDK. Сейчас вот аккуратненько шажок по шажку прощупываю все это дело. Все супер понятно, инфа гуглиться легко. Подсказки от разрабов наглядные, в ютубе много инфы... Но вот я столкнулся с неприятным багом, и чет он нифига не гуглиться. И тут у меня возник вопрос собственно а где тусуется основная масса англоязычной и русскоязычной Unreal тусовки ? Ну не знаю, чет типа 3ddd может есть только чисто по Анриалу ?  Суть проблемы, если что - лютое мерцание и странные артефакты в вьюпорте при включенном Anti Aliasing (TemporalAA), они так же исчезают если отключить Transclucency галку в вьюпорте. То есть либо AA отключать либо Translucency, либо переключать АА в унылый режим FXAA. Пример бага можно глянуть тут : (Осторожно, возможен приступ эпилепсии) https://youtu.be/vu5C39D31qo  P.S. RTX 3080, последние драйвера, свежая обновленная винда, UE5 Early v2 версия.
19.09.2021

Тестируем процы MAX + CORONA

Manax, хм... Может ASUS что то подкручивали и у нас разные ревизии, ну или X570-P работает чуть иначе с 3900Х чем с 5900Х. 0.8-0.9% в целом не плохо, но разраб CTR в переписке мне говорил что 1.2-1.5% это идеально, а ниже 1.0% это жестковато может быть. В старых версиях CTR, когда VDroop был ниже 1% он ругался, затем он убрал это предупреждение так как это, ну тип не настолько критично. Хотя лично я не особо понимаю на что конкретно эти доли процентов влияют. Короч фиг знает я прост стараюсь по старинке при подборе LLC добиться 1.2-1.5%, и кстати говоря это удается не на во всех случаях. Есть платы с скудным набором LLC которые под заданный вами вольтаж могут либо ниже 1% либо выше 1.5%  Мелочь а неприятно )
19.09.2021

Отключение компьютера при работе

Цитата EFil8: Все перепробовали, выяснили, что компьютер не выключается только если убрать denoising  в насторйках рендера Денойзер в Короне максимально плотно утилизирует конвейер процессора, делает минимум промахов по кэшу и предсказатель конвейера работает на полную. Вот Ondra разработчик Короны об том же говорит - [ССЫЛКА на его сообщение] Потому во время денойза идет нагрузка на процессор и его кэш на предельном уровне, и в определенных случаях нагрев в сравнении с рендером может быть и на 10 и даже на 15 градусов выше. Ну так же и сама сцена которую рендрите тут имеет значение (хотя с денойзом это не связано) но когда вы рендрите легкую сцену то нагрев будет выше чем при рендере тяжелой сцены. Все опять таки из за разной утилизации конвейера команд. Тяжелая сцена душит проц, забивает кэш, ухудшает работу предсказателя и он меньше греется. Диспетчер задач во всех этих случаях может показывать одинаковую 100% нагрузку на процессор но все три случая будут при разном энергопотреблении и нагреве. Так что это по сути запредельная кратковременная нагрузка. Если есть проблема с системой при таком раскладе. То надо экстрим тесты гонять сопоставимые по нагрузки с денойзером. То есть например Prime95 в режиме Small FFT, или Linx оптимизированный под Райзен, ну или на худой конец Aida64 в FPU режиме с AVX в настройках, ну или OCCT с AVX режимом. Эти тесты достаточно близки по нагрузке к Денойзеру. А что конкретно вызывает сбой - причин есть множество, кривой LLC с большим VDroop, неисправный кэш процессора, нестабильное питание в пределах VRM, охлаждение не вывозит и комп в защиту улетает, неисправный блок питания, да много чего может быть виновато когда процессор на таких запредельных нагрузках как при денойзе... Ну и конечно стоит понимать что если система не выдерживает нагрузки Денойзера, то не факт что в целом система будет стабильной во время рендера. Например в Corona 7 денойзер еще жеще оптимизировали и он выжимает еще больше соков из процессоров, хотя казалось бы все думали что там уже нечего выжимать 
19.09.2021

Тестируем процы MAX + CORONA

faber_avgust, тут есть доля влияния со стороны ASIC Quality/Volt Leak, то есть конкретного сэмпла процессора. Есть и влияние от охлаждения, комнатной температуры. Есть и небольшой вклад от оперативной памяти, не просто ее частоты и первичек, но и от вторичек. Так что к тем процентам что я далее укажу стоит относиться с пониманием что могут быть отклонения туда-сюда. 2700X - ~100% 5900X - ~210% 5950X - ~265% 5950Х будет быстрее чем 5900Х на ~25% А 5900X будет быстрее чем 2700Х в x2.1 раза. Но стоит понимать, что в отличии от 2700Х у 5000 Райзенов изменилась формула частотная при рендере. 2700X например ВООБЩЕ не нужно было настраивать. Ну вот прям во всех смыслах был баланс неплохой во всех типах нагрузок. А у 5000 Райзенов... Например у 5900Х просто ужасные как по мне предустановки по заводу. Он излишне наваливает напряжения в смешанных нагрузках и слишком срезает напряжение в рендере. От того соответственно страдает частота в рендере а в игрушках из за нагрева страдает предельно возможный буст. И в моем случае доходило до АБСУРДА, когда проц грелся в играх при 30% нагрузке БОЛЬШЕ чем в рендере при 100% нагрузке, ну это в стоке. У 5950Х эти настройки по заводу чуть лучше выверены. Но надо понимать, что при смешанных нагрузках 5900Х при любых раскладах будет лучше, ну тупо потому что он может выжимать 4.65ггц по унылым CCD при 1.275V, когда на 5950Х для 4.65ггц по унылому CCD может понадобиться 1.35V, разница внушительная. Так что тут такое... Если именно тонко и четко настраивать проц, то 5900Х лучше подойдет для игр, смешанных и малопоточных нагрузок. Но его придется настраивать под рендер. Иначе он крайне унылый. Но после настройки годный. 5950Х же в рендере можно не особо заморачиваться с настройками под рендер. Но четко настроить его под смешанные или малопоточные нагрузки не выйдет. Ну тупо потому что ему надо наваливать куда больше напруги под эти задачи. Но при любых раскладах. Что 5900Х что 5950Х - я бы все же настраивал через тот же CTR2, или как там он сейчас называется, Project Hydra ? Не в курсе. https://www.overclockers.ua/news/hardware/2021-07-02/129498/  У меня старый CTR2 и мне его хватает. Ну а оставлять 5900Х или 5950Х без настройки, это больно для меня. Слишком много потенциала будет потеряно, они либо теряют в производительности значительно либо значительно больше греются чем должны. Ну тип 15% скажем это для меня значительно. Когда проц может при практически идентичном нагреве работать на 15% быстрее как по мне это косяк вендоров материнок и производителей процов. Такого быть не должно IMHO. Ну это я за 5900Х говорю. У 5950Х эти отклонения не настолько велики.
17.09.2021

Тестируем процы MAX + CORONA

Manax, у меня второй комп с ASUS X570-P но с 5900X. Под CTR и разгон памяти у меня LLC настроен так : https://i.imgur.com/lptPJTE.jpg (SoC почти линейно держит а VCore просаживает на 1.2-1.4% при 1.25VCore) Частоту питальника лично тестил и на 350 работает лучше всего, сэкономил чуть больше чем 0.025V на ровном месте. У этой платы супер говенный мерзотный и помойный питальник, и унылый контроллер питания, отвратительные предустановки по заводу. Но за счет унылых заводских настроек она выбивается в топы по нагреву VRM, не взирая на вред по подаче питания. Такая вот плата )) Но если ее настроить, то она вполне удобоворимой будет, хоть и мусор вонючий в сравнении с какими нить B550-F или богоподобной в плане питальника B550-E. Впрочем и стоит X570-p как помои, так что можно плюнуть прямо на нее и простить эту мерзость за то что она существует в природе )) Остальные вольтажи так : https://i.imgur.com/gB8fnys.jpg (Остальное откалибровано и настроено в CTR потому Вольтаж на ядрах в Auto, скриншота с CTR2 показывать смысла нету так как у меня 5900Х, там все совершенно иначе чем у 3900Х). SoC и DRAM выставлены под четыре двуранговые плашки 16 или 32GB в разгоне в районе 3600-3800Mhz, например если Micron B-Die D9XPF, или Micron E-Die которые Баллистиксы U4. Ну и в целом это настройки под CTR, ASUS Энхансер отключен, прочие настройки так же по гайду от 1usmus-а под CTR. P.S. SoC 1.1V это норма для 3000/5000 Райзенов с четырьмя двурангами, ну или двумя двурангами разогнанными вхлам. Все что выше это Экстрим или разгон APU Райзеновских )) Стандартный LLC на SoC у этой платы тоже ужасный, ставишь 1.1V, SoC в Auto и при малейшей нагрузке на оперативку он сразу прогибается до 1.025-1.05V, но в Экстриме более менее норм держит.
17.09.2021

Тестируем процы MAX + CORONA

Manax, и вправду как то странно выглядит, 160вт при 1.035V Может материнская плата обманывает выдавая искаженную метрику. https://youtu.be/10b8CS7wQcM  Ну или у вас лютый LLC который наваливает Vdroop в обратную сторону  У меня на X470 Taichi 3900X в HWInfo64 : 1.2V Vid / 1.25V VCore / 1.275V CPU Core VID Effective - это при 4125мгц CCD#1 + 4100мгц CCD#2 В Сайнбенче R20 7450 баллов. Это не много и не мало, просто оптимизированный вольтаж и частота. В стоке он горячее и медленней. У вас он прям супер горячо выглядит ) Небось все 7700 баллов выдает. Процессор у меня настроен через CTR. Подобран LLC который не перегибает палку. И во время теста CTR при 1.25VCore не дает VDroop в районе 1.2-1.4%  В рендере греется до 60-65 на NH-D15, жрет 110вт (SoC+Ядра). В стресс тесте памяти+проца может выжрать 125вт максимум из за доп нагрузки на SoC... Ну как то так. У вас прост оч низкий VID но при этом показывает оч высокое потребление проца. Судя по нагреву проца и вправду потребление немалое. Значит реальное напряжение которое на проц идет выше чем указано в VID, значит на него влияет либо LLC (компенсация напряжения в нагрузке), либо Power Deviation (материнка врет). То есть надо крутить LLC, смотреть какой VDroop в CTR например, и посматривать на Power Deviation. Попросту говоря скорее всего материнка обманывает своей метрикой и наваливает лишнего на процессор. Может включен какой то унылый мерзкий пакостный PBO который любят некомпетентные люди в разгоне/настройки процессора. Или какой нить аналог ASUS Enchancer-а. Хз... Вообще мне лично мало чего скажет, но я бы отписываясь еще бы указывал материнскую плату. Потому что они сильно по разному себя ведут. И сильно по разному показывают информацию по датчикам, пруф - https://www.igorslab.de/en/three-x570-motherboards-tested-wrong-sensor-values-faulty-precision-boost-overdrive-pbo-and-different-performance/2/ Мало того что все материнки по разному врут так еще и показывают по разному лимиты. И конечно еще желательно бы биос обновлять до последнего. Потому лучше ориентироваться на : Нагрев + Производительность. И не верить этим всем вольтажам, лимитам и даже энергопотреблению которое показывает материнка. UPD - А вообще. Я вот смотрю на ваш скриншот и мне реально страшно становится. За SoC. У вас пишет общее потребление проца 160вт, но по отдельности 90вт на ядрах. Эт че получается... У вас там 70вт на SoC (IO чиплете)  Я бы на всякий глянул бы напряжение на SoC, вдруг там 1.5 вольта   Если там 1.5 вольта то проц долго не проживет. Это №1 причина по которой умирают Райзены. https://www.gamersnexus.net/guides/3251-raven-ridge-soc-voltage-guidelines-how-to-kill-cpu-with-safe-voltage  Но это может быть снова таки ошибка. Ошибка метрики или вранье материнки. Может все ок.
17.09.2021

Охлаждение для AMD Ryzen Threadripper 3990X

spasbrosok, тема про 3990X, я бы воздух на 3990X ставил бы лишь при лютом андервольте и только если бы душил процессор лимитами. Причем конкретно так душил лимитами. Настолько душил бы лимитами что целесообразность выбора в пользу 3990X была бы сомнительной. Ну и вообще, если прям вот уж воротит от водянки, то посмотрел бы в сторону IceGiant's ProSiphon Elite или SilverArrow TR4 с двумя промышленными NF-A14 industrialPPC-3000 но для 3990X по моему это все равно фигня была бы. Как по мне 3990X не оставляет особо выбора, я бы брал кастомную воду с 420мм радиатором годным, помпу солидную и водоблок здоровенный, пропеллеры суровые. Что бы без всяких компромиссов было. С 3970X полегче в этом плане, есть выбор между воздухом и водой, IMHO с 3990X такого выбора нету, либо ты сильно теряешь в производительности либо берешь воду. И не какую то фигню а нормальную воду.
14.09.2021

Zen 3 (Ryzen 5XXX)

Ниче не понял. Может имелось ввиду Zen4 "Raphael" (Ryzen 7000) 5nm на AM5/DDR5 ? Прост тут еще на подходе в этом году Zen3+ "Warhol" (Ryzen 6000) 6nm на AM4/DDR4 с V-Cache. Или речь только про тредриперы которые останутся на старой архитектуре и сокете "Chagall" ? Ну не знаю, если бы AMD сходу выпустили Тредриперы на Zen3+ с тонной V-Cache, было бы интереснее. А так, ниче интересного в целом и не должно случится. [[link:image_uri:495005,]][[image:495005,sky_image_forum]][[/link]]
14.09.2021

Кто нибудь уже ставил Windows 11?

Про оптимизации в Win11 - https://3dnews.ru/1048679/microsoft-rasskazala-kak-sdelala-windows-11-bistree-i-otzivchivee-chem-windows-10 Еще чуть сливов про Alder Lake - https://3dnews.ru/1048721/opublikovani-tseni-i-testi-intel-alder-lake-pretendenti-na-zvanie-samih-bistrih-nastolnih-protsessov-v-mire Да и еще, если что. У Alder Lake будет поддержка и DDR4 и DDR5. Так что тем у кого уже есть годная память DDR4, можно будет закинуть ее, и сидеть с Gear1 режимом. Если тыкать DDR5 высокочастотную то предусмотрел Gear4 режим, это я так понимаю для тех кому важнее ПСП памяти а не задержки. Есть и что то среднее как у Rocket Lake, Gear2. В общем, я так понимаю Интел спешат выпустить железо праньше не взирая на доступность DDR5 из расчета что по началу люди будут довольствоваться DDR4. А уже через полтора года выйдет Raptor Lake с допиленным IMC с гарантированной поддержкой DDR5-5600 и к тому времени может уже и будет годная DDR5 в наличии. Ну как то так мне это видеться. Если инфа про однопоток у Alder Lake подтвердиться, думаю АМД не спасет даже грядушие Warhol с V-Cache  Ну эт мы еще поглядим... CGCat, в Doom/Doom Eternal, RE2 Remake/RE3 Remake/RE7/RE8 - образцовая оптимизация. На моем железе там вообще космос, избыточная производительность даже на предельно возможных настройках. Пришлось даже в излишества пойти и накручивать уберсэмплинг до 150%, так как FPS-ы заоблачные. Вот это я понимаю оптимизация. Нынче навряд ли кто то из разработчиков будет так заморачиваться. UPD 7 Октября : AMD сообщила о падении производительности своих процессоров до 15 % в Windows 11, но пообещала всё исправить : https://3dnews.ru/1050725/amd-soobshchila-o-padenii-proizvoditelnosti-svoih-protsessorov-do-15-v-windows-11-no-poobeshchala-vsyo-ispravit
10.09.2021

Кто нибудь уже ставил Windows 11?

Yehat, нет. Потому что есть время кадра процессора и время кадра видеокарты. Если время видеокарты выше чем процессора - видяха загружена на 100% а процессор расслабляется. Если наоборот, то наоборот. Потому на GTX 1080 если бы я выкрутил все настройки - видяха захлебнулась бы а разницы между процессорами и памятью не было бы. Я же играю тоже на минималках в ту же Варзону, мне не интересно как там игра выглядет на высоких или средних настройках, мне это не нужно. Но взяв RTX 3080 считайте я сдвинул значительно этот лимит. И уже выкручивая графику FPS почти не снижается, растет нагрузка на видеокарту и когда нагрузка заваливает за 90% то начинает снижаться нагрузка на процессор (ему ведь из за снижения FPS приходится меньше напрягаться), так же на низком FPS-е нагрузка и на оперативку меньше становится. В общем на таком балансе я и играю в соревновательные игры. Когда время кадра видяхи +/- = времени кадра проца. Когда ничего из железа не захлебывается впритык, когда исключены узкие места в системе. Но вот в Варзоне плохая оптимизация, и весь упор FPS идет в процессор. Например в 2560х1440 на моих настройках RTX 3080 нагружена всего на 65-70% и выше 160-180FPS она выдает только в скудных простых локациях. А в особо тяжелых может и до 140 просесть из за проца/памяти (оптимизации). Есть конечно места где и 250. Но это же не дело. Если я хочу себе Samsung Oddysey G7 1440p/240hz монитор, то мне надо устранить это узкое горлышко в системе которое является процессором. А монитор я хочу менять потому что от перехода с 60гц на 144гц я получил такие впечатления мощные, что если я получу хотя бы 1/4 ощущений таких же с переходом с 144 на 240гц я готов за это заплатить все свои свободные деньги. Благо в данном случае это совершенно небольшие деньги. UPD - а, это скриншот с второго видео где у меня уже RTX 3080, да там видно что видяха на 65% нагружена. Можно было и выше поставить графику - ничего не изменилось бы, в плане FPS. Да. Но если сказать, что будет условно процессор на 30% быстрее то все снова уперлось бы в видеокарту. Впрочем тогда бы и FPS был бы заоблачным. Это и есть моя цель пока, заставить 3080 на моих настройках выдавать стабильные 220+ FPS и не простаивать с 60-70% нагрузкой. Если подытожить : 1.) Далеко не всем играм надо больше 100FPS. 2.) Далеко не все игры готовы сейчас к 200+ FPS даже на топовом железе. 3.) Даже топовое железо без настройки не дотягивается до 200+ FPS в некоторых играх. 4.) Да, я готов тратиться на избыточные мощности железа что бы этим перекрыть недостатки оптимизации некоторых игр которые мне очень нравятся и в которых я провожу много времени с друзьями. И в которые я играю на условно соревновательных настройках. Я и до сих пор иногда на турнирах поигрываю, иногда даже что то выигрываю )) Но это для души, для развлечения а не для заработка. 5.) Тесты я делал для себя что бы выявить профит от смены/разгона процессора и памяти, что бы потенциально увидеть будет ли вообще толк в апгрейдах. Да. Как видите в некоторых играх от одной лишь памяти прирост вышел в 30% по срденему FPS и по 0.1% и 1% редких событий. Это считайте как разница между RTX 3080 и RTX 3060 Ti ))
09.09.2021

Кто нибудь уже ставил Windows 11?

Yehat, в 2007 году точно так же нищуки сидели и страдали в CoD4 на Athlon на Kuma ядрах, а бояре сидели на Core 2 Duo на Conroe ядре. И знаете что, в том самом 2007 году FPS влиял не только на количество кадров выдаваемых игрой. FPS был скорость рассчета физической модели сцены. От FPS-а ты получал преимущество в длине и высоте прыжка, реже издавались звуки шагов, был иной темп стрельбы на некоторых стволах, ты получал меньше урона от падения. И это срабатывало только на идеально стабильном фреймрейте, и на определенных значениях 91/125/250/333 (333 было запрещено на турнирах). Потому в те времена ЕЩЕ более критично было обладать топовым процом, видяхой и годно разогнанной памятью. С 2007 года в этом плане ничего не изменилось, ну кроме перечисленных мною преимуществ. Что бы играть на условно совревновательном уровне в НЕКОТОРЫХ играх топ железо - необходимо, когда твой личный скилл доходит до уровня когда ты начинаешь чувствовать лимит из за унылого железа. Я его начал чувствовать, потому и ищу выходы из ситуации и готов потрать на это деньги. Цитата Yehat: Вот по мне что слева графика говно, что справа - такое же говно только чуть больше FPS. Хотя я разницу в скорости картинки глазом не вижу. Может это из-за моего обычного монитора, а не игрового. Вообще то это CPU/RAM интенсивный тест, тут настройки убиты в ноль, внутриигровое разрешение ниже чем 1080p, этот тест делался в условиях когда у меня не было видяхи нормальной. Но она готовилась к покупке, теперь она есть. То есть графика занижалась в ноль что бы увидеть прирост от смены проца/оперативки/разгона. Так это принято делать и в этом есть неоспоримая логика уже многие года. Тестить игру с упором в видяху есть смысл только при тесте видеокарты а не проца или памяти. К тому же я говорю про соревновательную составляющую, там графика вопрос вторичный. Главное что бы не было мыльно, что бы было контрастно и меньше было теней/дымки и прочих эффектов которые могут отвлекать. Я не из тех кто просто выжимает FPS без нужды и необходимости. Я спокойно могу в RDR2 поиграть и на 60-70FPS, потому что я понимаю где это мне надо а где нет. Цитата Yehat: Или если каждая новая игра поднимает требования, то тогда вообще счастья в жизни не будет. Всё время будет не хватать сколько то ФПС до нирваны) Для меня и есть счастьем когда я обновляю железо и получаю то чего планирую. Я же не обновляю каждый год весь комп... Мне это не в напряг а в кайф.
09.09.2021

Кто нибудь уже ставил Windows 11?

Yehat, я с 2007 года на полу про уровне играл в том числе в сборной Украины по ESL, в CoD4. С тех времен меня игры интересуют в основном в соревнующей составляющей. В CoD:Warzone очень важен фреймрейт, герцовка, инпут лаг. Я когда сменил 3900Х на 5900Х я получил просто невероятный по моим меркам прирост. Когда я сменил оперативку я так же получил прирост невероятный. Для меня это все крайне важно, важнее чем какие то там 100мгц. Я из времени что работаю рендрю 10% времени а 90% я собираю сцену. Так что мне в общем то плевать на эти помойные ущербные 2990WX/3990X/W3175 и все что около этого. Потому что обновляя железо я хочу получать буст в фреймрейте в играх которые мне интересны а не в рендере где мне без разницы буду я рендрить 30 часов или там скажем 15 часов, да плевать. Раньше когда я работал на интерьерах, я рендрил 50% времени и 50% работал, тогда это было более менее важно для меня, так как не всегда я успевал отрендрить за ночь пока сплю картинки или правки быстро нарендрить. Сейчас - я все успеваю что мне надо. И у меня есть финансы взять 3080 и 12900К просто что бы в игрушки поиграть по кайфу, потому что это мне важно а не скорость выдачи картинок рендером. Про смену оперативки - https://youtu.be/H-YOpDgobXQ видео еще с старой видяхи потому в играх где был упор в видяху нету прироста. Как сменил видяху прирост стал максимально внушающим. Про смену проца - https://youtu.be/7E99L2h5EfU это без норм разгона и настройки еще на старом планировщике, так разница еще чуть больше вышла. Для меня это важнее а не циферки в сайнбенче. Если 12900K отработает в той же Варзоне скажем на 20% быстрее чем 5900Х, то это уже будет для меня оправдано что бы я сменил всю платформу, и поменял монитор на какой нить Oddysey G7. Потому что в этой игре производительность долбиться именно об время кадра процессора а не видяхи (если видяха уровня 3070-3090). Для меня это интереснее вклад чем в какой то тугой процессор который только в рендер и умеет.
09.09.2021

Кто нибудь уже ставил Windows 11?

Как то у нас разговор ушел от темы.. xpp_nd_ruphus, в любом случае сути сказанного сильно это не меняет, как я уже дважды сказал надо ждать обзоров а не сливов на непонятных материнках с непонятной памятью и непонятно какие там QS-ки и винда сырая тоже. Так то я разумеется понимаю что есть дофига разных версий процов но что Quality Sample что Инженерник для меня суть одна и та же, продукт не оконченный, насколько он неоконченный на 5% или на 25% тут никогда не угадаешь. Есть QS-ки у которых IMC выше 2400Mhz не берет например, нафиг такой мусор помойный тестить вообще я не знаю в том же Гикбенче это жалко выглядит )) UPD - QS/ES у Xeon-ов и десктопных Core-i7/Core-i9 это совершенно разные вещи в данном контексте. QS-ки на десктопах нифига не финальный продукт как правило и в первую очередь проблемы они испытвают с микрокодом в биосе, у Xeon-ов ситуация иная. И там и вправду может QS от ритейла минимально отличаться. А тут возьмешь QS на Comet Lake, а там L3 кэш на 30% медленней, память выше 2666Mhz не идет, VCCIO/VCCSA вольтаж не контролируется, балдеж, прям блин финальный продукт  Ладно. Сорян за оффтоп. Для меня что ES что QS это мусор, один подешевле, другой меньше воняет. Один чаще работает кое как, другой работает чаще нормально, но оба варианта хуже ритейла.
09.09.2021

Кто нибудь уже ставил Windows 11?

Yehat, тут надо не на рендер смотреть. А на другие составляющие. Это проц не рендрилка как я уже сказал а универсальное решение с большим уклоном в игры. Если в однопотоке он бьет на 26% больше чем 5950Х (ну судя по той ссылке что я скинул с учетом всех скидок на то что это инженерник и слив непроверенный) и плюс там DDR5, то есть крайне высокая вероятность что он нехило выстрелит в играх. Даже больше чем AM4 процы которые в этом году от АМД должны выйти с V-Cache. Брать его чисто для рендера вместо 5950Х это тупость, бескрайняя и беспросветная тупость. Потому что Z690 материнки под 12900К из за DDR5/PCI-E 5.0 будут идти с тонной PCB слоев для экранирования разводки, и будут скорее всего на 25% стоить дороже чем Z590. Плюс сама DDR5, по слухам будет не дешевой в первые годы. 12900K нужен будет тем кто хочет получить максимум в играх не взирая на затраты финансовые и переодически кому надо рендрить (как мне например), и эти люди так же должны понимать что через год выйдут новые итерации процов (Raptor Lake) и DDR5 второй итерации на порядок быстрее и возможно доступнее. По сути 12900К это проц для энтузиастов, игрунов на 240-360гц мониках. А не для рабочих задач, рендеров и тд. Максимум его можно как универсальный проц рассматривать и для игр и для рендеров. По охлаждению я бы ставил на него с спокойной душей - Arctic Liquid Freezer II - 420 (ACFRE00092A).
09.09.2021

Кто нибудь уже ставил Windows 11?

xpp_nd_ruphus, дык зато он дает много инфы по другим задачам. Эпики и вправду не справляются с теми задачами в которых Гиикбенч их гоняет. Думаю мало кто будет 12900K брать чисто под рендрилку. Это скорее будет универсальный проц который хорош должен быть по всем направлениям. Меня например вот интересует как он в играх будет. 5900Х в разгоне и на годной вогнанной памяти в той же CoD:Warzone долбиться об время кадра процессора в паре с RTX 3080. Вот хотелось бы перейти на 240гц монитор но увы таких процессоров пока в природе не существует, и вот видится шанс на горизонте получить стабильные 240+ FPS в Варзоне на 12900К. Мне это интереснее чем сайнбенч и эпики )) А рендрить я могу и на своих 3900X+5900X. Но вот есть потенциал выкинуть в помойку пару компов и заменить их одним 12900K.
09.09.2021

Кто нибудь уже ставил Windows 11?

Alex3dAlex, АМД решили не спешить с гонкой и переходом на DDR5, и выход их новых платформ на Zen4/AM5/DDR5/PCI-E 4.0 - будет где то на пол года позже Интела. Интел спешат. Хз зачем. Я боюсь что бы не вышло так что DDR5 не успеет выйти а процы уже будут на прилавках. Какой в этом смысл я хз. xpp_nd_ruphus, Гик бенч это комплексный тест в который входит сразу множество разных задач и алгоритмов. Их там штук 50+ вполне себе объективный тест где нужно смотреть не на общую циферку а на разные задачи. Если что я в курсе что в него зашита корректировка для разных брендов (долгая история, оффтоп). Инфа про Сайнбенч и инженерные Alder Lake : https://www.notebookcheck.net/Intel-Core-i9-12900K-benchmark-leak-puts-the-Alder-Lake-S-way-beyond-the-capabilities-of-the-AMD-Ryzen-9-5950X-while-embarrassing-the-Core-i9-11900K-and-Core-i9-10900K.551705.0.html  Но я жду все таки обзоров. Все эти инженерники в непонятных платах с непонятными частотами - такое себе. Хотя в случае с Интелом утечки почти всегда крайне достоверные.
09.09.2021

Кто нибудь уже ставил Windows 11?

xpp_nd_ruphus, дык какая разница если общая производительность судя по всем утечкам/официальной инфе будет не хуже какого нить 5950X или на уровне. Мне без разницы в целом какие там ядра если общая производительность достойная. Маленькие ядра без кэша и предсказателя по заявлениям Интел не хуже обычных ядер в 6700K/7700K. Да, уже новые процы, но тем не менее маленькие они только относительно основных а относительно какого нить 3950X они вполне себе ядра нормальные
09.09.2021

Кто нибудь уже ставил Windows 11?

madYuppie, пока он не вышел почитать конкретно что то навряд ли выйдет. Называется Intel Thread Director : https://www.overclockers.ua/news/hardware/2021-08-19/129786/ По сути задача у него определять в какой момент какие ядра подключать к какой задаче. Про саму архитектуру Alder Lake можно послушать тут : https://youtu.be/wXqoG_LYQuQ  А про то что Alder Lake будет легче жить на Windows 11 море информации в интернете : https://3dnews.ru/1042381/windows-11-obespechit-protsessoram-intel-alder-lake-bolee-visokuyu-proizvoditelnost-chem-windows-10  Какова доля тут маркетинга, продвижения новых процов или винды (или того и того), какой от этого будет профит - непонятно. До недавнего времени винда не умела работать с 2990WX, так же не умела работать с обычным планировщиком, а тут гетерогенная природа процессора. Мне страшно, я не хочу во время работы думать какие там ядра используются для рендера/моделинга/игры и не путает ли там ничего система эта )) 
09.09.2021

Кто нибудь уже ставил Windows 11?

Если Alder Lake выстрелит может грейдану один из компов и аккуратненько, шажок по шажку как по минному полю пройдусь по Win11. Все таки судя по всему аппаратный планировщик у Alder Lake будет плотно взаимодействовать с планировщиком в Win11, если уж и грейдится до гетерогенного проца то лучше уж на Win11 сразу слезать. Так как если будут с ними проблемы, то кажется мне что приоритетно будут исправлять это сначала в Win11... А так пока не особо понимаю зачем мне Win11, только вот для Alder Lake... В прошлый раз я слишком рано скакнул на Win10 и пожалел об этом. Сделав это скажем года на пол позже, когда уже все косяки гуглились и когда тонна апдейтов вышла - был бы лучший опыт. Вот и с Win11 чет стремно сразу с наскоку налетать на него без надобности. Ну а если Alder Lake выйдет шляпой то Win11 в моем случае может спокойно подождать до AM5/Zen4 
09.09.2021

Актуальные конфигурации компьютеров

Про объем поддерживаемой памяти процессором и материнкой : Вообще без разницы так то че там написано. Взять например 2011-3/X99 материнки и процы первых образцов, где было 8хDIMM слотов, так там до сих пор написано что ограничение в 64гб ОЗУ, тупо потому что когда это железо выходило еще не было ни 16гб плашек ни 32гб. А сейчас вон ставят в них 256гб и норм. Так же и с другим железом. Я 128гб ставил и на X370/X470 и на Ryzen 1700/2700X. Вообще пофигу что там пишут. Ведь в самом микрокоде контроллера памяти у десктопных процов есть механизмы для работы с оперативкой вплоть до 1ТБ, правда вот такой памяти нету )) (Я имею ввиду UDIMM память, RDIMM память может и есть такая серверная) Единственная во всем этом проблема, что если плата не протестирована под работу с определенной версией чипов в плашках, то автотренинг таймингов и подбор сопротивлений (CAD/ProC/RTT) будет кривенький в некоторых случаях. Ну тупо потому что материнка впервые видит такую память и не знает че ей там выставлять. Но если руками все сделать то без разницы конечно... И то это важно для разгона/настройки памяти, JEDEC стандарты никто не отменял ведь, будь плашка на 256гигов или на 8гб, JEDEC у нее одинаковый будет. То есть как минимум можно просто воткнуть память и комп включится хотя бы )) Вот как выйдет DDR5, будет та же ситуация. Плотность чипов сильно возросла но на старте навряд ли будут плашки на 64-128-256гб и тд (Самсунг вон говорят что могут и на 768гб плашку сделать уже)... Потому вполне вероятно что по началу у материнок и процов тоже будет написано максимум скажем там 128гб. А через пару лет как выйдут плашки вдвое/втрое толще - все так же будет, написано что поддерживается один объем а впихнуть можно будет на порядок больше без особых проблем.
08.09.2021

Проблема с Corona Render!!!

Ну устанавливать 3Ds Max куда либо кроме как по этому пути - C:\Program Files\Autodesk\3ds Max **** это смерти подобно  А вообще вот : https://coronarenderer.freshdesk.com/support/solutions/articles/12000038849-how-to-install-corona-renderer-manually-using-the-unpack-files-option-  Таким макаром ее можно установить вручную в случае когда макс стоит у вас в нестандартном месте...
08.09.2021

Новичкам! (3ds max)

alexfmos, это каталог моделей а не картинка ) Там разное и разные контроллеры. Растения, люди, машины, всякое такое. Заготовки которые я часто использую. Я уж понял что быстрее будет заново клонировать материал 
07.09.2021

Удаленное управление компьютером

Если комп в локальной сети и оба на Windows, я бы юзал Microsoft RDP (Remote Desktop).
07.09.2021

Доработка визуализации. Какие Ваши "сомневательства" ?

MIHAnik, ну объясняли в большинстве случаев это тем что композиция на таких ракурсах неприятной выходит, когда камера завалена вниз, но конечно были и исключения, когда фокус на одном каком то объекте а не на пространстве в помещении. Эы... Второго кадра я не видел когда писал свое сообщение. Я бы окружение за окнами делал бы 3д-шным в таком случае, слишком уж уныло и мыльно бэкграунд с натянутой картинкой выглядит. Достаточно было бы воткнуть 3-4 дерева и 2-3 куста раскопировать их, смотрелось бы IMHO на порядок гармоничнее.
07.09.2021

Доработка визуализации. Какие Ваши "сомневательства" ?

Так непривычно видеть ракурс где камера наклонена вниз. Меня всегда за такое ругали что 10 лет назад что сейчас 
07.09.2021

Новичкам! (3ds max)

Evilis, скриптом, минутное дело. Ничего не понял. Каким скриптом и как ? Я то понимаю что в теории скриптом это можно сделать. Но я то не шарю за скрипты. А без скрипта никак ? P.S. Разумеется я понимаю что можно скрывать аттрибуты и подключения к контроллерам. В данном случае это не проблема, и не суть вопроса.
07.09.2021

Актуальные конфигурации компьютеров

Yu-Rock, именно потому я всегда брал NH-D15S и докупал вертушку к ней. Да, выходило где то на 10% дороже чем NH-D15 с двумя комплектными. Но... Я делал это потому что у NH-D15S смещен кулер вверх от PCI-E, ну или если вверх ногами поставить то наоборот смещен вниз ближе к PCI-E. У нее тупо выше совместимость. Слева NH-D15, справа NH-D15S : [[link:image_uri:493260,]][[image:493260,sky_image_forum]][[/link]]
06.09.2021

Новичкам! (3ds max)

Есть 800+ материалов в SME с подключенными Контроллерами к четырем параметрам. Есть рядом 500+ материалов в SME без подключений этих контроллеров. Как мне разом подключить эти 500+ материалов к этим контроллерам ? Ясное дело я пробовал и шифтами и так и сяк, но как не бьюсь с этой задачей, приходится вручную подключать, а это же дичь полная. Там 60+ параметров, среди них надо найти нужный и так четыре раза на каждый материал, плюс 0.5сек лаг при подключении, плюс тягать надо туда сюда вид SME, итого я буду часов 20 если не рехнусь подключать вручную таким макаром... И то ошибок наделаю. Как это автоматизировать ? [[image:493090,]] Вот примерно как на этой картинке только слева там 500+ материалов  Сами параметры, думаю без разницы какие конкретно. Но если че там PhysMTL короновский, один контроллер регулирует уровень базового цвета, другой Rough/Gloss регулирует, третий включает/отключает Gloss/Rough карту (буалиан 1/0), и еще там IOR уровень один контролирует. Мне то просто скопировать эти подключения нужно как то. Я бы конечно запотел и вручную все сделал. Но ведь когда я подвожу мышь там вылезает вся эта колбаса из 60+ параметров и глаз плывет сразу в поиске нужной функции.
06.09.2021

Chamfer меняет настройки.

Цитата pusha-ru: Сервис паки установите и проблема уйдёт. Стоят последние сервиспаки, проблема актуальна на двух разных компьютерах. Если есть чет новое чем 2020.3 на 2020 макс, то я не в курсе...
05.09.2021