Сообщения | Дата |
---|
Yehat, а что если 2 Default Lights сохранить в сам пресет ?
[[image:627670,]]
| 12.01.2023 |
Artsharonov, в таблице на разных версиях Макса - разный ракурс камеры немного. (Это видно по нижнему углу стола-острова). Так же разные версии Короны дают разный результат, вроде бы в некоторых версиях Короны даже разное количество пассов считали. Короче сравнивать надо одинаковую версию Макса и Корону и Сцены версию одинаковую.
У 3900X (должно быть порядка) :
CineBench R23 ~18200
В Corona Benchmark ~1:14
В V-Ray Benchmark ~13300
Но это кратковременные тесты. Которые не успевают разогреть VRM.
Местный тест на 15-17 минут конечно более репрезентативный.
Но надо что бы версии все сходились с результатами в таблице.
| 11.01.2023 |
как протестировать есть ли проблема с железом или софтом?
Цитата Artsharonov:
Обратился к "Дакара" по поводу разгона памяти, проца и видео.
Эээ... Это как то радикально. 3900Х и RTX 2060 ну что там разгонять то. С гулькин нос прироста.А по поводу память я просто в пример говорил, не в виде рекомендации. Хотя конечно, да... IMHO - в данном конфиге как раз больше всего имеет смысл гнать память, а не остальное. Но надо понимать зачем вам это и в каких ситуациях это даст профит. Например, станет рендер быстрее ? - Нет, не станет.
Вы как бы должны понимать что хоть образгоняйте все вместе железо - сильно лучше не станет. Тут вопрос от силы в 10% скорости рендера, 10% отзывчивости, 10% игровой производительности. И все это вразмен за потраченное время, повышенное тепловыделение. И вообще по итогу ведь важно не то что лучше станет, а что бы еще и стабильно все было. И прям сломя голову разгонять все обращаясь к людям которые гонят в основном для игр железо... Ну такое себе. Хотя конечно разгон памяти на Micron Rev.B не займет много времени по идее. Думаю что бы выжать 95% потенциала хватит 2-4 дней. В общемто нестрашно. Это не гнать какую то ноунейм DDR5 две недели
P.S. Я если че не занимаюсь разгоном больше по удаленке. И вообще.
| 11.01.2023 |
как протестировать есть ли проблема с железом или софтом?
Кстати... У Автора темы Crucial Ballistix 32GB UDIMM плашки.
Если это (а скорее всего да) - D9XPF Micron Rev.B чипы.
То я их вот так вот на Райзенах гоню :
https://i.imgur.com/LV852Ap.png
https://i.imgur.com/KZN1Bfo.png
Копировать все 1 в 1 нету смысла.
Но сравнить - имеет смысл. DRAM - 1.38V.
Разгоняются они 1 в 1 как 16GB Крушиалы Micron Rev.E
И гоняться в 2х16, 4x16, 2x32, 4x32 - одинаково по моему опыту.
И не важно плата у вас с Daisy Chain или T-Topology. Такая вот память, непревиредливая.
В инете есть много инфы. Навряд ли криво разогнали. Потому что память - попсовая.
Ну только если тот кто разгонял не совсем уж дилетант.
| 11.01.2023 |
как протестировать есть ли проблема с железом или софтом?
albatr0s, а в последний раз я как раз на Интеле и тестировал. На 13900KF.
https://3ddd.ru/forum/thread/show/zen_4_vs_raptor_lake/29#post1698209
Тут важно понять наверное что я сравнивал дефолтный XMP против ужатых вторичек-третьичек, настроенными сопротивлениями. С ODT FineTune. Просто не у всех есть время на все это. Я только сопротивления через GSAT порядка 5-6 часов подбирал. Тупое переключение частоты разумеется ни на что в большинстве случаев не повлияет. Так как изменит разве что ПСП. Но не задержки. Я об этом в своем сообщении уже писал.
| 11.01.2023 |
как протестировать есть ли проблема с железом или софтом?
albatr0s, разгонять память на Райзенах и на Интелах - имеет смысл. И не только для игр. Но и для работы в 3Ds Max (не для рендера). Я уже отписывался что отзывчивость инструментария, модификаторов, вьюпорта отзываются на разгоне памяти. Если это конечно не криворукий разгон. Да, не на много, но в определенных случаях ощутимо.
Тут как бы смотря какой разгон. В плане ПСП ? Ну после 35-40гб нету смысла, да.
В плане Latency ? Ну если вы гоните с 75ns до 60ns - то конечно же смысл - есть.
| 11.01.2023 |
как протестировать есть ли проблема с железом или софтом?
Может поможет, по пунктам :
https://3ddd.ru/forum/thread/show/tiestiruiem_protsy_max_corona/134#post1695503
Цитата Artsharonov:
мне гнали память
Ну тогда запускаете ZenTimings и смотрите что там вам наразгоняли :
https://zentimings.protonrom.com/
Конечно вам придется еще ставить Thaiphoon Burner, смотреть что за чипы. Потом долго гуглить, вникать в тему вопроса. Но лучше обратиться на форуме оверклокеров. Если разгон был платным у какого нить условного "Дакара", то вроде ничего страшного не должно быть.. Но... Если разгонял какой то Васян, то... Ну вы поняли
Ведь при разгоне памяти можно налажать с :
1.) DRAM Вольтаж.
2.) CAD/RTT сопротивления.
3.) Вторички или Третьички.
4.) SoC/VDDP вольтаж.
5.) 1:1:1 Coupled Режимом.
И еще кучей нюансов. Тут еще и вопрос не только в стабильности, но и вообще, криворукий разгон памяти может быть запросто хуже чем память вообще без разгона, и это не редкость на моей практике.
| 11.01.2023 |
Цитата Gansalez:
Очень даже! А людишки откуда?
Эы... Я вклейкой людей не занимался на этих рендерах. Ну по крайней мере на большинстве картинок. А откуда 3D-Шные, без понятия. У нас с разных сборников в студии свой большой сборник в котором материалы перелопатили. Но я их обычно на дальние планы ставлю. Вблизи они стрёмные и им волосы приходится и лица порой приклеивать с фоток.
А так, 2Д-шных людей часто у нас видел с "Cylind.Space" и "Vishopper".
| 10.01.2023 |
1070 vs 3090 стоит ли ждать от вьюпорта искренности?
Цитата 3dionis:
Короче говоря-камень все таки важнее?
Важнее аккуратно собирать сцену. Рационально использовать вьюпорт.
Тогда можно и на старом проце и на старой видяхе дохлой собирать целые города.
Но если работать грязно и без понимания - ни проц ни видяха не спасут. Такой уж 3Ds Max ))
Лично мне под вьюпорт 3Ds Max-а хватило бы для всех моих нужд GTX 1060 6GB.
Ну а для комфорта по процу мне хватило бы десктопного Zen 2-3 Райзена или 9-13 Интела.
Увы пока еще не вышло такого железа которое бы 3Ds Max заставило бы летать ))
UPD - Хотя я конечно не уверен что речь вообще про 3Ds Max идет. Мало ли
| 09.01.2023 |
1070 vs 3090 стоит ли ждать от вьюпорта искренности?
На форуме уже множество раз обсуждался момент что на отзывчивость вьюпорта, инструментария в 3Ds Max влияет Процессор/Память. Комплексно, архитектура (IPC*Частота), кэш, частота+тайминги ОЗУ и прочее что ускоряет эту часть. Собственно когда я пересел с 1050Ti на RTX 3080, вообще никакого прироста не ощутил. А вот когда пересел с Zen3 на Raptor Lake, я ощутил прям огого какой прирост. Значительный. И по вьюпорту и по интрсументарию, модификаторам.
Собственно я потратил несколько дней на тесты, замеры и сравнения что бы это не списывать на эффект самовнушения/самообмана. Вот там в табличке можно глянуть - https://docs.google.com/spreadsheets/d/1G_vETATNz0njQy02t-OAP79seQhPJ94FYFYVy2jcAgo/edit#gid=0 (про методологию замеров тут показывал - https://youtu.be/Zo2Ico8Dqn0 , если интересно)
В моем случае простое передергивание видях, прирост в FPS дает только в случаях отдаленных от рабочих моих условий. Т.е когда у вас там тьма геометрии в полноценном отображении. Ну вот когда ее прям ооочень много - https://i.imgur.com/rVNEozb.png Тип когда Форесты/Рейлы не в упрощенном отображении. Когда объекты не рассортированы и не скрыты по слоям. Т.е когда вы условно неоптимально используете ресурсы вьюпорта. В таком случае да... Буст будет крутым от новой видяхи, может даже раза в три. Но если вы так работаете то в целом 3Ds Max-у не поможет ни 4090 ни A6000, ничего не поможет. А вот если все аккуратно собирать и делать, то даже в гигантских сценах и 1050Ti будет бездельничать. Ей тупо нечего будет отрисовывать.
И конечно надо понимать все вот эти тесты на FPS в вьюпорте, телега прохладная как правило (по крайней мере из тех что я видел еще давным давно). В них как правило - условия сильно отличаеются от реальных рабочих сцен и сценариев. За частую в этих тестах какие то неадекватные условия, с High Quality отображением, кучей каких то левых объектов, которые в реальной сцене как правило просто в режиме "Wired Box" или скрыты вовсе. Потому я когда сравнивал я брал рабочие сцены и сразу условно делил их на три группы, легкая/средняя/тяжелая ситуация для вьюпорта. И во всех трех случаях прирост FPS-ов значительно отличаллся. Отсюда за частую и выходит, что кто-то пересел с RTX 2060 на 3090 и у него FPS вдвое выше, а кто то с 1050Ti на 3080 и у него вообще ничего не изменилось. Потому что все зависит от того как вы собираете сцену, с какими сценами работаете, в каких режимах вьюпорта и насколько рационально используете ресурсы вьюпорта.
| 09.01.2023 |
Подскажите по железу. Собираю компьютер в первый раз. Оцените сборку.
hitchez08, не переживайте, суть сказанного мною и вопросы - нисколько не измениться, даже если я 100 раз отредактирую сообщение. Это практически ни на что не повлияет, поверьте мне. Заявляю так сказать на опыте 3000+ сообщений на этом форуме Можете отвечать через сутки, можете и вовсе не отвечать. В большей степени мои вопросы были риторическими, разумеется.
| 09.01.2023 |
Подскажите по железу. Собираю компьютер в первый раз. Оцените сборку.
hitchez08
Зачем самая топавая плата ?
У Z690 Tomahawk DDR4 - 16 VCore цепей на 60A мосфетах. Вам мало для 13900K ?!
Если вы собрались 13900K разгонять, вам придется потратиться на "чиллер".
Ну в таком случае можно и переплатить за Z790 Tomahawk DDR4 с 90А мосфетами
Зачем DDR5 ? Что-бы что ? Что бы получить выше ПСП от которого практически нету толку ?
При этом получить выше задержки от которых будет хуже в большинстве приложений ?
До выхода второго поколения DDR5 в виде Hynix-A Die чипов я бы не рискнул такое советовать.
Сэкономить на AMD ? В смысле на AM4/B550/5950X ? Ну да, в таком случае можно сэкономить. Только выйдет на порядок медленней в рендере, однопотоке и отзывчивости в 3Ds Max. Но сэкономить можно, да. Вариант неплохой за свои деньги.
Сэкономить на AM5/B650/7950Х ? Боже упаси от такой экономии. Так там еще и профита от высокого ПСП у DDR5 не будет... У AMD сейчас худший DDR5 контроллер памяти на рынке. Каждый раз фигею как они смогли так сделать его... Что Интеловские 4800Mhz отрабатывают быстрее (или наровне) с AMD-шными 6000Mhz... Т.е ты как бы заплатил за DDR5, а получил что-то среднее между DDR4/DDR5 (в плане ПСП)
| 09.01.2023 |
Подскажите по железу. Собираю компьютер в первый раз. Оцените сборку.
Не помогло.
Да, проверить не проблема. С помощью флешки с GSAT сразу пищать начинает, можно сразу насладиться этим звуком. Проблема как я сказал не только на MSI LGA1700 но и у MSI AM5 плат, эы... Получается пять из пяти компьютеров с которыми я имел дело с MSI платами новенькими )) И как я уточнил не просто нагрузка на проца а конкретная нагрузка на контроллер памяти, Кэш проца и ОЗУ. Логично что проблема в VCCIO(VDDQ)/VCCSA/Uncore части, собственно сверху-справа и идет самый сильный писк. Комп на открытом стенде, просто листиком перекрывая ту область сразу становится очевидным что пищит именно там. Ну и так же неудевительно что меняя VRM Frequency, повышая частоту подачи питания - меняется характер писка. В общем MSI решили немного покосплеить DSL модемы - https://youtu.be/gsNaR6FRuO0?t=11 - будем считать это 'пасхалкой'
В общем то мне, с нейросенсорной тугоухостью и сидящему за компом исключительно в наушниках - вообще плевать на этот писк. Прост хотел человека предупредить об такой штуке. Что бы он там не думал что это у него там пищит ))
| 09.01.2023 |
Подскажите по железу. Собираю компьютер в первый раз. Оцените сборку.
Цитата Borka82:
А что если C-states отключить, для Вас плохой вариант?
Эы... А причем тут C-States ?
У меня дросселя свистят при мемтестах, при тесте кэша проца. memtest86, hcidesign memtest, TM5, aida64 mem cache benchmark, SiSoftware Sandra, GSAT. Во всех других типах нагрузок, играх/рендере, простое или в сне - не свистят. Характер звука меняется только если начать частоту VRM крутить. На 1000гц перестают пищать, почти. На дефолтных 500гц пищит как на видео показал. На видео идет обычный Аидовский Кэш-Мем бенч.
| 09.01.2023 |
Подскажите по железу. Собираю компьютер в первый раз. Оцените сборку.
С большой вероятностью эта плата не стартанет с 13900K/KF. Нужно будет через функцию Bios Flashback обновить прошивку. Тогда по идее все ОК будет. Z790 модель почти такая же, только там 90A мосфеты жирные и контроллер питания чуть лучше. В общем то конкретно эти Z690 и Z790 платы вполне себе норм, крепкие среднячки. Только не пугайтесь если дроссели будут свистеть и пищать, MSI что то в прошлом году прям капитально наделали плат с свистящими дросселями. И на AM5 и на LGA1700 и на видяхах. Вот у меня как свистит - https://www.youtube.com/watch?v=8SxpTet_QHk&t=15s на трех других сборках с этими же платами - так же свистит при нагрузке на ОЗУ/IMC(КП). Спасибо хоть в рендере не свистит ))
| 09.01.2023 |
Актуальные конфигурации компьютеров
Цитата shevchenkon135:
Все таки Hunix �https://c2n.me/4hwW8Gr
Ну что-ж, не повезло. Хотя кто знает, может обойдется.
У меня вон тоже вроде должна была быть бракованная водянка а оказалось что нет ))
По поводу своих результатов с 13900KF :
В Corona Bench : 36 сек
В CBR23 : 40850
В V-Ray Bench : 27300
Местная тестовая сцена (Corona 9) : 8:22
Плата - Z790 Tomahawk DDR4
Память тонко не настраивал, супер лень, до сих пор никак не займусь.
128GB Crucial Ballistix на Micron Rev.B чипах :
Сопротивления 80-40-0, SA 1.25V, VDDQX 1.2V, DRAM 1.37V.
Тайминги - https://imgur.com/HigZdyo
ПСП/Задержки - https://i.imgur.com/PuT5E8U.png
Память даже хуже чем на Райзенах у меня настроенная. Но я как то забил.
И так производительность заоблачная...
| 08.01.2023 |
Актуальные конфигурации компьютеров
Цитата shevchenkon135:
Теперь бы найти последовательную инструкция по настройке 13900K, знаю что тут неоднократно расписывали про андервольтинг.
Для начала определитесь будете вы жать TDP лимит или делать Андервольт.
Тут чуть подробнее :
https://3ddd.ru/forum/thread/show/aktual_nyie_konfighuratsii_komp_iutierov/913#post1702044
Ну еще определитесь будете вы это делать через Биос или через Intel XTU, мне вот например широкий функционал XTU не понадобился. Все что в биосе было - мне хватило. https://www.intel.ru/content/www/ru/ru/download/17881/intel-extreme-tuning-utility-intel-xtu.html
Вот как это делается в XTU - https://youtu.be/4jjopjkJzxA
Ужим TDP лимита - не требует тестирования на стабильность. Но потеря производительности ощутимее в рендере будет. Из за того что процессор сбрасывает частоты.
Ужим через адаптивный оффсет - требует тестирования на стабильность. Так же в определенных случаях требует настройку LLC и контроль уровня VDroop, в случае с MSI платами так же имеет смысл ознакомиться с LLC Saturation фишкой (если плата не из дешевых у MSI). Если частоту в стоке оставлять (P-5.5Ghz + E-4.3Ghz) то обычный ужим напряжения через Адаптивный оффсет обычно в районе -0.1V, в зависимости от платы, предустановок LLC, качества проца. Т.е у кого то это может быть -0.13V, у кого то -0.08V. Потому универсального совета нету. Надо просто брать, подбирать оффсет, прогонять тест и нащупывать руками порог потери стабильности. Потом отказываться на 1-2 шага назад.
Так же надо понимать что :
Легкие сцены, Легкие бенчмарки (по наполнению) типа Corona Bench, V-Ray Bench, CineBench - жрут на ПОРЯДОК больше питания. Чем реальные сцены в 3Ds Max + Corona/V-Ray. Соответственно - и температуры и уровень стабильности разный. То есть тут многое зависит от того чем вы будете тестить. Если вы возьмете какой нить Prime95 в режиме Smallest FFT то у вас и без андервольта может проц нестабильно работать переваливая за 330вт А если взять какую нить рабочую сцену экстерьера в 6-8к разрешении то при тех же настройках может быть 220-230вт потребления при той же 100% нагрузке.
Вообще возьмите себе за правило, то что показывает диспетчер задач 100% нагрузку, это не значит что проц нагружен на 100%, это лишь значит что он занят. Ведь время ожидания команд/инструкций/данных с кэша или памяти считается за загрузку, но не нагрузку. Просто не удивляйтесь если вдруг у вас 105 градусов за 5 секунд в LinX а в реальной сцене при тех же 100% за 5 часов 80 градусов
Так что тут определяйтесь сами... Я для себя лично выбрал CineBench R23 в режиме 30 минутного теста. По нагреву и потреблению это на порядок выше чем обычные рабочие ситуации, но при этом на порядок ниже чем все эти лютые грелки типа Prime95/OCCT/LinX/Super-Pi и тд... Дело в том что эти грелки идеально утилизируют конвейер проца, делают минимум промахов по кэшу, четенько загружают все ALU/FPU блоки. Разумеется в реальной работе вы никогда даже и близко не столкнетесь с этим уровнем нагрузки, ни при каких раскладах. Самое близкое к этому будет, наверное работа Corona High Quality денойзера который хорошо утилизирует конвейер. Но это все равно ниже нагрузка чем у того же CineBench R23.
Еще надо понимать что хоть это и адекватный тест проца в рендере. Но это слабый тест для VRM. Из за того что VRM успевает делать передышку между прогонами. Т.е для теста LLC (VDroop) и нагрева питальника надо выбирать тест длительный без прерываний.
Эы... Поэтапно ? Ну...
1.) Делаете контрольные замеры в стоке. Контрольный прогон бенчмарка что бы убедиться что все стабильно. Записываете результаты. И температуры и потребления и баллы и вольтажи.
2.) Смотрите на SA/VDDQX/VCore/VID вольтаж. Если что то выходит за рамки нормы (у MSI это часто SA) - то корректируете напряжения. Оцениваете ситуацию с LLC (VDroop), пробуете подкрутить частоту VRM (если плата позволяет). Это все опционально. Можно конечно забить на весь этот пункт и сделать с рассчетом на удачу что все ок будет )) Все это смотрите в HWInfo64 в режиме датчиков. Эффективные частоты, прочие датчики тоже желательно там смотреть.
3.) Врубаете в Биосе Адаптивный Оффсет вольтаж. Начинаете с -0.08V, спускаетесь до уровня пока либо не начнет комп зависать либо не начнет Сайнбенч вылетать либо пока не начнет синий экран вылетать с Clock Watchdog ошибкой. Ну и потом обратно отказываетесь на 1-2 шага. Шаг делаете в 0.01
4.) Затем сохраняете профиль настроенный в Биосе. Пробуете PL2 TDP лимит ужать примерно до того же уровня что вышел по потреблению через андервольт. И сравниваете полученные результаты.
Вот например...
-0.1V Адаптивный оффсет дает в CBR23 - 265вт потребления на моих настройках :
https://i.imgur.com/7CtQjNp.jpg
Вот те же самые 265вт только не через оффсет а через лимит на моих настройках :
https://i.imgur.com/PXF9VR2.jpg
P.S. Если найти 2-3 самых неудачных ядра, отдельно их тестируя, и снизить им частоту на 150-200мгц, то андервольтом еще сильнее можно ужать потребление без потери стабильности. Ну это если совсем скучно будет. Еще хорошо когда самые горячие ядра являются самыми неудачными. Просто это разные два параметра Volt Leak/ASIC Quality (условный) и равномерность припоя в области ядра. Ведь если ядро самое горячее и самое неудачное при этом же, то это повышает профит от срезания частоты ему (частота тоже повышает нагрев, даже без изменений вольтажа).
| 07.01.2023 |
Процессор не загружается на 100 процентов...
Nettle25, дело не в DRM, а в гетерогенной архитектуре. Ну в Cinebench нету ведь DRM
У меня 13900KF на Win10 и Corona 9 рендрит всеми ядрами и без проблем.
И вообще кроме старых версий Короны, я заметил такую штуку только в CBR15.
Собственно как в таблице и записал, никакого профита от Win11 не ощутил.
Впрочем уже три месяца на Win11 и тоже никаких проблем.
Все что было неудобно настроил под себя. Все работает как нужно.
P.S. Так же не особо понимаю откуда беруться эти слухи, но периодически вижу что пишут - мол скорость рендера и загрузка ядер снижается если во время рендера 3Ds Max свернуть. Проверял и на Win10 и на Win11, не заметил такого эффекта.
| 07.01.2023 |
Смотрю первая ASUS 7900 XTX до нас доехала - 1500$.
Только вот, это похоже реф-модель - https://www.asus.com/motherboards-components/graphics-cards/asus/rx7900xtx-24g/
В том же магазе самая дешевая 4090 - 2100$. А 3090 - 980$.
Нууу фиг знает... 3090 из за чипов на двух сторонах PCB не хотелось бы брать.
Впрочем 3090Ti у которой нет проблемы этой в жесточайшем дефиците.
Ее если и найдешь то по цене 4090, что не имеет никакого смыслу.
| 05.01.2023 |
Проснулся, глянул - https://youtu.be/0yJZjegRDpA ужаснулся...
Поражает конечно эта тупость в подборе игр для демонстрации мощи процов с тонной кэша... Я конечно понимаю что ASUS за 16 часов до АМД показали 540гц монитор. Но камон, блин... В R6 Siege, CS:GO, Dota 2 и так фреймрейт уже был на процах 4-6 летней давности под 500 и более. И конечно Warhammer, стратегия 2017 года, ВАУ ! Я вот спецом ждал эти процы что бы поиграть в стратежку на 300+ FPS, у которой 4/10 баллов судя по Метакритику, просто шедевр похоже нераскрытый был, FPS-а не хватало, гребанный стыд. Ведь есть столько игр которые в 1440p прям сильно недогружают RTX 4090 даже с 13900K, показали бы как там эти X3D Райзены выстреливают. Стыдно показывать видяху конкурента ? Ну показали бы свою 7900ХТХ. А это просто абсурд какой то, как по мне..
[[link:image_uri:625951,]][[image:625951,sky_image_forum]][[/link]]
Ну и конечно печалит то что 7950X3D ощущается каким то обделенным, на один чиплет приклеили ему Кэш а на другой - нет. Побоялись ценника или перегрева ? Хз, зато выставили это как достоинство, ведь без X3D кэша второй чиплет будет на ~200мгц быстрее, ВАУ... Ну может к выходу 8950X3D они расщедрятся и накинут таки тонну кэша, как и ожидалось. Учитывая историю с 5800X3D - такое решение сможет в значительной степени или полностью перекрыть все существующие проблемы у АМД с DDR5 контроллером памяти медленным. Все таки 272MB кэша позволят минимизировать обращения к ОЗУ, в играх. Особенно в играх чувствительных к задержкам.
Разрабам железа нужно срочно придумывать какую то супер-технологичную хрень что бы тупым игрунам скармливать процы. Что-то такое же мощное по требованиям как и Рейтрейсинг был на момент появления 2080Ti. Только на проце которая бы работала. Какую то дичайшую физику, 3D-Звук тяжеловесный (как в Таркове неделю назад появился), какую нить симуляцию разрушений которая уничтожит все существующие процы. А то сейчас вообще непонятно как игрунам продавать новые процы. Дальше продолжать показывать 1000FPS в CS:GO/Dota2/R6 Siege, ну стыд же...
P.S. Ну и конечно базовую частоту 7950X3D уронили на 300мгц.
Зато напишут 120вт TDP теперь на коробочку, да...
| 05.01.2023 |
Ну частота должна быть насколько я знаю в 50гц.
Но чем это проверяют и как не знаю. Наверное каким нить мультиметром.
P.S. Комп с Seasonic не работал когда в сети 260-270 вольт, другой с Chieftec работал
Спасибо что не 290-300 как у некоторых...
| 04.01.2023 |
vladimir.drobzhev90, да примерно так и выходит.
https://youtu.be/-sDDA_2USwg
С 13900K/KF это так же работает. С той лишь разницей что Интел жрет больше, хоть и при большем потреблении Интел легче охладить чем Райзен. Ну а Райзен в свою очередь более энергоэффективен при любых раскладах. Но да, суть такова что если эти процы сильно задушить лимитом, то даже так они наровне или быстрее чем унылый 2990WX в рендере. Ну и в однопотоке они почти на 50% быстрее выходят.
Собственно тут на форуме это все сотни раз уже обсуждалось. Современные процы разгоняют в обратную сторону, делая андервольт (что более эффективно в плане производительности чем ужим лимитами) либо жмут лимиты ограничивая их потребление (что проще и не требует тестирования на стабильность, но не так эффективно). Я это к тому что можно еще больше выжать с проца делая руками все это дело а не доверяясь простому лимиту который сильно роняет частоту.
| 03.01.2023 |
Вау... Просто - Вау ))
https://videocardz.com/newz/amd-radeon-rx-7900-testing-shows-possible-vapor-chamber-design-issues
Все понимаю, всякие косяки инженеров исправлять своими силами.
Но... Что теперь, ставить компьютер вверх ногами что бы видяха меньше грелась ?
[[link:image_uri:625454,]][[image:625454,sky_image_forum]][[/link]]
| 01.01.2023 |
murza_v
Писали что подходит и старый. Но на всякий сделали и новый.
На персии есть... Autodesk 3DS Max 2023.3 EXE patch NoNLM
| 30.12.2022 |
+1 за 2023.3 Макс и 9.1 Корону, ноу проблем.
А вообще у меня все Максы всегда, на всех системах и разных компах, начиная с Win7 и FX8350 и по сей момент — были одинаково годно стабильны. По крайней мере как по мне со времен 2009-2014 Макса точно хуже не стало... Можно хоть неделю не перезапускать Макс, держать свернутым и менять сцены, вообще пофигу. Можно было бы подумать что это какой то уникальный случай, но нет, знаю несколько людей у которых такая же история как и у меня.
Вкатиться в новую Корону можно с помощью этого Плейлиста -> (ССЫЛКА) -> Впрочем, никто и ничто не мешает использовать старый Legacy Шейдер и старый Конвертер Материалов.
| 30.12.2022 |
coo1erman
Ну в АМД говорят что все ОК :
https://www.ixbt.com/news/2022/12/27/radeon-rx-7900-xtx-110-amd.html
Ну тип 7950Х и 95с это ОК, 110с на видяхе это ОК. Так что не паримся, шкваримся !
Разумеется я думаю что не-рефы смогут как то это дело побороть.
https://youtu.be/xQwdbvRPw00
P.S. Еще конечно поражают звуки дросселей у Рефов. Дичь вообще (ссылка с таймкодом)...
| 30.12.2022 |
Conejoxiv, в случае с Unreal Engine не стоит забывать что нету никакой привязки к nVidia технологиям. Там не нужны Нвидиевские RT и Тензорные ядра, поддержка CUDA, RTX набор инструментов так же не нужен. Lumen работает, Рейтрейсинг тоже (при необходимости), GPU LightMass тоже. Не то что бы я советовал прям брать Радеон под UE, но и не забывал бы про эту опцию. Это все таки не тот случай как с GPU рендерами где 90% движков тупо не будут работать с Радеонами.
С другой стороны вот смотрю я на 7900XTX, вроде все в ней - ОК.
Но вот эти слухи про B2 степпинг, про 110 градусов HotSpot-ы - напрягают.
По поводу памяти в Анриале скажу так, да я собирал сцену на 10гб VRAM, проблем не было.
UE очень жестко налету стримит ассеты/текстуры/сегменты Нанитов/виртуальные текстуры и тени с SSD в ОЗУ а с ОЗУ в VRAM. Т.е если собрать баланс без особых узких мест, то он вполне себе годно успевает все кешировать. И лишь при резких разворотах камеры можно увидеть подгрузку текстур/ассетов при забитой видеопамяти.
Ну и конечно во время сборки сцены вьюпорт все равно работает в усеченном режиме. Где то мипмаппинг подрезан, где то жеще Culling геометрии, шейдеры попроще, LOD-ы/Foliage/Наниты попроще. В конце концов по дефолту 67% разрешения только. Да и окошко мелкое.
И вот когда доходит дело до рендера финального, с своим набором команд которые все вышеописанное приводят в адекватный вид - нагрузка на видеопамять резко возрастает. И когда памяти ну вот вообще не хватает то рендер просто вылетает вместе с Анриалом. Т.е сцену вы то собрать - соберете, отрендрить - будет уже проблемой.
С другой стороны - есть возможность рендрить тайлами. В таком случае лишь с небольшими ограничениями можно хоть 16к рендер выдать (15360x8640). Просто видяха разобьет его скажем на 8 кусков по 1920x1080 и склеит потом все это. И еще во время рендера при жесткой нехватке VRAM так же сильно возрастает нагрузка на ОЗУ.
Вот гляньте последнюю минуту моего видео - https://youtu.be/09EHN6ZMNyU?t=2129
После свежего запуска Анриала жрет всего 16GB ОЗУ + 20GB Стендбай памяти, 10GB VRAM + 600MB GPU Shared памяти. Думаешь такой - вау... Вот это жесткая оптимизация. С учетом объема неоптимизированных ассетов растений и текстур к ним. Но... Стоит поработать с сценой часик это уже 65GB ОЗУ + 30GB Стендбай памяти, 10GB VRAM + 5GB GPU Shared памяти. Запускаешь рендер в 8к без тайлов, оп уже 90GB ОЗУ и Стендбай забит полностью, +15GB GPU Shared. И тут понимаешь что Анриалу сложно все это впихнуть как то и обдумать.
Анриал старается все кэшировать, выгружать-загружать. Но очевидно что будь видяха хоть на 48гб, он бы и все 48гб сожрал бы и меньше ОЗУ забивал бы всем этим делом. Ну а по итогу на Ultra-Пресете с тяжелыми настройками, 8к картинку на RTX 3080 рендрит порядка 20 секунд (тайлами). Я пока отложил работу в Анриале, не то настроение и обстоятельства сейчас... Но я бы под Анриал все же советовал бы комбину из - быстрого M.2 PCI-E SSD, быстрого проца в плане IPC/Частоты, быстрой ОЗУ в разгоне (возможно даже DDR5, если будет Hynix A Die чипы и прямые руки для настройки этого дела) и что бы ее объем был хотя бы в 64гб, видяхи с полноценными 16-тью линиями (а то знаю что есть там всякие х4-х8 обрубки), и что бы памяти было побольше у видяхи, ну вот 16-24гб для экстерьеров думаю то что надо. На мощности самого GPU думаю можно и сэкономить, ну будет условно 4090 вам рендрить картинку за 13 секунд а 3090 за 20 секунд, да и черт с ним Ну а 7900XTX с 24гб и ценником между 3090 и 4090 тоже конечно интересный к размышлению вариант.
Не ну конечно если использовать оптимизированные игровые ассеты. И экстерьеры собирать небольшие, то все не так жестко будет как я описал... К тому же в Анриале есть куча инструментов для анализа потребления памяти, дроуколлов, стриминга ассетов, куча возможностей это все дело оптимизировать. Но все равно меньше 12GB VRAM я бы даже и не совался бы в Анриал. До того как я сам начал UE ковырять - я просто недоумевал, почему нигде нету четкого ответа сколько ему надо Видеопамяти. Ну вот оказалось что просто есть столько переменных и моментов что ответить сложно на этот вопрос.
| 30.12.2022 |
AzatHai, у меня такой нужды ни разу не возникало за 10+ лет работы. Разная специфика, наверное. Делаю экстерьеры и в моем случае рендеры смотрят разные люди на разных мониторах и устройствах. А порой рендеры уходят на несколько итераций пост-обработки к другому человеку. В общем то думаю я бы и в 256 цветах нормально смог работать, шучу
| 29.12.2022 |
Цитата Purist:
В играх разве не длительные нагрузки? Смотрю народ по 3-4-5 часов мучает их в игровых сессиях.
В играх нагрузка в большей степени на dGPU/VRAM, на другую составляющую питальника.
Которой как раз таки больше внимания уделяют в плане охлада и прочего, как правило.
Borka82, на том тайминге который я указал он только про XTU сказал.
В общем то 12900H в отличии от 12900HX, 12900HK нету в списке поддержки в XTU.
Так что да, может он и не работает с XTU а чел с Ютуба не уточнил/оговорился.
| 29.12.2022 |
Borka82, на видео что я выше скидывал 12900H так же работает с XTU.
https://youtu.be/IgQy2OMtav8?t=65 - ссылка с таймкодом
Может у вас старая версия XTU была.
| 28.12.2022 |