Сообщения | Дата |
---|
Смотрю у нас уже в продаже Корсаровская память с 48гб UDIMM модулями появилась.
CMH96GX5M2B5600C40 (5600/CL40) - всего 850$ за 192GB. Ну шо. Кто первый рискнет
Я пас
| 30.04.2023 |
Цитата Romaneus:
Earanak,
Мне кажется вопрос заключался в том, какова зависимость V-Ray/Corona на продажи на сайте)))
Хм... Я и забыл что тут модельки продают )) Даже и не подумал об этом.
Тогда для меня все очевидно, просто делать модельку с двумя наборами материалов.
Под V-Ray и Корону... Только не делать отдельную позицию.
| 30.04.2023 |
Актуальные конфигурации компьютеров
AVDaur, как для двух плашек это норм. Да и по сравнению с тем что было на прошлой странице у вас это вообще пушка )) Перевес вышел в сторону ПСП вместо задержек. Но и так неплохо. Если будете потом добавлять еще две плашки - скорее всего придется перенастраивать память, так как четыре плашки дадут больше нагрузку на контроллер памяти и может не выйти выжать те же 4000Mhz, ну то такое. Всегда можно сделать ребаланс в сторону более низкой частоты и низких таймингов. Так что потеряете наверное немного. Только вот tRFC задран как по мне - https://i.imgur.com/XkayTae.png Я бы попробовал tRFC до 310ns подтянуть или даже чуть ниже. Сейчас он выше 350ns. Таких значений даже в табличке нету
Тут конечно точно не сказать как лучше будет, если tRFC ниже 300ns снижать то может придется и tREFI до 32768 снижать, тогда может профит перекрыть друг друга и в этом не будет смысла. Но все равно, для 4000Mhz - 728 tRFC это выше 350ns, это много как по мне. Короч я бы сохранил все как есть и отдельно попробовал бы выставить tRFC в 620 (при 4000Mhz это 310ns). Если будет ОК - то так бы и оставил. Если не включиться комп, попробовал бы 640 (это 320ns). Если пойдет комп на 310ns tRFC, считайте у вас DDR4 настроена лучше чем у 90% людей и вы можете быть довольны.
А вообще и так уже можно быть довольным.
| 29.04.2023 |
Думаю больше влияет вопрос не движка а результат, не в смысле качества (хотя и оно важно) но я про - Статика / Видео / Реалтайм приложение / VR-AR). Ну и платформа, и задачи. Т.е если заказчику нужно приложение на какой нить Планшет что бы поклацать по жилому комплексу, посмотреть планировки-презентацию, покрутить в 3D-Домики, или погулять на ПК по объекту в Реалтайме то это будет ощутимо дороже чем просто пачка статичных картинок. Впрочем и к картинкам бывают требования такие что сиди вылизывай каждый пиксель целую неделю. Ну или требования когда надо показать объект и с птички и в четырех разных сезонах, вклеивать людей годно иногда нужно, тогда статика тоже будет недешевой. А может вам прост просят запилить ролик минуты на три нужно с дефолтными унылыми облетами... Думаю 3 минуты ролика могут стоить как 10 вылизанных кадров. Короче много вариаций при которых и статика и видео могут стоить сильно по разному.
В остальном. Если вы мыслите так что : V-Ray стоит дороже Короны значит в V-Ray работы больше оплачиваются. Или Unreal Engine хоть и бесплатный но сложный значит дороже чем бесплатный Cycles который еще и не сложный. Не думаю что заказчику хоть какое то дело до этого есть ))
Чуть оффтопа (личная боль, про движок) :
У Анриальщиков есть тупая привычка кринжовая. Они очень любят в любой свой ролик клеить логотип Unreal Engine, указывать в названии ролика и описании что он сделан на Анриале, писать это в тегах, а иногда еще и указывать разрешения ролика и фреймрейт (будто это нельзя в плеере на Ютубе глянуть), иногда даже стыдятся будто и указывают что рендер на Lumen, или гордятся и пишут PathTracer. Еще и иногда указывают видеокарту свою в названии прям. В итоге их творение выглядит на ютубе порой как то так по названию - "UE 5.1 / Lumen / 4K60FPS / RTX 4090 - Название их унылого ролика". Не делайте так, пожалуйста. Мне больно и стыдно за людей. Хотя бы не пишите это в названии. Тегов и описания должно хватать. А логотипом в ролике на 5 секунд будуто хронометраж растягивают. Ну и стыд...
Вот стыд будет если у нас в студии так же сделают первый мой проект. Лопну от стыда )))
| 29.04.2023 |
grdesigner, заказать себе переходник который не будет мешать стеклу.
https://www.youtube.com/watch?v=jkFuTBJGvwM
А про 12VHPWR я уже писал где то тут на форуме с цитатой и ссылкой на прессуху по 4000 Видяхам, что-то там говорили про PCB и нюансы. Про Transiant Response, ATX 3.0 формат. Короч там нюансы были. Это касается не всех видях и не всех моделей конечно. Как я понял не ко всем PCB можно просто взять и прикрутить старые 8-Пин коннекторы. Но если уже есть подходящая PCB то можно и воткнуть 8-Пин... Короч дело не только в потреблении питания видяхой. Я бы не удивился и на 4060 увидеть 12VHPWR )) Правда наверное на редких моделях все же.
| 29.04.2023 |
Черный экран не реагирует на кнопку питания\перезагрузка Ryzen 9 7900X ( RIP )
Цитата Earanak:
IK86, о да... Это именно то про что я и говорил )) Более того, на первых Райзенах некоторые Гиги умудрялись даже убивать процы от овершутов по SoC-у на 1.4+ вольта. Каааайф ))
Забавно что месяц назад я об этом писал что были такие траблы у первых Райзенов, процы выгорали из за SoC-а. И теперь АМД выпускает новую прошивку на 7000 Райзены из за прогаров по SoC-у ограничивая его в 1.3 вольта
Ох... Ничему они блин не учатся. В чем их проблема...
https://videocardz.com/newz/amd-identifies-the-root-cause-of-ryzen-7000-cpus-burnout-issue-new-agesa-released
Касается это не только Гиги. Если че.
И нафиг вообще людям SoC выше 1.3V ? Они че собрались iGPU гнать что ли ?
Этот вольтаж никакого отношения к ядрам проца и частоте ядер - не имеет. Если что.
| 29.04.2023 |
Хоспаде... Они еще и гарантию 1 год дают на эту А6000. Это не Рефаб случаем
Не, спасибо. Я подожду следующего поколения. Посижу на 3090, мне пока ее хватает ))
grdesigner, вы вот часто как то про окупаемость говорите. Я вообще в таком ключе никогда не мыслю и никогда не думал об этом. Видеокарта для меня окупается в тот момент когда я читаю как кто-то ноет про плохую оптимизацию в игре а я играю себе спокойно в 100FPS, окупается в ту же секунду С этой видяхой увы, так не выйдет )) Так что лично для меня она не окупиться никогда. Меня больше парит что купив такую видяху потом поди найди кому она нужна когда придет время ее продавать... От нее уже пахнет не первой свежестью. Ну и геммор с турбинным охладом.
| 28.04.2023 |
Ого, а я как то и упустил момент когда они начали стоить столько же сколько на Ебее ))
Ничоси... Как ценник рухнул резко.
[[link:image_uri:655614,]][[image:655614,sky_image_forum]][[/link]]
Наверное обидно купить видяху за 7500$ а через пару лет продавать ее как Б/У за ~2500$
Хотя вообще попробуй ее продать когда она стухнет... В плане мощности GPU она уже стухла.
| 28.04.2023 |
Мало того что A6000 стоит на Ебее 3.5к баксов в лучшем случае, без гарантии. Так она по мощности на уровне 3090. И еще и охлад у нее турбинный и неясно можно ли водянку к ней приделать (похожая ли там печатная плата с 3090 или нет). Ну а nVidia 6000 Ada (не путать с A6000) и вовсе фиг найдешь сейчас. Вот она точно под 8к баксов небось стоит ))
Слава богу Анриал умеет юзать Shared GPU Memory
| 28.04.2023 |
А для всех вот этих вот ваших Октанов/Виреев и тд - нужен nVLink и mGPU или просто тыкается две видяхи несвязанные и рендрят себе без проблем ?
В дурацком Анриале похоже так нельзя ((
https://irendering.net/using-multiple-gpus-in-path-tracer-in-unreal-engine-5-1/
| 28.04.2023 |
Актуальные конфигурации компьютеров
Цитата Gansalez:
Чел продает б/у RTX 4090, думаю взять. Подскажите, как её проверить, на что смотреть и чем протестировать на месте?
Рекомендую посмотреть - https://youtu.be/LEE2w96c_pw
Если подытожить - то ничего не спасет если вас захотят обмануть грамотно ))
| 28.04.2023 |
Актуальные конфигурации компьютеров
Цитата AVDaur:
Это я выставил 1,25, как у Вас. Как понять что работает нормально?
Прогнать мемтест. Например TM5 + 1usmus_v3.CFG
https://mega.nz/file/vLhxBahB#WwJIpN3mQOaq_XsJUboSIcaMg3RlVBWvFnVspgJpcLY
И да. Отключите Гипервизор (Hyper-V) перед этим. TM5 запускайте от имени админа. После первой ошибки выбирете конфиг. Перезапустите комп и еще раз от имени админа запустите. Никаких ошибок не должно быть а по центру окошка должно быть написано что выбран конфиг 1usmus_v3. Тест занимает прилично времени, на такой скорости 64гб будут гоняться около часу. По концу выдаст сколько ошибок нашло. Идет по моему 3 цикла. Не должно быть ни одной ошибки. Даже если 1 ошибка в конце теста - значит память работает нестабильно.
Если ошибок ноль - с памятью можно сказать что на 99% все окей. Более точные и тщательные тесты памяти делаются в Y-Cruncher. Но если ошибок нету в TM5, то и в большинстве случаев дальше нету смысла тестить. Только если вы поехавший параноик или занимаетесь какими то мегавычислениями на оперативке. Рендеры еле грузят память и контроллер памяти, хоть и заполняют ее прилично. Но это разные вещи.
И еще я не помню... Вроде бы я тут кидал ASRock Timing Configurator, не помню. Скидывали ли вы скриншот с него или нет. Или это я в другой теме подсказывал. Не помню уже. Я бы глянул все ли окей с RTL/IOL, tFAW формулой, третьичками. Но вообще. У меня на это нету времени.
Если вам интересно это можете изучить :
1.) https://docs.google.com/document/d/15qsrwUxGbKtqjeyEhmCear2kN9hCt2noKK5z14Webhg/
2.) https://i2hard.ru/publications/24111/
Если это все вам конечно нужно... Сидеть ковырять и разгонять память не понимая зачем это вам - дело сомнительное, как по мне. У меня сейчас нет ни времени ни желания разбираться с чужими разгонами памяти. Если память подкрутить можно Latency уронить ниже 60ns а ПСП добить поближе к 60гб. Сейчас похоже у вас память не настроенная. Может там tFAW формула сломанная. Может третьички каличные. Может tRFC выше 350ns. Черт его знает. Что сразу в глаза бросается это CR2 и CL18 на 3600Mhz это очень расслабленный режим, который скорее всего даже медленней чем 3200Mhz/CL16-CR1... В остальном удачи, надеюсь разберетесь А я умываю руки с этой темы...
| 28.04.2023 |
Актуальные конфигурации компьютеров
DDR - Double Data Rate. Да, то что пишет некоторый софт 1800Mhz это значит 3600Mhz. Так бы сразу и сказали что не понимаете этих цифр ) А то про JEDEC чет вы писали. Делали скрины с SPD раздела. Ничерта непонятно было об чем вы ))) Ведь SPD раздел отображает разные возможные режимы памяти но не актуальный (рабочий) и JEDEC никакого отношения к XMP в общем то не имеет. Ну думаю теперь разобрались. Судя по предыдущим скринам - Даже без дальнейшей настройки у вас норм результаты.
| 27.04.2023 |
Актуальные конфигурации компьютеров
Manax, ну как я и сказал, очень мало плат и платформ способны на это. Мы тут как то перекидывались с Sten-ом на форуме картинками разгонов памяти... Там вот я кидал DDR5 в 150гб ПСП, где просто BCLK был задран выше 125 и Аида неправильно прост считала все это )) Но да, как вы и описали, BCLK не всегда можно поднять нормально. Впрочем, мало кому это нужно на самом деле на современном железе. Только каличным процам с заблокированным множителем. Всякие там Зионы, Селероны и прочие i3 non-K...
| 27.04.2023 |
Актуальные конфигурации компьютеров
Да там прям в Биосе есть вариант BCLK четко на 100.0 зафиксить. Только вот я сам ничерта не понял лучше фиксить или нет. Гуглил-Гуглил. Одни говорят что прям вообще нужно. Другие заявляют что вообще это вредно. Оверклокеры которые рекорды ставят тоже 50/50, кто то ставит кто то нет )) Мне прост циферки нравятся. Я поставил в настройках биоса 100.0 BCLK. Люблю красивые циферки. Скорее всего это ни на что не влияет.
Вот что ТОЧНО влияет в случае с Интелом это делитель памяти. Вот это 100% влияет и ощутимо. В общем то об этом везде и написано, во всех гайдах... Что 27х133=3600Mhz и 36x100=3600Mhz это вообще разные вещи по потреблению питания контроллером памяти. 27x133 - легче и лучше. Причем наверное прям вот сразу на одну ступень.
Хотя у старых плат был отдельный генератор частот и при включении фикс частоты BCLK начинал этот отдельно распаянный чип на плате работать что бы контролить частоты PCI-E/ОЗУ/Проца. Но это было лет 10 назад... Как сейчас даже не интересовался. Есть ли тот генератор частот или уже нет...
И еще AIDA64 некорректно считает BCLK при разгоне памяти. Так что если вы видите 150гб ПСП при 150BCLK, то там на самом деле 100гб ПСП )) Ну или около того. Не помню уже формулу. Там все сложно. Но считает некорректно. К тому же очень мало плат и систем готовы к BCLK выше 110. Там много нюансов. Можно так наразгонять железо что у вас PCI-E устройства потеряют в стабильности и Sata/M.2.
| 27.04.2023 |
Актуальные конфигурации компьютеров
Цитата AVDaur:
Память у меня кингстон фури 3600. Хотя в биосе 3600 писало что так что так
Если вы хотите смотреть тайминги и прочие параметры памяти то для этого (на Интеле) используют ASRock Timing Configurator...
https://drive.google.com/file/d/16xnEMsFI-wUVuzKZp3jQ0ClZbU2eFITS/view?usp=share_link
Но я пожалуй тут уж комментов никаких не дам. Память у вас сильно от моей отличается.
А времени и желания в это вникать у меня нету, сейчас по уши в работе.
У меня 4x32GB Micron Rev.B D9XPF Двуранги :
3600Mhz/CL16-CR1/Жеще Третьички - https://i.imgur.com/mjgqwVS.jpg
3866Mhz/CL16-CR2/Легче Третьички - https://i.imgur.com/G3k1FDl.jpg
Актуальные вольтажи/сопротивления :
Gear1 / SA 1.22V / VDDQ 1.2V / DRAM 1.39V / AUX 1.9V / Сопротивления 80-34-00.
Ну и конечно же RTL/IOL пришлось по итогу тренить. Все это гуглиться.
| 27.04.2023 |
Цитата 192:
Подскажи пожалуйста, как сделать подкачку памяти для видеокарты?)
Она по дефолту должна быть включена в Биосе (не в системе). И по дефолту видеокарта выделяет 50% от установленной ОЗУ на Shared GPU Memory. Например, если у вас 128гб оперативки, видяха (при необходимости) сможет использовать 64гб из нее. Подробнее этим вопросом не интересовался... Знаю только что рендер через Сиквенсер очень даже неплохо юзает эту память и Анриалу не становиться прям плохо от того что видеопамять вываливается в оперативку.
[[link:image_uri:655149,]][[image:655149,sky_image_forum]][[/link]]
UPD - Интересненько. Интересненько...
https://www.unrealengine.com/marketplace/en-US/product/ui-material-lab?sessionInvalidated=true
https://www.youtube.com/watch?v=WaHlhkmVDoI
Такое бы по обычным материалам а не по UI. Эх...
| 27.04.2023 |
Актуальные конфигурации компьютеров
Цитата AVDaur:
xmp profile 1. Это авто разгон памяти?
Да, XMP это и есть Авто-Разгон памяти. Грубо говоря.
Где то 1/4 параметров храниться в настройках XMP внутри плашек.
Все остальные настройки - платы выставляют на свое усмотрение.
Какие то платы подбирают более менее адекватные значения, другие не особо.
У меня тут вот SA Voltage - https://i.imgur.com/mUpi72r.jpg
Но у меня Z790, может там Биос отличается чуть. Не уверен.
| 27.04.2023 |
Актуальные конфигурации компьютеров
Ну мне добавить по этой теме больше нечего. И еще смотрю у вас MSI Tomahawk. Я бы на всякий случай глянул бы на датчик SA Voltage. Они завышают жестко SA вольтаж что очень плохо сказывается на контроллере памяти. Условно для 3600-3866Mhz DDR4 как правило хватает 1.2-1.25V а платы если руками его не настраивать лупят до 1.35V, это уже уровень экстрим разгона памяти. И еще раз это я говорю за SA Voltage (System Agent), не путать с DRAM Voltage. DRAM вольтаж как раз таки наоборот лучше завышать хотя бы на 0.03V от XMP )) Как он на Русском называется в HWInfo64, без понятия, "Системный Агент" что ли
Ну еще DDR4 MSI у Z790 (вот не знаю как у Z690) очень фиговые сопротивления памяти подбирает. Просто дичайшие. Типа 240-120-60, когда 80-34-00 работают прям ЗНАЧИТЕЛЬНО лучше. Ну то такое... Если у вас с памятью нет проблем то и не трогайте. А может на Z690 Tomahawk такой проблемы и вовсе нету. Про сопротивления тут писал вроде - https://3ddd.ru/forum/thread/show/moi_pk_i9_13900kf_obzor/3#post1713229 (еще раз, это все есть смысл крутить если есть траблы с памятью или хочется ее погнать).
| 27.04.2023 |
Актуальные конфигурации компьютеров
AVDaur, ну если хотите сделать лучше. То есть еще куда )) Конечно если вас не устраивают температуры и не лень разбираться во всем этом. Но да, при таких раскладах можно уронить температуру самого горячего ядра до 80. Не пиковую но среднюю.
Можете попробовать (картинка в конце сообщения) :
https://3ddd.ru/forum/thread/show/moi_pk_i9_13900kf_obzor/2#post1713107
Если вдруг у вас VF Point не пойдет ниже -0.08V например, то придется тогда искать виновника среди P-Ядер.
Рамку на сокет ставили ?
При определенных раскладах тоже снижает температуру...
| 27.04.2023 |
Актуальные конфигурации компьютеров
Цитата Rebate:
Хм... из-за мировой тенденции 13900K/7950X и проекции в будущее, стоит всем повышать квалификацию железников.
Это да. У нас в студии половина людей ни разу не слышали про HWInfo64, и как там эти ваши температуры смотреть. Не говоря уж про андервольт, бивесы там какие то и вот это вот все... Зато вот время рендера какое должно быть и сайнбенч знают все ))
Вот купил человек себе 2990WX, спрашиваю его все ли норм по температурам, он говорит - ну руку приложил к корпусу вроде норм. Ну... Значит норм.
| 27.04.2023 |
Актуальные конфигурации компьютеров
На скриншотах я не вижу какой VCore, VID и Потребление в нагрузке. Потому не могу оценивать насколько там все нормально. Тут много людей нормально не могут проц настроить. Если у него 220вт в CBR23, 39.5К баллов и 88градусов - Окей. Это ненормально. Ну а если условно там ~280вт ну так значит дело не в корпусе а в том что андервольт неполноценный. Мои результаты по VID/VCore, AC/DC, VFPoint, Потреблению есть на картинках, если что.
И еще я может с просони в глаза долблюсь.
Но какой там корпус и охлад вроде как неизвестно...
Может там Андервольт адекватный но стоит Dark Rock Pro 4 и глухой гроб на корпусе
| 27.04.2023 |
Актуальные конфигурации компьютеров
Rebate
Первые два слова моего сообщения. Я писал за себя и за свой случай.
Цитата Earanak:
Для меня
Думаете корпус тут сильно прешает что то ?
| 27.04.2023 |
Актуальные конфигурации компьютеров
Цитата AVDaur:
Рекомендуете не поднимать температуру выше 80?
Никто ничего не рекомендует по этому поводу. Есть процы которые умирают от 75 градусов, у которых троттлинг на 67 (FX-8350), а есть процы которые годами работают на 100. Архитектурно 12900KS и 13900K очень похожи. Что то я вообще ни разу нигде не слышал что бы 12900K/KS помирали от троттлинга. То же самое относиться например и к чипам памяти, GDDR6X начинает троттлить после 110 градусов. Ну так вот, по итогам трех лет судя по всему что говорят сервис центры это одни из самых надежных чипов. А это еще и на бум майнинга выпало все (Эфир греет именно эти чипы). Так что в электронике - нельзя однозначно говорить что много что мало. Для каждого проца есть свои разумные пределы. А все эти андервольты и снижения температур - исключительно для душевного спокойствия.
| 27.04.2023 |
Актуальные конфигурации компьютеров
Для меня хорошая температура 13900K после Андервольта это какая то такая CBR23 при 40к :https://3ddd.ru/forum/thread/show/moi_pk_i9_13900kf_obzor/2#post1713107
Когда самое горячее ядро в среднем 77-78 градусов держит, даже спустя час цикличных прогонов Сайнбенча. В Короне и того меньше, там и до 75 это ядро не доползает. 88 Градусов это какой то странный андервольт как по мне...
По поводу поядерного теста на выявление неудачных ядер и выборочного занижения частоты им при андервольте - пишу регулярно. Повторяться не буду. А то до сих пор попадаются люди которые Оффсет крутанули на -0.04V и ноют что у них крашит рендер. Ну так блин, че теперь - ручки сложить и все. Посидеть потестить все П-Ядра по очереди, найти виновника нестабильности и сделать так что андервольт дальше пошел... Я уже победил несколько таких случаев.
| 27.04.2023 |
Ну все не так уж и плохо как могло бы быть.
Что можно попробовать, на мой взгляд :
tRDRDSCL / tWRWRSCL вместо 5 / 5 попробовать 4 / 4
По формуле tFAW, ожидаемо - каша.
Я бы попробовал что то легкое :
tRRDS 6 / tRRDL 6 / tFAW 24 / tWR 16
Ну еще tRC высоковат :
tRP + tRAS + 0-4 = tRC
Получается я бы tRC попробовал бы 18+38+4 = 60 вместо 75.
DRAM вольтаж я бы чутка накинул с запасом, например вместо 1.35V поставил бы 1.36-1.37V.
Ну это так. Чисто на быструю руку подкрутить и без жести.
Разумеется комп может не включиться, если сразу все вбить вместе то не сразу и поймете что не дает запуск. Так что я бы по очереди вбивал бы группами (сначала DRAM вольтаж, потом tRDRDSCL + tWRWRSCL, потом tFAW формулу, tWR можно отдельно попробовать, потом в конце tRC). Чуть что прост сбросите биос CMOS перемычкой (ну или после 5 неудачных попыток запуска он сам сбросит). Но даже если все сработает (что в общем то неудивительно будет, так как значения легкие) то все равно надо будет прогнать на ошибки TM5 + 1usmus_v3 какой нить. Займет это часа полтора. Если ошибок не будет и все значения подойдут, повторить Аида тест, должно стать лучше. Так бы и оставил.
Можно конечно еще начать tRFC по таблице спускать до 290-300ns, ну это уже совсем крохи выдавливать - https://i.imgur.com/XkayTae.png думаю ниже 310ns не пойдет. То есть при 3200Mhz и 310ns это получается tRFC - 496 вместо 560 нынешних. К тому же надо понимать что щупая порог tRFC материнка влетает в самый жесткий ступор из всех возможных когда вы нащупали порог стабильности. Порой настолько что комп может не восстановиться и после 5 неудачных попыток запуска, так что при подборе tRFC в 99% случаев придется либо батарейку выдергивать с платы либо CMOS перемычку монеткой-отверткой тыкать. В общем то ничего необычного при настройке памяти, дело обыденное
Цитата Sedo1:
биос 21го года
За редкими исключениями чем свежее биос тем лучше плата понимает как тренить тайминги в Авторежиме. Т.е в большинстве случаев комп получше подкручивает память с новыми биосами... Но, изредка бывает и наоборот ))
Цитата Sedo1:
на скринах цпуЗ, где ДЖИДЕК
Ну так и что вы поделаете с этим. Старые плашки прост LowBin под 2133 JEDEC, а новые под 2666 JEDEC. Т.е 16гб плашки более старые и с более унылым бином. Че поделать тут... У вас и так неплохое сочетание что бы они жили вместе. На вашем месте я был бы доволен ))
| 27.04.2023 |
Смотрите через ZenTimings, там все будет показано. https://zentimings.protonrom.com/
Вы вообще смотрите в разделе SPD, и непонятно что вас смущает.
Вроде все сходится. Двуранги на Хьюниксах и с схожими XMP, жаль что с разными JEDEC-ами, но в теории все ок должно быть. Главное что бы tRFC плата не задирала выше 350ns, и tFAW формула адекватная была. В общем то прост можете прогнать AIDA64 Cache Mem Benchmark и там глянуть чё выдает память. Если чёт типа 45-47гб ПСП и 75ns Latency то норм как для ненастроенного XMP. Если хуже, то уже выборочно смотреть по вторичкам где косяк. Но нынче свежие биосы вроде как не лажают жёстко с 3200-ХМП.
| 27.04.2023 |
Quasar, смысл исключительно в повышении FPS в самом редакторе. Проект пилиться месяца 3-4, и с учетом нынешних масштабных переделок я еще пару месяцев буду в нем работать. У меня там разные рестораны, тридешные интерьеры, куча наполнения всякого тип такого - https://youtu.be/u4lwnsT3Zgs куча раскопированных МАФ-ов тяжеловесных не рассчитанных на релтайм графику с кучей MTLID что бьет по Дроуколлам... И еще почти все здания нарезанные на отдельные этажи под Lumen, они соответственно тоже в ISM иерархиях.
Ну вот когда я объединяю все объекты с ресторана в единую ISM иерархию я тупо получаю прибавку к FPS-у. С плагином просто оч удобно работать с этими иерархиями. Да может на рантайм это практически никак не повлияет (из за автоинстансинга). Но тут вопрос тупо комфорта работы в самом редакторе. Когда во всей сцене все в иерархиях то условно у меня 60FPS, когда все обычными Static Mesh-ами то скачет от 30 до 45FPS. Да, не критично, всегда можно снизить настройки Скалабилити, но зачем. Когда можно просто сделать пару кликов и за секунду получить прибавку на ровном месте за счет Батча. Почему нет ? Это ничего не ломает, работу не осложняет. Кайф же. Ну а 15$ не жалко на это дело ))
P.S. Не ну вообще... Если взять RTX 4090, тогда в общем то плевать на эти Дроуколлы. Видяха тупо за счет своей мощи слопает все это и не подавиться. Но я пока жду чего то поинтереснее чем 4090... Режим ждуна активирован ) nVidia 6000 Ada 48гб выглядит интересно, но ценник шокирует (не путать с А6000).
P.P.S. Еще вот взяли мне Flatiron, прикольная штука. То шо надо что бы бейкать кучу декора, интерьеры тридешные. Правда там куча нюансов и надо подкручивать. Тем не менее - https://youtu.be/8K91Tu-czhg По сути прост берет 100500 объектов с кучей материалов и печет все в один шейдер и один единый меш (ну или разные меши). Чем то похоже на работу HLOD. Хотя HLOD делает Атласы а не авторазвертку всего. Ну то такое.
| 26.04.2023 |
Тут по хорошему бы определиться про что речь то идет. Интерьеры, Экстерьеры (насколько масштабные). Рендер через Сиквенсер или Реалтайм/VR. Или вас вообще интересуют Блюпринты, Создание механик, Программирование, Анимация. Или вы вообще под планшеты и мобильные телефоны хотите приложения делать. Разные же степени в плане требований к железу.
Вообще в движке есть тьма инструментов на тему оптимизации, анализа ассетов, анализа статистики сцены, анализа времени кадра GPU/CPU, разных куллинг режимов пачка. Так же Unreal оч жестко все кэширует, стримит, активно использует Shared GPU Memory. Ну еще HLOD-ы, DataLayer у ВорлдПартишен, Стриминг-Вольюмы, Кулллинг-Вольюмы, ISM/HISM иерархии, бейк материалов, использование отдельных каналов текстур под разные нужды шейдеров что бы экономить память. Все это позволяет собирать огромные сцены, даже с неоптимизированных ассетов под реалтайм графику. Но да... По итогу на больших проектах все это жрет прилично памяти.
Анриал заполняет сначала всю набортную память видеокарты. Потом он резервирует 50% места от ОЗУ под нужды Shared GPU Memory. И активно всякое выгружает в ОЗУ и держит там на подхвате. Тут как бы ты чуть не то крутанешь в настройках и он запросто слопает и 150гб памяти в большой сцене экстерьера - https://i.imgur.com/GOuW7iB.jpg Ну если крутануть как нужно, то как выше и сказали в общем то и на 3060 12гб можно собирать огромные сцены, правда памяти оперативной все равно надо будет прилично, явно 32гб будет маловато. Особенно если захотите рендрить ПасТрейсером экстерьеры.
Еще постоянно при разных телодвижениях с активацией плагинов или открытии новых проектов или закидывании нового контента он постоянно что-то компилирует на проце. Т.е прям сильно пренебрегать процом я все же не стал бы. А то тут порой сидишь с 13900KF и он фигачит на 100% пока накомпилирует 7-9 тысяч шейдеров, оч бесит ))
Под супер огромные жилые комплексы, набитые битком мафов, тьмой тяжелых текстурок, неоптимизированных растений, кучи тяжеловесных EXR-32Bit текстур под Параллаксы - я бы сказал что тут надо 24гб Видеопамяти, 128гб ОЗУ, и проц который в многопотоке выдаст условные 30к CBR23 Баллов. Ну и GPU мощностью на вскидку как десктопная 3070 какая нить. И шустрый M.2 диск под Derived-кэши и проект. Это мой личный идеал с которым я бы работал спокойно.
Если речь шла бы про рендер Интерьеров через Сиквенсер, то думаю тут хватило бы мне 12гб Видеопамяти, 64гб ОЗУ, проц в 20к CBR23 Баллов. GPU уровня 3060. Шустрый SSD.
Если прям вот реалтайма хочется и покрасивше и пожирнее и прям вот High Quality отражений нафигачить и что бы все считалось Люменом а не запеченным светом в какой нить большой сцене экстерьера - то в таком случае да... Придется раскошелиться на одну из старших карт в ноутбуках. Думаю то же самое касается и VR. Ну и не забывать про Стриминг-Вольюмы. Все можно потоково загружать-выгружать чуть что в реалтайме.
Ну и на счет оперативки. Я не уверен. Не тестил. Но логика подсказывает что по хорошему что бы и память выдавала хотя бы 40гб пропускной способности. Но это не точно. Хотя наверное сейчас современные ноуты с DDR5 выдают и побольше...
| 26.04.2023 |
Удобный плагинчик открыл для себя :
https://www.unrealengine.com/marketplace/en-US/product/instance-tool
То шо надо для огромных сцен и ISM/HISM иерархий.
А то я прибывал в шоке от того что такого функционала изначально не заложено в редактор...
https://youtu.be/XEP_NiXIgTw
| 26.04.2023 |