Сообщения | Дата |
---|
Актуальные конфигурации компьютеров
garik-3d, если собирать микро-корпус типа mini-ITX или энергоэффективную сборку под 64гб ОЗУ я возможно рассматривал бы 7950Х. Во всех остальных случаях предпочел бы 13900KF/K.
У 7950Х и однопоток и многопоток слабее. Контроллер памяти очень слабый и медленный и скудный на настройки (хуже даже чем у AM4 платформы). https://3dnews.ru/assets/external/illustrations/2022/12/02/1078275/mem-1.png То есть у 7950Х на вскидку (грубо говоря) DDR5 6000Mhz работает приблизительно на уровне Интеловских DDR5 4800Mhz чисто в плане скорости чтения из памяти. Но и в плане задержек при обращении к памяти AMD немного проигрывает. А так же высшая планка разгона памяти у AMD это около 6400Mhz у Интела это около 7600-8000Mhz, правда это скорее речь про Dual-Dimm платы рассчитанные под такой разгон памяти. Для обычных смертных это все же AMD 6000Mhz, Intel 7200Mhz.
Так как тут достаточно много людей кто целит на 128гб, то есть 4х32GB двуранговой памяти, то надо учитывать что у DDR5 очень серьезные проблемы с четырьмя двурангами. Прям катастрофа. Почитайте форум там кошмар. То есть вы берете такой крутую DDR5, на Hynix A-Die чипах второго поколения, с XMP 6000Mhz/CL30, ну просто пушка, да ? А она выше 4400Mhz не заводиться в четыре плашки И тут начинаются мучения. Страдания и боль. Начинается подкрутка вольтажей, сопротивлений, кастомный ребаланс вторичек и третьичек. И тут оказывается что у AMD ничерта не настраивается толком, даже нужные параметры типа GDM Режима или CR1-2. Т.е на АМД с 128гб DDR5 вы еще и скованные больше чем на Интеле. Но проблемы у обеих платформ с 128гб DDR5, просто в случае с Интелом больше пространства для маневра что бы оживить 128гб DDR5 и хотя бы доползти до 5200Mhz. И тут... Мы вспоминаем что у 13900K/KF/KS контроллер памяти поддерживает так же и DDR4. И тут оказывается все не так уж и плохо с 128гб DDR4. Если берете хорошую память и прямыми руками настраиваете, пожалуйста можно уронить Latency ниже 55ns и без дикого напряжения на памяти - https://i.imgur.com/G3k1FDl.jpg (мои настройки), старые мои под CR1 3600 и более жесткие третьички - https://i.imgur.com/mjgqwVS.jpg Ну кайф же... DDR5 в 128гб даже и близко к таким результатам по задержкам не подбирается. Но так ли DDR5 во всем ужасна ? Ну нет конечно. Есть же софт типа Архиваторов, Видеоредакторов, (может быть некоторых виртуальных машин?) или каких нить эмуляторов типа RPCS3/CEMU где DDR5 может выстрелить за счет высокой ПСП. Но в 99% прог которые юзают обыкновенные визеры тут - все что выше 50гб ПСП дает скудный и бестолковый прирост. Так что будь у вас там условно 100гб ПСП или 50 - да плевать. А вот будь у вас 55-60ns Latency или 75-80ns Latency, это чуть большему кругу софта поможет жить полегче.
Если же рассматривать расклад когда у вас крутая DDR5, годная Dual-Dimm плата, руки прямые, и самое важное объем памяти не больше 2х16гб - в таком случае DDR5 уничтожает в пух и прах по всем пунктам любую DDR4. В общем то может и 2х32GB можно годно у DDR5 погнать. Но я говорю за 128гб, потому только DDR4 и рассматриваю под 13900K/KF.
Что же до недостатков. Тут все на поверхности. У LGA1700 гнет ILM механизм процы, нужно рамку брать. При этом что бы заандервольтить 13900K/KF до 220-230вт надо все это делать по уму а не тяп ляп одной крутилкой. У АМД проблема в толщине IHS крышки в 3.4мм, и высокой плотности нагрева. Потому при 160вт условный 7950Х греется как 13900K/KF при 230вт, на вскидку. Потому что ему сложно отвести столько тепла, а для 13900K это не проблема. Но да, по итогу все равно 7950Х более энергоэффективен, т.е с розетки тянет меньше. Ну и еще кому важна интегрированная графика в проц. У AMD она достаточно каличная (если не говорить про X3D модели). У Интела она ощутимо шустрее. Но мне она нафиг не нужна была потому брал 13900KF.
Я с Октября сижу с 13900KF (нам привезли и Z790 и 13900KF в первый день релиза практически). Полет кайф. Никаких траблов, статтеров. Зависаний, вылетов. Синих экранов и тд. И рендрил на Короне и на Вирее и компилил сотни тысяч шейдеров в UE5. И месяца три наработал в Анриале. Все кайф. Процом и платформой оч доволен. После 5900Х/5950X моих приятнее стало работать - https://docs.google.com/spreadsheets/d/1G_vETATNz0njQy02t-OAP79seQhPJ94FYFYVy2jcAgo/edit#gid=0 тестил это все дело что бы точные цифры увидеть.
По поводу андервольта 13900KF/K в сотый раз говорю. Если делать это дубовым образом через Адаптивный оффсет вы можете запросто упереться в качество 1-2-3 ядер которые вам могут не позволить сделать это все так просто как у меня получилось. Т.е условно (цифры с потолка) если для 8 ядер по заводу идет 1.3V под 5.5Ггц, а при 1.2V проц работает нестабильно, это не значит что это происходит из за всех 8 ядер... Скорее всего 1-2-3 ядра менее удачные, у которых больше Volt Leak, и их надо выборочно выявить, занизить им на 100-150мгц частоту, и в таком случае Андервольт может пойти даже ниже этих условных 1.2V. Подробнее за сам Андервольт я тут писал - https://3ddd.ru/forum/thread/show/moi_pk_i9_13900kf_obzor/2#post1713107
В общем как то так... Если же ВООБЩЕ не настраивать ни 13900K/KF ни 7950X то я вообще эти процы не брал бы. Взял бы себе B550+DDR4+5950Х и не парился бы. Либо терпел бы до третьего поколения DDR5, 24-48гб плашек, до выхода Zen5 и Meteor Lake на новом сокете. То как нынешнее железо работает с нынешней DDR5 при больших объемах на мейнстрим десктопе - это просто стыд. Ну а 13900KF + DDR4 - только тем брать кто не боится воды, ковыряний в Биосе, установки ILM Рамки, приличного потребления во время рендера на проце и перехода на Win11, так как старый неоптимизированный софт на Win10 не понимает гетерогенную архитектуру у 13900KF. Ну например если Корона до 9 версии то она не будет рендрить всеми ядрами на Win10, если 9 версия то будет. На Win11 новый планировщик, он поддерживает и старые версии Короны. Нисколько не удивлюсь если есть какой то древний софт или не особо популярный или особо специфический который и на Win11 может некорректно работать с 13900K/KF...
| 25.04.2023 |
Актуальные конфигурации компьютеров
garik-3d, я не шарю за лучшие варианты андервольта у 7950Х. Только за 13900K/KF/KS.
Так то я знаю что есть лимит через PPT, Лимит по Температуре, CO, Hydra. Прост не шарю что эффективнее и как лучше делать. Я прост смотрю иногда ужимом до 160вт роняют CBR23 ниже 35к баллов, а кто-то удерживает и в 37к, у кого то в стоке меньше 37к, черт его знает. Не вникал какой из вариантов эффективнее.
Конечно лимит PPT или Температуры - это самый легкий и простой вариант. К тому же который вроде как не требует тестить стабильность. Так как все алгоритмы частоты и напруги подстраиваются сами под лимиты и не доводят вроде как до нестабильности проц.
Ну а Hydra - наверное самый душный вариант андервольта.
| 25.04.2023 |
3DVas
У Люмена есть два режима освещения и отражений. Погуглите про Surface Cache. Там прям в документации есть инфа про это. Конечно у видях с хардверной поддержкой рейтрейсинга Люмен и быстрее и лучше работает. В настройках проекта или в ПостПроцесс вольюме можно переключить Люмен в упрощённый вариант и глянуть как он будет выглядеть на старых видяхах.
[[link:image_uri:654491,]][[image:654491,sky_image_forum]][[/link]]
https://docs.unrealengine.com/5.1/en-US/lumen-technical-details-in-unreal-engine/
"Lumen uses Software Ray Tracing through Signed Distance Fields by default, but can achieve higher quality on supporting video cards when Hardware Ray Tracing is enabled."
И вообще под люмен надо правильно нарезать все под Card-ы. И даже Пивоты правильно поворачивать. Так как Card-ы генеряться с учетом поворота пивота, внезапно. Если повернуть пивот по длинной стороне объекта то соответственно и Card-ы создадутся оптимальной формы.
Короче так делать не стоит :
[[link:image_uri:654485,]][[image:654485,sky_image_forum]][[/link]]
| 25.04.2023 |
Актуальные конфигурации компьютеров
svyatoslav_195, вы наверное не в курсе. Но они спроектированы так что сначала достигают температурного лимита и затем подстраивают частоту и напряжение. На топовом охладе и годной плате он потребляет 230вт при идеальных раскладах. Заставить его при этом держать температуру ниже 95 можно разве что отшлифовав крышку или используя чиллер или холодную воду. С большинством водянок проц все равно будет в 95 долбиться без настройки.
https://community.amd.com/t5/gaming/ryzen-7000-series-processors-let-s-talk-about-power-temperature/ba-p/554629
https://tinyurl.com/mrrd4tpw
Андервольт не сильно режет производительность. Если делать все правильно и в меру.
Условно если у вас при 230вт скажем 38к баллов в CineBench R23, то при 160вт будет 36к.
| 25.04.2023 |
Актуальные конфигурации компьютеров
Можно попробовать задушить проц до 160вт PPT лимитом и NH-D15 может справиться.
| 25.04.2023 |
aapostol, лично мне плевать преувеличена ситуация или нет.
Я бы эту помойку и без прогаров стороной обходил бы ))
Вообще сколько уже было паники всякой на тему разного железа. POSCAPS, SPCAPS, MLCC у 3000 Серии Видях. Отмирают Hynix у 3060Ti, Отмирающий ранний Микрон на 2080Ti. Все эти прогары с 12VHPWR. Сгорающие HW-E/BW-E процы из за FIVR/OC-Socket, нытье на PMIC чипы у первых партий DDR5. Никто никогда не узнает точной статистики.
Цитата aapostol:
Материнки практически все Асус
Именно поэтому MSI выпускает Биосы на 14 плат с лимитом вольтажа
AMD пока молчат. Может что то и скажут потом, как вкурят в чем дело...
Дербауэр выпустил видос на эту тему пару часов назад - https://youtu.be/arDqhxM8Wog
Говорит что и с обычным 7700Х это случилось на плате Асрок а с 7900Х на плате от Гиги. Хм... Вспомнил что у JayZTwoCent тоже сдох 7950Х... Как то и забыл про это. И интересно что у Джея именно отвал IMC по всей видимости. Забавное совпадение. Ведь если проблема в SoC вольтаже, со слов ASUS, то почему MSI лимитят VCore вольтаж Такое впечатление что никто достоверно не знает в чем дело ))
О и билдзоид только что вывалил видос по этой теме - https://youtu.be/DP-PqRduunw в общем то ничего нового не сказал он... Прост поболтал на эту тему. Meh...
Вот и ответ от AMD по ситуации с прогарами 7000 Райзенов :
https://videocardz.com/newz/amd-identifies-the-root-cause-of-ryzen-7000-cpus-burnout-issue-new-agesa-released
Вот и Gamers Nexus подъехал с разбором этой траблы :
| 25.04.2023 |
Цитата aapostol:
Да о быстро крашащихся с концами 7950X3D ).
Это касается вообще всей линейки X3D процов и об этом пишет большинство хардверных-ресурсов и техноблогеров. Многие сервис центры уже по несколько таких экземпляров получали. Тот же Викон, иногда постит аналогичные случаи, да и видосов пару уже есть на эту тему. На реддите есть сообщения с фотками выгоревших сокетов. Прогар случается примерно в одной и той же области. Будь то 7800X3D или 7950X3D, будь там разгон, сток или андервольт, не важно. Некоторые вендоры уже выпускают биосы с лимитом потребления для X3D моделей.
https://www.igorslab.de/en/pin-analysis-of-the-destroyed-ryzen-7800x3d-all-burned-pins-supply-the-vddcr-cpu-core-power-supply/
Ну а на счет быстро или не быстро, тут уж непонятно. У кого то в первые 3 часа пыхает проц а кто то с февраля месяца держится еще Причем судя по отзывам материнские платы иногда после этого не подлежат возврату по гарантии. Да и ремонту не все случаи поддаются (зависит от прогара, иногда нельзя поменять сокет, иногда можно). Ну и достать сейчас АМ5 сокет новый тоже дело такое... Сиди месяц жди пока доедет с Алика.
| 25.04.2023 |
Актуальные конфигурации компьютеров
Цитата Rebate:
А как он "снизит шум" их?
Можно сделать что бы они засыпали быстро и софт не обращался к ним. А то бывают всякие антивирусы и оптимизаторы которым лишь бы что то посканировать на спящем HDD ))
| 24.04.2023 |
Актуальные конфигурации компьютеров
Снова случайно минус поставил перематывая тему на телефоне. И надо же, второй раз по одному и тому же стреляю случайно Вот бы добавили на форуме возможность снимать поставленный минус... А то особо чувствительные и нежные начинают бухтеть сразу А когда такое два раза повторилось и вовсе могут нафантазировать что я их личный хейтер
В виде компенсации поставлю плюс где то на другом сообщении...
| 23.04.2023 |
Chaos Vantage Realtime Software
The-AlexRF, может оно юзает какой нить Shared Memory GPU как Анриал (это как правило 50% от объема установленной Оперативки в компе). Или кэширует ОЗУ в Своп (виртуальную память). Это лишь предположение. Например Анриал пока не сожрет всю Shared Memory и выделенную память - продолжает себе рендрить. Даже если сожрет 184гб в общей сложности (24гб VRAM, 64GB Shared, 64GB ОЗУ, 32GB Свопа).
https://i.imgur.com/GOuW7iB.jpg
Если на 4гб больше то все, уже не может ))
https://i.imgur.com/Ua1VD9x.jpg
Может он тут загружает только важные данные в набортную видеопамять...
А может в настройках что то есть что увеличивает этот объем.
| 22.04.2023 |
Chaos Vantage Realtime Software
The-AlexRF, выглядит неплохо. Как по мне даже чуть лучше результат чем Lumen в UE выходит. Правда... Это интерьеры и относительно простой сценарий. Интересно что будет с большой сценой экстерьера, типа жилого комплекса. Где 50-60 уникальных растений в пару тысяч экземпляров (кусты/многолетники/травка), куча Мафов, разные дворы, машинка и людишки. Или когда надо накрутить кучу эффектов линз или анимировать что то, показать динамические эффекты типа дождя, переключалки сезонов (весна-зима-осень)... Интересно насколько этот Вантаж справиться с этим всем. Или он такой камерный чисто для статичных картинок мелких интерьеров ?
P.S. Да, у меня профдеформации и все что меньше 1х1км у меня вызывает вопросы глупые...
| 22.04.2023 |
Назрел вопрос и проблема откуда я ее не ждал... По поводу модульной подгрузки сцены под оффлайн рендер (под Сиквенсер). Условно, распилить сцену экстерьера на разные уровни, лендскейп/дворы отдельные/береговая линия/интерьеры ресторанов и ритейла/игровые и спорт-площадки, тяжелые здания и тд...
Окей. Вроде казалось бы все логично. Распиливаю все на саб-левелы. И потом в Сиквенсере использую - "Level Visibility Track". Казалось бы. Все просто и понятно и оно работает как нужно. Только вот оказалось, что он хоть и скрывает уровни но НЕ выгружает их из памяти. В чем тогда смысл этой штуки... Мне че руками удалять уровни под каждый сегмент сиквенсера и перезапускать редактор ?
https://docs.unrealengine.com/5.1/en-US/cinematic-level-visibility-track-in-unreal-engine/
Цитата Epic Help:
One thing to keep in mind with using the Level Visibility Track is that while you can toggle whether or not a level and its assets are hidden or visible, it does not unload or load levels as each level still sits in memory and is either rendered or not rendered based on the setting you choose.
Можно ли решить этот вопрос через Data Layers + World Partition ? Прокатит ли ? Это сработает с точки зрения экономии памяти, или это решение только для Рантайма (готовой, запущенной игры) ?
https://docs.unrealengine.com/5.1/en-US/loading-and-unloading-levels-using-blueprints-in-unreal-engine/
UPD - Разобрался. Да. Все так и вышло как я и думал. Data Layers + World Partition - умеют выгружать и загружать данные. Душно, гемморно. Но работает. Повезло что в Блюпринты не пришлось лезть. У Сиквенсера оказывается есть Нативная поддержка Data Layer-ов — https://i.imgur.com/6Wwlsvl.png Классический режим Уровней не умеет выгружать из памяти скрытые на рендере объекты. Надо будет потом делать отступы под подгрузки, вармапы под камера-каты настраивать. Но в особо критических ситуациях и больших сценах - оно очень поможет. Еще и поможет в дальнейшем делать интерактивные сцены с динамической подгрузкой этого дела... Еще прикольно что Data Layers + World Partition меняет логику загрузки уровня. Можно выбирать последовательность загрузки областей/слоев/текстур-мешей, эффектов. Но это наверное уже не под рендер зайдет а под приложения...
| 21.04.2023 |
Актуальные конфигурации компьютеров
Цитата a.timofeev:
Цитата Earanak:
убогий 3Ds Max будет летать
не будет. В крайнем случае, доски выпустят апдейт и все будет тупить и глючить по-старому. Они принципиально не переписывают модули, к которым есть стабильные претензии.
При переходе с 5000 Райзена на 13000 Интел он уже начал летать у меня, по сравнению с тем что было... Это прям таки - небо и земля в плане комфорта. Отзывчивости инструментов. Работы вьюпорта. Будто пересел на другой 3D-Пакет, хотя 3Ds Max как был 2023.3 так и остался ))
https://docs.google.com/spreadsheets/d/1G_vETATNz0njQy02t-OAP79seQhPJ94FYFYVy2jcAgo/
2024 стал сильно хуже работать ? Ну тогда - да
Я прост при переходе с 2020 на 2023 вообще не почувствовал ничего такого.
(До смены железа переходил)
| 20.04.2023 |
Актуальные конфигурации компьютеров
Цитата AVDaur:
ДА! именно слейт матэдитор, первый меня толкнул на мысли о более высоких частотах. В максе любое окошко открывается дольше чем хотелось бы. Раньше было лучше. Либо windows 11 виноват, либо новые версии макса.
На все это влияет комплексно много вещей. В том числе и сама сцена. ПСП и Задержки у ОЗУ. Сам проц (архитектура) и его частота. Система в меньшей степени влияет. Если вы возьмете обрыганскую DDR5 в 128гб то не факт что она поедет выше чем на 4800Mhz/CL30, это уровень условной DDR4 3200/CL16, по задержкам. Это тоже прилично скажется. Так же многое зависит от того как вы настроите проц. Ведь условный 5950Х может настолько ущербно работать что будет на уровне 3950Х (на форуме есть примеры такой работы). Так и 13900K может так калично работать что "Мама, не горюй". Ну а 7950X в принципе как его не настрой работает ущербно
IMHO :
5950X норм оптимальный вариант. Для всех "нормисов" и адекватов.
7950X для особых людей. Которые не понимают че покупают.
13900K для людей у которых хотя бы трехзначное IQ. Кто не боится настраивать.
7950X3D вообще для мутантов...
Тут как бы все просто у меня...
Если кто-то ни в зуб ногой в компах - советую 5950X.
Если кому то хочу сделать больно - советую 7950X.
Если кто вдруг может разобраться в трех кнопках - 13900K/KF.
Для тех кто любит экзотику с прогарами, фризами и ГеймБаром - 7950X3D
P.S. Кстати есть мнение такое. Субъективное, что после выхода Meteor Lake и Zen5 - все это уже не будет важно что выбирать. Оно все будет по идее настолько избыточным что убогий 3Ds Max будет летать даже на самом дешевом ведре на этой архитектуре. Но это не точно )))
| 20.04.2023 |
Актуальные конфигурации компьютеров
Цитата Rebate:
немного ускорится.
Есть вещи которые ускоряться не немного а на порядок или даже в разы. Например недавно записывал видос для "kingstones" с сравнением вьюпорта в Максе на 1950Х и 13900KF. Там разница вышла более чем в два раза - https://www.youtube.com/watch?v=Kv6SsPsj1yA CEMU, RPCS3, специфичный софт какой то связанный с Компиляцией. Например Unreal Engine, всякие там симуляции типа Marverlous Designer, многопоточный софтверный софт типа ZBrush, да блин некоторые штуки могут ускориться более чем в два раза. Просто не стоит забывать что 1950Х это очень тугой и медленный проц во всем что не касается рендера. Так что говорить "немного", думаю все же не стоит. Когда у тебя Слейт МатЭдитор открывается за 0.7-1 секунду или за 3 секунды это не "немного", как по мне. Как и очень много других 'рабочих штук'...
Главное тут конечно если человек берет 128гб памяти не быть лохом и не брать DDR5 ))
| 20.04.2023 |
Цитата rainmangrizzli:
Там 16 биос вышел, не смотрели?
Мне не до этого, не смотрел. Не интересно. У меня такой сейчас завал по работе что я наверное еще год в биос заходить не буду.
Цитата rainmangrizzli:
Мне не повезло, поэтому никаких там -20 градусов и рядом нет.
Вы делали по описанной мною методе с AC/DC ? Вы все правильно сделали, свели VCore и VID, не ошиблись с LLC, выставили максимум частоту питальника, нигде не ошиблись ? Если 100% все правильно, то закономерный вопрос - Вы тестировали поядерно проц на выявление каличного ядра ? Вы ведь понимаете что нестабильность вызывают самые неудачные ядра с высокими утечками тока, их обычно не больше трех, а бывает всего одно которое по качеству сильно хуже остальных.
Я уже больше шести 13900K/KF андервольтил знакомым, коллегам. Пару случаев было когда меньше чем -0.04V не шло, но после поядерного теста выявлялось 1-2 каличных ядра, им на 100-200мгц снижалась частота и андервольт шел до -0.12-0.13 (не через Адаптивный оффсет) а через AC/DC. Худший случай когда пришлось проц душить до 40к баллов в Сайнбенче, зато 215вт и 75 градусов в рендере при -0.15V. Точно не помню, там по моему было 5.4Ггц (одно 5.3Ггц), E-Ядра 4.3Ггц. Тут даже больше 20 градусов вышло отыграть )) Ну и за счет настройки Turbo Ratio, два самых удачных ядра до 5.8ггц бустит. Кстати заметил что при настройке Turbo Ratio, проц чаще бустит ядра до 5.8 при легких нагрузках чем в Авто режиме. Мелочь, а приятно.
| 18.04.2023 |
Цитата mendygaliev:
видимо не очень?
Как я говорил многое зависит от модели.
Условно если там топ модель с двумя пропеллерами типа Strix, то это многовато.
Если это базовая или средняя модель на одну вертушку, то это норм.
Но вообще как по мне - терпимо и так и сяк.
Фурмарк сильнее греет видяху чем 99% игр или софта обыденного.
Я не говорю конечно про всякие GPU-Рендеры и бенчмарки.
| 17.04.2023 |
Цитата kingstones:
Пока не вижу за что его брать, так же как и 13900k как по мне, не очень удачные серии не нравится мне их температуры. Лучше пропустить их и подождать августа.
А я очень доволен выбором в пользу 13900К. Наверное впервые в жизни доволен в полной мере системой. И особенно приростом относительно 5000 Райзенов в плане отзывчивости в том же 3DsMax-е - https://docs.google.com/spreadsheets/d/1G_vETATNz0njQy02t-OAP79seQhPJ94FYFYVy2jcAgo/
Наверное долго не буду его менять. Только видяху махну скорее всего. Ну и разгон памяти радует, поинтереснее чем у 5000 Райзенов - https://i.imgur.com/G3k1FDl.jpg
Но сложнее конечно врубится в нюансы, у Райзенов попроще все )
Ну а как сделать 13900KF на 20 градусов холоднее, без потери производительности я уже показывал - https://3ddd.ru/forum/thread/show/moi_pk_i9_13900kf_obzor/2#post1713107
Этот метод на порядок интереснее чем обычный адаптивный Оффсет. Работает стабильно, и рендрю и компилирую тысячи шейдеров в Анриале и игры играю.
Кстати и ценник глаз радует. Подумать только, 660$ у нас стоит флагманский проц который выдает 40500+ баллов в Сайнбенче 23. Как по мне - пушка )
| 17.04.2023 |
kingstones, об том что у 7950X нету поддержки DDR4.
А про соль на рану, я имею ввиду - то как 7950X работает с DDR5 это просто боль и уныние. С DDR4 ему было бы легче работать при 128гб, на более низких задержках (я про Latency а не про CL). Но увы... АМД решили не делать как Интел двойной контроллер памяти с DDR4/DDR5, а почему то сделали только DDR5. Так он у них еще и вышел просто отвратительным, скудным на настройки, скудным на разгон, так еще и результаты выдает потешные. Наличие поддержки DDR4 у 7950X пошло бы процу на пользу, даже если бы его никак не меняли и оставили от 5000 серии. Но увы...
| 17.04.2023 |
Цитата sten:
7950x @ 5.1 ddr4 128 4800
ах, не сыпьте соль на рану такими опечатками ))
Единственное что для меня могло бы оживить интерес к AM5 это DDR4, но - увы...
| 17.04.2023 |
mendygaliev, фурмарк греет GPU и Контроллер памяти. Но вот саму память заполняет слабенько. Я бы к проверке Фурмарком - добавил бы бесплатный Superposition на 2-3 цикла в нативном разрешении монитора на котором будете юзать видяху и с Extreme пресетом графики. Если что 4K и 8K Optimized пресеты легче чем просто Extreme.
Фоном во время тестов я бы запускал GPU-Z и после 2-3 прогонов Суперпозишена я бы смотрел на (Max/Avg) значения - HotSpot, Памяти, Нагрев GPU, % оборотов вертушек, PerfCap Reason (что бы ничего не троттлило).
https://benchmark.unigine.com/superposition
По грубым моим прикидкам у 1660S :
Память не должна греться выше 80с.
HotSpot дельта от температуры GPU не выше 17-20с. (т.е если GPU 60c то HotSpot должен быть меньше 80c). Чем меньше дельта тем лучше. Меньше 10с - идеально. 15с - нормально. 20с - плохо. Значит паста высохла или криво охлад лёг или случился Памп-Аут эффект (чип выдавил пасту наружу).
Сам нагрев GPU в зависимости от модели, но по хорошему не выше 80с.
Процент оборотов вертушек не выше 80%
PerCap Reason допускается только если срабатывает Power/Voltage Limit, если там на полоске будут проскакивать красные полосы с причиной - Троттлинг, значит что то в видяхе греется настолько что она замедляет себя что бы не подгореть.
Если прям паритесь на эту тему можете глянуть это видео :
https://youtu.be/LEE2w96c_pw
| 16.04.2023 |
Цитата Rebate:
RE 4 требует больше 12 Гб. Last жрет тоже 12 Гб.
Это не совсем так. Не требуют а заполняют, это ключевое уточнение. То что игра заполняет много памяти - не значит что требует. RE2/RE3/RE7/REVillage/RE4/Call of Duty последние частей 5-6 - используют ОЧЕНЬ жестко кэширование в видеопамяти. При определенных настройках графики и в определенном раскладе они могут и 16гб видеопамяти занимать, но выдавать при этом идентичный (схожий) FPS на 10гб видяхах (если допустим сравнивать 3090 и 3080). Ну и игры с мегатекстурой кармака (или аналогом) типа на Void/IDTech движке, тоже по разному реагируют на VRAM объем. Например в 2017 году все афигивали что Колда WWII жрала в 1080p больше 8гб видеопамяти. Но на 4гб видяхах норм работала при этом в 150 FPS
Увы. Узнать сколько именно нужно игре - сложно, без тестов. Ну а в Last of Us многое зависит от локации. Ведь игра достаточно камерная. Есть локации прям закрытые-закрытые и мелкие-мелкие. Типа в комнате Сары в начале игры будет 5гб, а где то на открытой местности будет занято и 15гб. И еще компрессия текстур, буфферизация у nVidia и AMD отличаются в некоторых проектах. Порой вплоть до разницы в 2гб. Т.е условно когда в одной и той же области nVidia жрет например 10гб а AMD 12гб (или наоборот). Кстати и ОЗУ в некоторых играх в зависимости от видяхи по разному игры жрут. Думаю это связано с стримингом текстур.
| 14.04.2023 |
До нас доехала тонна 4070 от разных вендеров. Если сравнивать самые дешевые и базовые модели у 4070 и 3080 разница выходит в 190$. Конечно через 3-4 месяца разница сократиться. Но пока что, считайте вы платите +190$ за -100вт, поддержку DLSS3, некоторых эксклюзивных для 4000 серии фичь. Вообще видяха конечно балдёжно выглядит, для тех кому не надо тонна памяти.
| 14.04.2023 |
Corona 9.1, V-Ray 6.00.20, Max 2023.3
| 13.04.2023 |
Kovu, ну да. Это 1 в 1 симптомы как при отключении vrlsupervisor.exe и vrol.exe из автозагрузки. Именно на ChaosScatterMax2023.dlt и CoronaMax2023.dlr происходит затуп если они не запущены. Проверьте в диспетчере задач они висят ? Должны.
[[image:651234,]]
Я вот их если вырубаю, у меня Макс вдвое дольше запускается потому что думает долго на ChaosScatterMax2023.dlt и CoronaMax2023.dlr...
| 13.04.2023 |
Цитата Kovu:
Вчера решил затестить 2023 макс, установил на чистую 11 винду. Кряк от m0nkrus. В начале вроде бы быстро макс запускался, а после установки короны и врея стал заметно дольше. Нагуглил, что у многих такая проблема и обычно валят на GrowFX, но у меня его нет. Вобщем у всех 23 макс дольше грузится, чем 22? Есть ли решение? )
Возможно это связано с автозапуском сервисов - vrlsupervisor.exe и vrol.exe
https://3ddd.ru/forum/thread/show/corona_9/8#post1698349
Можете зайти в папку с этими сервисами. Там есть Батник для их запуска принудительного. Попробуйте принудительно запустить. У меня после этого Макс стартует раза в два быстрее...
Батник тут лежит :
C:\Program Files\Chaos\VRLService\start.bat
А вообще эти vrlsupervisor.exe и vrol.exe должны быть в автозагрузке включены.
| 13.04.2023 |
freeezzzz, если вы говорите про обычный Adaptive Offset, это не самый эффективный метод по Андервольту. Хоть и самый простой. То как я показывал тут :
https://3ddd.ru/forum/thread/show/moi_pk_i9_13900kf_obzor/2#post1713107
Мне дало на порядок лучше результаты чем Adaptive Offset... Получается уже месяц сижу и играю и рендрю и компилирую и работаю в UE5 - полет нормальный )
Цитата freeezzzz:
Меня такие изменения уже порадовали. Если я верно понимаю, не энергопотребление вредит камню физически, а степень его нагрева.
Да все понемногу вредит. Но никто точно не сможет сказать насколько вредит и на какой дистанции и в какой мере это станет заметно. Так то есть железяки которые выше 100 градусов годами греются и им все норм... Например та же GDDR6X в видяхах, начинает троттлить только после 110 градусов. С момента выхода RTX 3000 прошло 3 года, а в сервис центрах все фигеют с того что за эти годы пропустив через себя тысячи и тысячи видях с этой памятью - попадалась поджаренная и умирающая память в единичных случаях. Это еще и при том что их выход совпал с бумом майнинга Эфира, а Эфир греет именно память а не GPU.
Вспомнить какой нить AMD FX-8350, там tJMAX был 67 градусов. И процы помирали при 75. А в то же время какой нить Pentium D на прескот ядре мог и на 100 градусах работать. То же и к VRM на платах относиться. Черт его знает... Конечно чем меньше температура тем лучше. Но... Есть такие железяки которым по барабану будет там 100 градусов или 75 на длинной дистанции.
Да наверное 90% ноутбуков "игровых" года 2013-2014 до сих пор работают норм хоть там 100 на CPU/GPU. Чаще они сдыхают от того что там прострелит питальник или какой то мультиконтроллер откиснет чем просто деграднет CPU/GPU. Ну я вот смотрю пачку каналов с ремонтных мастерских, такое у меня впечатление сложилось.
Я лично раньше был адептом разгона и выжимания соков ценою повышенного потребления и нагрева. Последние года 3 я наоборот адепт андервольта всего что можно заандервольтить. Вот топовые видяхи и процы нынче оч хорошо поддаются этому делу.
| 13.04.2023 |
Цитата freeezzzz:
У меня мощность телепается в диапазоне 240-280 при 100% загрузке. При этом частота Р-ядер стоит колом на 5491МГц, а температура не поднимается выше 90. Такой диапазон температур для камня нормален?
Это зависит от того настраивали ли вы 13900K/KF или нет. И от того где и при каких условиях вы делаете замер. И конечно же какой охлад на нем. Например в большинстве случаев в CineBench R23 потребление будет выше чем в Короне. А в Короне потребление напрямую связано с размером сцены и разрешением рендера. Чем сцена меньше и чем меньше разрешение - больше нагрев и потребление. Соответственно и наоборот. Без андервольта в Короне, какой нить Экстерьер в 8к разрешении может жрать всего 240-250вт. А вот в 1600х1200 какой нить интерьерчик все 300+ выжрет.
Вообще... На хорошей плате, в стоке и с хорошим охладом там будет ~330вт в CBR23, P-5.5Ghz и E-4.3Ghz, в CineBench R23 будет 40500+ поинтов, на хорошей памяти и в высоком приоритете будет больше 41000. Если настроить адекватно его то можно получать те же 40500+ поинтов при 225-240вт (в зависимости от удачности проца/платы). Я про это подробнее, на примере платы MSI тут писал на картинке :
https://3ddd.ru/forum/thread/show/moi_pk_i9_13900kf_obzor/2#post1713107
Соответственно при 330вт на каком нить Arctic Liquid Freezer II 420 будет 95-100 градусов на P-Ядрах и до 90 градусов на E-Ядрах. После андервольта, при тех же условиях выходит в среднем 77 градусов на P-Ядрах и на E-Ядрах до 70. Это я за свой 13900KF и водянку говорю. В местном Корона тесте получаю время 7:24 на 3866-CR2/CL16, 7:30 на 3600-CR1/CL16, 7:47 на 3200-CR1/CL16. Так что память чуть чуть да влияет на производительность в рендере. Скорее всего это из за усеченной иерархии кэша у E-Ядер (им приходится чаще по общей шине обращаться к ОЗУ во время рендера). Ну то такое... Мелочи.
| 12.04.2023 |
Цитата Bomber:
Высокий "mouse report rate" так и не пофиксили.
У меня на старой плате, ASRock X370 Gaming X - помогло мышку переткнуть с "Mouse Gaming Port" в нижние порты. Дело в том что у этой конкретной платы эти 'специальные' USB порты обрабатывались северным мостом внутри процессора, а нижние USB порты были от X370 чипсетной логики. И там и там 1000гц, но это полностью исправляло проблему без надобности переключатся с 125гц на 1000гц (или делать профили под переключение). Но если у платы все USB порты обслуживаются северным мостом, то думаю это не поможет тогда ))
Кстати на новом компе эта проблема полностью ушла. MSI Z790 Tomahawk + 13900KF + Razer DeatAdder 1000Hz - 2020/2023/2024 Max, все летает без затупов и статтеров в вьюпорте. А вот на предыдущих компах с AMD, да... Приходилось делать профили что бы драйвера мышки видели что активно окно Макса и надо 125гц врубать.
| 12.04.2023 |
sten, сколько показывает датчик потребления проца в CBR23 ?
Частоты так резались под андервольт какой то суровый ?
Пробовали VF Point андервольт ?
У меня по итогу вышло при 235вт сохранить 5.5Ghz на P-Ядрах и 4.3Ghz на E-ЯДрах.
Не ну вообще неплохо по результатам
| 12.04.2023 |