Сообщения | Дата |
---|
gunslinger, единственное преимущество у 13-14 Интелов это наличие поддержки DDR4. У тех у кого вагон оперативки стоит на основе, или на рендер нодах - достаточно болезненно обновляться на Zen4/Arrow Lake с DDR4 на DDR5.
Впрочем, DDR5 нынче как мусор стоит, я как то и проглядел то насколько она подешевела. Взять например F5-5200J4040A48GX2-RS5K, 4х48гб (192Гб) 5200/CL40 обойдется всего в 400$ (по моим местным ценам в Одессе). Так что такое себе преимущество выходит, сомнительное. В остальном, да... Про 13-14-15 Поколение Интелов - можно забыть и надеяться что в следующий раз выйдет что-то конкурентоспособное.
| 25.10.2024 |
В отдельной сцене 3ds max в простое загружен процессор
Переключите отображение потоков в диспетчере задач. Если загружен 1 поток из 32 на 100%, значит что-то однопоточное долбиться в 100%
Когда на процессор идет однопоточная нагрузка то работает алгоритм буста который может лупить вплоть до 1.5 вольт на процессор. Это можно глянуть например в HWInfo64 в разделе сенсоров.
Ну и еще скинули бы сцену, интересно было бы глянуть самому что там.
| 25.10.2024 |
Quixel Megascans в 2025 станут платными !
Ах... Жаль нету времени потыкать этот FAB, ну что там, перенеслось все что мы скриптом добавляли в Bridge ?
UPD - Ясн. Короч можно было не страдать этой херней с скриптом, достаточно было просто нажать одну кнопку при входе в FAB. А паникеры уже на CGPeers слили под 500гб ассетов
| 24.10.2024 |
Не дотерпели 6 часов до старта продаж В моем регионе уже стартанули продажи и процы в наличии. На удивление цены даже ниже чем я ожидал. Причем сразу на релизе норм цена. 9950X если что на релизе в тех же магазинах стоил1000 USD - https://i.imgur.com/ITGt5sD.png
Сейчас так выходит :
285K BOX - от 710 USD
9950Х BOX - от 710 USD
С другой стороны учитывая все что известно на данный момент про 285К - я бы его и за 500$ не покупал бы пока там все не допилят и не оттестят.
| 24.10.2024 |
Актуальные конфигурации компьютеров
Цитата hunger:
возможно прошивки исправят
Задавая такие вопросы нужно для начала понять суть проблемы. Почему на одной плате запускается XMP/EXPO а на другой нет. А на третьей запускается но лучше бы она не работала так как нестабильна либо крайне криво настроена автоматикой и работает в пол силы. Вся проблема как раз и заключается в автоматике у конкретных моделей плат.
Сам по себе SPD, XMP/EXPO в плашках памяти содержит дай бог если 1/3 нужной информации для вашей системы что бы память работала на заявленных частотах/таймингах. То есть без ручной настройки остальные 2/3 настроек - остаются на откуп автоматике.
Эту самую автоматику как правило улучшают с помощью QVL-Валидации (тестирования разных комбинаций процессоров, плат и памяти на заводе). То есть сам производитель берет и комбинирует находя косяки пытается чет исправить. И именно с обновлениями биоса бывает эта самая автоматика становится лучше, как правило. Но, не всегда, бывает такое что новые биосы наоборот могут сломать конкретно в вашей комбинации что-то. А бывает что и не исправляют даже ярко выраженный косяк. Например, на моей плате при установке четырех двуранговых плашек плата ставит сопротивления 240-120-60, из за чего потенциал частоты снижается примерно на 30% относительно выставленных руками 80-48-00 сопротивлений, вроде значительный момент и прям на поверхности, да ? Вот проходит 2 года, 18 обновлений Биоса, и знаете что ? - Ничего. Производитель не исправляет этот момент. И если у вас нету этих знаний и понимания куда смотреть и как настраивать - то вы на протяжении всего этого времени будете упираться в потолок по частоте и ничего с этим не сделаете без замены платы.
Так же, смотря видео по интернетам где тестируют платы на XMP/EXPO автоматику нужно делать поправку что практически никто не делает тестов на четырех двурангах и на 128-192+ гигабайтах памяти. А это КРАЙНЕ важный момент при настройке ProcODT/CAD/RTT/Третьичек. Плата может быть хорошо натренирована на заводе на две плашки памяти и в то же время может ужасно быть натренирована на четырех плашках. И это частый случай.
Ну вот тип такого - https://youtu.be/keJHego7neI?t=2060 (ссылка с таймкодом)
Смотрите такие - ого, MSI в основном в верхушке по разгону памяти. А потом (к примеру) оказывается что на самом деле у них слабая автоматика при использовании четырех плашек двуранговых. И все. Приплыли. С двумя плашками автоматика лучше других вендоров отрабатывает а с четырьмя - хуже других.
Так что все эти вопросы - "какая плата лучше под 128-192гб" сводятся в основном к косвенным признакам (наличию памяти в QVL листе, объему самого QVL листа, или аналогов такой памяти в QVL-листе, ну например когда память с такими же чипами и таймингами в профиле). А все остальное это уже какие то свои личным субъективным наблюдения. Кто-то любит ASUS, кто-то не любит, кто-то обломался конкретно разок с какой то платой и приуныл... Если же говорить про такие эфимерные субъективные штуки - по моему мнению ASUS лучший вендор плат под четыре двуранговые плашки и автоматику без ручного вмешательства. ASRock - худший. MSI - лучшие под ручную настройку. Гига - ни тудым ни сюдым, середнячок.
Еще конечно важно что бы модель платы была - популярной. Если взять какой нить ASUS Pro ART плату - то ясное дело что ее полторы калеки в мире купит и производство и выпуск биосов и тренинг памяти будет унылым. А если выбрать какую нить среднюю модель, заранее прикинув что по начинке/цене и прочим нюансам она будет популярной - то конечно и производитель будет ее лучше поддерживать. Потому совет - экзотику не брать.
Надеюсь понятно объяснил суть проблемы.
Решение какое ?
1.) Самому научится настраивать. Потеряете уйму времени, но с каждым новым компом будет все легче и легче. Зато вам станет по барабану че там за плата, проц и память, ведь по итогу вы сможете +/- настраивать все это условно одинаково. И не будете этой автоматикой впринципе пользоваться.
2.) Обратиться к людям которые удаленно настраивают память. Конкретных рекомендаций у меня нету. Но я имею ввиду что-то типа группы ДакараТехнограаля в ВК. Прост камеру телефона или вебки на монитор направляете, и сидите часами на созвоне с человеком который удаленно говорит куда что тыкнуть, какой тест запустить и все такое. Я таким геммором не занимаюсь если что. https://vk.com/dakartechno И по поводу этой группы есть как минимум уже два плохих отзыва так что я не рекламирую их а прост как пример.
3.) Менять платы и/или память - пока не повезет. Ждать и надеяться что повезет с обновлениями биоса. Смириться и забить UPD - Вообще рекомендую иногда хотя бы заглядывать к Билдзоиду на канал. Он там иногда нормально теории наваливает. Да и у него уже есть видосы с настройкой памяти под 9950Х. Может кому пригодится... https://youtu.be/Xcn_nvWGj7U
| 24.10.2024 |
Тут уже один ресурс оверклокерский дал фальстарт и опубликовала обзоры на Арроу-Лейк и сразу удалили. Но было уже поздно
https://ibb.co/VYYvSd6
https://ibb.co/997B2kz
https://ibb.co/fYqYP5w
https://ibb.co/DRH7QJc
https://ibb.co/dr1mg0v
https://ibb.co/4g9Kmm2
https://ibb.co/ctndsf6
https://ibb.co/Nj9MtcV
https://ibb.co/HGq5MXq
| 23.10.2024 |
Ну сейчас Интел пытается к Самсунгу подсосаться, у которого тоже 'все плохо' :
https://wccftech.com/intel-samsung-are-reportedly-inking-a-foundry-alliance-sharing-production-facilities-along-with-process-tech/
Может чет и выйдет в долгой перспективе. Кто знает
https://i.imgur.com/PFrGZxX.png
| 23.10.2024 |
https://youtu.be/V_UHVWcfeTg
Вкратце про что речь в видео - Про нестабильную работу Arrow Lake, вылеты софта, синие экраны, некоторый софт отказывается работать, нестабильные результаты в бенчмарках которые плавают вплоть до 10% между прогонами. Если это не вброс абы похайпить перед релизом, то... То в общем то мне и сказать нечего по этому поводу. Помянем Кстати процы уже начали продавать, до релиза. Такое бывает.
План на успех Интела выглядит как то так что ли ?
1.) Сделать флагман недотягивающий до 9950Х.
2.) Сменить сокет ради дополнительных PCI-E дорожек.
3.) Сделать чиплеты с которых сами рофлили в 2017 году.
4.) ...
5.) Получить на релизе нестабильную помойку прямиком из коробки - PROFIT
| 23.10.2024 |
Цитата Earanak:
Может они выше 190вт и не гонятся по частотам. А не просто потому что Интел решили снизить частоту или что Интел просто захотели в энергоэффективность.
Собственно как я и говорил... 285К на этом техпроцессе просто не гонится.
188вт = 42250
365вт = 46300
+9% Скорости рендера от стока, ценою в +51% энергопотребления.
[[link:image_uri:771602,]][[image:771602,sky_image_forum]][[/link]]
| 22.10.2024 |
Я никаких Экзешников не трогал что на 2025.2 что на 2025.3, "активировал" через AdskNLM от 2025.2 версии, никаких проблем с этим у меня не возникло. Установщик самого Макса у меня оригинальный, не репак. Экзешник тоже оригинальный.
| 21.10.2024 |
Круто было бы, если у 9950Х3D кэш был бы на двух чиплетах. Тогда этого геммора и с CCD не было и с XBox Game Bar и с прочими его проблемами. Но увы, похоже такой проц экономически нецелесобразен для AMD. Купит полторы калеки а производство дорогое, еще и будет мешать объемам производства 9800X3D.
А у Интела... У Арроу Лейка примерно 10% области чипа заполнено болванкой, и значительная часть этой области находится впритык к Ядрам. Может они тоже решат сделать чет типа L4-Кэша, как это было у i7-5775C, только с современным быстрым интерконнектом, а не как тогда. Но пока все это мечты )) Еще бесит что AMD/Intel начинают тратить транзисторный бюджет на нафиг не нужные NPU. Теперь помимо нафиг не нужной мне iGPU еще и NPU придется отключать
Еще вот ходят слухи что с Zen6 АМД пойдет на увеличение ядер на чиплете, если и вправду сделают 16 ядер на чиплет, тогда и мудрить ничего не нужно будет с этим Кэшом. Да и по мелочам сразу куча проблем решиться. Правда не ясно будут ли в таком случае они второй чиплет делать. И наверное в таком случае и вовсе могут отказаться от I/O чиплета и сделать как в APU. Как они там говорят что архитектуры процессоров проектируют с очень большой задержкой в 5+ лет, и не всегда одна компания успевает среагировать на удачное решение другой компании. А 5800X3D вышел всего то в 2022 году а 7800X3D в 2023. Короч будущее туманно и адекватный ответ от Интела может быть не скоро ))
| 21.10.2024 |
Гидру можно и за бесплатно стянуть.
https://kemono.su/patreon/user/42832438/post/110317602
https://docs.google.com/presentation/d/1_j6vB61koOVwEHLrvqt7lh1RYw4XRuoTIeEDtYmnFj0/edit?pli=1#slide=id.p1
Но Гидра это вариант для задротов и тех у кого много свободного времени. Там нужно курить гайд, делать предварительные настройки. Часами тестить. И если чёт неверно сделать то оно может выйти не особо удачно даже по настройкам. Или нестабильно. Впрочем, там есть удобные инструменты и для подбора CO настроек.
В общем, рациональнее будет использовать Curve Optimizer (CO) это популярный и простой вариант андервольта. Грубо говоря это одна крутилка. В Ютубе куча гайдов должно быть. Насколько сильно выйдет сдвинуть CO зависит от удачности экземпляра процессора. Если вы работаете в Короне, рекомендую на стабильность дополнительно (отдельно) проверять процессор на стадии Денойза, это рванная нагрузка с хорошей утилизацией конвейера процессора, которая в моменте больше проц грузит чем сам рендер.
Можно сохранить CXR файл с данными для денойза (Gather data for later) в высоком разрешении под кучу рендерэлементов, и отдельно прожимать денойз в этом CXR файле. Таким Макаром за одно удобно LLC тестировать, если нужно. Просто стресс тесты дают равномерную нагрузку а не рванную. А при плотной настройке процессора (андервольте) именно этот этап может стать проблемным. Впрочем, это касается только Corona High Quality денойзера. Если вы используете Intel/nVidia денойзер то там нет такой проблемы.
https://imgur.com/a/lYplrnm
В компактных корпусах не шарю. Но 9900Х отличный вариант под компактный корпус. Он и без настроек крайне энергоэффективный. А MiniITX платы нынче делают с крутыми питальниками, которые и 9950х вполне себе тянут.
| 20.10.2024 |
Актуальные конфигурации компьютеров
Цитата rubynew:
Интересно почему делают один разъем питания, ведь раньше было по два как у rtx2080ti
Так речь про новый коннектор и новый стандарт АТХ 3.0
Старые 8-пин коннекторы рассчитаны на 150вт каждый. И с ними нету проблем с распределением мощности.
Проблема когда через старые подключают переходник на новый. Новый который 12 (16) пиновый он один через себя может 600вт пропускать.
По сути сейчас один такой новый как четыре старых.
| 18.10.2024 |
Актуальные конфигурации компьютеров
Только надо учитывать что нагрузка по коннекторам выходит неравномерной при подключении через три переходника. Это не так работает что чем больше их будет тем лучше. Один из них будет перегружен и калиться всегда а другие будут на расслабоне. Блок питания не умеет распределять нагрузку по трем переходникам.
12VHPWR Connector To 3 x 8-Pin Adapter :
1 x 8-Pin Connector = 25.34A or 282.4W (88% Increase Over 150W Rating)
1 x 8-Pin Connector = 7.9A or 94.8W (Within 150W Power Rating)
1 x 8-Pin Connector = 6.41 or 76.92W (Within 150W Power Rating)
На два переходника, распределяется вроде как ровно. Но там в идеале видеокарта НЕ должна жрать более 300вт (т.е у нее TGP в 300вт должно быть).
https://wccftech.com/atx-3-0-12vhpwr-gen-5-connector-major-safety-risk-using-adapter-confirms-pci-sig/
UPD - У меня на Dark Power 13 1000W и MSI 4090 Suprim X - такая же штука. Проверял. Если через переходники (3x8Pin -> 12VHPWR) то один 8-Пин по пирометру в 64-66 градусов калиться у основания а другие в ~45. В нагрузке. Если оригинальный один 12VHPWR то там и до 50 не доходит... Ну вроде как ничего страшного конечно, тем не менее - неприятно. До плавления все равно то дело не дойдет К тому же в вопросе речь не про 4090 идет...
| 17.10.2024 |
В аккаунт заходить не нужно что бы по ссылкам список глянуть. Без понятия что у вас там не открывается. Попробуйте другой VPN, Анонимайзер или что там еще сейчас популярно в РФ что бы блокировки обходить, может это с ними как то связано. Ну или с другого сайта загуглите список нового.
Ну не копировать же все описание изменений с ссылки сюда
Ну вкратце по пунктам это выглядит как то так :
• This release emphasizes modern color management with OpenColorIO
• Streamlined global search functionalities
• Enhanced Retopology Tools for improved modeling efficiency
• The introduction of a new Menu Editor allows for customized user interfaces
• USD for 3ds Max plug-in enhances animation import capabilities
• Arnold for 3ds Max sees an update, ensuring seamless rendering integration
• CAT (Character Animation Toolkit) receives multiple enhancements for more stable and efficient animation workflows
• New incremental save options
• Updated OpenSubdiv and Mesh Cleaner modifiers
• Improved viewport shadows
• Slate Material Editor upgrades
Ну а в трех обновлениях списки исправлений и мелочи :
• Улучшения Array, Boolean, Рисования Весов, Color Noise прокачанный, Substance коннектор 3.0
• SVG Импорт, Новые возможности Data Channel, Поддержка USD сцен, Flow Ретопология прокачанная.
• Ускорение Array/Boolean, CAT/Biped улучшения, OpenPBR поддержка.
Мне из всех новшеств понравился : Редактор менюшек новый и прокачанная система поиска (я ей регулярно раньше пользовался, теперь она еще удобнее стала). Ну Ретопологию снова прокачали, впрочем она и раньше неплохо работала. Остальные всякие новшества не использую, не моя тема. В целом обычное минорное обновление Макса. У меня оно просто совпало с чистой переустановкой системы и всего софта, иначе для себя не видел смысла переходить с 2024 на 2025
| 16.10.2024 |
Цитата lnnleon:
что там завезли хоть?
Ну сверху же дали все ссылки... Продублирую.
Что в патче №3 :
https://help.autodesk.com/view/3DSMAX/2025/ENU/?guid=3dsMax_ReleaseNotes_3dsmax_2025_3_releasenotes_html
Что в 2025 Максе :
https://help.autodesk.com/view/3DSMAX/2025/ENU/?guid=GUID-B657FF38-0391-4766-8D25-838F13D09188
| 16.10.2024 |
Так его и не нужно переустанавливать. Это патч ведь. Ставиться поверх уже установленного 3Ds Max 2025. Скрипты/Плагины/Настройки/Хоткеи/Активация - все на местах остается. Ну или я не так понял что вы имели ввиду
| 16.10.2024 |
Цитата ali_r:
смысл их так ставить не качает же
Качает без проблем
[[link:image_uri:770368,]][[image:770368,sky_image_forum]][[/link]]
UPD - Поставил, поверх 2025.2 вроде ничего не слетело
UPD#2 - У меня в 2025 Максе была мелкая и не всегда заметная проблемка с вьюпортом. Он как бы быстро работает, как и раньше. Но в больших сценах он 1/5 раз с какой то задержкой начинал крутить вьюпорт. Короч не знаю что конкретно решило проблему. Но вот 2025.3 Апдейт в котором есть пункт - "Fixed - Performance issue while navigating when the cursor is on the model". А так же в обновлении Forest Pack 9.1.3 есть пункт - "Fixed viewport lag using nested Forest objects" Что-то из этих двух обновлений полностью исправило этот момент. Ставил эти два апдейта одновременно так что не знаю что именно.
| 16.10.2024 |
Актуальные конфигурации компьютеров
shafxat, судя по прорезу сзади видяхи и турбинному однопропеллерному охладу - она рассчитана скорее на корпуса с плохим продувом. Или компактные корпуса.
Нуууу не знаю. Конечно я уверен что ничего страшного не будет в целом... Но я бы уж лучше рассмотрел классический вариант с тремя пропеллерами.
Обзор вполне детальный. Думаю тут можно и самому решить покупать ее или нет
| 15.10.2024 |
Цитата v01ce:
https://www.youtube.com/watch?v=NtMIppL9UC4
Видео не смотрел, может автоматика у него тайминги адекватно подобрала (и такое бывает). Да, если порыться по интернетам то сейчас встречаются случаи 6000Mhz на 128-192гб с 7950Х... Да и 6400 у Интела на 192гб я видел, но во всех этих случаях там задротский подход в полном спектре настроек и напряжений.
https://www.reddit.com/r/Amd/comments/159xoao/stable_128gb4x32gb_ddr56000_cl30_on_agesa_1007b/
Но я бы не рассчитывал на такое, что бы потом не просидеть неделю в попытках стабилизировать 6000 и в итоге не приуныть )) Я например вертел DDR5 UDIMM, буду сидеть и ждать что CUDIMM выйдут к релизу Zen6, думаю там вот частоты до небес взлетят... Так как упора в проц не будет больше.
Тут еще такое бывает что человек две недели просидел что бы все это подобрать, показал за 10 минут всем на видео... А эти настройки в вашем случае не подойдут даже если взять такую же плату-проц-память )) Тупо один чип в одной из плашек не будет тянуть такой уровень - и все, приплыли. Или например мосфет на SoC питальнике платы будет давать Coil Whine и наводки - и все приплыли. Или один из PMIC модулей в плашке будет не настолько качественным - и все приплыли. Помню даже прикол еще старый, как чувак показывал что если у него включен напольный вентилятор рядом с компом у него мемтесты начинают выдавать по 10 ошибок в минуту, а как отключает его то перестают Ну это наверное уже вопрос унылого БП, корпуса, сети и тд...
| 15.10.2024 |
v01ce, я уже несколько раз и вкратце и развернуто написал про материнки. Я просто не знаю как мне еще это сказать нужно. Про ментальный выбор это точно подмечено )) Я бы например никого не слушал бы и брал крутую плату. X670E Tomahawk судя по всему - крутая. В таком случае если чет не так пойдет я бы хоть не думал что продешевил
Better call Saul, простите, а кто тут про 6000 рассказывал автору темы в контексте 192гб и АМД ? Я всю тему пролистал и такого не нашел. Был вопрос про 6000, да. Но никто никому ничего по этому поводу не рассказывал. Я тут несколько раз говорил что IMC у AMD способен в 5200Mhz как правило и лишь в редких случаях на 5600Mhz при четырех двурангах
Очевидно если у вас память нестабильно работает - значит вы ее плохо настроили и оттестировали. Если вы не знаете что такое TM5+1usmus_V3 (ну или Anta777), Karhu, Y-Cruncher, GSAT, Prime95 LargeFFT, memtest86... То, так сказать - "кто вам доктор" ? (Без негатива). Это надо быть совсем уж простофилей разгона памяти что бы ее не тестить после настроек. Точнее даже не после а во время, на каждом значимом этапе - подбора сопротивлений, таймингов, вольтажей. С DDR5 (из за ее рудимента ECC) нужно делать контрольный тест для сравнения ПСП/Задержек и делать тесты на стабильность (с пониманием что и зачем вы тестите), разным софтом (так как нагрузка на ОЗУ бывает с упором в IMC процессора, в саму память, или туда-и-туда). Все это делать обязательно, что бы понять что вы верно подобрали Skew(сопротивления)/CAD/RTT/ProcODT, тайминги, SoC/VDDG/VDDP/DRAM напряжения, верно подобрали Infinity-Фабрику. И если что, тесты на стабильность IMC/Памяти делают не в Аиде
Если вдруг вы из тех кто просто тыкнули в 128-192гб XMP/DOCP/EXPO, или просто выставили частоту памяти и такие - ну если комп включился, значит оно работает - НЕТ ЭТО ТАК НЕ РАБОТАЕТ. Ну ладно, иногда работает, но это лотерея автоматики (QVL-Валидации + автотренинга), в которой вы лишь в условных ~1/10 выиграете без лишних напрягов. Но в 4/10 случаев вы проиграете по производительности и в остальных 5/10 случаев вы проиграете по стабильности.
Еще забавно что все об чем я выше написал упоминают чуть ли не в каждом гайде по настройке памяти, ну то такое, я графоман и разрешаю себе это )))
Вот стабильный разгон в 5600 при 192гб на AMD, с годными результатами :
https://hwbot.org/imgs/3067033 - Y-Cruncher проходит.
Теперь идите и пожалуйтесь АМД что они пишут максимум 3600 а люди уже больше года сидят с 5200-5600 памятью и 128/192гб на Zen4, проходя 10-часовые тесты которые в разы чувствительнее к стабильности памяти чем Aida. Или вот Sten-у расскажите что бы он выше 3600 у DDR5 не ставил, а то вдруг он не в курсе что там АМД по этому поводу написали )))
| 15.10.2024 |
Актуальные конфигурации компьютеров
shafxat
По крайней мере по актуальному Корона Бенчмарку очевидно что проц работает на заниженных оборотах. Нормальные его значения когда пишет 5.2-5.3Ггц в рендере и 16500-16800 лучей. У вас 4.7 и 14800
IMHO тестить проц в бенчмарках которые за минуту проходятся - такое себе. Я бы уж лучше сразу в местной Корона-Сцене проверял. Там хотя бы 10 минут он отрабатывает.
| 14.10.2024 |
Актуальные конфигурации компьютеров
Цитата rainmangrizzli:
ну может не видеокарта, а процессор, я не помню уже. в легаси - быстро. наверное все таки в Last of Us, там работало все и под полную завязку. и долго кстати.
Погуглил на тему долгой компиляции шейдеров в TLOU, оказывается проблема была не у всех, а у некоторых "счастливчиков", у которых она занимала судя по всему и по 4 часа и понял что это просто косяк был какой то... Это даже в Английской википедии упоминается )) Зря только я время потратил в поисках старой версии игры что-бы убедиться что нету там ничего сверхъестественного
Вот — https://youtu.be/mFhuxJuAnE8
От чего высокое потребление видяхи в меню - показываю в конце видео. Единственное в чем ошибся, так это в том что 13900К на старой версии игры будет 10 минут их компилить, оказалось что там 1-2 минуты. Новая версия игры у меня кстати чуть дольше их компилит, если что. В общем нагрузка - курам на смех да и слишком уж кратковременная. Как я раньше и говорил. В Хогвартсе ее еще меньше и она еще быстрее проходит.
P.S. Версия TLOU за 31 Марта 2023.
| 14.10.2024 |
grdesigner, CL18/CL16, это у ненастроенной памяти ~1.5гб разницы в скорости. Если прям вот руками не хочется CL выставлять, ок. Вот например два кита с CL16 в XMP :
https://hotline.ua/ua/computer-moduli-pamyati-dlya-pk-i-noutbukov/gskill-64-gb-2x32gb-ddr4-3600-mhz-trident-z-rgb-f4-3600c16d-64gtzr/ - В 4 магазинах продается.
https://hotline.ua/ua/computer-moduli-pamyati-dlya-pk-i-noutbukov/gskill-64-gb-2x32gb-ddr4-3600-mhz-ripjaws-v-f4-3600c16d-64gvk/ - В 17 магазинах продается.
Если вы еще в Украине, конечно. Как там по другим странам ситуация - не в курсе. Я например себе память с США (NewEgg) покупал. Там в наличии с 3600/CL16 еще есть - MRF4U360GKKP32GX2, F4-3600C16D-64GTRG.
| 14.10.2024 |
Актуальные конфигурации компьютеров
Ок, поставил качать старые непропатченные Hogwarts Legacy и Last of Us, и лицухи свежие. Потом с цитатой отпишусь. Впервые слышу что бы шейдеры компилировала видеокарта. Очень интересно на это глянуть будет. Еще интереснее будет то сколько это времени займет, 1 минуту или 2 минуты в Hogwarts Legacy, и вообще рофл будет если шейдеры одновременно с игрой в этих играх нельзя будет компилить, во хохма то будет
| 14.10.2024 |
Актуальные конфигурации компьютеров
Цитата rainmangrizzli:
я видел такое, в игре - компиляция шейдеров.
В какой это игре ?
Я бы из любопытства взял бы и сделал замеры.
Компиляция шейдеров по максимуму грузит проц разве что в предзагрузке игры, в главном меню как правило. Если компиляция шейдеров идет параллельно самой игре то все равно ни конвейер GPU ни конвейер CPU не будет на 100% нагружен. Будут статтеры и фризы, потому что у видеокарты не будет данных что бы рисовать кадры без пропуска отрисовки а процессор будет занят шейдерами и не сможет полноценно обрабатывать дроуколлы от видеокарты.
Так же надо понимать что 7900Х в любой игре скомпилит шейдеры быстрее чем за одну, максимум две минуты. Вообще все шейдеры на всю игру. Исключение тут разве что Last of Us (до патчей), он по моему дольше других игр компилирует шейдеры. Даже на 13900K это могло занять минут 10 (UPD - Ошибка, на самом деле несколько минут). Но это происходило в меню игры без нагрузки на видяху. (UPD - Проверил, так и есть - https://youtu.be/mFhuxJuAnE8 )
https://dtf.ru/u/624145-piter-de-vriie/1791565-tlou-1040-kompilyaciya-sheiderov-59-minut-2-sekundy
https://steamcommunity.com/app/1888930/discussions/0/3818530017597917047/
Окей если предположить косяк разрабов, такое было в The Callisto Protocol :
https://club.dns-shop.ru/digest/84559-pervyii-patch-dlya-the-callisto-protocol-ubral-statteryi-iz-za-kompi/
Шейдеры вместе с игрой компилировались и не сохранялись. Но это исключение и даже так ни проц ни видяха не долбились в 100%. Просто потому что игра сама по себе тормозила от этого и не грузила по полной видяху а на проц шла неравномерная скачкообразная нагрузка. Еще одно исключение это RPCS3/CEMU эмули, они налету компилят шейдеры, прям посреди игры, но они и видяхи больше ~30% не грузят обычно, да и компилируют они шейдеры малыми порциями и неравномерно. Так что и тут компиляция шейдеров не лупит в 100% и проц и видяху, даже и на 50% я бы сказал.
Самый близкий вариант высокой нагрузки и проца и видяхи это Hybrid CPU/GPU рендер (как в V-Ray RT) либо когда вы рендрите на низком приоритете процом в свернутом режиме и играете одновременно на высоком приоритете в игру нетребовательную к процессору но требовательную к видеокарте. В таком случае нагрузка будет значительно выше чем в случае с компиляцией шейдеров, да и на протяжении всего времени а не кратковременная
| 13.10.2024 |
Актуальные конфигурации компьютеров
Максимальное потребление это если : Процессор и Видеокарта на 100% загружены. Все HDD/SSD и ОЗУ на 100% маслают. Все пропеллеры и водянка на 100% раскручены. Все USB порты утыканы зарядками. Сетевая карта маслает на 100% и импенданс у Аудиокарты выкручен в максимум с усилителем.
Попросту говоря : Абсолютно нереалистичный сценарий. К тому же блоки питания как правило производятся с расчётом на пиковую нагрузку которая несколько превышает то что пишут в спеках и на коробке. Условно годный БП на 1000W может месяц беспрерывно стоять в нагрузке в 1200W и кроме повышенного износа и шума с нагревом ничего с ним страшного не случится. Так что понятие приемлемого запаса в процентах зависит от модели и внутреннего спокойствия. То есть каждый тут по своему скажет, найдутся даже те кто скажет что большой запас это тоже плохо так как теряется КПД блока питания.
Если вот по моему то 650вт для такой системы - хватит с запасом. Даже если одновременно рендрить и играть в игру. Но если бы я собирал Mini-ITX систему под SFX БП я бы наверное уж раскошелился на более именитый бренд и топовую платформу вместо Чифтека. То есть это х2 по цене - Corsair SF750, Seasonic FOCUS-SPX-750, такого плана БП. Но это уже вопрос внутреннего спокойствия чем рационального выбора. А 750вт модели я указал потому что в первом магазине куда я глянул меньше просто не было SFX-ов ))
| 13.10.2024 |
Помогите понять совместимость ЦП и МатПлаты
Цитата ItalonKeramogranitovich:
Винду не грузит и не даёт переустановить систему(не видит USB. Хотя мышь в биосе работает)
А вы пробовали переключать Legacy/UEFI режим и CSM в Биосе ?
У меня так то на последних трех компьютерах при установке ОС в дефолте приходилось отключать CSM. Оно и не видело флешек с виндой без этого. Если что по этому делу есть приблизительно миллиард гайдов как и где и на каком биосе это делается в Ютубе/Гугле.
| 13.10.2024 |
Только обычно в интернете хвастают супер плотно настроенной памятью и копируя все 1 в 1 может что-то не срастись, ведь по качеству конкретно вашего экземпляра процессора и контроллера памяти и самих плашек могут быть расхождения. Даже один дрянной чип из 40 может мешать вам выжать то что вы копируете там. Но если кто и захочет пойти по такому пути то все равно нужно хотя бы примерные ориентиры понимать. Я бы наверное начал с просмотра душных унылых и затянутых видосов у Билдзоида - https://www.youtube.com/@ActuallyHardcoreOverclocking/videos Там у него целые плейлисты по DDR4/DDR5, и куча эпизодов "Reacting to RAM timings" стримов, где он оценивает настройку памяти у зрителей - https://youtu.be/zvY-zp_Kx-M И еще сотня видео где он сам память настраивает. Конечно тут надо делать скидку по частоте на то что у нас там 96-128-192гб памяти а в видосах в 90% случаев 32гб.
Заниматься этим всем я бы стал только если вам это нравится. В ином случае временные затраты я считаю не стоят результата. Ну ок, если вы до трясучки беситесь что у вас какой то модификатор срабатывает за 2.7 секунды вместо 2.3 секунд или выделение ФорестПак объекта занимает 1.2 секунды вместо 0.9 - то ок, тогда это стоит того )))
Что дает это конкретно в рендере уже тысячу раз на форуме было обсуждено. Единственное что добавлю от себя - что это еще и зависит от платформы конкретной и процессора. Например 13900K-14900K получают среди современных процессоров самый большой прирост от настройки памяти. Из-за их особенностей архитектуры. https://3ddd.ru/forum/thread/show/tiestiruiem_protsy_max_corona/142#post1712993
В остальном память гонят не под софтверный рендер а под непосредственную работу/сборку/моделинг/игры/виртуалки/архивацию/GPU Sharing Memory/Unreal Engine/Эмуляторы консолей/Работу с видеоредакторами/Другими специфичными штуками.
Я например вот "немного" в игры поигрываю
[[image:769592,]]
На RTX 4090 с 1440p моником с высокой герцовкой разгон памяти нехило так в некоторых играх влияет. И даже в целом не про Average FPS речь идет а про "0.1% и 1% редких событий", они могут от годной настройки памяти и на 20% вырасти. Если бы не игры и конкретно указанные мною расклады - для работы фулл комфортной мне бы хватило ненастроенной DDR4-3600/CL16 или DDR5-5200/CL40. Собственно при 4-ех плашках и 128-196 гигах это в 99% случаев достижимые варианты.
| 13.10.2024 |
Цитата v01ce:
Т.е. условно всё что выше томагавка x670e не принесёт мне ровно никакой пользы? Больше фаз на проц, лучшие частоты или меньшую температуру, что то ещё? Всякие там лишние порты в расчёт не берём, самолёты овер 4090RTX не ставим.
В случае с 4 плашками памяти двуранговыми все что на 6 PCB слоев или больше - будет одинаково память гнать. Впрочем, я не удивился если бы и 4-х слойная плата смогла бы взять 5600Mhz. Платы на 8+ слоев с крутым экранированием берут под частоты ближе к 8000Mhz. На таком уровне частоты памяти - платы начинают решать. А тут все упрется в 5200-5600, потому что узкое место это не плата а процессор.
Допустим если выйдут Zen6, и там внезапно АМД решит прокачать контроллер памяти сразу на 5-6 ступеней по частоте - тогда да, 8-ми слойные платы начнут влиять на это. Ну или если вы воткнете CUDIMM память которая генерирует свою частоту отдельно от процессора, тогда тоже плата начнет решать.
Вопрос частоты, питальника это уже специфичный вопрос. Я не знаю что там у Томагавка X670E, не интересовался. Если там линии питания прямые и контроллер питания выдает 1000Khz и имеет широкий набор настроек LLC - в таком случае и 7950Х и 9950Х можно будет до максимума выжать. Если плата работает с даблерами которые режут частоту VRM и настройки LLC скудные, то может не выйдет выжать на 100% а скажем на 95%. Я имею ввиду 'выжать' (тонко и плотно настроить).
X670/X670E выбирают как раз из за слотов, слотов PCI-E. Если вам это не нужно, если вы не собираетесь идеально все подкручивать - не вижу никакой причины почему бы не взять B650 старшую какую нить плату. Я АМ5 платами не интересуюсь, не знаю у каких вендоров удачные модели есть.
А так толк от 8-ми слойных толстых плат разве что в том что они не гнуться и немного рассеивают тепло вокруг сокета и стоят в полтора раза дороже
Гугл говорит что у X670E Томагавка 8 слоев с продвинутым материалом.
А у B650 Томагавка 6 слоев с простеньким материалом.
Про материал - может и маркетинг. А про слои - точно не маркетинг.
Как у этих плат с Биосами и работой с памятью - без понятия.
Например ASRock X470 Taichi была идеалом в техническом плане под работу с четырьмя плашками, T-Топология (большая редкость) но все загадил Биос кривущий который мешал память эту настраивать. Так что без конкретного опыта с кокнретной платой - давать прям точные рекомендации сложно.
| 12.10.2024 |