Сообщения | Дата |
---|
Актуальные конфигурации компьютеров
Только надо учитывать что нагрузка по коннекторам выходит неравномерной при подключении через три переходника. Это не так работает что чем больше их будет тем лучше. Один из них будет перегружен и калиться всегда а другие будут на расслабоне. Блок питания не умеет распределять нагрузку по трем переходникам.
12VHPWR Connector To 3 x 8-Pin Adapter :
1 x 8-Pin Connector = 25.34A or 282.4W (88% Increase Over 150W Rating)
1 x 8-Pin Connector = 7.9A or 94.8W (Within 150W Power Rating)
1 x 8-Pin Connector = 6.41 or 76.92W (Within 150W Power Rating)
На два переходника, распределяется вроде как ровно. Но там в идеале видеокарта НЕ должна жрать более 300вт (т.е у нее TGP в 300вт должно быть).
https://wccftech.com/atx-3-0-12vhpwr-gen-5-connector-major-safety-risk-using-adapter-confirms-pci-sig/
UPD - У меня на Dark Power 13 1000W и MSI 4090 Suprim X - такая же штука. Проверял. Если через переходники (3x8Pin -> 12VHPWR) то один 8-Пин по пирометру в 64-66 градусов калиться у основания а другие в ~45. В нагрузке. Если оригинальный один 12VHPWR то там и до 50 не доходит... Ну вроде как ничего страшного конечно, тем не менее - неприятно. До плавления все равно то дело не дойдет К тому же в вопросе речь не про 4090 идет...
| 17.10.2024 |
В аккаунт заходить не нужно что бы по ссылкам список глянуть. Без понятия что у вас там не открывается. Попробуйте другой VPN, Анонимайзер или что там еще сейчас популярно в РФ что бы блокировки обходить, может это с ними как то связано. Ну или с другого сайта загуглите список нового.
Ну не копировать же все описание изменений с ссылки сюда
Ну вкратце по пунктам это выглядит как то так :
• This release emphasizes modern color management with OpenColorIO
• Streamlined global search functionalities
• Enhanced Retopology Tools for improved modeling efficiency
• The introduction of a new Menu Editor allows for customized user interfaces
• USD for 3ds Max plug-in enhances animation import capabilities
• Arnold for 3ds Max sees an update, ensuring seamless rendering integration
• CAT (Character Animation Toolkit) receives multiple enhancements for more stable and efficient animation workflows
• New incremental save options
• Updated OpenSubdiv and Mesh Cleaner modifiers
• Improved viewport shadows
• Slate Material Editor upgrades
Ну а в трех обновлениях списки исправлений и мелочи :
• Улучшения Array, Boolean, Рисования Весов, Color Noise прокачанный, Substance коннектор 3.0
• SVG Импорт, Новые возможности Data Channel, Поддержка USD сцен, Flow Ретопология прокачанная.
• Ускорение Array/Boolean, CAT/Biped улучшения, OpenPBR поддержка.
Мне из всех новшеств понравился : Редактор менюшек новый и прокачанная система поиска (я ей регулярно раньше пользовался, теперь она еще удобнее стала). Ну Ретопологию снова прокачали, впрочем она и раньше неплохо работала. Остальные всякие новшества не использую, не моя тема. В целом обычное минорное обновление Макса. У меня оно просто совпало с чистой переустановкой системы и всего софта, иначе для себя не видел смысла переходить с 2024 на 2025
| 16.10.2024 |
Цитата lnnleon:
что там завезли хоть?
Ну сверху же дали все ссылки... Продублирую.
Что в патче №3 :
https://help.autodesk.com/view/3DSMAX/2025/ENU/?guid=3dsMax_ReleaseNotes_3dsmax_2025_3_releasenotes_html
Что в 2025 Максе :
https://help.autodesk.com/view/3DSMAX/2025/ENU/?guid=GUID-B657FF38-0391-4766-8D25-838F13D09188
| 16.10.2024 |
Так его и не нужно переустанавливать. Это патч ведь. Ставиться поверх уже установленного 3Ds Max 2025. Скрипты/Плагины/Настройки/Хоткеи/Активация - все на местах остается. Ну или я не так понял что вы имели ввиду
| 16.10.2024 |
Цитата ali_r:
смысл их так ставить не качает же
Качает без проблем
[[link:image_uri:770368,]][[image:770368,sky_image_forum]][[/link]]
UPD - Поставил, поверх 2025.2 вроде ничего не слетело
UPD#2 - У меня в 2025 Максе была мелкая и не всегда заметная проблемка с вьюпортом. Он как бы быстро работает, как и раньше. Но в больших сценах он 1/5 раз с какой то задержкой начинал крутить вьюпорт. Короч не знаю что конкретно решило проблему. Но вот 2025.3 Апдейт в котором есть пункт - "Fixed - Performance issue while navigating when the cursor is on the model". А так же в обновлении Forest Pack 9.1.3 есть пункт - "Fixed viewport lag using nested Forest objects" Что-то из этих двух обновлений полностью исправило этот момент. Ставил эти два апдейта одновременно так что не знаю что именно.
| 16.10.2024 |
Актуальные конфигурации компьютеров
shafxat, судя по прорезу сзади видяхи и турбинному однопропеллерному охладу - она рассчитана скорее на корпуса с плохим продувом. Или компактные корпуса.
Нуууу не знаю. Конечно я уверен что ничего страшного не будет в целом... Но я бы уж лучше рассмотрел классический вариант с тремя пропеллерами.
Обзор вполне детальный. Думаю тут можно и самому решить покупать ее или нет
| 15.10.2024 |
Цитата v01ce:
https://www.youtube.com/watch?v=NtMIppL9UC4
Видео не смотрел, может автоматика у него тайминги адекватно подобрала (и такое бывает). Да, если порыться по интернетам то сейчас встречаются случаи 6000Mhz на 128-192гб с 7950Х... Да и 6400 у Интела на 192гб я видел, но во всех этих случаях там задротский подход в полном спектре настроек и напряжений.
https://www.reddit.com/r/Amd/comments/159xoao/stable_128gb4x32gb_ddr56000_cl30_on_agesa_1007b/
Но я бы не рассчитывал на такое, что бы потом не просидеть неделю в попытках стабилизировать 6000 и в итоге не приуныть )) Я например вертел DDR5 UDIMM, буду сидеть и ждать что CUDIMM выйдут к релизу Zen6, думаю там вот частоты до небес взлетят... Так как упора в проц не будет больше.
Тут еще такое бывает что человек две недели просидел что бы все это подобрать, показал за 10 минут всем на видео... А эти настройки в вашем случае не подойдут даже если взять такую же плату-проц-память )) Тупо один чип в одной из плашек не будет тянуть такой уровень - и все, приплыли. Или например мосфет на SoC питальнике платы будет давать Coil Whine и наводки - и все приплыли. Или один из PMIC модулей в плашке будет не настолько качественным - и все приплыли. Помню даже прикол еще старый, как чувак показывал что если у него включен напольный вентилятор рядом с компом у него мемтесты начинают выдавать по 10 ошибок в минуту, а как отключает его то перестают Ну это наверное уже вопрос унылого БП, корпуса, сети и тд...
| 15.10.2024 |
v01ce, я уже несколько раз и вкратце и развернуто написал про материнки. Я просто не знаю как мне еще это сказать нужно. Про ментальный выбор это точно подмечено )) Я бы например никого не слушал бы и брал крутую плату. X670E Tomahawk судя по всему - крутая. В таком случае если чет не так пойдет я бы хоть не думал что продешевил
Better call Saul, простите, а кто тут про 6000 рассказывал автору темы в контексте 192гб и АМД ? Я всю тему пролистал и такого не нашел. Был вопрос про 6000, да. Но никто никому ничего по этому поводу не рассказывал. Я тут несколько раз говорил что IMC у AMD способен в 5200Mhz как правило и лишь в редких случаях на 5600Mhz при четырех двурангах
Очевидно если у вас память нестабильно работает - значит вы ее плохо настроили и оттестировали. Если вы не знаете что такое TM5+1usmus_V3 (ну или Anta777), Karhu, Y-Cruncher, GSAT, Prime95 LargeFFT, memtest86... То, так сказать - "кто вам доктор" ? (Без негатива). Это надо быть совсем уж простофилей разгона памяти что бы ее не тестить после настроек. Точнее даже не после а во время, на каждом значимом этапе - подбора сопротивлений, таймингов, вольтажей. С DDR5 (из за ее рудимента ECC) нужно делать контрольный тест для сравнения ПСП/Задержек и делать тесты на стабильность (с пониманием что и зачем вы тестите), разным софтом (так как нагрузка на ОЗУ бывает с упором в IMC процессора, в саму память, или туда-и-туда). Все это делать обязательно, что бы понять что вы верно подобрали Skew(сопротивления)/CAD/RTT/ProcODT, тайминги, SoC/VDDG/VDDP/DRAM напряжения, верно подобрали Infinity-Фабрику. И если что, тесты на стабильность IMC/Памяти делают не в Аиде
Если вдруг вы из тех кто просто тыкнули в 128-192гб XMP/DOCP/EXPO, или просто выставили частоту памяти и такие - ну если комп включился, значит оно работает - НЕТ ЭТО ТАК НЕ РАБОТАЕТ. Ну ладно, иногда работает, но это лотерея автоматики (QVL-Валидации + автотренинга), в которой вы лишь в условных ~1/10 выиграете без лишних напрягов. Но в 4/10 случаев вы проиграете по производительности и в остальных 5/10 случаев вы проиграете по стабильности.
Еще забавно что все об чем я выше написал упоминают чуть ли не в каждом гайде по настройке памяти, ну то такое, я графоман и разрешаю себе это )))
Вот стабильный разгон в 5600 при 192гб на AMD, с годными результатами :
https://hwbot.org/imgs/3067033 - Y-Cruncher проходит.
Теперь идите и пожалуйтесь АМД что они пишут максимум 3600 а люди уже больше года сидят с 5200-5600 памятью и 128/192гб на Zen4, проходя 10-часовые тесты которые в разы чувствительнее к стабильности памяти чем Aida. Или вот Sten-у расскажите что бы он выше 3600 у DDR5 не ставил, а то вдруг он не в курсе что там АМД по этому поводу написали )))
| 15.10.2024 |
Актуальные конфигурации компьютеров
shafxat
По крайней мере по актуальному Корона Бенчмарку очевидно что проц работает на заниженных оборотах. Нормальные его значения когда пишет 5.2-5.3Ггц в рендере и 16500-16800 лучей. У вас 4.7 и 14800
IMHO тестить проц в бенчмарках которые за минуту проходятся - такое себе. Я бы уж лучше сразу в местной Корона-Сцене проверял. Там хотя бы 10 минут он отрабатывает.
| 14.10.2024 |
Актуальные конфигурации компьютеров
Цитата rainmangrizzli:
ну может не видеокарта, а процессор, я не помню уже. в легаси - быстро. наверное все таки в Last of Us, там работало все и под полную завязку. и долго кстати.
Погуглил на тему долгой компиляции шейдеров в TLOU, оказывается проблема была не у всех, а у некоторых "счастливчиков", у которых она занимала судя по всему и по 4 часа и понял что это просто косяк был какой то... Это даже в Английской википедии упоминается )) Зря только я время потратил в поисках старой версии игры что-бы убедиться что нету там ничего сверхъестественного
Вот — https://youtu.be/mFhuxJuAnE8
От чего высокое потребление видяхи в меню - показываю в конце видео. Единственное в чем ошибся, так это в том что 13900К на старой версии игры будет 10 минут их компилить, оказалось что там 1-2 минуты. Новая версия игры у меня кстати чуть дольше их компилит, если что. В общем нагрузка - курам на смех да и слишком уж кратковременная. Как я раньше и говорил. В Хогвартсе ее еще меньше и она еще быстрее проходит.
P.S. Версия TLOU за 31 Марта 2023.
| 14.10.2024 |
grdesigner, CL18/CL16, это у ненастроенной памяти ~1.5гб разницы в скорости. Если прям вот руками не хочется CL выставлять, ок. Вот например два кита с CL16 в XMP :
https://hotline.ua/ua/computer-moduli-pamyati-dlya-pk-i-noutbukov/gskill-64-gb-2x32gb-ddr4-3600-mhz-trident-z-rgb-f4-3600c16d-64gtzr/ - В 4 магазинах продается.
https://hotline.ua/ua/computer-moduli-pamyati-dlya-pk-i-noutbukov/gskill-64-gb-2x32gb-ddr4-3600-mhz-ripjaws-v-f4-3600c16d-64gvk/ - В 17 магазинах продается.
Если вы еще в Украине, конечно. Как там по другим странам ситуация - не в курсе. Я например себе память с США (NewEgg) покупал. Там в наличии с 3600/CL16 еще есть - MRF4U360GKKP32GX2, F4-3600C16D-64GTRG.
| 14.10.2024 |
Актуальные конфигурации компьютеров
Ок, поставил качать старые непропатченные Hogwarts Legacy и Last of Us, и лицухи свежие. Потом с цитатой отпишусь. Впервые слышу что бы шейдеры компилировала видеокарта. Очень интересно на это глянуть будет. Еще интереснее будет то сколько это времени займет, 1 минуту или 2 минуты в Hogwarts Legacy, и вообще рофл будет если шейдеры одновременно с игрой в этих играх нельзя будет компилить, во хохма то будет
| 14.10.2024 |
Актуальные конфигурации компьютеров
Цитата rainmangrizzli:
я видел такое, в игре - компиляция шейдеров.
В какой это игре ?
Я бы из любопытства взял бы и сделал замеры.
Компиляция шейдеров по максимуму грузит проц разве что в предзагрузке игры, в главном меню как правило. Если компиляция шейдеров идет параллельно самой игре то все равно ни конвейер GPU ни конвейер CPU не будет на 100% нагружен. Будут статтеры и фризы, потому что у видеокарты не будет данных что бы рисовать кадры без пропуска отрисовки а процессор будет занят шейдерами и не сможет полноценно обрабатывать дроуколлы от видеокарты.
Так же надо понимать что 7900Х в любой игре скомпилит шейдеры быстрее чем за одну, максимум две минуты. Вообще все шейдеры на всю игру. Исключение тут разве что Last of Us (до патчей), он по моему дольше других игр компилирует шейдеры. Даже на 13900K это могло занять минут 10 (UPD - Ошибка, на самом деле несколько минут). Но это происходило в меню игры без нагрузки на видяху. (UPD - Проверил, так и есть - https://youtu.be/mFhuxJuAnE8 )
https://dtf.ru/u/624145-piter-de-vriie/1791565-tlou-1040-kompilyaciya-sheiderov-59-minut-2-sekundy
https://steamcommunity.com/app/1888930/discussions/0/3818530017597917047/
Окей если предположить косяк разрабов, такое было в The Callisto Protocol :
https://club.dns-shop.ru/digest/84559-pervyii-patch-dlya-the-callisto-protocol-ubral-statteryi-iz-za-kompi/
Шейдеры вместе с игрой компилировались и не сохранялись. Но это исключение и даже так ни проц ни видяха не долбились в 100%. Просто потому что игра сама по себе тормозила от этого и не грузила по полной видяху а на проц шла неравномерная скачкообразная нагрузка. Еще одно исключение это RPCS3/CEMU эмули, они налету компилят шейдеры, прям посреди игры, но они и видяхи больше ~30% не грузят обычно, да и компилируют они шейдеры малыми порциями и неравномерно. Так что и тут компиляция шейдеров не лупит в 100% и проц и видяху, даже и на 50% я бы сказал.
Самый близкий вариант высокой нагрузки и проца и видяхи это Hybrid CPU/GPU рендер (как в V-Ray RT) либо когда вы рендрите на низком приоритете процом в свернутом режиме и играете одновременно на высоком приоритете в игру нетребовательную к процессору но требовательную к видеокарте. В таком случае нагрузка будет значительно выше чем в случае с компиляцией шейдеров, да и на протяжении всего времени а не кратковременная
| 13.10.2024 |
Актуальные конфигурации компьютеров
Максимальное потребление это если : Процессор и Видеокарта на 100% загружены. Все HDD/SSD и ОЗУ на 100% маслают. Все пропеллеры и водянка на 100% раскручены. Все USB порты утыканы зарядками. Сетевая карта маслает на 100% и импенданс у Аудиокарты выкручен в максимум с усилителем.
Попросту говоря : Абсолютно нереалистичный сценарий. К тому же блоки питания как правило производятся с расчётом на пиковую нагрузку которая несколько превышает то что пишут в спеках и на коробке. Условно годный БП на 1000W может месяц беспрерывно стоять в нагрузке в 1200W и кроме повышенного износа и шума с нагревом ничего с ним страшного не случится. Так что понятие приемлемого запаса в процентах зависит от модели и внутреннего спокойствия. То есть каждый тут по своему скажет, найдутся даже те кто скажет что большой запас это тоже плохо так как теряется КПД блока питания.
Если вот по моему то 650вт для такой системы - хватит с запасом. Даже если одновременно рендрить и играть в игру. Но если бы я собирал Mini-ITX систему под SFX БП я бы наверное уж раскошелился на более именитый бренд и топовую платформу вместо Чифтека. То есть это х2 по цене - Corsair SF750, Seasonic FOCUS-SPX-750, такого плана БП. Но это уже вопрос внутреннего спокойствия чем рационального выбора. А 750вт модели я указал потому что в первом магазине куда я глянул меньше просто не было SFX-ов ))
| 13.10.2024 |
Помогите понять совместимость ЦП и МатПлаты
Цитата ItalonKeramogranitovich:
Винду не грузит и не даёт переустановить систему(не видит USB. Хотя мышь в биосе работает)
А вы пробовали переключать Legacy/UEFI режим и CSM в Биосе ?
У меня так то на последних трех компьютерах при установке ОС в дефолте приходилось отключать CSM. Оно и не видело флешек с виндой без этого. Если что по этому делу есть приблизительно миллиард гайдов как и где и на каком биосе это делается в Ютубе/Гугле.
| 13.10.2024 |
Только обычно в интернете хвастают супер плотно настроенной памятью и копируя все 1 в 1 может что-то не срастись, ведь по качеству конкретно вашего экземпляра процессора и контроллера памяти и самих плашек могут быть расхождения. Даже один дрянной чип из 40 может мешать вам выжать то что вы копируете там. Но если кто и захочет пойти по такому пути то все равно нужно хотя бы примерные ориентиры понимать. Я бы наверное начал с просмотра душных унылых и затянутых видосов у Билдзоида - https://www.youtube.com/@ActuallyHardcoreOverclocking/videos Там у него целые плейлисты по DDR4/DDR5, и куча эпизодов "Reacting to RAM timings" стримов, где он оценивает настройку памяти у зрителей - https://youtu.be/zvY-zp_Kx-M И еще сотня видео где он сам память настраивает. Конечно тут надо делать скидку по частоте на то что у нас там 96-128-192гб памяти а в видосах в 90% случаев 32гб.
Заниматься этим всем я бы стал только если вам это нравится. В ином случае временные затраты я считаю не стоят результата. Ну ок, если вы до трясучки беситесь что у вас какой то модификатор срабатывает за 2.7 секунды вместо 2.3 секунд или выделение ФорестПак объекта занимает 1.2 секунды вместо 0.9 - то ок, тогда это стоит того )))
Что дает это конкретно в рендере уже тысячу раз на форуме было обсуждено. Единственное что добавлю от себя - что это еще и зависит от платформы конкретной и процессора. Например 13900K-14900K получают среди современных процессоров самый большой прирост от настройки памяти. Из-за их особенностей архитектуры. https://3ddd.ru/forum/thread/show/tiestiruiem_protsy_max_corona/142#post1712993
В остальном память гонят не под софтверный рендер а под непосредственную работу/сборку/моделинг/игры/виртуалки/архивацию/GPU Sharing Memory/Unreal Engine/Эмуляторы консолей/Работу с видеоредакторами/Другими специфичными штуками.
Я например вот "немного" в игры поигрываю
[[image:769592,]]
На RTX 4090 с 1440p моником с высокой герцовкой разгон памяти нехило так в некоторых играх влияет. И даже в целом не про Average FPS речь идет а про "0.1% и 1% редких событий", они могут от годной настройки памяти и на 20% вырасти. Если бы не игры и конкретно указанные мною расклады - для работы фулл комфортной мне бы хватило ненастроенной DDR4-3600/CL16 или DDR5-5200/CL40. Собственно при 4-ех плашках и 128-196 гигах это в 99% случаев достижимые варианты.
| 13.10.2024 |
Цитата v01ce:
Т.е. условно всё что выше томагавка x670e не принесёт мне ровно никакой пользы? Больше фаз на проц, лучшие частоты или меньшую температуру, что то ещё? Всякие там лишние порты в расчёт не берём, самолёты овер 4090RTX не ставим.
В случае с 4 плашками памяти двуранговыми все что на 6 PCB слоев или больше - будет одинаково память гнать. Впрочем, я не удивился если бы и 4-х слойная плата смогла бы взять 5600Mhz. Платы на 8+ слоев с крутым экранированием берут под частоты ближе к 8000Mhz. На таком уровне частоты памяти - платы начинают решать. А тут все упрется в 5200-5600, потому что узкое место это не плата а процессор.
Допустим если выйдут Zen6, и там внезапно АМД решит прокачать контроллер памяти сразу на 5-6 ступеней по частоте - тогда да, 8-ми слойные платы начнут влиять на это. Ну или если вы воткнете CUDIMM память которая генерирует свою частоту отдельно от процессора, тогда тоже плата начнет решать.
Вопрос частоты, питальника это уже специфичный вопрос. Я не знаю что там у Томагавка X670E, не интересовался. Если там линии питания прямые и контроллер питания выдает 1000Khz и имеет широкий набор настроек LLC - в таком случае и 7950Х и 9950Х можно будет до максимума выжать. Если плата работает с даблерами которые режут частоту VRM и настройки LLC скудные, то может не выйдет выжать на 100% а скажем на 95%. Я имею ввиду 'выжать' (тонко и плотно настроить).
X670/X670E выбирают как раз из за слотов, слотов PCI-E. Если вам это не нужно, если вы не собираетесь идеально все подкручивать - не вижу никакой причины почему бы не взять B650 старшую какую нить плату. Я АМ5 платами не интересуюсь, не знаю у каких вендоров удачные модели есть.
А так толк от 8-ми слойных толстых плат разве что в том что они не гнуться и немного рассеивают тепло вокруг сокета и стоят в полтора раза дороже
Гугл говорит что у X670E Томагавка 8 слоев с продвинутым материалом.
А у B650 Томагавка 6 слоев с простеньким материалом.
Про материал - может и маркетинг. А про слои - точно не маркетинг.
Как у этих плат с Биосами и работой с памятью - без понятия.
Например ASRock X470 Taichi была идеалом в техническом плане под работу с четырьмя плашками, T-Топология (большая редкость) но все загадил Биос кривущий который мешал память эту настраивать. Так что без конкретного опыта с кокнретной платой - давать прям точные рекомендации сложно.
| 12.10.2024 |
Rebate, вот 9950Х как раз плохо дальше 5.3Ггц гонится. Гнать его выше 5.3ггц толку столько же сколько например гнать 5950Х выше 4.5ггц Такое же может и с 285K случится. Теперь у 285K такой же техпроцесс как и у 9950Х. Да и потребление выходит точь в точь такое же. А так у 9950Х сместили датчик температуры, улучшили крышку IHS, снова таки перешли на более передовой техпроцесс, накинули 3 миллиарда транзисторов. Прирост вышел не от того что он +100мгц получил в рендере. Если бы он получил еще +100мгц то вместо ~190вт он жрал бы 230вт, как и 7950Х, а прибавка от этого составила бы меньше двух процентов. Неудивительно что АМД решили так не делать. Я вот и говорю :
Цитата Earanak:
Ну еще немного интересно как там будет разгоняться все это дело на новом техпроцессе, до каких частот будет доползать если его до прежнего PL2-Лимита в 253вт добивать. Он ведь может запросто оказаться и не особо гонибельным, кто его знает.
Кстати когда AMD сменят свой I/O чиплет на 4nm то Райзен еще на 15вт запросто сможет похудеть по потреблению.UPD 19 Октября - Оч странное решение конечно снимать эмбарго на обзор плат Z890 но не снимать его на обзор процессоров. То есть блогеры за неделю до выхода процессоров начинают показывать платы, без процессора, просто крутят их перед камерой. Пересказывают спецификации. А показать включенный комп не могут
| 12.10.2024 |
Rebate, вот вроде вы сидите тут и в обсуждения участвуете, уже 100 раз было все перемолото. С последним Микрокодом который вышел уже выявили что конкретно и почему деградировало в процессорах. А вы выводы строите на основе неактуальных данных. Ведь проблема у Интела была с деградацией генератора частот в том числе и на T 35ваттных процессорах которые там дай бог в 3ггц работают, причем тут ватты/нагрев, причем тут выжатые процы и частоты
https://www.hardwareluxx.ru/index.php/news/hardware/prozessoren/56051-mikrokod-0x12b-intel-nashla-prichinu-problem-eto-degradatsiya-generatora-taktovykh-impulsov.html
У них на внутреннем уровне часть процессора распределяющая подачу питания в разные области чипа - завышала напряжение на генератор частот. При определенных раскладах. Актуальный Микрокод который неделю назад вышел исправил это без падения производительности и частоты. Как и прошлый Микрокод устраняющий баг TVB.
Если бы проблема была непосредственно с потреблением и/или нагревом то еще полтора года назад все бы решилось снижанием PL2, но это не помогало вообще никак (ну только если IA CEP был включен который ронял частоту из за тупости пользователя который это настраивал).
А тут новый техпроцесс не Интеловский а от TSMC, то что их процессоры меньше питания начали жрать это не старания или достижения Интела, это просто передовой техпроцесс (в который они сами на своих заводах - не смогли). Еще и вдобавок Чиплетная архитектура впервые от Интела на десктопе. Мы пока просто не знаем возможностей этих процессоров. Может они выше 190вт и не гонятся по частотам. А не просто потому что Интел решили снизить частоту или что Интел просто захотели в энергоэффективность.
| 12.10.2024 |
Я не понял. Вы сравниваете DDR4 контроллер и DDR5 контроллер ? Это отдельные модули вообще в процессоре. DDR4 планка у Интела в районе 3933Mhz для 128GB, для DDR5 в районе 6000Mhz. По сути это вообще ничего не значит если 3600 DDR4 не поехала а 5600 DDR5 поехала
Цитата v01ce:
В итоге, неужели нет корелляции между качеством материнки и частотами, которые может взять память в 4 слота?
В случае с DDR4 есть, но небольшая, мизерная. Если прям максимум хочется выжать.
В случае с DDR5 скорее нету. Если это конечно ну прям не самая дешманская доска с плохим экранированием DIMM разводки и малым количеством слоев PCB.
Z690/Z790 Tomahawk - при 128+ гб могут и DDR4 и DDR5 гнать до предела возможностей процессора.
В случае с АМД не важно какую плату вы планируете выбрать. Скорее всего дальше 5200Mhz при 128+ гб будет пойти сложно при 1:1 делителе. Потому что проблема ни в доске, ни в памяти а в процессоре. Даже если память заведется без доп настроек на АМД в 5600Mhz, то надо будет проверить все параметры, UCLK/MCLK/IF делитель, tRFC и вторички. Потому что плата может замедлить память и IMC настолько что он и запуститься на 5600, но работать она может медленней чем 4800 JEDEC. Ну это если прям вот так автоматика сработает. Что может повезет и автоматика отлично настроит память на 5600Mhz на АМД - я конечно не исключаю, но не видел такого ни разу.
Если что, у 7950Х и 9950Х одинаковый I/O чиплет и контроллер памяти. В этом плане никаких улучшений. Что 7950Х мог с памятью то и 9950Х может, не больше.
| 11.10.2024 |
v01ce, дело и не в памяти и не в плате. Просто у Интела IMC на несколько ступеней выше частоту берет чем АМД. Где для АМД непреодолимая планка в 5600Mhz там у Интела 6000Mhz. Ну и еще частоты памяти у АМД и Интела нельзя лоб в лоб сравнивать. При равной частоте у Интела на ~20% выше ПСП и немного ниже Latency.
https://3dnews.ru/assets/external/illustrations/2022/12/02/1078275/mem-1.png
[[image:769440,]]
CUDIMM память в теории сгладит эту разницу.
| 11.10.2024 |
Выше 5600Mhz при 128-192гб на AMD я еще не видел, в режиме 1:1 разумеется. Так то если вам пофиг на Latency и вам прям нужна ПСП то конечно в 1:2 можно и до 6400Mhz доползти при желании на 192гб. Только это слишком уж специфическая штука будет. Даже и не представляю где это будет полезно, ведь вы потеряете во всем (в играх, отзывчивости софта/системы) но зато ускорите работу в каком нить WinRaR/7Zip, ну такое ))
Если уж так хочется побыстрее память при большем объеме я бы уже CUDIMM к концу года дожидался и смотрел бы че там будет. Эта память не привязана к IMC процессора, в каждой плашке памяти свой генератор частот. Но пока неясно че там по цене, наличию и объему этих плашек будет. Вон 64GB UDIMM плашки анонсировали и показали их работу еще в 2021 году, и где они ? - То-то же
UDIMM - Strix X670-E, 7950X, 192GB 5600/CL28 :
https://hwbot.org/imgs/3067033
При четырех двуранговых DDR5 плашках чипы не особо роляют да и супер-многослойной PCB платы не нужно так как частота низкая все равно. Частоты упирается в IMC, а чипы годные дают профит на высоких частотах в 7600+ То есть условно между крутыми какими нить Hynix A-Die и унылыми Самсунгами может быть разница при низкой частоте скажем в CL28 или CL30 и там +/- 10% tRFC, ваааау вот это разница конечно Тут на 99% решает прямота рук, Skew настройки (сопротивлений), RTT/CAD-ы, ProcODT и вольтажи VDDP/VDDG/IOD/SoC и тд. Никакое XMP/EXPO вам не помогут, ибо это будет рандом, даже с наличием памяти в QVL листе. Без ручной настройки вы можете и дальше 4800Mhz не прыгнуть если не повезет а если повезет поедет на 5600Mhz с унылыми таймингами и возможно усеченным UCLK/IF.
Цитата rainmangrizzli:
такой объем - врядли заведется с expo. скорее всего будет номинал, аля 4800/5200.
Так и не нужно никакие EXPO/XMP использовать когда ставите четыре двуранга, руками настраивать нужно. И дело не в объеме памяти а в рангах/банках. 128/192/256гб у UDIMM DDR5 памяти разгоняются одинаково. 4х24гб (96гб) тоже будут точно так же гнаться, если там двуранги.
| 11.10.2024 |
Цитата shafxat:
сегодня читал что в Европе от 585 долларов топовый интел будет
589$ это MSRP ценник без учета НДС/VAT налогов и накрутки от магазина.
Точно такой же ценник был у 12900K, 13900К, 14900К.
Обычно к MSRP ценнику на релизе стоит добавлять порядка 25%.
То есть если он будет 730$ стоить на релизе, считайте что - норм.
Только вот у нас 9950Х уже до 710$ сполз... Интелу будет тяжко.
| 11.10.2024 |
Я бы пропускал первые Arrow Lake. Все таки это первый десктопный чиплетный проц от Интела. Мало ли че там за приколы будут. Прикольно конечно что они смогут распределять производство на разных линиях и техпроцессах, SoC на 3NM, I/O на 6NM, Графика и Ядра на отдельном чиплете. При этом это первые десктопные процы которые они делают не на своих заводах а на мощностях TSMC. Намудрили конечно и все наново переделали, уронили прилично и нагрев и потребление, но тем у кого 13900К-14900К/7950X вообще никакого смыслу нету смотреть в их сторону.
Кстати и форм фактор сокета и его габариты остались прежними. То есть большинство кулеров не потребуют замены креплений. Еще говорят ILM механизм починили и по идее процы не будут теперь гнуться.
Ну и кому нужен тот NPU модуль - вообще неясно.
А ну и еще iGPU вроде прокачали с UHD 770 до Arc Xe-2.
То что IMC теперь вместо 5600 стандарта рассчитан на DDR5-6400 это конечно норм, но на фоне скорого выхода CUDIMM памяти думаю это уже не особо ролять будет. Но и что там с ценами и наличием CUDIMM и объемом плашек тоже неясно.
Ну еще немного интересно как там будет разгоняться все это дело на новом техпроцессе, до каких частот будет доползать если его до прежнего PL2-Лимита в 253вт добивать. Он ведь может запросто оказаться и не особо гонибельным, кто его знает.
Как там с ценами в РФ не в курсе, в Украине ценник на 285K ожидается порядка 730$ на релизе. Если вдруг внезапно какого то ажиотажа и/или дефицита не случится. Но не думаю.
rainmangrizzli, да наоборот вроде тут даже на 13 странице уже обсуждали что Е-Ядра будут больше получать прирост чем P-Ядра.
shafxat, да, нужны новые платы. Увеличили количество PCI-E линий а им нужны дополнительные ноги в сокете. Можно конечно сказать что это исскуственная смена сокета, в теории могли бы просто не задействовать эти ноги если используется старая плата, но как то так.
| 11.10.2024 |
3ds Max 2024 в новой версии Windows 11 24H2 - проблема
Недавно "sten" писал что на 9950Х и 24H2 у них были проблемы с 3Ds Max и им пришлось на 23H2 откатиться. Проблемы были связанны с фризами. Да я понимаю что суть темы не в фризах, но я прост не исключаю того что есть там какая то несовместимость у 24H2 и Макса.
Причем sten заявляет что это у много у кого фризит 3Ds Max с 24H2 :
https://3ddd.ru/forum/thread/show/tiestiruiem_protsy_max_corona/159#post1771552
Предположений каких то что по фризам что по скриптам у меня нету. Не знаю что подсказать
| 10.10.2024 |
Как лучше распределить SSDшки?
Цитата ruil:
а клонировать нельзя 970 на 980?
Можно. Есть куча всякого разного софта для этого. Который в том числе и загрузочный сектор умеет копировать. Ну там Acronis софт.
Я себе как то так и делал. Когда менял малообъемный ССД на большего Объема ССД - клонировал систему на ССД с большим объемом. А старый ССД оставил под Подкачку-Кэши и тд...
| 10.10.2024 |
Как лучше распределить SSDшки?
Мне для ОС и Софта хватило бы сейчас и 128гб. Нет привычки ставить все на диск Ц. Перенаправляю тяжелые Кэши, Временные Файлы и тяжеловесный софт на другие Диски. Ноу проблем. С другой стороны когда я обвешан четырьмя M.2 SSD по 2ТБ, сейчас в этом нету разницыв общем то. Ставлю все куда попало. Где есть место туда игра влезает. Где есть ресурс и скорость туда и кэши влезают. Особой разницы между переходом от SATA III SSD с 600мб линейной и 40мб мелкоблочкой на M.2 SSD с 3200мб линейной и 80мб мелкоблочки не заметил. Как и на 5000 линейной и 100 мелкоблочки. Пофиг где система стоит, лишь бы не на HDD
Nightt
https://remontka.pro/fail-podkachki-windows/
Подкачку можно перенести на любой диск. Хоть на флешку.
Правда отключать полностью не рекомендуется. Все еще есть программы которые требуют хоть какую то подкачку. Они просто откажутся запускаться.
| 10.10.2024 |
3ds Max 2024 в новой версии Windows 11 24H2 - проблема
В 24H2 интересны мне лично только изменения в планировщике. Немного Интелу и сильно АМД 7000-9000 помогает. Но и на 23H2 можно было поставить KB5041587, в целом ничего такого нету в нем. Можно и на 23H2 отсидеться если у вас там чет не едет.
Ставил тоже на чистую. MSDN образы уже вышли неделю как. Которые - 10.0.26100.1742
То есть это уже не апдейт а официальный новый образ системы цифровой. Который включает этот апдейт. Ставил Pro (ENG) образ без всяких Киррилиц и UTF-8, как и всегда.
| 10.10.2024 |
3ds Max 2024 в новой версии Windows 11 24H2 - проблема
Bestviz
24H2 начал выходить 1 Октября для всех пользователей (не Бета).
У меня никаких проблем с 24H2 и 2024 и 2025 Максом - не возникло.
С скриптами и плагинами - тоже. В целом - никаких проблем не заметил.
Обычный рядовой апдейт системы...
| 10.10.2024 |
Посмотрел слайды китайские с пресухи Интела. Все печально ))
https://videocardz.com/newz/intel-admits-core-ultra-9-285k-will-be-slower-than-i9-14900k-in-gaming
Ну как бы круто что перешли на чиплеты, (вспоминаю их шутки про клей) - https://www.pcgamer.com/intel-slide-criticizes-amd-for-using-glued-together-dies-in-epyc-processors/
Это позволит удешевить и рассредоточить производство как у АМД. Сняли лишние 80ватт с процессора, это ОК. Но вот судя по всему - в остальном, прирост скудный выходит. И по играм и по рендеру. В некоторых играх он даже от прошлых процов отстает (видать из за чиплетов). Короч X3D как уничтожали их в играх так и будут... Как тут уже ранее писал я - E Ядра быстрее развиваются чем P Ядра. P Ядра получили буст IPC в 9% а E ядра в 32%. Но и отключение HT + снижение частоты все же не позволяет 285K обогнать 9950Х.
Тут еще начинает развиваться CUDIMM память. Так что вскоре может единственный оставшейся козырь у Интела сдуться. Ведь это память где у каждой плашки встроенный генератор частот не привязанный к контроллеру памяти в процессоре. Т.е в теории она по частотам должна брать одинаковый уровень что на Интеле что на АМД.
Уверен что за счет ОЕМ и тех кто не шарит у 285К будут норм продажи. Но лично для себя не вижу ни единого повода обновляться на 285К. Шляпа какая то
| 08.10.2024 |