Да. Разумеется у DDR5 и Burst Lenght с возможностью отправлять разного размера порции данных и шина двойная на плашку. Все это круто конечно. Только как мы знаем в большинстве задач минимум выхлопа от DDR5. А в играх и того хуже ситуация. Конечно с современными процами, там уже пофиг какая память, FPS-ы заваливают за все разумные рамки. В целом - согласен с вами.
Правда тогда не знаю какой вывод делать из всего этого.
Что DDR4 что DDR5, плевать по большому счету.
Профит будет только когда надо большие объемы памяти прогонять, например редактируя 4K RAW видео, или распаковывать/запаковывать какой то архив в WinRaR/Zip. Не знаю где еще пригодится может... Может какую то симмуляцию частиц закэшированную тяжелую подгружать. Ну чет такое. Не рядовые задачи.
Еще вот думаю на тему RTX I/O (Ну или MSDS)... Раньше то данные в видяху гонялись через проц и память, а в будущем будут напрямую с винчестера (ПЗУ) в видеопамять фигачить. Тогда получается еще меньше станет профит от скорости ОЗУ.
Кто-то видел тесты или, может быть, тестировал самостоятельно какие-либо преимущества DDR5 над DDR4 в corona или v-ray? Может интерактив быстрее стартует или больше лучей движок выдаёт при просчёте? Есть ли вообще смысл переходить на DDR5?
Извините, если кто-то уже задавал подобный вопрос.
Единственное что я замерял в HWInfo64 какая пропускная способность контроллера памяти когда Corona рендрит 6000px картинку большущего экстерьера. И в пике там было 25гб скорость. Но чаще это было в районе 20гб. Это сильно от сцены и разрешения наверное зависит. В данном примере было занято более 100гб памяти. Но если судить по этому моменту то Короне хватит 2133Mhz/CL15 JEDEC памяти в двухканале.
По поводу старта интерактива. Думаю что чуть чуть процесс его запуска ускориться.
Но не сильно, скорее всего. Потому что компиляция сцены занимает большую часть времени старта Интерактива. А скорость загрузки данных в память занимает мелкий (скудный) промежуток времени. Не думаю что что-то радикально изменится. Но да, в теории должно стать чуть лучше у DDR5. На сам рендер влияние скудное. Особенно если смотреть не короткие Корона и Вирей бенчми на 30-50 секунд, а если смотреть на более длительные замеры.
Ок. Представьте себе АБСОЛЮТНО идеальный расклад. Когда вот прям ИДЕАЛЬНАЯ утилизация скорости памяти. Вот у вас 128гб, запущенная сцена жрет 45гб, запускаете вы интерактив и памяти надо подгрузить еще 30гб к этому. Ну так вот... DDR4 2133Mhz/CL15 двуканал выдаст вам как раз эти 30гб. 30 гигабайт в секунду. Ну DDR5 в 5200/CL40 выдаст вам 65-70гб ПСП. Ну быстрее на пол секунды станет. Но это тупой и грубый подсчет. Там все чуть чуть более комплексно. Надеюсь не запутал этим примером грубым.
Если вкратце, мое субъективное мнение - толку от DDR5 в этом плане мало.
UPD - ВО ! Придумал. ЕСЛИ вы одновременно рендрите фоном и играете в игру (с открытым миром), или рендрите в 2-3 Окна Макса то тогда в теории от DDR5 может быть больше профита. Ну это в теории. Но звучит правдаподобно )) Канал то шире, если его начать забивать всем подряд то DDR4 может в теории стать узким горлышком а DDR5 нет. Ну или вы рендрите в Максе, у вас открывается в Фотошопе что то тяжелое в EXR-32Bit, или CXR в Corona Image Viewer. Ну в такие моменты думаю DDR5 сможет раскрыться. Ненадолго
Наверное даже хорошо что с таким запозданием обзор вышел у них.
очень не порадовало это вот "сидишь в рендере - все на p ядрах, переключился в браузер, пока рендериться, в инете полазить - процесс рендера перекинуло на е ядра".
очень не порадовало это вот "сидишь в рендере - все на p ядрах, переключился в браузер, пока рендериться, в инете полазить - процесс рендера перекинуло на е ядра".
Это было в основном у Алдер Лейк. Но правилось костылем каким то простым. Тут на форуме кто то отписывался как полностью исправить это. У меня на Рапторе такого не было на Вин10 и 11. Ни разу. Ни в одном тесте или бенче или рендере. Проверял это все первым делом. Собственно мои первые сообщения по Раптору как раз и были еще до результатов, что с Intel Thread Director 2 - проблемы Алдера ушли, в рабочем софте нашем. Я рендрил и двумя окнами макса и рендрил+играл, и рендрил+фотошопил и рендрил+моделил в втором окне - все работало как надо и на Win10 и на Win11. Ни P-Ядра ни E-Ядра не простаивали а падение производительности было предсказуемым (в смысле пропорциональным).
Вот за специфический какой то софт на Win10 - Никаких гарантий. Особенно за старый.
Например CineBench R15 (2013 года) работает либо только с E-Ядрами либо с P-Ядрами.
Но на Win11 работает полноценно. Так что для какого то не-рядового или старого софта...
При корректно выставленных приоритетах (а у системы есть из чего выбрать: Реального времени / Высокий / Выше среднего / Обычный / Ниже среднего / Низкий) этого не должно происходить - рендер все так же будет использовать ВСЕ доступные ядра (и P и E), просто браузер будет отжирать столько сколько захочет именно на P-ядрах и в первую очередь.
Как бы это и есть идея гетерогенной архитектуры - отдавать приоритет в выделение ресурсов приложению в фокусе. И проблем не должно создавать... А вот если очень умный погроммист выставил своему детищу Низкий приоритет - имеем что имеем...
Держу в курсе, так сказать - Thunderbird купил себе 13900KF + ASRock Z790 PG Lightning D4 (дешманская убогая плата каличная). Пытался его отговорить ее брать. Ну короче...
1.) На Win10 (точная версия неизвестна) проблемы как у Алдер Лейка.
Не рендрит всеми ядрами.
2.) А так же на этой плате в стоке проц работает на заниженных частотах (4.9Ггц + 3.9Ггц)
При этом плата наваливает на проц 1.35V на ядра. А должно быть в стоке - (5.5 + 4.3ГГЦ)
3.) Плата не умеет занижать Оффсетом вольтаж ниже чем -0.1V
И это я еще не смотрел что там по сопротивлениям, SA/VDDQ вольтажу.
Так что вот. Хотите страдать и мудохаться. Выбирайте эту плату
Я по ней даже обзоров не нашел собственно... В Z790 Tomahawk DDR4 - воткнул проц, включил XMP, загрузился в старую винду. Обновил дрова. Все. Больше ничего не нужно делать что бы Раптор полноценно работал на Win10 21H2 Pro. Будь там корона или вирей, блендер. Ну теперь очевидно что это не ко всем платам или версиям винды относится. Или версиям рендера.
UPD - там какие то непонятки с версией винды.
Я так понимаю что 21H1 это Май 2021 а Алдер Лейки вышли в Ноябре 2021.
То есть выходит нужна минимум 21H2. Хотя сейчас уже есть Win10 22H2.
UPD#2- Вооо... Смотрю цены на 7950Х прям рухнули жестко с 31-32к грн до 25-26к.
Ну другое дело же... А вот 13900KF наоборот резко подорожал
Короче они в аккурат местами поменялись.
UPD#3 -Короче, оказалось что дело не в Винде. Не в плате. А в версии Короны. В 9 Короне все норм. В 6.2 - все так же как на Алдер Лейках в Вин10. Плату поменяли на ASUS Z790 TUF, лимиты-частоты-напруги - починились. В общем теперь вы в курсе. Если брать Алдер/Раптор и сидеть на Вин10 - то ставить свежие версии Вирея и Короны. Либо просто перейти на Вин11...
Почему цены в Европе так сильно отличаются от 699
$ американских? 849€ на старте, я вообще не в курсе был, что у них цена на столько отличается. Так было всегда?
Rebate, да, так было всегда. Деталей не помню но там есть нюансы. То ли Intel то ли AMD то ли nVidia указывают ценник в MSRP - (Manufacturer Suggest Retail Price). А кто то в MRP (Maximum Retail Price). При этом в обеих случаях указывается цена без учета НДС или VAT. То есть по заявленной цене можно взять только в крупных сетях в безналоговых штатах США, например в Делавере в каком нить Микроцентре, NewEgg, Амазоне. А еще иногда указывается ожидаемая цена при продаже партии в 10000+ штук. То есть мелкие поставщики получают наценку еще при первичной закупке.
Короче, черт ногу сломит. Я считаю как то так :
Ценник показанный на пресухе + 20% Налога + 5% накрутки от Магазина.
Это идеальный случай, если - нету дефицита или ажиотажа.
У нас на старте 7950Х были по цене в 875$ а первые 13900KF по 690$.
У 7950Х MSRP показанный на прессухе был 700$. У 13900KF 560$.
То есть по моим подсчетам ценник на релизе должен был быть :
Сами виноваты. Помимо того, что нет варианта использовать ддр4, так еще и ценники высокие
Они просто наткнулись на Интел. Интел те ещё жуки )), они всё продумали, они сделали платформу в одно время, чуть быстрее и дешевле, зная, что новая платформа АМД будет дороже. Профит.
камрады посоветуйте какую мат плату и оперативку(32 гб одну плату) взять? хотелось бы что то среднее, без всяких новомодных плюшек. оверклокингом заниматься не собираюсь.
камрады посоветуйте какую мат плату и оперативку(32 гб одну плату) взять? хотелось бы что то среднее, без всяких новомодных плюшек.
проц уже куплен AMD9 7950X
оперативку если 128, то без разницы, т.к. всё равно частоты порежутся, если 32/64 - смотрите комплекты с amd expo, но и любая другая будет работать. мать посоветовал бы асус, b650e из стриксов (сам на b650e-e gaming wi-fi, дружит нормально вроде с 7950), TUF немного не внушает доверия, ну а 670 перебор как по мне. И проще исходить из того, что есть в рознице.
И немного не понял про "32 гб одну плату". Одну планку на 32 гб? Не стоит, лучше поднапрячься и 64 взять сразу, либо 2*16 тогда. Потому как память, которая сейчас есть завтра уже не будет там (на прилавках), а бутерброд из разных модулей точно приколов задаст лишних по совместимости, когда расширяться надумаете. Сам 3 модуля забрал по 32 последних в надежде, что найду четвёртый, но увы. Теперь ждать и сидеть на 64.
Не стоит брать Асрок вообще! Я думал подешевле собрать 13900KF на Z790 PG Lightning, так вот получилась полная шляпа и плата теперь по факту лежит, а вместо неё TUF теперь, который из коробки нормально заработал. Скажите, что из асусов есть.
Вам нужен топ/предтоп на B650e от других вендоров, минуя асрок.